N° 1770

______

ASSEMBLÉE   NATIONALE

 

CONSTITUTION DU 4 OCTOBRE 1958

DIX-SEPTIÈME LÉGISLATURE

 

Enregistré à la Présidence de l’Assemblée nationale le 4 septembre 2025.

RAPPORT

FAIT

AU NOM DE LA COMMISSION D’ENQUÊTE

sur les effets psychologiques de TikTok sur les mineurs,

 

 

 

Président

M. Arthur DELAPORTE

 

Rapporteure

Mme Laure MILLER

Députés

 

——

 

TOME II

COMPTES RENDUS DES AUDITIONS

 

 

 

 Voir les numéros : 783, 1030 et T.A. 83.

 


La commission d’enquête sur les effets psychologiques de TikTok sur les mineurs est composée de : M. Arthur Delaporte, président ; Mme Laure Miller, rapporteure ; M. Pouria Amirshahi ; M. Rodrigo Arenas ; M. Belkhir Belhaddad ; Mme Nathalie Colin-Oesterlé ; Mme Josiane Corneloup ; Mme Christelle D'Intorni ; M. Emmanuel Fouquart ; Mme Anne Genetet ; M. Jonathan Gery ; M. Guillaume Gouffier Valente ; Mme Ayda Hadizadeh ; Mme Constance Le Grip ; M. René Lioret ; M. Frédéric Maillot ; Mme Claire MaraisBeuil ; M. Kévin Mauvieux ; Mme Caroline Parmentier ; Mme Constance de Pélichy ; M. Thierry Perez ; Mme Isabelle Rauch ; M. Arnaud Saint-Martin ; M. Thierry Sother ; Mme Anne Stambach-Terrenoir ; Mme Sophie Taillé-Polian ; M. Antoine VermorelMarques.

 


SOMMAIRE

___

Pages

Travaux de la commission

1. Audition de M. Yannick Carriou, président-directeur général de Médiamétrie (jeudi 3 avril 2025)

2. Audition de Mme Amélie Ébongué, experte en stratégie de contenus sur les réseaux sociaux, auteure du livre Génération TikTok : Un nouvel eldorado pour les marques (2021) (jeudi 3 avril 2025)

3. Audition de M. Mehdi Arfaoui, sociologue au Laboratoire d’innovation numérique de la Commission nationale de l’informatique et des libertés (CNIL), Mme Jennifer Elbaz, chargée de mission éducation au numérique à la CNIL, Mme Laurence Allard, maîtresse de conférences en sciences de la communication, chercheuse à l’Université Paris Sorbonne Nouvelle-IRCAV, enseigne à l’Université de Lille, département études culturelles et médias, et M. Jérôme Pacouret, sociologue et postdoctorant associé à la chaire « Société algorithmique » de l’Institut MIAI (Multidisciplinary institute in artificial intelligence) Grenoble Alpes (Laboratoire Pacte et UGA) (jeudi 3 avril 2025)

4. Audition de Mme Rayna Stamboliyska, consultante, experte en gestion des risques, cyber-sécurité et affaires européennes, présidente de RS Strategy, auteure de l’ouvrage La face cachée d’Internet (mercredi 23 avril 2025)

5. Audition de Mme Océane Herrero, journaliste, auteure de l’ouvrage Le système TikTok. Comment la plateforme chinoise modèle nos vies (mercredi 23 avril 2025)

6. Audition de M. Bruno Patino, président de Arte France et auteur des ouvrages La civilisation du poisson rouge, Tempête dans le bocal et Submersion (mercredi 23 avril 2025)

7. Audition de MM. Serge Abiteboul, informaticien, chercheur à l’École normale supérieure de Paris, directeur de recherche à l’Institut national de recherches en sciences et technologies du numérique (Inria), et Gilles Dowek, informaticien et logicien, chercheur à l’Inria, co-auteurs de l’ouvrage Le temps des algorithmes (mercredi 23 avril 2025)

8. Audition de Mme Sophie Jehel, professeure en sciences de l’information et de la communication à l’Université Paris 8 Vincennes – Saint-Denis, auteure de l’ouvrage L’adolescence au cœur de l’économie numérique. Travail émotionnel et risques sociaux, Mme Murielle PopaFabre, ancienne chercheuse au Collège de France et à l’Inria, experte au Conseil de l’Europe, spécialiste de l’intelligence artificielle inclusive et responsable, Mme Elisa Jadot, journaliste, auteure et réalisatrice du documentaire Emprise numérique, 5 femmes contre les Big 5, et M. Stéphane Blocquaux, docteur et maître de conférence en sciences de l’information et de la communication, auteur de l’ouvrage Le biberon numérique : Le défi éducatif à l’heure des enfants hyper connectés (mercredi 23 avril 2025)

9. Audition de MM. Mickaël Vallet et Claude Malhuret, sénateurs, président et rapporteur de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence (Sénat, juillet 2023) (mardi 29 avril 2025)

10. Audition de Mme Sihem Amer-Yahia, directrice de recherche CNRS, directrice adjointe du Laboratoire d’informatique de Grenoble, Mme Lucile Coquelin, maître de conférences en sciences de l’information et de la communication, Laboratoire DyLIS, Inspé Normandie Rouen Le Havre, Sciences Po Paris, et M. Olivier Ertzscheid, chercheur en sciences de l’information et de la communication, maître de conférences à l’université de Nantes, auteur des ouvrages L’appétit des géants : pouvoir des algorithmes, ambitions des plateformes et Le monde selon Zuckerberg : portraits et préjudices (mardi 29 avril 2025)

11. Audition de M. Grégoire Borst, Professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris Cité, et directeur du Laboratoire de psychologie du développement et de l’éducation de l’enfant (LaPsyDÉ - CNRS), Mme Sylvie Dieu Osika, pédiatre, et M. Serge Tisseron, psychiatre, docteur en psychologie, co responsable du diplôme universitaire de cyberpsychologie à l’université Paris Cité, membre de l’académie des technologies (mardi 29 avril 2025)

12. Audition de M. Jean-Marie Cavada, président de iDFrights (vendredi 2 mai 2025)

13. Audition de M. Michael Stora, psychologue et psychanalyste, cofondateur de l’Observatoire des mondes numériques en sciences humaines (vendredi 2 mai 2025)

14. Audition de M. Donatien Le Vaillant, chef de la Mission interministérielle de vigilance et de lutte contre les dérives sectaires (Miviludes) (mardi 6 mai 2025)

15. Audition de M. Elie Andraos, psychologue clinicien et coordonnateur du projet Addict IEJ (Intoxication Ethylique Jeunes) au CHU Amiens-Picardie, Mme Sabine Duflo, psychologue clinicienne, Mme Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie à l’Université de Rennes 2, et Mme Vanessa Lalo, psychologue clinicienne (mardi 6 mai 2025)

16. Audition de Mmes Charlyne Buigues, infirmière et auteure de la pétition « #StopSkinnyTok », Carole Copti, diététicienne-nutritionniste, et Nathalie Godart, professeure des Universités en psychiatrie de l’enfant et de l’adolescent (mardi 6 mai 2025)

17. Audition de Mmes Marie-Christine Cazaux, et Catherine Martin, éducatrices spécialisées, membres du collectif Mineurs, éthique et réseaux (Meer) (mardi 13 mai 2025)

18. Audition de Mme Emmanuelle Piquet, thérapeute et maître de conférences à l’Université de Liège (Belgique), spécialiste des enjeux de souffrances en milieu scolaire (mardi 13 mai 2025)

19. Audition des associations familiales et de parents d’élèves, réunissant Mme Alixe Rivière, administratrice nationale de la Fédération des conseils de parents d’élèves de l’enseignement public (FCPE), M. Laurent Zameckwovski, porteparole de la Fédération des parents d’élèves de l’enseignement public (PEEP), M. Patrick Salaün, président, et Mme Virginie Gervaise, administratrice, de l’Union nationale des associations autonomes de parents d’élèves (UNAAPE), et Mme Karima Rochdi, administratrice en charge du numérique, et M. Olivier AndrieuGerard, coordonnateur du pôle Médias et usages numériques, de l’Union nationale des associations familiales (UNAF) (jeudi 15 mai 2025)

20. Audition de MM. X et Y, et Mme Z (jeudi 15 mai 2025)

21. Audition de Maître Laure Boutron-Marmion, avocat au barreau de Paris, fondatrice du collectif Algos victima, et de plusieurs familles (jeudi 15 mai 2025)

22. Audition de Mme Shanley Clemot McLaren, cofondatrice et copresidente de l’association Stop Fisha, M. Tristan Duverné, doctorant à l’EHESS/ENS, Mme Pauline Ferrari, journaliste indépendante, et M. Pierre Gault, auteur, sur les contenus masculinistes et sexistes sur les réseaux sociaux (vendredi 16 mai 2025)

23. Audition de M. Bruno Gameliel, psychopédagogue, psychothérapeute (vendredi 16 mai 2025)

24. Audition du Professeur Amine Benyamina, addictologue et psychiatre, et du Docteur Servane Mouton, neurologue et neurophysiologiste, coprésidents de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans (2024) (mardi 20 mai 2025)

25. Audition de M. Mehdi Mazi, co-fondateur du collectif d’aide aux victimes d’influenceurs (AVI), et M. Jean-Baptiste Boisseau, membre chargé des projets espaces de discussion en ligne, relations presse (mardi 20 mai 2025)

26. Audition de M. Martin Ajdari, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), M. Alban de Nervaux, directeur général, Mme Lucile Petit, directrice des plateformes en ligne, et Mme Sara Cheyrouze, responsable du pôle relations médias et influence (mardi 20 mai 2025)

27. Audition de M. Arthur Melon, délégué général du Conseil français des associations pour les droits de l’enfant (COFRADE) ainsi que des associations membres : Mme Nathalie Hennequin, membre du Bureau national SNUASFP-FSU (Syndicat national unitaire des assistantes sociales de la Fonction Publique/Fédération Syndicale Unitaire), Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone, Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France, et Mme Marie-Françoise Wittrant, Association AISPAS (jeudi 22 mai 2025)

28. Audition de M. Cyril di Palma, délégué général de Génération numérique (jeudi 22 mai 2025)

29. Audition de Mme Alejandra Mariscal Lopez, directrice de Point de Contact, et M. Yann Lescop, responsable projets et études (jeudi 22 mai 2025)

30. Audition du Docteur Jean-Marcel Mourgues, vice-président du Conseil national de l’ordre des médecins (CNOM), et des médecins présents sur TikTok : Docteur Raphaël Dachicourt, président du collectif ReAGJIR), Docteure Nawale Hadouiri, praticien hospitalo-universitaire en médecine physique et réadaptation au centre hospitalier universitaire de Dijon, Mme Marion Joud, co-fondatrice de Elema Agency, M. Baptiste Carreira Mellier, psychologue et neuropsychologue, et Mme Sophia Rakrouki, sage-femme (jeudi 22 mai 2025)

31. Audition de M. Antonin Atger, écrivain, doctorant chercheur, et Mme Audrey Chippaux, auteure de Derrière le filtre. Enquête sur le système d’influence (2025) (lundi 26 mai 2025)

32. Audition de M. Guilhem Julia, maître de conférences en droit privé et sciences criminelles à l’université Sorbonne Paris-Nord, co-directeur du master « Droits des activités numériques », Mme Joëlle Toledano, Professeur émérite d’économie associée à la chaire « Gouvernance et régulation » de l’université Paris Dauphine - PSL, membre du Conseil national du numérique, et Mme Célia Zolynski, Professeur de droit privé à l’École de droit de la Sorbonne de l’Université Paris 1 Panthéon-Sorbonne, codirectrice du département de recherche en droit de l’immatériel de la Sorbonne (lundi 26 mai 2025)

33. Audition de M. Bernard Basset, président de l’Association Addictions France, M. Franck Lecas, responsable du pôle projets politiques publiques et Mme Louise Lefebvre-Lepetit, chargée de mission plaidoyer (lundi 26 mai 2025)

34. Audition de Mme Bérangère Couillard, présidente du Haut Conseil à l’Egalité entre les hommes et les femmes (mardi 27 mai 2025)

35. Audition de Mme Justine Atlan, directrice générale de l’association Eenfance, M. Samuel Comblez, directeur général adjoint, et Mme Inès Legendre, chargée de plaidoyer (mardi 27 mai 2025)

36. Audition de M. Thierry Breton, ancien commissaire européen au marché intérieur (mardi 27 mai 2025)

37. Audition de Mme Cécile Augeraud, commissaire divisionnaire, chefadjoint à l’Office anti cybercriminalité (OFAC) (mardi 27 mai 2025)

38. Audition de M. Nicolas Deffieux, directeur du Pôle d’expertise de la régulation numérique (PEReN) (mardi 27 mai 2025)

39. Audition de Mme Karine de Leusse, psychologue spécialiste de l’addiction aux écrans, du Docteur Anne-Hélia Roure, médecin psychiatre, et du Docteur Philippe Babe, chef de service des urgences psychiatriques à l’Hôpital pédiatrique universitaire Lenval (mercredi 28 mai 2025)

40. Audition de Mme Marietta Karamanli, députée, Mme Isabelle Rauch, députée, ancienne présidente de la commission des affaires culturelles et de l’éducation, et M. Bruno Studer, ancien député, ancien président de la commission des affaires culturelles et de l’éducation (mercredi 28 mai 2025)

41. Audition de Mme Anne Savinel-Barras, présidente de Amnesty international, et Mme Katia Roux, chargée de plaidoyer (mercredi 28 mai 2025)

42. Audition de Mme Marie-Laure Denis, présidente de la Commission nationale de l’informatique et des libertés (CNIL), M. Mathias Moulin, secrétaire général adjoint, et Mme Chirine Berrichi, conseillère pour les questions parlementaires et institutionnelles (lundi 2 juin 2025)

43. Audition de M. Gilles Babinet, coprésident du Conseil national du numérique, et M. Jean Cattan, secrétaire général (lundi 2 juin 2025)

44. Audition de M. Miloude Baraka, cofondateur de Live’up Agency (mardi 3 juin 2025)

45. Audition de M. Hugo Travers (mardi 3 juin 2025)

46. Audition de M. Mathieu Barrère, journaliste pour Envoyé spécial (France télévisions) (mardi 3 juin 2025)

47. Audition de M. Morgan Lechat (mardi 3 juin 2025)

48. Audition de Mme Anna Baldy (mardi 3 juin 2025)

49. Audition de M. Loïc Duflot, chef de service de l’économie numérique à la Direction générale des entreprises, et Mme Chantal Rubin, chef de pôle structurel numérique et affaires juridiques du Pôle Régulation des plates-formes numériques (REGPFN), M. Matthieu Couranjou, délégué à la régulation des plateformes numériques à la Direction générale des médias et des industries culturelles, et M. Sébastien Bakhouche, chef de service, adjoint à la directrice générale (jeudi 5 juin 2025)

50. Audition de M. Marc Pelletier, chef de la sous-direction de l’innovation, de la formation et des ressources à la Direction générale de l’enseignement scolaire (DGESCO), Mme Stéphanie Gutierrez, son adjointe, et Mme Claire Bey, cheffe du bureau de la santé et de l’action sociale, Mme Florence Biot, sous-directrice de la transformation numérique à la Direction du numérique pour l’éducation (DNE), et Mme Marie-Caroline Missir, directrice générale du Réseau Canopé et du Centre pour l’éducation aux médias et à l’information (Clemi) (jeudi 5 juin 2025)

51. Auditionde M. Thomas Rohmer, président de l’Observatoire de la Parentalité et de l’Éducation Numérique (OPEN), et Mme Angélique Gozlan, experte à l’Open, docteure en psychopathologie (mardi 10 juin 2025)

52. Audition de M. Isac Mayembo (mardi 10juin 2025)

53. Audition de M. Adrien Laurent (mardi 10 juin 2025)

54. Audition de Mme Manon Tanti et M. Julien Tanti (mardi 10 juin 2025)

55. Audition de M. Nasser Sari (mardi 10 juin 2025)

56. Audition de M. Mehdi Meghzifene, responsable lancement TikTok eCommerce France, et M. Arnaud Cabanis, responsable de l’activité commerciale France & BeNeLux sur le commerce et la monétisation sur TikTok (jeudi 12 juin 2025)

57. Audition de Mme Nicky Soo, responsable de la digitale sati, Mme Brie Pegum, responsable des aspects techniques de la régulation, et M. Vincent Mogniat Duclos, responsable France Tiktok Live sur la modération TikTok (jeudi 12 juin 2025)

58. Audition de Mme Marlène Masure, responsable du contenu États d’Europe, du Moyen-Orient et de l’Afrique, directrice exécutive du développement commercial et marketing, et Mme Marie Hugon, responsable des enquêtes réglementaires européennes, responsables de TikTok France (jeudi 12 juin 2025)

59. Audition de Mme Sarah Sauneron, directrice générale par intérim à la Direction générale de la santé, et M. Kerian Berose-Perez, chef du bureau Santé mentale (lundi 16 juin 2025)

60. Audition de M. Anton’Maria Battesti, directeur des affaires publiques France de Meta, et Mme Aurore Denimal, responsable des affaires publiques France, Mme Claire Dilé, directrice des affaires publiques de X, et M. Thibault Guiroy, directeur des affaires publiques France et Europe du Sud de YouTube (mardi 17 juin 2025)

61. Audition de M. Simon Corsin, fondateur de Mindie (mardi 17 juin 2025)

62. Audition de M. Laurent Marcangeli, ministre de l'action et de la fonction publique et de la simplification (jeudi 19 juin 2025)

63. Audition de Mme Clara Chappaz, ministre déléguée auprès du ministre de l’Économie, des finances et de la souveraineté industrielle et numérique, chargée de l’intelligence artificielle et du numérique (jeudi 19 juin 2025)

64. Audition de M. Léonard Brudieu, sous-directeur à la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), M. Paul-Emmanuel Piel, chef de bureau, et Mme Marie Pique, adjointe au chef de bureau (jeudi 19 juin 2025)

65. Audition du Lieutenant-Colonel Cyril Colliou, chef par intérim de l’Office mineurs (Ofmin), Mme Agathe Boudin, commandant de police, cheffe par intérim du pôle stratégie, et Mme Typhaine Desbordes, cheffe du bureau des partenariats et de la communication (mardi 24 juin 2025)

66. Audition de Mme Sarah Bouchahoua, responsable des affaires publiques France de Snapchat (mardi 24 juin 2025)

67. Audition de M. Tristian Boursier, Docteur associé au Centre de recherches politiques (Cevipof), M. Hugo Micheron, enseignant chercheur en sciences politiques rattachées au Centre de recherches internationales (CERI), maître de conférence à Sciences Po, spécialiste du Moyen Orient, Mme Sophie Taïeb, responsable du pôle cybersécurité au Conseil représentatif des institutions juives de France (CRIF), et M. Valentin Petit, journaliste, agence CAPA (mardi 24 juin 2025)

68. Audition de M. X, ancien modérateur sur les réseaux sociaux (jeudi 26 juin 2025)

 


   Travaux de la commission

1.   Audition de M. Yannick Carriou, président-directeur général de Médiamétrie (jeudi 3 avril 2025)

La Commission auditionne M. Yannick Carriou, président-directeur général de Médiamétrie ([1]).

M. le président Arthur Delaporte. Nous débutons ce matin les auditions de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Ce n’est pas sans gravité que nous entamons nos travaux, tant les enjeux sont lourds pour la jeunesse et pour la société. Mme la rapporteure, Laure Miller, l’ensemble de nos collègues et moi-même sommes régulièrement sollicités par des parents ou par des vigies du numérique, qui nous contactent désemparés et nous demandent d’agir. Le législateur pouvant parfois se sentir impuissant, l’objet de la commission d’enquête est de proposer des outils législatifs et de montrer que le Parlement entend cette demande sociale.

Nous allons étudier en profondeur le modèle de TikTok pour mettre en lumière les aspects encore obscurs : le rapport du Sénat sur l’utilisation de TikTok, son exploitation des données, sa stratégie d’influence a montré que cette application recelait encore de nombreuses zones d’ombre. Nous allons nous concentrer sur les addictions à cette plateforme, même si ce terme n’est pas employé par tous les acteurs. Les études le montrent, les jeunes passent de plus en plus de temps devant leur écran. Nous allons, dès aujourd’hui, examiner les usages, puis nous nous pencherons sur les algorithmes, les flux ciblés, le design de l’application, les contenus, leur production et les intentions qui président à leur élaboration.

Ce n’est pas sans émotion que nous ouvrons les travaux de la commission d’enquête : nous pensons aux victimes des réseaux sociaux, notamment aux jeunes filles qui se mutilent, aux adolescents qui développent des troubles du comportement et qui perdent le sommeil, leur capacité de concentration et parfois de l’argent. Nous pensons tous aux familles aux côtés desquelles le Parlement doit se tenir.

Notre commission n’a pas pour objectif de se prononcer sur l’opportunité d’interdire ou non TikTok, elle cherchera plutôt à identifier les mécanismes à l’œuvre et à formuler des propositions. Ce n’est pas le Parlement français qui interdira TikTok, car cette question recèle une dimension européenne.

Aujourd’hui s’ouvre la phase du diagnostic, au cours de laquelle nous entendrons chercheurs et experts afin de disposer d’un panorama le plus large possible. Nous auditionnerons également des professionnels du numérique pour comprendre les mécanismes et le fonctionnement économique et technique de la plateforme. Nous accueillerons évidemment des membres de l’administration, de ministères et d’organes européens, mais aussi les victimes, leurs familles, les vigies, les citoyennes et les citoyens concernés par les effets néfastes de TikTok. Nous solliciterons enfin des créateurs de contenus sur la plateforme et, évidemment, des représentants de l’entreprise. Nous avons élaboré un premier programme d’auditions, qui court jusqu’au 15 juin.

Je tiens à vous remercier, madame la rapporteure, de promouvoir ce sujet et de l’avoir mis à l’ordre du jour de notre assemblée sous la forme d’une commission d’enquête. Le Parlement fabrique la loi, mais il doit également contribuer à l’émancipation collective, à l’éveil de l’esprit critique commun et à l’armement de la société face aux dangers du numérique.

Je souhaite la bienvenue à M. Yannick Carriou, président-directeur général de Médiamétrie. Je vous remercie d’avoir pris le temps de répondre favorablement à notre invitation dans un délai très court puisque la commission a tenu sa réunion constitutive la semaine dernière.

Je vous remercie également de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations et je vous informe que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Yannick Carriou prête serment.)

M. Yannick Carriou, président-directeur général de Médiamétrie. Je vous remercie d’avoir invité Médiamétrie, surtout pour votre première audition. Nous resterons à votre disposition tout au long de vos travaux pour vous transmettre les données et les chiffres dont vous aurez besoin, à condition, évidemment, que nous les ayons. Il est opportun de commencer votre réflexion par l’étude d’éléments objectifs, car, dans ce domaine comme dans celui des médias en général, nous sommes parfois un peu victimes d’une sociologie de proximité et nous sommes enclins à tirer des conclusions à partir du comportement de nos enfants ou de nos voisins.

Médiamétrie est une entreprise qui appartient à son marché. Elle mesure l’audience des médias – chaînes de télévision, radios et une grande partie du secteur digital. Son objectif n’est pas de gagner de l’argent mais d’offrir aux acteurs une mesure indépendante et neutre. Elle fait une centaine de millions de chiffre d’affaires et affiche un résultat opérationnel compris entre 2 % et 4 % selon les années. Ce taux n’est pas très élevé, mais il est suffisant pour investir en permanence dans les technologies qui nous permettent d’améliorer et d’étendre nos instruments de mesure des usages de nos concitoyens.

Pour répondre à votre question sur mes intérêts ou ceux de l’entreprise, sachez que tous les acteurs du marché sont nos clients, mais la diversité de ceux-ci et le caractère très partagé de notre gouvernance garantissent qu’aucun client ne bénéficie du moindre droit spécifique. Le volume d’affaires entre Médiamétrie d’une part, TikTok et sa maison mère ByteDance de l’autre, est assez faible : la dernière commande de cette société date de 2020 et s’élevait à 18 000 euros. Notre gouvernance partagée garantit de toute façon notre neutralité, quel que soit le degré de notre relation commerciale avec une entreprise.

Le métier de Médiamétrie est de mesurer les usages, donc je m’abstiendrai de tout commentaire au-delà de cet aspect. Les experts que vous recevrez compléteront utilement mon diagnostic factuel et plat.

Je vais vous présenter des chiffres sur les usages des réseaux sociaux chez les jeunes. Votre commission d’enquête porte sur TikTok, mais il y a lieu d’adopter une approche en entonnoir et d’évoquer l’ensemble des réseaux sociaux, car l’usage de TikTok s’insère dans des usages cumulés.

Nous utilisons depuis très longtemps un instrument, Internet Global, qui est la référence en France de la mesure des sites internet et des applications. Je ne veux pas dénigrer les producteurs de certaines études qui circulent dans la presse, mais la mesure des usages et du temps passé devant un média est une tâche très complexe. Les approches purement déclaratives, consistant à demander aux gens combien de temps ils passent devant un média, donnent des résultats aléatoires et imprécis. Internet Global est un outil rigoureux : il se fonde sur un panel de 20 000 Français, équipés d’un téléphone mobile, d’une tablette et d’un ordinateur sur lesquels on installe des logiciels, nommés meters, qui récupèrent toute l’information. En ce qui concerne Médiamétrie, nous appliquons des conventions placées sous l’égide d’un comité : dans le cadre de notre gouvernance partagée, tous les acteurs discutent de la façon dont nous devons restituer les résultats. Nous mesurons l’activité sur les appareils et, si possible, celle des individus sur plusieurs dispositifs en même temps pour calculer la duplication et le cumul des usages.

La population choisie pour évaluer les usages d’internet et des applications est celle des Français âgés de 2 ans et plus. Nous recrutons des individus âgés d’au moins 16 ans et nous les équipons de dispositifs électroniques. Pour le recrutement des jeunes âgés de moins de 16 ans, nous recueillons évidemment l’autorisation des parents. Nous considérons qu’un panéliste âgé de 11 ans détient un appareil individuel, notamment un smartphone – l’idée commune veut que les parents acceptent que leur enfant possède leur premier téléphone individuel à l’entrée au collège. Avant l’âge de 11 ans, nous ne mesurons par l’utilisation de mobiles, car nous estimons que les enfants n’ont accès qu’à des dispositifs partagés – ordinateur du foyer ou tablette. Les personnes que nous suivons doivent entrer le nom de leur enfant et son âge lorsqu’elles lui ouvrent une session sur un dispositif partagé.

Nous vérifions que les données mesurées dans le panel sont cohérentes avec des big data : nous travaillons avec l’Alliance pour les chiffres de la presse et des médias (ACPM), structure dont la gouvernance est également partagée et qui nous fournit l’intégralité des logs de connexion aux grands sites et applications. Ces informations nous aident à réaligner notre panel sur les éléments fournis par les serveurs de données, afin de corriger les biais de comportement de la population que nous suivons. Notre système de mesure est donc très complet – et d’ailleurs assez coûteux.

Parmi les personnes âgées de 15 à 24 ans, 54 % regardent la télévision au moins une fois par jour. La durée d’écoute par téléspectateur, à savoir le temps passé devant la télévision, s’élève à une heure et vingt minutes. L’intégralité des personnes de cette tranche d’âge, à savoir ceux qui regardent la télévision et ceux qui ne l’allument pas, consacre quarante-trois minutes quotidiennes à ce média. Par ailleurs, 48 % des 15-24 ans écoutent la radio, pour une durée quotidienne moyenne d’une heure et quarante minutes. Quant à internet, 85 % de cette tranche d’âge y vont chaque jour, quel que soit l’appareil choisi, contre 75 % des 11-17 ans. Les adolescents de 11 à 17 ans qui surfent sur internet y restent quatre heures et trente‑huit minutes par jour, soit environ trois fois plus que sur n’importe quel autre média : internet est sans rival chez les jeunes.

Les messageries – WhatsApp et Snapchat – et les réseaux sociaux sont associés dans nos analyses, ne serait-ce que parce que les derniers possèdent très souvent une fonction de messagerie : la frontière entre les deux types d’usage est ténue. Chaque jour, 70 % des 11-17 ans accèdent à une messagerie ou à un réseau social sur lesquels ils surfent en moyenne pendant trois heures et onze minutes. Le temps que les jeunes passent sur internet – quatre heures et trente-huit minutes – est très majoritairement, à hauteur de 64 %, consacré aux réseaux sociaux et aux messageries, alors que cette proportion n’atteint que 30 % chez les personnes âgées de 50 à 64 ans.

Entre 2020 et 2025, le temps passé sur les réseaux sociaux et les messageries a augmenté, particulièrement dans la population totale car les personnes âgées de plus de 50 ans se sont mises à les consommer. La cible des gens utilisant les réseaux sociaux s’est élargie : sans vouloir parler pour tout le monde, qui n’utilise pas Instagram aujourd’hui ?

M. le président Arthur Delaporte. Avez-vous des données sur les enfants âgés de 2 à 11 ans ?

M. Yannick Carriou. Nous aurons des éléments, mais ils n’engloberont pas la consommation sur les téléphones mobiles, car nous considérons que cette population n’en possède pas.

Même si la base s’élargit vers les générations les plus âgées, le temps passé par les 11-17 ans et par les 15-24 ans sur les réseaux sociaux et les messageries a tout de même augmenté respectivement de plus de 50 % et de près de 80 % entre 2020 et 2025.

À 21 h 27 a lieu le pic de consommation des réseaux sociaux et des messageries chez les 15-24 ans : à ce moment-là, 25 % de cette population surfe sur l’une de ces applications. La consommation croît doucement le matin à l’heure du réveil, un premier pic intervient autour de 10 heures, probablement durant la récréation ou la pause dans le cadre professionnel, puis un deuxième entre 12 heures et 12 h 30, enfin un plateau élevé se forme entre 18 heures et 23 heures avant que ces vieux mineurs ou ces jeunes adultes aillent se coucher.

Dans la population âgée de 15 à 24 ans, Snapchat est très utilisée, davantage d’ailleurs comme une plateforme de messagerie que comme un réseau social au sens où on l’entend communément. Cette application est encore plus sollicitée par les plus jeunes. Quant à Instagram et à Tiktok, elles jouissent d’une popularité comparable chez les 15-24 ans et sont utilisées tout au long de la journée.

M. Emmanuel Fouquart (RN). Si la consommation de réseaux sociaux et de messageries commence à 6 heures et se termine à 3 heures, comme le montrent vos courbes, cela signifie que le sommeil réel ne dépasse pas trois heures.

M. Yannick Carriou. Le graphique ne reflète pas la consommation d’un individu, même moyen. Un jeune âgé de 11 à 17 ans passe entre trois heures et trois heures trente, en moyenne quotidienne, sur les réseaux sociaux. Certains consomment plutôt le matin, d’autres plutôt le soir. Les trois heures que vous évoquez correspondent à une plage horaire pendant laquelle personne ne surfe sur les réseaux sociaux.

M. Emmanuel Fouquart (RN). Que la coupure totale ne dure que trois heures peut tout de même inquiéter.

M. le président Arthur Delaporte. Il ne s’agit pas d’une coupure de trois heures puisqu’un individu peut commencer à consommer à 10 heures, arrêter quelques minutes plus tard, puis reprendre à un autre moment de la journée. Le graphique ne porte pas sur un individu unique mais sur la moyenne de l’ensemble de la population.

M. Emmanuel Fouquart (RN). Un individu peut commencer à consommer à 6 heures et finir à 3 heures. La période sans consommation ne dure que trois heures, c’est impressionnant.

M. le président Arthur Delaporte. Cette configuration est possible, mais je ne suis pas certain que de nombreux utilisateurs uniques se trouvent dans cette situation. Médiamétrie pourrait peut-être lancer une recherche sur cet aspect.

M. Yannick Carriou. Je présenterai tout à l’heure quelques éléments sur la concentration de la consommation chez les individus qui utilisent le plus les réseaux sociaux et les messageries.

Chez les 11-17 ans, 72 % des individus ouvrent leur application Snapchat au moins une fois par mois. Ce chiffre de la couverture mensuelle est moins intéressant que celui de la couverture quotidienne : 60 % des 11-17 ans consomment Snapchat au moins une fois par jour – ou plutôt, comme le diraient mes équipes, dans une journée, 60 % en moyenne des jeunes âgés entre 11 et 17 ans accèdent au moins une fois à Snapchat. Chez les 15-24 ans, Snapchat est talonnée par Instagram – 74 % de couverture quotidienne contre 71 %. Les plus jeunes vont beaucoup sur Snapchat : la couverture quotidienne s’élève à 60 % chez les 11-17 ans contre 42 % pour Instagram, 41 % pour WhatsApp et 40 % pour TikTok. L’écart est beaucoup plus faible entre Snapchat et Instagram chez les 15-24 ans et TikTok progresse légèrement par rapport à la tranche d’âge plus jeune avec 47 % de couverture quotidienne. En vieillissant, les jeunes vont vers Instagram.

Entre 2020 et 2025, la croissance de l’utilisation des réseaux sociaux et des messageries a profité à toutes les plateformes. Instagram a doublé le nombre de ses visiteurs uniques quotidiens pendant cette période, TikTok a plus que quadruplé son audience et WhatsApp l’a presque triplée. Les plateformes ne connaissent pas le même rythme de développement depuis 2020, les écarts pouvant s’expliquer en partie par leur date d’implantation dans le paysage. TikTok enregistre la plus forte progression du nombre d’utilisateurs.

Un autre angle d’analyse est le temps passé sur chaque plateforme. Par exemple, les adolescents qui utilisent Snapchat y consacrent en moyenne une heure quarante-neuf par jour. TikTok se place en deuxième position avec une heure vingt‑huit, contre quarante-six minutes pour Instagram : même si le nombre d’utilisateurs quotidiens des deux réseaux est comparable, les jeunes qui utilisent TikTok y restent près de deux fois plus longtemps. Cet écart se réduit pour les 15‑24 ans, qui passent en moyenne une heure quarante-huit sur Snapchat, une heure dix-huit sur TikTok et quarante-neuf minutes sur Instagram. La durée d’utilisation de TikTok est donc supérieure à celle des autres plateformes du même type – Snapchat étant avant tout une application de messagerie, on peut en déduire que son usage est différent.

La plateforme qui déclenche le plus grand nombre d’ouvertures de session quotidiennes – c’est-à-dire le nombre de fois où l’utilisateur lance l’application sur son téléphone – est, là encore, Snapchat, avec treize connexions par jour chez les 15-24 ans, ce qui semble cohérent s’agissant d’une application de messagerie. L’axe vertical du graphique correspond à la proportion de personnes qui utilisent quotidiennement chaque plateforme – pour Snapchat, 74 %. Ainsi, l’application TikTok est utilisée chaque jour par environ 47 % des personnes âgées de 15 à 24 ans, en moyenne cinq fois au cours de la journée.

Enfin, les graphiques de duplication montrent qu’elle n’est pas utilisée isolément des autres plateformes : chez les 15-24 ans, 91 % des utilisateurs d’Instagram utilisent aussi TikTok ; quand 97 % des utilisateurs de TikTok ont aussi visité Instagram au cours du mois. L’utilisation de TikTok est donc un comportement qui duplique beaucoup, pour employer notre jargon : elle est associée à une forte consommation des autres plateformes, ce qui contribue à allonger le temps passé sur les réseaux sociaux.

Mme Laure Miller, rapporteure. Merci pour cette intervention très éclairante. Notre objectif, dans un premier temps, est d’objectiver les choses et d’établir un diagnostic, en nous appuyant non pas sur des impressions mais sur des données robustes.

Disposez-vous d’éléments précis sur le report des usages, notamment de la télévision vers le téléphone parmi les 11-17 ans ? Avez-vous observé des évolutions flagrantes en la matière pendant le covid ?

L’usage de TikTok est interdit avant 13 ans. Avez-vous recueilli des données quant à l’inscription d’enfants de moins de 13 ans sur cette plateforme ?

Enfin, avez-vous réalisé des études sur la part des parents ayant activé un contrôle sur le téléphone de leur enfant ?

M. Yannick Carriou. Je ne dispose d’aucune information concernant le contrôle parental.

Pour ce qui est des jeunes de 11 à 13 ans, nous pouvons extraire des données de consommation, mais celles-ci ne reflètent pas nécessairement les inscriptions sur une plateforme : un enfant peut tout à fait utiliser le compte TikTok d’un de ses parents, voire pirater un compte. Nous mesurons uniquement les usages, et non la nature de ces derniers.

Le mot « report » peut être compris comme manifestant une intention délibérée d’abandonner un média pour un autre. Je ne me risquerai pas sur ce terrain, mais il est certain qu’on constate, de façon historique, une érosion de la consommation de télévision chez les jeunes, concomitamment à l’accroissement de l’utilisation des réseaux sociaux et d’internet en général. Comme il existe une réalité physique à laquelle nul ne peut échapper – une journée ne dure que vingt-quatre heures –, on peut logiquement parler de report, même si certains souligneront la capacité des jeunes à faire deux ou trois choses en même temps, donc à dupliquer les usages. Indéniablement, on observe une baisse de l’attrait du public adolescent pour les médias traditionnels, qui se confirme d’année en année et qui a probablement bénéficié aux usages numériques.

Le covid a quant à lui accéléré les tendances. Si j’avais détaillé les évolutions d’usage pour la période 2020-2025, vous auriez effectivement constaté, en 2020 et en 2021, une forte progression, qui s’est d’ailleurs étendue à de nombreux autres phénomènes comme l’essor de la SVOD (vidéo à la demande par abonnement). Ayant tous été bloqués chez nous et, pour une part, oisifs, nous avons été exposés à l’intégralité des offres média disponibles, avec tout le temps nécessaire pour les tester. Or, parfois, « l’essayer, c’est l’adopter », pour reprendre un slogan célèbre. Le covid a donc effectivement contribué assez largement à l’accélération du phénomène, ce qui m’amène à penser que la croissance très spectaculaire que j’ai décrite pour la période 2020-2025 ne se reproduira probablement pas dans des proportions similaires dans les cinq prochaines années.

M. Pouria Amirshahi (EcoS). Au-delà de la question du temps passé sur TikTok, qui est importante car elle a des incidences réelles, nous n’avons pas forcément mesuré ni entamé la réflexion sur les effets neurocognitifs de certains usages, qui se transforment et que nous ne connaissons pas forcément.

Les meters installés sur les terminaux fournissent-ils également des éléments sur le type de contenus consultés sur chaque application ? Les plateformes peuvent donner lieu à des phénomènes de consommation très divers, y compris celles qui sont principalement utilisées comme messagerie – nous avons par exemple constaté, dans le cadre de l’examen de la proposition de loi visant à sortir la France du piège du narcotrafic, à quel point des mineurs pouvaient être aisément recrutés sur les réseaux sociaux. Disposez-vous d’informations sur la nature de ces flux ?

M. Yannick Carriou. Malheureusement, non, pour des raisons essentiellement techniques. D’abord, il n’existe pas, à ma connaissance, de nomenclature objective des types de contenus : chaque éditeur d’application a sa propre façon de les classer. Ensuite, nous recueillons deux types d’éléments : les URL, c’est-à-dire les adresses des serveurs internet, qui nous permettent de reconnaître la plateforme utilisée ; et les données des meters, ces logiciels implantés dans les terminaux grâce auxquels nous savons quelle application est utilisée en premier plan à un instant donné. Aucune de ces deux sources ne donne d’indications sur le contenu.

Les seuls qui seraient capables de fournir ces informations sont les éditeurs eux-mêmes. Encore faudrait-il, pour ce faire, qu’ils aient défini une nomenclature, qui serait de toute façon différente d’un éditeur à l’autre. C’est une vraie difficulté pour comprendre le phénomène.

M. Thierry Perez (RN). Connaissez-vous les écarts-types des différents jeux de données que vous nous avez présentés ? Ils nous seraient utiles pour quantifier le phénomène de surconsommation, c’est-à-dire le nombre de personnes qui consacrent énormément de temps aux plateformes. Savez-vous si certains jeunes sont susceptibles d’y passer six à huit heures par jour, par exemple ?

M. Yannick Carriou. Les délais impartis ne m’ont pas permis de décomposer ces chiffres par tranche d’âge, mais, pour vous donner un ordre d’idée, dans l’ensemble de la population, les 20 % d’utilisateurs qui passent le plus de temps sur Instagram et TikTok consomment environ deux fois plus que la moyenne. Je vous fournirai ce même calcul pour les plus jeunes.

Pour les applications de messagerie, le ratio semble un peu plus élevé et s’établirait plutôt à 2,5. Si ce phénomène se confirme pour les plus jeunes, il est possible que votre estimation intuitive soit juste et que certains passent cinq ou six heures par jour sur les réseaux sociaux.

M. Kévin Mauvieux (RN). Il serait effectivement intéressant de connaître le profil de consommation de TikTok par les 10 % ou 15 % de la population qui l’utilisent le plus, avec un découpage plus fin de la répartition par tranches d’âge. Il me semble en effet que, chez les mineurs, l’impact de la consultation des réseaux sociaux peut évoluer très fortement d’une année à l’autre : passer sept heures par jour sur TikTok n’aura peut-être pas les mêmes conséquences selon qu’un enfant a 8 ou 9 ans, une année pouvant suffire à gagner fortement en maturité.

M. Yannick Carriou. Nous ferons le maximum pour nourrir votre réflexion et vous fournir ces éléments.

J’appelle toutefois votre attention sur les graphiques de duplication : les personnes qui consultent TikTok ne le font pas dans un univers fermé, ils utilisent aussi d’autres plateformes. Vos travaux vous permettront probablement de déterminer si ces consommations sont équivalentes, substituables, additives ou soustractives. Nous nous efforcerons en tout cas de vous transmettre des profils complets, retraçant l’intégralité des usages numériques, car tous contribuent au temps passé à des activités de consommation qui semblent, au moins en partie, comparables.

Mme Claire Marais-Beuil (RN). Il serait aussi utile de connaître la répartition par sexe, l’influence des réseaux n’étant pas forcément la même sur les jeunes filles – qui sont plutôt susceptibles de s’exposer à des contenus promouvant l’anorexie ou la scarification – et sur les garçons. Peut-être disposerions-nous ainsi d’une vision plus fine des conséquences de TikTok sur la santé mentale des jeunes.

M. Yannick Carriou. Nous vous fournirons ces informations. Il est peu probable, cependant, qu’elles révèlent une grande différenciation par genre.

M. Thierry Perez (RN). Serait-il possible de connaître plus précisément les lieux d’utilisation des plateformes ? La loi interdit désormais les téléphones dans les écoles. Au vu de la courbe de consommation au cours de la journée que vous avez présentée, il semblerait qu’elle ne soit pas respectée.

M. Yannick Carriou. Nous ne relevons pas le lieu d’utilisation des plateformes. Sous réserve de vérification technique, il devrait en revanche être possible de relier l’heure d’utilisation avec le terminal, ce qui pourrait permettre d’inférer, par exemple, qu’un mobile utilisé par un enfant durant la journée ne l’a pas été à son domicile. En tout état de cause, l’information que vous demandez ne figure pas dans nos bases.

M. Stéphane Vojetta (EPR). Vous avez indiqué que l’application Snapchat était beaucoup utilisée comme messagerie. Disposez-vous d’informations chiffrées concernant la répartition d’utilisation entre les fonctionnalités messagerie et flux de vidéo de cette plateforme ?

M. Yannick Carriou. Non, malheureusement. C’est d’ailleurs pour cette raison que nous tendons à agréger les deux univers dans nos nomenclatures internes : nous ne savons pas distinguer les fonctionnalités utilisées. Au fond, notre travail permet de mesurer le nombre de fois où les gens entrent dans une maison au cours de la journée et combien de temps ils y restent, mais pas de savoir ce qu’il s’y passe. Dans d’autres domaines, comme celui des médias audiovisuels, nous parvenons à obtenir des informations plus précises, parce que les plateformes collaborent et nous donnent accès à des informations provenant de leurs propres systèmes.

M. Stéphane Vojetta (EPR). Votre constat concernant l’utilisation de Snapchat reposait donc plutôt sur votre intuition.

M. Yannick Carriou. Vous avez raison : j’ai peut-être manqué de rigueur scientifique. J’ai fait part de ma connaissance de l’application Snapchat, dont l’offre me semble de nature différente de celles de TikTok ou d’Instagram – elle propose notamment beaucoup moins de flux non sollicités –, mais cette remarque était effectivement plutôt intuitive.

M. Stéphane Vojetta (EPR). Avez-vous aussi pu tester l’usage de WhatsApp ?

M. Yannick Carriou. WhatsApp fait bien partie des applications que nous étudions, dans la catégorie des messageries. On constate d’ailleurs que son utilisation croît avec l’âge.

M. Stéphane Vojetta (EPR). Il semblerait que TikTok présente la particularité d’être toujours majoritairement utilisée pour le flux de vidéo, alors qu’Instagram, sur la base de ma connaissance empirique, serait de plus en plus utilisée comme une messagerie.

M. Yannick Carriou. Compte tenu du commentaire sur la sociologie de proximité que j’ai formulé en introduction, je me garderai d’être affirmatif sur ce point.

Mme Claire Marais-Beuil (RN). Pour tenter d’analyser les lieux d’utilisation, peut-être serait-il utile de décliner la courbe de consommation pour chaque jour de la semaine : en toute logique, les jeunes sont susceptibles de consulter leur téléphone à la maison le week-end, tandis que le fait de l’utiliser pendant la journée en semaine pourrait dénoter d’un usage en classe.

M. Yannick Carriou. Je prends note de cette demande.

M. Thierry Perez (RN). Seriez-vous capables de mettre en parallèle les courbes de l’évolution de la santé mentale des jeunes et celles de la consommation des réseaux sociaux ?

M. le président Arthur Delaporte. Je ne suis pas sûr que ce rôle revienne à Médiamétrie, qui conduit avant tout des analyses quantitatives : nous le ferons probablement nous-mêmes dans le cadre de nos travaux et nous pourrons solliciter des chercheurs sur ce point.

Merci, Monsieur Carriou, pour la qualité de nos échanges et pour le travail de préparation que vous avez fourni dans un délai contraint. Vous aurez compris que les attentes des membres de la commission sont nombreuses. Nous vous serons reconnaissants pour tout complément d’information que vous pourrez nous apporter, y compris par écrit.

2.   Audition de Mme Amélie Ébongué, experte en stratégie de contenus sur les réseaux sociaux, auteure du livre Génération TikTok : Un nouvel eldorado pour les marques (2021) (jeudi 3 avril 2025)

La Commission auditionne Mme Amélie Ébongué, experte en stratégie de contenus sur les réseaux sociaux, auteure du livre Génération TikTok : Un nouvel eldorado pour les marques (2021) ([2]).

M. le président Arthur Delaporte. Madame Ebongué, merci d’avoir répondu à notre invitation dans un délai aussi court.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations et vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Amélie Ebongué prête serment.)

Mme Amélie Ebongué, experte en stratégie de contenus sur les réseaux sociaux. TikTok, née en 2017, est la version internationale d’une application chinoise, Douyin, produite par ByteDance. Peu après son lancement, ByteDance a racheté Musical.ly, une plateforme de partage de vidéos courtes et de musique, et l’a fusionnée avec TikTok, qui connaîtra le succès planétaire que l’on sait. TikTok se définit moins comme un réseau social que comme une plateforme de divertissement. Les 800 millions d’inscrits de 2019 sont aujourd’hui plus de 1 milliard. TikTok séduit les marques, les institutions, les personnalités pour sa fluidité et son immédiateté interactionnelle.

C’est l’usage des réseaux sociaux de manière excessive et sans régulation qui altère le comportement et l’humeur des individus. L’expérience utilisateur et le design de TikTok montrent qu’elle est conçue pour susciter en nous un plaisir constant. Cette attention répétitive crée des habitudes régies par le collectif et sous son influence.

TikTok joue un rôle dans la construction identitaire de la génération alpha, née après 2010 et particulièrement technophile, puisque ces jeunes sont en effet les premiers à être nés dans un environnement où le numérique est omniprésent. Cette génération, qui connaît les vertus des réseaux sociaux, entrevoit son futur à travers le numérique, ce qui a des conséquences difficilement contrôlables. Je pense notamment aux inscriptions précoces sur le réseau, alors même que l’âge légal d’inscription en France est de 13 ans. Nombre d’enfants mentent pour avoir accès à TikTok.

L’addiction que l’application suscite, particulièrement auprès des plus jeunes, a des conséquences sociales. Or la clé de voûte de l’algorithme de TikTok reste un mystère. Il faut renforcer la prévention auprès des parents car c’est par leur biais que la régulation s’opère. Il faudra aussi mieux les écouter car beaucoup se sentent démunis face à l’usage qu’ont leurs enfants des plateformes sociales ou des jeux vidéo. Il est important que le système éducatif propose des programmes d’éducation civique au cours du cycle élémentaire et que le tissu préventif national soit activé grâce à des acteurs éducatifs volontaires, pour maintenir une cohésion d’ensemble. Les kiosques publics pourraient également proposer des outils adaptés et jouer un rôle dans cette acculturation au numérique.

Mme Laure Miller, rapporteure. De quels éléments disposez-vous pour affirmer qu’un grand nombre d’utilisateurs mentent sur leur âge ?

Pourriez-vous nous expliquer quelles sont les stratégies de captation de l’attention développées par les marques ? Savez-vous s’il existe des stratégies pour capter celle des moins de 13 ans ?

Enfin, quel est votre avis sur la modération et la régulation sur TikTok ?

Mme Amélie Ebongué. TikTok donne accès à sa plateforme dès l’âge de 13 ans, avec des fonctionnalités limitées : les jeunes utilisateurs ne peuvent pas envoyer ni recevoir de messages directs, lancer une vidéo en direct ou utiliser de l’argent. Qu’elles appartiennent au secteur de la culture, de la mode, de la beauté ou du sport, je n’ai pas vu de stratégie directe de la part des marques pour viser ce très jeune public.

TikTok cherche à prendre un virage éducatif, en proposant des contenus culturels, sportifs ou littéraires.

Mme Laure Miller, rapporteure. Pourriez-vous nous en dire plus sur ces intentions éducatives, qui échappent à première vue ?

Mme Amélie Ebongué. Le site de TikTok Business France présente les dernières tendances que la plateforme propose sur le marché. Ils peuvent ainsi inciter la communauté à aller vers des sujets spécifiques comme le hashtag #ApprendreSurTikTok, un hashtag vu des milliards de fois. Ils ont une ligne éditoriale spécifique par marché.

M. le président Arthur Delaporte. Quelle est votre expérience de TikTok en tant que consultante en communication stratégique ? Quels clients accompagnez‑vous ? Que faites-vous précisément ?

Mme Amélie Ebongué. Je travaille sur la stratégie de contenus sur les différentes plateformes sociales, en recherchant des insights, des aperçus et des tendances prospectives liées au numérique. Il s’agit en réalité de comprendre le fonctionnement de la société au prisme des différentes tendances et de voir de quelle manière elles interagissent avec les comportements d’achat et la consommation. Je fais des revues de tendances, des conférences sur les sujets liés au numérique. Je réfléchis à l’évolution mondiale du numérique et ses répercussions sur la société.

M. le président Arthur Delaporte. Quelles sont les tendances actuelles ? Quels sont les hashtags qui marchent ?

Mme Amélie Ebongué. J’ai travaillé sur la manière dont les stratégies de contenus impactaient certaines sociétés, en Afrique notamment. J’accompagne différentes structures pour les aider à développer une stratégie numérique mondiale.

M. le président Arthur Delaporte. Quelles sont les tendances sur TikTok en France ? Comment cible-t-on plus particulièrement les mineurs ? Y a-t-il des marques qui vous le demandent ? Quels sont pour cela les hashtags à utiliser ?

Mme Amélie Ebongué. La plateforme a considérablement évolué, en s’ouvrant notamment au domaine de la culture. Pendant les Jeux olympiques, on a assisté à l’émergence de contenus sportifs pour inciter une partie des audiences à faire du sport et à produire des vidéos en ce sens. On voit apparaître de nouveaux secteurs qui, de prime abord, n’avaient pas d’intérêt à y être : le hashtag #BookTok témoigne de l’arrivée de l’industrie littéraire sur la plateforme. Des contenus sur les écogestes apparaissent également afin d’inciter une partie des consommateurs à être présents sur les réseaux sociaux. Cela permet à tout un chacun d’apprendre des choses.

M. le président Arthur Delaporte. Avez-vous déjà eu des liens avec les équipes de TikTok France ?

Mme Amélie Ebongué. Je n’ai jamais travaillé pour TikTok.

M. le président Arthur Delaporte. Avez-vous déjà été rémunérée par le biais de la plateforme ?

Mme Amélie Ebongué. Du tout ! Je n’ai jamais travaillé pour une quelconque plateforme sociale.

M. le président Arthur Delaporte. En revanche, vous travaillez pour des marques qui vous demandent de créer des stratégies d’influence.

Mme Amélie Ebongué. Oui : dans le domaine de la culture et dans l’industrie de la musique. De plus en plus d’artistes veulent être présents sur la plateforme pour accroître leur visibilité.

M. le président Arthur Delaporte. Que conseillez-vous aux artistes ?

Mme Amélie Ebongué. Je leur conseille d’avoir une stratégie cohérente et de ne pas capitaliser sur une seule plateforme. Ils ont souvent envie d’être très présents sur TikTok, ce qui n’est pas forcément le plus efficace pour générer des revenus. Les artistes se rémunèrent en effet de différentes manières, notamment par la vente de billets de concert et de produits dérivés, et pas uniquement grâce à la diffusion sur des plateformes comme Spotify. Les réseaux sociaux sont pour eux moins une source de revenus qu’un levier de vente.

M. le président Arthur Delaporte. Qu’est-ce qui va singulariser votre stratégie de conseil sur TikTok par rapport aux autres plateformes ?

Mme Amélie Ebongué. Le contenu y est immédiat, vertical et accessible. C’est l’une des premières plateformes à avoir proposé le partage en direct à l’intégralité du réseau.

M. Kévin Mauvieux (RN). Quels sont les styles de vidéo qui attirent les mineurs ? Ce ne sont sans doute pas les vidéos pédagogiques qui nuisent à leur santé mentale. Quelles sont les tendances de contenus que les enfants suivent et qui sont problématiques pour eux ?

On parle souvent d’hyperactivité, de haut potentiel intellectuel, d’une grande difficulté de concentration. Le fait de les habituer à des contenus très brefs ne réduit-il pas leur capacité de concentration, dans la mesure où ils obtiennent immédiatement ce qu’ils veulent ? Est-ce qu’ils ne perdent pas, sur cette plateforme, l’habitude de se concentrer ?

Mme Amélie Ebongué. TikTok développe une stratégie autour de contenus éducatifs par marché. Tout utilisateur est responsable de ce qu’il souhaite diffuser. TikTok a commencé avec un produit vidéo, une vidéo courte, dont la durée est passée de 15 secondes à 1 minute et va désormais jusqu’à 10 minutes. Différents formats existent. C’est le live qui attire particulièrement les mineurs. Il consiste à se filmer en direct, seul ou en invitant un ou plusieurs participants. Ce contenu attire beaucoup, parce qu’il permet au créateur d’émerger sur le réseau et d’être rémunéré par la plateforme, selon son classement mondial. C’est ce format qui a donné son assise commerciale à la plateforme, en cohérence avec sa stratégie autour des stories et des vidéos. Pour la publicité, il existe une grille tarifaire assez variable selon les marchés visés et la typologie que l’on souhaite développer.

S’agissant de votre deuxième question, je n’ai pas d’expertise médicale. Des études ont montré que la plateforme contribue à altérer le comportement de certains jeunes et qu’elle provoque des troubles anxieux qui peuvent aller jusqu’au suicide.

M. Kévin Mauvieux (RN). Donc même vous qui êtes une professionnelle de la création de contenus et de l’analyse des tendances, vous ne savez pas comment l’algorithme fonctionne.

Mme Amélie Ebongué. En effet. La formule précise n’a jamais été communiquée par l’entreprise. Celle-ci a toutefois mis en ligne des indications sur la manière dont les créateurs peuvent émerger sur la plateforme.

M. le président Arthur Delaporte. Vous évoquez des grilles tarifaires pour la vente de publicité. Pouvez-vous développer cet aspect ? Combien cela coûte-t-il, quels sont les critères qui font varier les prix ?

Mme Amélie Ebongué. La plateforme a des commerciaux par région. Les structures qui souhaitent proposer du contenu – marques ou institutions – et qui souhaitent bénéficier d’un type de format sur le réseau social doivent faire appel à ces commerciaux pour acheter de la publicité. Les coûts varient selon la durée de la diffusion, selon le format proposé… Il n’y a rien de figé.

M. le président Arthur Delaporte. Pouvez-vous donner un ordre de grandeur ?

Mme Amélie Ebongué. Je n’ai jamais fait appel à la publicité sur TikTok, donc je ne saurais pas vous répondre.

M. le président Arthur Delaporte. Vous n’êtes pas en rapport avec leurs commerciaux ?

Mme Amélie Ebongué. Non, je n’ai aucun lien avec eux. Je redis aussi que je n’ai jamais travaillé chez TikTok.

M. Stéphane Vojetta (EPR). Vous aidez les créateurs à préparer des contenus attractifs et qui atteignent leur cible. Peut-il arriver que des mineurs soient ciblés ?

Mme Amélie Ebongué. Lorsque vous créez un contenu, vous avez la possibilité de voir dans les paramètres qui sera touché par vos publications. Mais en aucun cas je ne travaille à cibler les mineurs.

M. Stéphane Vojetta (EPR). Vous êtes consciente que le Digital services act (DSA) interdit aux plateformes d’aider les annonceurs à cibler les mineurs spécifiquement, je suppose. Y a-t-il eu pour vous et pour les annonceurs un avant et un après-DSA ? Sont-ils devenus plus prudents ?

Mme Amélie Ebongué. Les annonceurs sont en effet vigilants à cet égard et suivent de près la diffusion de leurs messages sur les différentes plateformes. Beaucoup ne se servent pas encore de la plateforme publicitaire de TikTok : c’est un autre aspect, commercial, du réseau social.

Mme Ayda Hadizadeh (SOC). L’Australie a adopté une législation ferme qui interdit à tous les mineurs de moins de 16 ans l’accès aux réseaux sociaux. En tant qu’experte de TikTok, que pensez-vous de ce type d’interdiction, à la fois sous l’angle de la protection des mineurs et peut-être sous celui de la faisabilité technique ?

Mme Amélie Ebongué. C’est à mon avis une très bonne idée. Je parle ici plutôt comme mère que comme experte : j’aime beaucoup ce modèle. Cette loi peut paraître ferme, en effet, quand on a une pédagogie numérique et soi-même une forte présence sur les réseaux sociaux. Je ne sais pas à quel point c’est vraiment applicable, mais cela me paraît une très belle démarche.

Mme Ayda Hadizadeh (SOC). Merci de votre honnêteté. Étant mère moi aussi, c’est une question que je me pose.

Techniquement, une autorisation d’accès selon l’âge vous paraît-elle difficile à mettre en place ?

Mme Amélie Ebongué. Les équipes de recherche et développement (R&D) de la plateforme peuvent tout à fait renforcer la sécurité sur l’application. Est-ce dans leur intérêt ? Je n’ai pas la réponse. Cela me semble possible, puisqu’ils ont déjà restreint certaines fonctionnalités : ils doivent pouvoir aller beaucoup plus loin dans le développement de leur produit.

Mme Ayda Hadizadeh (SOC). Vous semble-t-il que nous ne sensibilisons pas suffisamment les parents aux dangers des réseaux sociaux ? Est-ce un problème de responsabilisation, ou bien les parents ont-ils peur de priver leurs enfants d’une forme de sociabilité qui leur paraît aller de soi ?

Mme Amélie Ebongué. Certains parents sont outillés pour accompagner leur enfant dans l’accès à la plateforme. Accepter une présence de l’enfant en ligne relève de la responsabilité des parents – les enfants influenceurs, dont les parents approuvent les contenus et amplifient même la présence, constituent une tendance naissante sur la plateforme.

Si le parent est responsable de ce que son enfant fait sur une plateforme sociale, il faut aussi une régulation, un cadre.

M. Pouria Amirshahi (EcoS). Merci de vos réponses. Il était d’autant plus intéressant de vous entendre que votre livre était la première réflexion en français sur TikTok.

Nous nous concentrons sur la santé mentale des mineurs. Vous avez évoqué les enfants influenceurs. Avez-vous étudié la dimension « usager », l’effet des publicités sur les mineurs et la dépendance psychologique qui peut être créée par TikTok ?

S’agissant des algorithmes, il est bien difficile de savoir de quoi il retourne : les plateformes ne sont pas tenues de les rendre publics. C’est un sujet technique, complexe, mal maîtrisé par les parlementaires qui votent pourtant des lois qui les autorisent…

Mme Amélie Ebongué. Du point de vue de l’expérience utilisateur, TikTok est une plateforme qui se renouvelle constamment. Il y a cinq ans, on voyait un fil d’actualité avec des propositions de contenus fondées sur les comptes auxquels on était abonné et des suggestions en fonction de nos centres d’intérêt et de ce qu’on aurait apprécié – en fonction des interactions, c’est-à-dire des commentaires, des partages, des likes… L’expérience dépend aussi de l’évolution : la R&D de l’entreprise ajoute progressivement de nouvelles fonctionnalités, comme les stickers, les nouvelles stories ou la diffusion de contenu dans un carrousel, afin de répondre aux attentes des utilisateurs.

M. Pouria Amirshahi (EcoS). Quand vous accompagnez des marques, savez-vous de quelle manière les mineurs reçoivent vos contenus ? Au-delà du conseil stratégique, évaluez-vous les effets directs des campagnes ? Savez-vous qui like, par exemple ?

Mme Amélie Ebongué. Il y a un reporting : dès lors qu’on publie un contenu, on sait quelles interactions il a entraînées, on connaît la manière dont il a été diffusé, à qui il a été diffusé… TikTok est une plateforme qui permet une exposition globale, en fonction des hashtags que l’on mentionne : la plateforme préconise d’en utiliser un peu moins d’une dizaine afin d’assurer une couverture sur des thématiques nouvelles, peu mises en lumière. Certaines sont en effet très couvertes, ce qui rend difficile d’être visible et limite d’autant l’impact.

Pour les petites structures, il est très difficile de dégager un budget alloué à la sponsorisation des contenus – autre dimension de la visibilité et de l’impact sur la plateforme.

S’agissant de la perception par l’utilisateur, tout dépend de la façon dont il interagit dans son fil.

Mme Claire Marais-Beuil (RN). Depuis lundi, TikTok Shop est disponible en France. Cette plateforme, qui utilise des micro- voire des nano‑influenceurs, c’est-à-dire des comptes qui ont moins de 10 000 abonnés, rencontre déjà un succès considérable aux États-Unis. La stratégie des marques va‑t‑elle changer ? Ma question porte principalement sur les contrefaçons, par exemple de médicaments. Comment pourrons-nous lutter ? Avez-vous un regard sur cette nouvelle plateforme ?

Mme Amélie Ebongué. Cette nouvelle plateforme permet à tout utilisateur inscrit d’acheter un produit directement, sans avoir à sortir de l’application. Cela a été accepté dans d’autres pays européens, notamment l’Espagne, me semble-t-il.

En ce qui concerne les contrefaçons, nous n’avons encore aucune précision sur ce que les utilisateurs peuvent vendre. Aujourd’hui, c’est très accessible. L’expérience utilisateur est très proche de celle des autres sites d’e-commerce sur mobile. Il paraît évident que cela va encourager les gens à vendre des produits sur les réseaux sociaux, en parallèle de ce qui existe déjà. Mais, vous le disiez, c’est tout récent, nous n’avons encore aucun recul. Il faudra voir comment les créateurs vont s’approprier ce produit.

M. Kevin Mauvieux (RN). Avez-vous déjà été approchée, par une marque par exemple, pour l’aider à toucher des mineurs ?

Mme Amélie Ebongué. Non, pas du tout.

Mme Ayda Hadizadeh (SOC). Ce n’est pas une stratégie habituelle pour les marques ? Il doit arriver que des marques veuillent cibler les mineurs.

Mme Amélie Ebongué. Je n’ai jamais eu connaissance de cas de ce genre.

Mme Ayda Hadizadeh (SOC). Si cela devait arriver, comment s’y prendraient-elles ? Quelles pourraient être les stratégies commerciales à employer ?

Mme Amélie Ebongué. Je ne sais pas vous répondre. Ce n’est pas quelque chose dont j’ai eu écho et qui serait courant.

M. Stéphane Vojetta (EPR). Si l’on met de côté l’aspect commercial, admettons que vous ayez un client qui veuille s’adresser à des jeunes, pour leur proposer des contenus culturels ou pédagogiques. Comment l’aideriez-vous à orienter son contenu pour qu’il figure dans des flux vus par des mineurs ? C’est votre métier, je crois.

Mme Amélie Ebongué. Oui, mais je ne travaille pas pour proposer des contenus à des mineurs. Le but pour les marques est de proposer un contenu pédagogique qui réponde à leurs valeurs, qui ait une éthique, pas un contenu qui s’adresse particulièrement aux mineurs sur la plateforme.

M. Stéphane Vojetta (EPR). Je me permets d’insister : imaginez une marque qui veuille viser des adolescents, qui propose un contenu sur l’éducation à la vie affective. Comment fera-t-elle pour que son contenu soit vu par des gens qui ont 13, 14, 16 ans et que ceux-ci ne passent pas immédiatement à la vidéo suivante ?

Mme Amélie Ebongué. Je n’ai pas de réponse précise à vous apporter. La marque se reposera sur ses valeurs, elle ne ciblera pas tout de suite les mineurs, mais plutôt ses clients, qui ne sont pas nécessairement les mineurs.

Si l’on prend le secteur de la beauté, quand une marque cherche à vendre un mascara ou un rouge à lèvres par le biais d’un contenu vidéo sur TikTok, elle ne s’adresse pas d’abord aux mineurs. Le point de départ, c’est plutôt de définir une stratégie d’ensemble claire, qui corresponde à ses valeurs.

M. Stéphane Vojetta (EPR). Un député, un citoyen pourrait proposer un contenu pédagogique et vouloir s’adresser aux mineurs. Y a-t-il moyen, sur TikTok, d’éviter que ce contenu n’aille que sur le flux de personnes de 40 ou 50 ans ? Comment recommanderiez-vous à vos clients d’agir s’ils vous posaient cette question ?

Mme Amélie Ebongué. Si l’on souhaite un ciblage beaucoup plus spécifique, il faut avoir recours à la monétisation : l’achat d’espaces permet, sur TikTok, de cibler les centres d’intérêt et les âges. Seules certaines marques peuvent se permettre cette étape supplémentaire dans leur stratégie d’acquisition.

M. Kevin Mauvieux (RN). Si je vends des trousses pour l’école et que j’ai envie que ma trousse soit vendue à des enfants, il faudrait donc que je paie TikTok pour mettre en avant mon contenu auprès d’un public de 13 à 17 ans. Est-ce bien les grandes lignes de ce que vous expliquez ?

Mme Amélie Ebongué. Selon le budget investi, la plateforme valorisera votre contenu pendant une période plus ou moins longue et le poussera auprès des utilisateurs que vous avez choisi de cibler.

M. le président Arthur Delaporte. Merci de vous être livrée à ce jeu de questions et réponses. N’hésitez pas à compléter nos échanges par écrit.

3.   Audition de M. Mehdi Arfaoui, sociologue au Laboratoire d’innovation numérique de la Commission nationale de l’informatique et des libertés (CNIL), Mme Jennifer Elbaz, chargée de mission éducation au numérique à la CNIL, Mme Laurence Allard, maîtresse de conférences en sciences de la communication, chercheuse à l’Université Paris Sorbonne Nouvelle-IRCAV, enseigne à l’Université de Lille, département études culturelles et médias, et M. Jérôme Pacouret, sociologue et postdoctorant associé à la chaire « Société algorithmique » de l’Institut MIAI (Multidisciplinary institute in artificial intelligence) Grenoble Alpes (Laboratoire Pacte et UGA) (jeudi 3 avril 2025)

Puis la Commission auditionne conjointement M. Mehdi Arfaoui, sociologue au Laboratoire d’innovation numérique de la Commission nationale de l’informatique et des libertés (CNIL), Mme Jennifer Elbaz, chargée de mission éducation au numérique à la CNIL, Mme Laurence Allard, maîtresse de conférences en sciences de la communication, chercheuse à l’Université Paris Sorbonne Nouvelle-IRCAV, enseigne à l’Université de Lille, département études culturelles et médias, et M. Jérôme Pacouret, sociologue et postdoctorant associé à la chaire « Société algorithmique » de l’Institut MIAI (Multidisciplinary institute in artificial intelligence) Grenoble Alpes (Laboratoire Pacte et UGA) ([3]).

M. le président Arthur Delaporte. Je vous remercie d’avoir accepté notre invitation dans un délai aussi court, la réunion constitutive de la commission ayant eu lieu la semaine dernière. Cette table ronde vise à établir un diagnostic quantitatif des usages de TikTok ; Mme Laurence Allard nous rejoindra en visioconférence de 15 heures 15 à 15 heures 45.

Je vous remercie de déclarer, en préambule à vos interventions liminaires, tout intérêt public ou privé de nature à influencer vos déclarations. Avant de vous donner la parole, je rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Mehdi Arfaoui, Mme Jennifer Elbaz et M. Jérôme Pacouret prêtent successivement serment.)

M. Mehdi Arfaoui, sociologue au laboratoire d’innovation numérique de la Cnil. Le laboratoire d’innovation numérique de la Commission nationale de l’informatique et des libertés (Cnil) est pluridisciplinaire : il associe sciences sociales, informatique et design afin d’anticiper, par la recherche et l’expérimentation, les enjeux liés au numérique en général et à la protection des données en particulier.

Mme Jennifer Elbaz, chargée de mission éducation au numérique à la Cnil. La direction des relations avec les publics de la Cnil, à laquelle est rattachée la mission d’éducation au numérique, va à la rencontre des publics et répond à leurs demandes par téléphone, courrier et messagerie électronique.

M. Mehdi Arfaoui. Nous avons publié en 2024 une enquête intitulée « Numérique adolescent et vie privée », reposant sur 130 entretiens effectués avec des collégiens, 600 questionnaires recueillis auprès de parents de collégiens et un important travail de revue de la littérature consacrée à ce sujet.

Si ce travail n’avait pas initialement pour but d’étudier spécifiquement les risques psychologiques auxquels sont exposés les adolescents ni d’analyser un réseau social en particulier, nous nous efforcerons de montrer que notre recherche peut informer cette commission et répondre à ses préoccupations.

Mme Jennifer Elbaz. Nos analyses reposent sur un travail et une présence sur le terrain au long cours. Depuis 2023, nous avons rencontré directement et sensibilisé 13 000 mineurs ou leurs adultes prescripteurs – médiateurs, enseignants, parents –, ainsi que 7 500 adultes. Chacun détenant les droits sur ses données personnelles dès sa naissance, nous intervenons dans les classes dès le CE2 et nous produisons des ressources pédagogiques adaptées aux personnes de 7 à 120 ans !

M. Mehdi Arfaoui. Le principal enseignement de nos travaux de terrain est le rôle essentiel que jouent les outils numériques et les réseaux sociaux pour de nombreux collégiens, tant pour s’intégrer et développer des liens sociaux que pour construire leur identité. Il nous semble donc que pour instaurer un encadrement de l’usage des réseaux sociaux efficace et intelligible, qui ne donnerait pas lieu à des contournements, il faut absolument prendre en considération l’immense valeur sociale qu’ils représentent pour de nombreux adolescents. Dans le même temps, il est nécessaire de reconnaître que tous les réseaux sociaux n’ont pas la même valeur sociale et ne présentent pas les mêmes risques.

Sur TikTok, contrairement à d’autres applications fréquemment utilisées par les adolescents – Snapchat, WhatsApp, Instagram –, la communication entre pairs, entre camarades, est secondaire. D’après les collégiens que nous avons rencontrés, la pratique la plus commune consiste en une consommation unilatérale de contenus. Le récent lancement de TikTok Shop, sa version de téléachat, illustre bien la dynamique consumériste qui caractérise cette application.

TikTok mêle une caractéristique traditionnelle de la télévision, un flux continu unilatéral non maîtrisé, et des caractéristiques de médias plus contemporains grâce à ses algorithmes fins et personnalisés, dont l’objectif consiste à faire rester l’utilisateur en alternant des contenus familiers, surprenants ou réconfortants.

Mme Jennifer Elbaz. Tout ceci constitue évidemment un enjeu immense pour la collecte des données puisque chaque interaction avec une vidéo, le temps passé, le nombre de répétitions, le swipe – l’action de passer à la vidéo suivante – ou encore les partages, sont intégrés au profilage de chaque utilisateur, c’est-à-dire au portrait qui est fait de lui et dont dépendent les vidéos proposées ensuite.

Dans notre enquête, nous avons pu montrer que les adolescents avaient une connaissance au moins superficielle du fonctionnement des algorithmes et des logiques d’influence des plateformes ; ils savent que sur TikTok, le contenu ne leur est pas présenté par hasard. Il faut profiter de cette connaissance des adolescents pour continuer à les sensibiliser ; ils ont l’intuition du fonctionnement de l’algorithme, mais ne se posent pas encore la question de leur identité numérique et ne formalisent pas le portrait qu’ils font d’eux-mêmes lorsqu’ils sont en ligne.

M. Mehdi Arfaoui. Notre enquête a également montré que l’appropriation du numérique par les adolescents ne suit pas un cours linéaire : elle est jalonnée d’étapes de désappropriation de certains outils, de certaines pratiques et de certains usages, progressivement jugés inintéressants, nocifs ou trop attentatoires à leur vie privée.

Nous avons constaté que les collégiens en classe de quatrième et de troisième étaient souvent très critiques de leurs pratiques passées, lorsqu’ils étaient en sixième ou en cinquième. Ils évoquent fréquemment des changements d’habitudes, la suppression de contenus et de certaines pratiques, voire la suppression de comptes sur des réseaux sociaux.

Interroger des élèves de troisième sur leur ressenti quant aux pratiques de leurs cadets est assez fascinant : nombre d’entre eux considèrent que leurs petits frères et sœurs ont un accès trop étendu aux réseaux sociaux et que les règles appliquées par les parents sont insuffisantes. Les adolescents valorisent le cadre proposé par les adultes de leur entourage, quand ils ne le réclament pas explicitement.

Notre enquête a permis de montrer que TikTok est une plateforme très stigmatisée aux yeux des adolescents et de leurs parents, souvent décrite comme une application chronophage dont ils aimeraient se défaire. Sans surprise, dans notre échantillon, TikTok apparaît comme la plateforme faisant le plus souvent l’objet de désappropriation par les adolescents et leurs familles ; de nombreux témoignages d’adolescents détaillent les étapes de « sevrage » avant de quitter TikTok. Ces stigmates, s’ils sont utilisés à bon escient, peuvent être un levier pour la régulation. Plus généralement, un encadrement de TikTok pour les mineurs aurait plus de succès s’il parvenait à s’appuyer sur ces étapes de désappropriation.

Nous pourrions nous en tenir là et considérer que la population étudiante est prête à diminuer ou à arrêter l’utilisation de TikTok, puisqu’elle demande de l’aide pour y parvenir. La véritable difficulté tient en réalité à la capacité à intégrer ces efforts individuels à un processus collectif. Une étude, menée par des chercheurs des universités de Chicago et de Berkeley, a demandé à des étudiants combien il faudrait les payer pour qu’ils cessent de consulter TikTok, individuellement, pendant un mois ; la réponse tournait autour de 50 dollars. Il leur a ensuite été demandé combien il faudrait les payer pour priver l’ensemble des étudiants de leur accès à TikTok pendant un mois ; la réponse a été surprenante, puisque les étudiants non seulement ne demandaient pas à être payés, mais étaient prêts à débourser eux‑mêmes une somme d’argent pour obtenir ce résultat.

Ces résultats demeurent théoriques – il s’agit d’une étude économique et économétrique –, mais permettent de mettre l’accent sur le coût social que représente l’abandon d’une plateforme pour une personne seule. TikTok est pour les étudiants un outil de construction de liens, d’information et de partage. Toutefois, deux tiers des personnes interrogées dans cette enquête disent se sentir piégées et préféreraient utiliser d’autres plateformes pour effectuer les mêmes activités.

Si les usages d’une plateforme comme TikTok doivent être encadrés, il faut donc se demander comment procéder pour en faire un mouvement collectif plutôt qu’un choix individuel. Il faut également identifier des substituts permettant d’accéder à l’information ou de créer les liens sociaux.

Mme Jennifer Elbaz. La question des espaces de lien social et d’accès à l’information nous permet de soulever la question des inégalités sociales susceptibles de renforcer les inégalités face aux risques résultant de l’usage de TikTok.

La première inégalité concerne la médiation au numérique et à l’information. TikTok est une modalité d’accès à l’information, un espace non négligeable pour la majorité des enfants qui, sinon, n’auraient pas accès à autant d’éléments culturels. Toute velléité d’interdire doit donc s’accompagner d’une réflexion sur l’accès à l’information et aux médias en général.

Ensuite, les adolescents sont confrontés à l’inégalité d’accès aux activités extrascolaires et périscolaires. Pour ceux que nous avons interrogés, l’un des facteurs de consommation de TikTok est l’ennui. La plupart disent explicitement qu’ils préféreraient faire autre chose, mais tout le monde n’a pas la chance d’habiter un territoire proposant de nombreuses activités après l’école.

Enfin, l’inégalité de l’accompagnement parental est réelle. La règle en vigueur dans un collège ou une académie est difficile à appliquer lorsque les pratiques au sein même de la famille sont diamétralement opposées. Il n’est pas rare que des usages pratiqués à longueur de journée par des adultes soient interdits aux adolescents – l’utilisation du téléphone à table, par exemple.

Le numérique soulève des enjeux qui concernent la population tout entière. Il est judicieux de se préoccuper d’abord des plus jeunes, mais les risques que nous soulignons concernent aussi bien les adultes que les enfants.

M. le président Arthur Delaporte. Je vous remercie pour ces propos très percutants.

Madame Allard, je vous remercie de nous avoir rejoints, à distance. Avant de vous donner la parole, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Laurence Allard prête serment.)

Mme Laurence Allard, maîtresse de conférences en sciences de la communication, chercheuse à l’université Paris Sorbonne Nouvelle-Institut de recherche sur le cinéma et l’audiovisuel, enseignante à l’université de Lille, département études culturelles et médias. Comme celle des premiers intervenants, mon approche est sociologique, mais aussi sémiologique, puisque les interactions sur les réseaux sociaux sont médiatisées par le visionnage ou la création de contenus. L’approche sociologique permet d’étudier les personnes qui consultent ces contenus, le contexte dans lequel elles le font et les effets qui en découlent. L’approche sémiologique concerne la nature des contenus eux-mêmes – format, nature du support et du discours –, leurs effets et le type de producteurs – amateurs ou professionnels, individus ou fermes de contenus à la production industrialisée.

Depuis de nombreuses années, j’étudie les liens entre numérique, culture et société. J’ai commencé vers 1995 sur les forums de discussion. Différentes générations de services d’expression se sont succédé depuis et nous en sommes à l’âge des réseaux sociaux, qui reposent en grande partie sur des contenus vidéo.

Mes travaux portent sur l’individuation et la socialisation qui s’accomplissent sur ces scènes numériques. Je me suis intéressée aux modes de production – professionnels ou amateurs –, mais aussi aux modes de réception et de consommation de ces contenus, autour desquels on se socialise et on s’individue – comme on dit en sociologie.

Je me suis intéressée à TikTok en 2015, lorsque ce service portait encore le nom de Musical.ly. Cette application était alors utilisée de manière collective, surtout à des fins chorégraphiques ; à cette époque, on pouvait observer dans la rue des groupes d’adolescents se filmer en train de danser. L’industrie musicale s’est très vite intéressée à cette application, qui était un vivier de création ; celle-ci a été rachetée en 2017 et a pris le nom de TikTok.

La pandémie a accéléré ce que j’ai appelé la « tiktokisation » des usages numériques. L’application de niche pour les usages chorégraphiques et musicaux d’un jeune public est alors devenue grand public et a atteint une forme de maturité : les parents l’ont découverte pendant leur cohabitation avec les plus jeunes, alors que les adolescents utilisateurs de Musical.ly avaient eux aussi grandi et mûri. Les contenus se sont diversifiés, des personnalités politiques ont ouvert leurs propres comptes – parmi lesquels le président Macron et M. Jean-Luc Mélenchon ; l’application elle-même a produit des contenus plus politiques.

C’est à cette époque que j’ai été approchée par TikTok France pour expertiser une enquête, en 2020. La politique de l’entreprise consistait alors à casser cette image d’application de chorégraphie pour jeunes adolescents et à promouvoir celle d’un nouveau YouTube. Puisqu’il s’agissait de favoriser les créateurs et de diversifier les contenus, il m’a semblé important de mener une sociologie de la production de contenus.

L’analyse formelle des vidéos TikTok montre que nous avons affaire à un format assez particulier, qui suppose d’être consommé sous la forme d’une grande boucle : non seulement les vidéos défilent à mesure que l’on scrolle, mais sans défilement chaque vidéo tourne plusieurs fois. Outre la présentation par défilement, les contenus peuvent être assez similaires, même si les vidéos sont différentes : le système favorise la répétition et le martèlement. Le fonctionnement s’apparente à celui d’un mégaphone qui se serait enrayé : le même slogan revient une fois, deux fois, trois fois, etc. Il est donc très aisé de propager des messages de propagande.

Par ailleurs, l’algorithme enferme l’utilisateur dans ses goûts, en lui proposant des contenus similaires à ceux qu’il apprécie. En raison de sa structure formelle répétitive et de cet algorithme enfermant, TikTok est doublement répétitif, très efficace pour exposer les utilisateurs au même type de messages. Développée après toutes les autres, c’est l’application la plus performante pour affirmer et réaffirmer des contenus.

Pour ce qui est de la réception de ces boucles de vidéos, notamment par les plus jeunes, l’algorithme peut être perçu comme enfermant, mais aussi comme sécurisant. Certains utilisateurs, toujours exposés au même type de contenus, considèrent qu’ils se trouvent dans un espace sécurisé, parfois appelé safe place. Évidemment, il arrive que les contenus ne soient pas très safe et soient même violents ou porteurs d’une idéologie, ce qui peut devenir très préoccupant.

Pour comprendre les usages des plus jeunes, leur façon de recevoir les contenus, mais aussi de jouer avec les fonctionnalités qui leur sont proposées, il est important de les écouter ; malheureusement, on leur donne assez peu la parole. Ici encore, nous sommes des adultes parlant de pratiques juvéniles, et il est difficile d’éviter ce phénomène de ventriloquie. J’ignore comment de jeunes utilisateurs pourraient être représentés, mais je regrette qu’ils discutent essentiellement dans des espaces numériques ayant tendance à monopoliser leur parole ; les instances dans lesquelles ils peuvent s’exprimer sur différents sujets sont finalement assez peu nombreuses.

Mon utopie serait de « détiktokiser » la parole juvénile, afin notamment que les discussions se tenant sur TikTok se déplacent dans d’autres cercles. La démocratisation de la parole des jeunes est un vaste chantier, dont la mise en œuvre pourrait constituer une réponse au mécanisme d’enfermement de cette application.

M. le président Arthur Delaporte. Je vous remercie. Vous avez raison, il faut donner la parole aux jeunes. Nous avons décidé d’inviter M. Arfaoui et Mme Elbaz précisément parce qu’ils ont recueilli celle de nombreux adolescents. Nous avons également le projet, avec Mme la rapporteure, de nous déplacer sur le terrain pour discuter avec des jeunes de leurs usages de TikTok, afin que leur parole ne soit pas uniquement médiatisée ou projetée.

Vous avez indiqué avoir mené une expertise pour TikTok France dans le cadre d’une enquête. Or il convient de déclarer à cette commission tout lien d’intérêt éventuel ; avez-vous été rémunérée par TikTok France pour ce travail ?

Mme Laurence Allard. J’ai participé à une table ronde avec des représentants de TikTok France.

M. le président Arthur Delaporte. Ma question porte sur une éventuelle rémunération en contrepartie de votre participation.

Mme Laurence Allard. J’ai été rémunérée, comme je le suis pour toute participation à une activité de ce type.

M. le président Arthur Delaporte. À des fins de transparence, je vous demande de bien vouloir nous confirmer cette information à l’issue de la réunion, et nous indiquer les éventuels intérêts qui vous lient à d’autres plateformes ou réseaux sociaux.

Monsieur Pacouret, vous avez la parole.

M. Jérôme Pacouret, sociologue, postdoctorant associé à la chaire Société algorithmique de l’institut MIAI Grenoble Alpes, docteur associé au Centre européen de sociologie et de science politique. Je vous présenterai les premiers résultats de l’enquête « Feeding Bias », financée par l’Agence nationale de la recherche (ANR), au cours de laquelle nous avons adressé un questionnaire à un échantillon représentatif de la population française de 18 ans et plus sur son usage des réseaux sociaux en vue de s’informer. L’étude s’est concentrée sur seize réseaux populaires utilisés pour suivre l’actualité. Si elle révèle un usage massif de TikTok par les jeunes, elle relativise certains risques : aucun jeune ne s’informe exclusivement sur cette plateforme. Les jeunes utilisateurs des réseaux sociaux sont certes exposés à des fake news ou à des discours de haine, mais ils sont aussi les plus disposés à s’en protéger.

La massification de l’usage des réseaux sociaux s’accompagne de fortes variations entre les générations, souvent articulées à des inégalités socio-économiques et de genre. Les jeunes générations ont des usages plus intensifs et diversifiés que leurs aînés : trois quarts des 18-24 ans consultent au moins six réseaux chaque semaine, et deux tiers en consultent au moins quatre. Alors que Facebook a commencé à décliner, Instagram, Snapchat et plus récemment TikTok ont été popularisés par les plus jeunes. Ces trois réseaux, auxquels il faut ajouter YouTube et WhatsApp, sont consultés chaque semaine par plus de deux tiers des 18-24 ans ; 74 % de cette classe d’âge a une utilisation hebdomadaire de TikTok et 59 % une utilisation quotidienne. Les plus jeunes sont également surreprésentés sur des réseaux moins populaires comme X – anciennement Twitter – Discord, Twitch, Telegram ou autres.

Les utilisateurs exclusifs de TikTok n’existent pas, ou presque : seuls 1 % des usagers quotidiens de TikTok ne se rendent pas sur un autre réseau chaque jour, tandis que 80 % en consultent au moins quatre.

Si les nouvelles générations fréquentent davantage de réseaux que leurs aînés, elles en ont aussi une utilisation plus variée, combinant des pratiques transgénérationnelles – se divertir, communiquer avec ses proches – avec des usages plus rares et distinctifs – suivre l’actualité, partager des idées, faire des rencontres, travailler. Les jeunes hommes surinvestissent les contenus politiques et professionnels, tandis que les jeunes femmes privilégient la culture et sont davantage assignées à l’entretien des relations familiales et amicales.

Dans ce contexte de diversification des usages, certains réseaux sociaux sont devenus centraux dans l’accès des jeunes à l’actualité, en particulier TikTok sur lequel 45 % des 18-24 ans suivent des médias ou des journalistes. En la matière, TikTok n’est dépassé que par Instagram et arrive assez loin devant YouTube et d’autres réseaux populaires.

Toutefois, TikTok ne révolutionne pas les manières de s’informer. Il n’est jamais la seule source d’information des jeunes : 80 % de ceux qui le consultent pour ce motif suivent également l’actualité sur d’autres réseaux, et seulement 2 % des 18-24 ans s’informent exclusivement sur les réseaux sociaux. Ils y sont fortement surexposés à des nouveaux médias populaires parmi leur classe d’âge, comme Brut ou Hugo décrypte, mais aussi à des médias traditionnels comme TF1, BFM ou Le Monde. Enfin, les moins diplômés sont les moins enclins à suivre l’actualité, sur les réseaux sociaux ou ailleurs.

Les différentes générations sont inégalement exposées aux risques liés aux réseaux sociaux, et sont plus ou moins aptes à s’en protéger. Du fait de leurs usages intensifs et diversifiés des applications, les jeunes sont surexposés aux fausses informations, aux discours offensants et discriminants ainsi qu’aux attaques personnelles pouvant aller jusqu’au harcèlement. Mais les 18-24 ans sont aussi ceux qui ont le plus souvent empêché un réseau social de collecter certaines de leurs données personnelles, passé leur compte en mode privé ou désactivé un algorithme de recommandation.

Les jeunes sont par ailleurs les plus conscients du fonctionnement des algorithmes. Ils sont plus nombreux à savoir ou à percevoir que ces derniers hiérarchisent les informations en fonction de leurs habitudes ou de celles de personnes qui leur ressemblent, mais aussi en fonction de l’engagement et du débat que suscitent certaines publications.

Sur le plan normatif, la popularité de TikTok et d’autres réseaux sociaux chez les jeunes, la diversité de leurs usages et leur centralité dans l’accès à l’information encouragent à ne pas céder aux paniques morales qui accompagnent souvent les nouvelles pratiques juvéniles, depuis l’émergence du cinéma jusqu’à internet. La volonté du gouvernement et du législateur de protéger les plus jeunes de certains risques, si elle est compréhensible, ne doit pas s’exercer au détriment de leur liberté de s’informer et de communiquer, sur TikTok ou sur d’autres réseaux, comme ce fut le cas récemment en Nouvelle-Calédonie. Protéger la liberté d’expression et de communication des jeunes n’exclut toutefois pas de lutter contre des discours et des interactions nuisibles. Cela peut passer par l’éducation, pour renforcer la prise de conscience du rôle des algorithmes et lutter contre les violences sexistes et racistes en ligne, ou par un renforcement des contrôles, des contraintes, des sanctions et des réparations imposés aux propriétaires des réseaux : interdiction d’utiliser des données sur les pratiques des mineurs, obligation d’adapter les algorithmes aux choix des utilisateurs.

Mme Claire Marais-Beuil (RN). Vous avez évoqué les 18-24 ans, mais qu’en est-il des plus jeunes ? Quelle influence négative peuvent avoir les contenus des réseaux sociaux sur des adolescents de 13 ou 15 ans ?

Mme Laurence Allard. Structurellement, TikTok expose à des contenus répétitifs qui, par leur récurrence, ont une grande force d’influence. C’est l’application la plus efficace pour enfermer l’utilisateur dans ses centres d’intérêt et ses opinions, et donc pour les renforcer. Le problème ne tient pas tant au contenu des messages qu’à la forme de l’interface : elle est conçue autour de trois boucles – le défilement, la répétition, l’algorithme – qui renforcent la possibilité d’être influencé, négativement ou positivement. Il faut en avoir une approche sémiotique, indépendamment des contenus et des publics, car ces mécanismes valent autant pour les adultes que pour les jeunes.

M. Arnaud Saint-Martin (LFI-NFP). Vous décrivez un algorithme absorbant et aliénant, qui fige l’utilisateur dans une forme de consommation quasi compulsive. Certains usages inventifs de TikTok sont-ils capables de subvertir cet algorithme ? L’utilisateur peut-il faire un pas de côté et sortir du cadre répétitif imposé par la plateforme ?

Mme Laurence Allard. C’est bien sûr possible. TikTok est aussi un lieu d’expression de la création amateur, notamment musicale, et d’une fan culture très inventive ; l’industrie du disque le considère d’ailleurs comme un vivier de talents. Ses contenus peuvent être extrêmement créatifs. On y retrouve aussi les grands débats de société, ce qui en fait une scène de politisation et de sensibilisation au monde. Il n’en reste pas moins que d’un point de vue formel, l’algorithme de TikTok est plus enfermant que celui d’autres applications. Il est difficile pour l’utilisateur de le corriger, de le forcer à s’ouvrir à d’autres centres d’intérêt, d’autres tendances et d’autres cercles de contacts. Étant le dernier arrivé sur le marché, TikTok s’est doté de la capacité à capter l’attention – ou « captologie » – la plus efficace en tirant les enseignements des applications plus anciennes. On peut y être créatif tout en étant pris dans une consommation compulsive qui vous ramène toujours vers les contenus que vous appréciez déjà, aussi inventifs soient-ils.

Mme Laure Miller, rapporteure. Nous pouvons nous demander si TikTok nourrit vraiment les centres d’intérêt des utilisateurs : il suffit de s’arrêter un peu plus longtemps que d’habitude sur une vidéo, y compris parce qu’elle vous choque, pour que l’algorithme vous en propose de similaires. Cela peut avoir un effet extrêmement nocif. Sur les autres réseaux sociaux, en revanche, l’utilisateur doit s’abonner volontairement à des comptes, ce qui revient à déclarer ses centres d’intérêt.

Mme Laurence Allard. C’est ce que j’appelle la « soupe » TikTok : le fil mélange les genres au gré des centres d’intérêt de l’utilisateur et de ses contacts – politique, divertissement, musique… –, mais certains contenus de marques ou d’influenceurs sont aussi mis en avant pour des raisons commerciales. L’éditorialisation de TikTok expose les utilisateurs à toutes sortes de contenus, y compris à ceux qu’ils n’ont nécessairement envie de voir, dans une boucle qui indifférencie les sources, fait passer du rire aux larmes et peut entretenir un scepticisme généralisé. À force de naviguer du tragique au comique de façon indifférenciée, on risque d’adopter un rapport de second degré vis-à-vis du monde. Ce n’est pas la voie d’une prise de conscience citoyenne.

Mme Laure Miller, rapporteure. Vous avez constaté que certains collégiens, à partir de la classe de quatrième, prenaient conscience des effets négatifs de leurs pratiques et les corrigeaient, voire se désabonnaient de TikTok. Quelle est leur proportion ? Pour me rendre dans des établissements scolaires, j’ai l’impression qu’ils ne sont qu’une infime minorité.

Par ailleurs, les jeunes ont-ils conscience du degré de fiabilité des informations diffusées sur les réseaux ?

Vous insistez sur la place qu’occupent les réseaux sociaux dans la vie des adolescents, et vous appelez à en tenir compte si nous voulons les encadrer : il ne faudrait pas retirer aux jeunes ce qui compte tant pour eux. C’est un parti pris, car si les réseaux ont gagné une telle importance, c’est aussi parce que nous avons laissé faire. À l’inverse, nous pouvons considérer que leur omniprésence est néfaste pour les générations à venir, et qu’ils doivent être encadrés. Il faudrait alors, selon vous, imaginer des substituts – la question se posant en particulier pour l’accès à l’information et les interactions sociales. Quelles sont les motivations des jeunes qui se rendent sur les réseaux sociaux, en particulier sur TikTok ? Est-ce pour y trouver de l’information ou du divertissement ? Si nous encadrions strictement l’accès des jeunes à ce réseau, devrions-nous vraiment réfléchir à ce qui pourrait combler ce vide dans leur quotidien, comme vous semblez le penser ? L’ennui peut avoir des effets positifs. Quand les réseaux sociaux n’existaient pas, les jeunes savaient s’occuper, lire, même s’ils n’avaient pas accès à des activités extrascolaires du fait de leur catégorie sociale !

M. Mehdi Arfaoui. Notre intention n’est pas de protéger la place que les réseaux sociaux occupent dans la vie de jeunes, mais de montrer qu’ils se sont substitués à un ensemble de pratiques sociales. Supprimer, contrôler ou encadrer les réseaux nécessite de savoir ce qui s’y substituera. Il faut en particulier protéger l’accès à l’information et la possibilité d’interagir avec des camarades. En tant qu’adultes – parents, enseignants, autorités de régulation comme la Cnil, législateur… –, nous avons la responsabilité de leur proposer des substituts.

Le modèle d’interface de TikTok rend la plateforme attractive et séduisante. Pour rechercher de l’information ou interagir avec un proche, un jeune sera attiré par l’outil qui se présente comme le plus facile et agréable. Il faut en tenir compte dans la réflexion sur l’encadrement des réseaux, pour ne pas laisser un terrain vide.

L’ennui a certes des qualités. Il faut se réserver des moments d’ennui – si tant est que ce soit possible dans notre monde hyperconnecté –, mais des enfants nous ont confié qu’ils avaient difficilement accès aux transports et à des activités, si bien qu’ils se retrouvaient sur TikTok le samedi après-midi, quand la pluie les empêchait d’aller jouer dans le jardin. Souvent, leurs parents sont en situation précaire et peu disponibles. Devons-nous nous en mêler ? Si nous y voyons un problème global, social, il nous revient de comprendre pourquoi un enfant peut être dénué d’activité un samedi à 16 heures.

Nous avons rencontré 130 collégiens, et Jennifer Elbaz passe ses semaines dans des collèges. Je ne saurais quantifier la part de jeunes qui corrigent volontairement leur usage des réseaux sociaux, mais nous constatons un désintérêt indéniable à l’égard d’un ensemble de pratiques entre la sixième et la troisième. J’ai parlé du stigmate de TikTok, application qui fait massivement l’objet d’une désappropriation. Dans une classe, 40 % à 50 % des élèves peuvent avoir arrêté de la consulter. Il me paraît intéressant de vous livrer des commentaires déposés sur des vidéos YouTube qui parlent de TikTok : « J’ai 15 ans et j’ai enlevé TikTok et Instagram il y a environ un mois. Je peux constater plusieurs choses : je prends plus de plaisir pour les petites choses qui me paraissent normales ; je suis de meilleure humeur ; je sors plus de chez moi ; je fais mieux mes devoirs. Conclusion : TikTok est un poison » ; « Quand j’avais 10 ans, je voulais avoir TikTok comme mes amis, mais mes parents me l’ont interdit. Maintenant que j’ai 14 ans, je les remercie infiniment de me l’avoir interdit » ; « Perso, j’ai 14 ans, ça fait à peu près deux ans que je n’ai plus TikTok, je l’ai désinstallé moi-même parce que j’y passais trop de temps sans que ça m’apporte quelque chose ; j’étais vraiment pas bien à cette époque-là, depuis que je l’ai désinstallé ça va beaucoup mieux » ; « J’ai 14 ans et même si je n’ai jamais trop abusé de TikTok, Insta, etc., j’ai tout supprimé de mon téléphone et ça change ma vie : plus de temps pour réfléchir, plus de temps pour lire, pour pratiquer du sport. Maintenant je n’arrive même plus à rester dix minutes en swipe sans me dire : “Mais pourquoi je fais ça ?” » Il s’agit d’un phénomène collectif qui concerne une proportion non négligeable des enfants.

Au-delà du fait de quitter la plateforme, les collégiens abandonnent certaines pratiques. Un grand nombre d’entre eux nous ont dit : « À l’époque, j’étais fou, je postais ma tête sur TikTok ou sur Instagram ! » Ils ont compris ce que signifiait dévoiler son intimité en ligne. Lorsqu’on sensibilise des élèves de sixième ou de cinquième à ces risques, il faut être conscient qu’ils sont inscrits dans un processus d’apprentissage qui les conduira à faire des essais et des erreurs, puis à moduler leurs pratiques. Comme dans l’éducation et la parentalité, il faut laisser une marge d’autonomie, de liberté et d’expérience qui permet à l’enfant de se tromper et de développer des stratégies de protection.

Mme Jennifer Elbaz. Les jeunes identifient-ils les fake news ? Oui et non. Certains processus visant à les atteindre sont très fins, et les fake news sont difficiles à débusquer. Ils y parviennent davantage quand ils ont reçu une éducation aux médias et à l’information, dans leur établissement scolaire ou à la maison – il y a donc une inégalité en la matière.

Quant à leurs motivations, la plupart vont sur TikTok pour regarder des flux de vidéos qui concernent leurs intérêts premiers. Le genre entre en ligne de compte : les garçons visionnent des contenus qui concernent le football et les jeux vidéo – astuces de jeu, joueurs en train de faire une partie… Garçons et filles se rendent aussi sur TikTok pour s’amuser : beaucoup de vidéos les font rire, alors qu’ils vivent dans un environnement angoissant. Cela leur permet de décompresser.

Par quoi pourrait-on remplacer TikTok si son accès était limité ? Nous manquons d’un espace de réflexion sur les pratiques numériques. Nos enfants ont une vie numérique mais personne n’en parle avec eux. Ils n’en parlent pas à l’école – il n’y a pas de temps prévu pour cela – et ce n’est pas un sujet de discussion à la maison. Les seuls endroits où la question peut être abordée sont les espaces périscolaires et de médiation, notamment ceux qui sont animés par les extraordinaires acteurs de l’éducation populaire. Je recommanderais donc de créer un espace et un temps de réflexion sur les pratiques numériques, où nous pourrions inciter les jeunes à faire autre chose que de compulser les réseaux et les aider à mieux appréhender leur identité numérique : ai-je envie d’être en ligne ? Qu’est-ce que je dis de moi ? Comment je m’adresse aux autres ?

M. Jérôme Pacouret. Je dispose de données moins précises que les autres intervenants sur TikTok, mais je vous soumettrai quelques hypothèses susceptibles de nuancer certains de leurs propos.

Mme Allard a insisté sur l’enfermement, voire l’addiction que provoqueraient l’algorithme et les différentes boucles de TikTok. Dans la perspective de réguler les plateformes numériques et les réseaux sociaux, il faut être conscient que les usagers fréquentent plusieurs applications, sans s’enfermer dans l’une d’entre elles. De plus, les entreprises qui commercialisent les réseaux sociaux tendent à imiter les algorithmes concurrents et à mettre en place des dispositifs techniques de fidélisation de leur public. Je ne suis donc pas certain que des interventions ciblées uniquement sur TikTok puissent freiner le développement général d’algorithmes et de plateformes misant sur la fidélisation. Twitter et Instagram encouragent de plus en plus à rester sur leur plateforme plutôt qu’à aller visiter des sites extérieurs, par exemple. Il faut le prendre en considération.

Notre enquête ne comporte pas de données très précises sur les différents usages de TikTok et des réseaux sociaux dans leur ensemble, notamment ceux utilisés pour s’informer – je pourrai vous communiquer plus d’informations en complément de cette audition. Nous savons néanmoins qu’une petite moitié des jeunes utilisateurs de TikTok suit des médias d’information et des journalistes sur cette plateforme, à des degrés très divers.

Les discours sur les réseaux sociaux ont tendance à homogénéiser la jeunesse et à parler des jeunes utilisateurs d’un réseau comme d’une entité homogène. Cependant, si l’on s’intéresse à la diversité des usages de TikTok d’un point de vue sociologique, on observe que les jeunes générations ont des pratiques très variées selon leur niveau d’étude, leur genre, leur lieu de résidence et d’autres caractéristiques sociales qui constituent des déterminants classiques des variations des pratiques culturelles – ce qui vaut aussi pour les mineurs.

Il a été beaucoup question des contenus nuisibles pour les jeunes. Mais les jeunes suivent aussi largement sur TikTok des comptes tels que celui du Monde ou d’autres médias très légitimes. Est-ce le cas également des mineurs ? Nous ne le savons pas. Cependant, selon le niveau d’études de leurs parents et selon leur propre niveau scolaire, ils ont plus ou moins de chances d’être exposés à des contenus légitimes, de savoir distinguer les fausses informations des vraies et de s’informer, tout simplement. Selon une étude de M. Julien Boyadjian, le principal clivage dans l’usage que font les jeunes générations des réseaux sociaux se situe entre les étudiants de filières d’élites, souvent issus de classes sociales aisées, qui ont plus tendance à s’informer et à consulter des sources diversifiées, et ceux qui étudient dans des filières techniques, qui utilisent plutôt les réseaux sociaux à d’autres fins, écartant les contenus plus légitimes socialement. C’est pourquoi j’insiste sur l’extrême diversité dans l’usage des réseaux sociaux, qui varie en fonction de mécanismes bien connus.

Enfin, s’agissant des opinions négatives que les jeunes ont de TikTok – addiction, perte de temps… –, s’il est important de les entendre, il faut garder à l’esprit que leur point de vue sur les réseaux sociaux et sur leurs pratiques, notamment en matière d’information, est aussi construit par les adultes : différents acteurs comme vous et moi, des éditorialistes, des journalistes ou autres diffusent, pour diverses raisons, des idées très négatives sur les réseaux sociaux et leur impact en matière de santé, d’éducation ou de politique. Ces discours sur les méfaits des réseaux sociaux s’observent dans des espaces sociaux très variés, qui vont des repas en famille à la télévision. Par conséquent, les jeunes intériorisent l’approche des adultes sur les réseaux sociaux. D’un point de vue méthodologique, on pourrait se demander si le fait que des adultes viennent dans une classe recueillir la parole de jeunes adolescents sur leur manière d’utiliser internet ne produit pas un rapport spécifique par lequel le statut d’observateur inciterait les bons élèves, en particulier, à tenir le discours que les adultes attendent d’eux. Je voulais rappeler ces précautions.

Je ne me prononcerai pas directement sur l’opportunité d’interdire les réseaux sociaux ou d’empêcher qu’ils prennent une place prépondérante dans les pratiques culturelles des jeunes. Je rappelle simplement qu’à d’autres époques, le cinéma ou les jeux vidéo ont pu être considérés comme une perte de temps ou des sous-loisirs, mais pas une manière de se cultiver. Il faut donc garder cette profondeur historique en tête, pour ne pas passer à côté du fait que certains usages des réseaux sociaux deviendront probablement légitimes – cela s’observe déjà. D’autant que, pour répondre à une question posée tout à l’heure, il existe des usages en matière d’expression politique, artistique ou culturelle propres à TikTok ou à d’autres réseaux sociaux, pour des générations plus jeunes que les nôtres, qui appartiendront sans doute, d’ici à quelques décennies, au répertoire des pratiques culturelles légitimes.

Mme Laure Miller, rapporteure. Je comprends le raisonnement qui consiste à dire qu’interdire les réseaux sociaux conduirait aussi à ignorer des pratiques pertinentes et légitimes. Cela suppose de réussir à réguler et à contrôler la manière dont TikTok, en particulier, exploite sa plateforme. J’aimerais donc vous entendre sur la raison d’être économique de ces plateformes, qui n’ont aucun intérêt à faciliter la régulation et la modération que nous serions légitimement en droit de leur demander eu égard aux problèmes que posent certains contenus. Quelle piste serait efficace pour protéger nos enfants, sachant que la modération est pour l’instant toute relative ? Il est très facile de tomber sur des contenus qui ne devraient pas être diffusés. Le contrôle de l’âge n’est pas effectif, puisqu’il suffit de donner une fausse date de naissance et une fausse photographie pour accéder à la plateforme, et les contrôles a posteriori sont rares. Par conséquent, n’est-il pas illusoire de vouloir réguler un réseau social qui ne le veut pas de toute évidence ?

M. Jérôme Pacouret. Malheureusement, j’ai moins d’imagination en tant que régulateur que de savoir-faire sociologique. Je suis bien conscient que les entreprises qui commercialisent les réseaux sociaux sont aussi des acteurs politiquement et économiquement très puissants, qui résistent à toutes formes de régulation, qu’elles soient nationales ou internationales.

Si mon intervention visait en partie à protéger la liberté d’expression et de communication des jeunes sur les réseaux sociaux, elle n’est pas incompatible avec des formes de régulation. Certaines d’entre elles ont déjà été instaurées au niveau européen, comme la possibilité de désactiver l’algorithme de recommandation – disposition qui s’applique aussi à TikTok, même si elle est sans doute moins utilisée. Au-delà des efforts de pédagogie à mener pour apprendre aux jeunes à utiliser cette fonctionnalité, d’autres contraintes pourraient peser sur les algorithmes – pas seulement des contraintes de transparence, qui constituent des formes de régulation un peu molles et qui ont peu d’effets pratiques. Puisque les plateformes sont capables techniquement de désactiver leurs algorithmes de recommandation, elles pourraient aussi les ajuster en fonction de différents critères choisis par l’utilisateur, ses parents ou d’autres acteurs sociaux. Nous pourrions par exemple imaginer d’interdire aux réseaux sociaux d’utiliser les données qu’ils collectent sur les pratiques des mineurs afin de générer des phénomènes de fidélisation ou de dépendance. Cette piste mérite d’être examinée. Théoriquement, il est possible d’interdire aux plateformes d’utiliser ou de recueillir certaines données ; pourquoi ne pas envisager de le faire spécifiquement dans le cas des mineurs ?

Mme Claire Marais-Beuil (RN). Nous n’avons jamais considéré que les réseaux sociaux étaient une perte de temps. Nous essayons de comprendre l’influence de TikTok et de l’ajuster, pour en limiter les dérives – même si j’ai bien noté qu’outre les fausses informations, certains jeunes y trouvent aussi de la culture et de l’information.

En novembre 2024, le collectif Algos Victima a porté plainte contre le réseau TikTok pour incitation au suicide ou à des tentatives de suicide auprès d’enfants de 15 ans, ce qui prouve bien que ce réseau a une influence négative sur certains publics.

Vous avez souligné, monsieur Arfaoui, que certains jeunes, en vieillissant, se forgent leur propre démarche intellectuelle. Cependant, on nous a expliqué ce matin que, depuis 2020, l’utilisation de TikTok a augmenté de 354 %. Nous devons donc chercher à mieux réguler la plateforme, puisque ce qui est fait actuellement est insuffisant. Il faut, certes, prêter attention au profil des utilisateurs et aux contenus auxquels ils ont accès, mais il faut aussi réguler davantage, puisque ces plateformes représentent une menace non seulement pour la santé mentale de nos enfants mais pour leur vie. Et si les réseaux sociaux permettent en effet une ouverture à la culture, notamment dans les territoires qui en sont dépourvus, j’ajouterai que de nombreuses communes et collectivités se battent pour offrir de la culture, sans compter les divers dispositifs qui existent tels que le pass culture ; il n’y a donc pas que les réseaux sociaux pour accéder à la culture.

Que pouvons-nous faire pour la petite proportion de jeunes qui ne disposent pas de suffisamment de recul pour analyser ce qu’ils regardent sur les réseaux et qui dérivent vers le suicide ou l’anorexie ? Nous avons pléthore d’exemples en la matière.

M. Jérôme Pacouret. Je ne connais pas tous les cas que vous évoquez, mais l’anorexie est un sujet intéressant, comme celui de la radicalisation politique. Des travaux sociologiques – je pense en particulier à ceux de Mme Muriel Darmon sur l’anorexie – tendent à relativiser l’effet propre des médias. En effet, ce n’est pas parce qu’ils servent de source d’information ou d’interactions pouvant participer d’une « carrière d’anorexie » – pour reprendre une formule employée en sociologie –, qu’ils sont la cause de ce processus, qui trouve bien d’autres déterminants sociaux ou familiaux. Cela ne veut pas dire non plus que l’État ne doit pas empêcher la diffusion de certains discours nuisibles ou restreindre leur dissémination. Les obligations de modération des contenus qui pèsent sur les plateformes peuvent sans doute être améliorées.

À cet égard, l’objectif de modérer 100 % des contenus des réseaux sociaux me semble illusoire, étant donné l’immense volume des discours et des vidéos qui y circulent. Néanmoins, compte tenu de l’échec des systèmes de modération et face aux dommages qu’entraîne la diffusion de certaines informations sur les réseaux sociaux, on pourrait envisager d’instaurer des mécanismes de réparation, pour que les plateformes soient tenues économiquement responsables des effets sociaux induits par la défaillance de la modération et financent ces réparations, selon des modalités fixées par l’État ou d’autres acteurs sociaux.

Mme Claire Marais-Beuil (RN). En tant que médecin, je ne pense pas que les médias ne soient en rien responsables. Dès lors que TikTok diffuse une vidéo qui explique comment se faire vomir, elle a une influence négative : en quelques minutes, les gamines savent comment faire, ce qui constitue un grave danger.

M. Mehdi Arfaoui. Je souhaite répondre rapidement à M. Pacouret sur la méthodologie. L’objectif de notre enquête était de rapporter les propos des adolescents. Nous intégrons bien sûr dans notre méthodologie les constats et les limites d’une telle démarche, y compris le rapport de subordination qui se crée forcément dans les interactions. C’est pourquoi, dans les extraits que j’ai lus, j’ai retenu des commentaires écrits spontanément par des enfants sur internet. Nous sommes conscients que les adolescents intègrent les discours des adultes sur les méfaits des réseaux sociaux, et qu’il existe de nombreuses inégalités au sein des jeunes – nous les documentons dans nos travaux. Ne laissons donc pas penser que nous serions passés à côté de ces énormes éléphants méthodologiques.

Nous n’affirmons pas non plus que tous les adolescents veulent quitter TikTok. En revanche, nous constatons que certaines populations expriment des velléités de désappropriation de certains réseaux sociaux. En tant qu’adultes qui réfléchissent auprès d’eux, nous pourrions nous appuyer sur ces étapes de désappropriation pour les y aider. Tel est l’objectif, même s’ils ne sont qu’une minorité.

Notre propos n’est pas d’interdire ou de réguler 100 % des contenus ; ce serait illusoire. Néanmoins, si on fait preuve d’un peu d’imagination, des outils de régulation sont possibles. De nombreux chercheurs, en particulier Mme Célia Zolynski, réfléchissent par exemple au droit au paramétrage : il s’agit de permettre à l’utilisateur d’intervenir sur les paramètres utilisés par l’algorithme pour lui proposer des contenus. Cela fait partie des idées très intéressantes, et je vous encourage à lire les travaux de Mme Zolynski à ce sujet.

Il convient d’évoquer également la manière dont certaines applications recourent à des techniques ludiques pour stimuler les interactions – on parle de gamification. Pour vous donner un exemple parlant, Snapchat utilise un système de flammes, c’est-à-dire de points qui augmentent en fonction du nombre d’interactions quotidiennes sur l’application. Si vous n’avez pas d’interactions pendant une journée, vos points diminuent drastiquement et vous devez payer pour les récupérer, en souscrivant à un compte Premium ou autre – je connais assez mal le modèle économique, mais vous comprenez l’idée. Par ce système, on incite donc à utiliser davantage la plateforme et à fournir des données personnelles – puisqu’une interaction constitue une donnée personnelle –, sous peine de perdre potentiellement des points. Snapchat est une application essentielle dans les interactions entre adolescents et je suis favorable à ce qu’ils conservent ce genre d’espaces pour s’exprimer et créer du lien. En revanche, l’application a-t-elle besoin d’être combinée à des modalités d’interaction très incitatives qui poussent à communiquer pour gagner des points ? Je n’en suis pas sûr et je pense qu’il y a là des marges de régulation – c’est une opinion personnelle et je ne parle pas ici au nom de la Cnil.

M. le président Arthur Delaporte. Nous sommes conscients des biais méthodologiques qui existent lorsqu’on s’adresse à des jeunes : leur parole est construite, tout comme celle des adultes ; nous sommes les uns et les autres le reflet de constructions sociales, y compris en fonction des partis politiques auxquels nous appartenons, qui ne partagent pas le même corpus et dont nous sommes imprégnés.

Cela étant dit, au-delà de l’idée d’interdire certains contenus, avez-vous cherché à savoir auprès des jeunes interrogés s’ils étaient exposés à des contenus choquants et, si oui, quels étaient ceux qui revenaient le plus souvent ? Citent-ils certains influenceurs en particulier ? Nous partageons le constat général sur le rôle de l’algorithme, mais nous souhaiterions entrer davantage dans le détail et savoir ce que vous avez remarqué concrètement.

Mme Jennifer Elbaz. Lorsque nous nous rendons dans une classe pour informer et sensibiliser les élèves, nous avançons une sorte de carte joker, puisque nous sommes des intervenants extérieurs ne connaissant pas directement les enfants ; nous ne sommes ni l’enseignant qu’ils côtoient tous les jours ni un membre de la famille. Cette carte nous permet d’installer très rapidement un climat de confiance, de poser des questions et d’interagir avec les enfants, qui nous répondent librement, même si l’enseignant est dans la pièce.

S’agissant de l’accès aux contenus choquants, quasiment 100 % des enfants qui consultent seuls des plateformes diffusant des vidéos – réseaux sociaux, sites de jeux vidéo sur lesquels ils sont identifiés… – ont été confrontés à des contenus choquants. Le souci est que très peu d’entre eux ont l’occasion d’en parler à quelqu’un, car ils n’ont pas la notion de l’adulte de confiance. Ils n’ont pas conscience qu’en tant qu’enfants, ils ont des droits, dont celui de grandir dans un environnement bienveillant et d’être exemptés de visionner ce genre d’images. De ce fait, ils n’ont pas la possibilité de réguler leurs émotions et gardent pour eux toute la colère ou toute la tristesse ressenties face à ces contenus, sans pouvoir les partager avec personne, ni avec des amis, ni avec la famille, ni avec le corps enseignant qui fait pourtant partie des adultes de confiance possibles.

Donc, oui, nos enfants ont accès massivement, dès qu’ils sont connectés, à des contenus choquants divers et variés : violences d’adultes à adultes, d’adultes à enfants, d’enfants ou d’adultes à animaux également. Évidemment, ces contenus les choquent et ils ont envie d’en parler.

M. Mehdi Arfaoui. La faculté pour les enfants de parler des contenus choquants qu’ils ont vus en ligne est très inégalement répartie socialement. J’expliquais tout à l’heure que les parents sont souvent sur une ligne de crête, notamment en matière de numérique : ils doivent à la fois laisser une marge d’autonomie et de liberté à leurs enfants et, dans le même temps, être présents ; ils doivent fixer des règles pour encadrer, tout en restant suffisamment souples pour en discuter. Élaborer avec l’enfant un cadre d’interactions aussi sain et subtil, qui laisse de la liberté et un canal ouvert, est très chronophage et nécessite du temps et des ressources. Or toutes les familles n’en sont pas dotées de la même manière. Si 100 % des enfants sont exposés à des contenus violents, certains bénéficient d’un cadre bienveillant pour en parler à la maison, livrer leurs émotions, comprendre qu’une telle exposition n’est pas normale et qu’elle peut être évitée en paramétrant son téléphone différemment, tandis que d’autres n’ont pas cette possibilité. Il faut être conscient de ces inégalités sociales.

M. Jérôme Pacouret. Dans le cadre de notre étude, nous n’avons pas posé de questions spécifiques sur les contenus violents, offensants ou autres. En revanche, nous avons constaté que les 18-24 ans étaient surexposés non seulement aux fausses informations mais aussi à des discours offensants ou discriminants à l’égard de personnes ou de groupes sociaux ; cela concerne près de la moitié des jeunes, sans qu’il y ait un effet propre à TikTok. C’est énorme. Autre chiffre préoccupant : 20 % des jeunes utilisateurs de TikTok interrogés ont été personnellement la cible de discours dévalorisants, discriminants, haineux ou ont été harcelés au moins une fois par mois lors d’une période récente.

Ces types de discours peuvent avoir des origines variées. Plutôt que de les considérer comme des phénomènes naturels émanant des utilisateurs de TikTok ou d’autres réseaux sociaux, il serait intéressant de réfléchir à la professionnalisation des discours de haine qui circulent sur les réseaux. Je n’ai pas étudié le cas spécifique de TikTok mais, dans le cadre d’une étude portant sur la chaîne YouTube du magazine Valeurs actuelles, j’ai été amené à consulter des contenus racistes, violents ou politiquement problématiques, dont certains auteurs ont été poursuivis en justice. On observe une forme de professionnalisation des discours de haine, de même qu’il y a une professionnalisation des youtubeurs et des tiktokeurs qui vendent leurs services et représentent souvent des sources importantes de fausses informations ou de discours néfastes. Réfléchir à la professionnalisation de ces idéologues pourrait permettre de mieux lutter contre ces mauvais discours.

Il faudrait peut-être penser la régulation des réseaux sociaux sur le modèle de la loi relative à la liberté de la presse, en vertu de laquelle les auteurs comme les éditeurs peuvent être poursuivis en cas de discours illégaux. Il faudrait réfléchir à une double responsabilisation des plateformes et des producteurs de contenus nuisibles et aux poursuites ou aux contraintes que nous pourrions leur imposer.

M. le président Arthur Delaporte. Cette responsabilisation existe déjà – la Cnil pourra éventuellement compléter vos propos sur ce point.

Vous avez évoqué, madame Elbaz, des contenus présentant des violences d’adultes à adultes, d’adultes à enfants ou encore d’adultes à animaux, mais vous n’avez pas mentionné les contenus à caractère pornographique ou pédopornographique. Constatez-vous une spécificité de l’exposition à certains types de contenus choquants sur TikTok, ou tous les réseaux sociaux sont-ils concernés ?

Mme Jennifer Elbaz. Malgré notre position d’intervenants extérieurs qui nous permet de gagner une forme de confiance, les enfants restent très mutiques quant aux contenus à caractère sexuel. Par ailleurs, les contenus violents leur parviennent depuis n’importe quelle plateforme et nous n’avons pas constaté de spécificité propre à TikTok. En revanche, TikTok sait très bien faire entrer de nouvelles idées dans l’esprit des enfants, ce qui n’est pas forcément le cas de toutes les plateformes. Typiquement, pour vous donner un exemple d’idée instillée par la plateforme, il y a celle qui consiste à démonter la lame de son taille-crayon pour se scarifier.

M. le président Arthur Delaporte. Cet exemple a-t-il été mentionné à plusieurs reprises ? Pouvez-vous nous en donner d’autres ?

Mme Jennifer Elbaz. Lorsque nous avons commencé l’étude, tous les enfants racontaient avoir vu sur TikTok la vidéo d’un chat passé au mixeur. La plupart du temps, ils n’en avaient jamais parlé avec qui que ce soit, pas même avec leurs camarades, et ils découvraient ensemble qu’ils avaient tous vu la même vidéo. Ce genre de contenus circule très bien parmi les enfants.

M. Mehdi Arfaoui. Nous ne manquons pas de textes de loi en matière de responsabilisation. Pour la Cnil, ce qui fait défaut, ce ne sont pas les textes juridiques ni les dispositifs, mais un cadre uniformisé offrant une plus grande cohérence et une meilleure lisibilité. Des modèles existent, notamment dans la presse, pour lutter contre le risque de diffusion de certains contenus. J’insiste aussi sur un point : les autorités judiciaires et administratives manquent davantage de moyens que de textes de loi. Mieux vaudrait donc accroître les moyens plutôt que de procéder à une inflation législative.

M. le président Arthur Delaporte. La question des moyens se posera bien évidemment à la fin de nos travaux. Nous nous intéressons d’abord aux constats et nous réfléchirons ensuite à la manière d’y répondre. Nous aurons donc l’occasion d’auditionner de nouveau la Cnil, notamment sur ces enjeux de moyens.

M. Arnaud Saint-Martin. Je vous remercie pour ce travail d’objectivation à froid. Nous mesurons bien l’apport des sciences sociales dans ce genre de débats, notamment sur les pratiques culturelles qui suscitent parfois une panique morale, avec une forme de surenchère rhétorique ou manipulatoire qui construit des problèmes publics. Il est donc nécessaire d’aller à la source, d’enquêter et de recueillir la parole de la jeunesse, des jeunesses même, qu’il faut aborder avec tact et prudence au vu de leur grande fragmentation – vous en avez fait preuve et c’est très important.

Je n’ai pas de question précise à poser, mais je voulais dire que j’ai beaucoup appris sur ces pratiques culturelles. J’ai eu l’occasion de rencontrer moi-même dans ma circonscription, pendant les vacances scolaires, des jeunes de plusieurs générations, dont des très jeunes qui zonaient et étaient clairement désœuvrés. Nous avons eu des interactions un peu bizarres, médiées par le téléphone, au cours desquelles ils m’ont montré des flux de contenus sur TikTok qui témoignaient aussi de leur mal-être : il y était question de violences policières, d’oisiveté, du sentiment de relégation ou encore du désœuvrement de la jeunesse. Cela raconte quelque chose de la manière dont ils construisent leur rapport à l’autre, sachant qu’ils étaient en vase clos et s’embêtaient lourdement. Nous avons eu une discussion complètement improvisée, qui est devenue une enquête sociologique sauvage. Cela en dit long sur la manière dont ils construisent leur rapport à l’extérieur, lui aussi médié par cet artefact qui les capte complètement – la notion de captologie évoquée par Mme Allard est, sur ce point, intéressante. Eux-mêmes m’observaient pendant que je les observais, car ils avaient bien compris que j’étais là pour recueillir quelque chose – nous sommes, nous aussi, le reflet d’une construction sociale, comme l’a rappelé M. Delaporte. Ce n’est pas un hasard si notre questionnement arrive maintenant ; nous sommes pleins de biais.

Il est donc important de poser les constats de façon raisonnée, en dégonflant les baudruches et en comparant les plateformes – je sais que je n’ai pas emporté décision sur ce point –, car les jeunes sont aspirés par plusieurs flux concomitants et sont hypersollicités. Je retiens ce qu’a souligné M. Arfaoui, qui est très important : il y a des moments où ils ne sont pas occupés et où ces plateformes les bouffent littéralement, les heurtent et les aspirent dans un flux permanent. Il est important de réfléchir aux modalités de collecte de leur parole et de les écouter, d’une façon ou d’une autre. Il faut davantage enclencher une sociologie de la jeunesse qu’une sociologie du numérique, en s’intéressant en particulier aux modes de socialisation – vous avez évoqué les travaux de M. Darmon à ce sujet. C’est important, parce que nous avons affaire à des enfants d’une grande variété sociale, culturelle et géographique, qui ont des pratiques culturelles différentes. C’est pourquoi le travail de constat que vous menez est très précieux et je voulais souligner l’importance d’écouter les chercheurs.

M. le président Arthur Delaporte. Nous partageons les propos de M. Saint-Martin qui est à la fois législateur et sociologue, ce qui permet d’ouvrir des perspectives. Même si l’objectif n’est pas de rédiger une thèse sur les effets sociologiques de TikTok, nous voulons partir des travaux des sociologues pour éclairer notre compréhension globale. C’est pourquoi il était important de commencer par réfléchir ensemble aux biais de perception que nous avons tous, adultes, enfants et parents. Je vous remercie pour ces échanges très précieux.

4.   Audition de Mme Rayna Stamboliyska, consultante, experte en gestion des risques, cyber-sécurité et affaires européennes, présidente de RS Strategy, auteure de l’ouvrage La face cachée d’Internet (mercredi 23 avril 2025)

La Commission auditionne Mme Rayna Stamboliyska, consultante, experte en gestion des risques, cyber-sécurité et affaires européennes, présidente de RS Strategy, auteure de l’ouvrage La face cachée d’Internet ([4]).

M. le président Arthur Delaporte. Madame Stamboliyska, je vous remercie de prendre le temps de répondre à notre invitation.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations et je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Rayna Stamboliyska prête serment.)

Mme Rayna Stamboliyska, consultante, experte en gestion des risques, cybersécurité et affaires européennes, présidente de RS Strategy, auteure de La face cachée d’internet. Pour écarter d’emblée ce point, je n’ai aucun conflit d’intérêts à déclarer. Dans le cadre de mon activité professionnelle, je mets un point d’honneur à ne prendre aucun engagement avec des partenaires technologiques. Lorsque j’interviens auprès de différentes organisations en tant que consultante, le fait de n’entretenir aucun lien commercial avec des vendeurs de solutions technologiques me permet de m’exprimer librement, sans crainte d’être pénalisée par certaines prises de position.

Les efforts entrepris pour protéger les gens en ligne – les enfants et plus largement les mineurs n’étant qu’une partie de la population concernée – intègrent peu les dimensions de cybersécurité. Les organismes qui proposent du conseil, comme le mien, ne s’adressent pas aux particuliers. Les solutions technologiques qui existent ne leur sont pas non plus destinées. L’approche se concentre sur le volet organisationnel et laisse de côté le volet individuel, y compris lorsqu’il s’agit de l’usage personnel d’équipements professionnels. Des raisons juridiques l’expliquent, car un employeur ne peut pas tout contrôler lorsqu’il met un ordinateur à disposition d’un salarié par exemple. Néanmoins, la situation est également liée à l’absence d’outils dédiés aux particuliers et a fortiori aux personnes plus âgées ou mineures. Il existe certes le contrôle parental, mais l’ingénierie est peu mobilisée pour traduire des cadres juridiques tels que le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) au bénéfice des publics individuels.

Dans le cadre des cours que je donne à Sciences Po Paris, il est très difficile de concilier l’enseignement de cet aspect organisationnel avec les interrogations légitimes que les étudiants, dont la moyenne d’âge est comprise entre 20 et 24 ans, ont vis-à-vis de leurs propres pratiques.

Je salue votre initiative, d’autant plus qu’il s’agit d’une commission d’enquête et non d’une mission d’information. Peu de recherches sont menées sur les conséquences de la forte présence en ligne des jeunes publics. Je ne fais pas référence à des sujets polémiques ou controversés comme le temps d’exposition aux écrans. Mon propos concerne les effets et les risques psychosociaux liés au fait d’avoir une socialité majoritairement intermédiée par la technologie, en l’occurrence les réseaux sociaux et les messageries instantanées, même si ces dernières ressemblent de plus en plus à des réseaux sociaux, voire à des marketplaces.

Mme Laure Miller, rapporteure. Si les individus ont peu de solutions technologiques à leur disposition, considérez-vous que le rôle de la puissance publique – et donc potentiellement du législateur – soit de trouver les moyens de les protéger ?

Pensez-vous que les dispositifs actuels, comme le RGPD ou le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), sont suffisants pour protéger les individus ? Vous sembliez sous-entendre qu’ils n’ont pas été plus loin en raison d’une impossibilité technologique. Est-ce le cas ?

Mme Rayna Stamboliyska. Certains aspects sociaux et sociétaux sont difficiles à traduire dans la technologie, surtout qu’ils percutent de manière très forte et très rapide des sujets de libertés fondamentales. Néanmoins, les incitations à décliner le cadre réglementaire dans des outils technologiques restent très limitées.

Avec le RGPD, nous avons constaté l’apparition des technologies de renforcement de la vie privée (Privacy-Enhancing Technologies ou PETs). Si j’étais taquine, je dirais que les outils de gestion des cookies pourraient y être assimilés, mais il en existe d’autres. Ces technologies ont émergé pour répondre aux nouvelles exigences en matière de responsabilité et de redevabilité qui s’imposaient aux organisations traitant des données à caractère personnel. Tout cela reste cependant balbutiant et rien n’est fait pour encourager les fournisseurs de technologies à proposer des solutions plus performantes. Dans le discours dominant, la priorité est de trouver comment donner l’impression de respecter les règles.

Le problème est beaucoup plus profond que la technologie. En tant qu’écosystème, nous avons du mal à prendre conscience de l’importance d’avoir des règles de vie en commun et de les respecter. Tout le monde pense les appliquer, mais la plupart des gens ne sont pas capables de démontrer qu’ils le font vraiment. Cette dichotomie se retrouve dans l’absence de solutions technologiques adaptées. Il en existe pour les organisations, notamment pour la collecte et le traitement des données à caractère personnel dans le cadre du RGPD. La situation est plus délicate pour les particuliers. Des contraintes peuvent vous être imposées par votre employeur pour ce qui relève de votre activité professionnelle, mais vous faites ce que vous voulez dans votre vie privée.

Je regrette l’absence de débats concernant ces sujets, dont les acteurs commerciaux ne s’emparent pas non plus. Rien n’est fait pour étendre la prise en compte des exigences du cadre légal, de ses interdictions et de ses limites, à la sphère individuelle et ainsi en améliorer la protection, au-delà de l’installation d’un antivirus sur son ordinateur. Comme ces discussions restent rares et anecdotiques, de nombreuses personnes, dont des élus, veulent interdire et verrouiller ceci ou cela et les poncifs se multiplient sur le fait que tout est la faute d’internet ou des jeux vidéo. Il faudrait au contraire approfondir la réflexion et chercher de quoi la situation actuelle est le symptôme.

Sur TikTok, nous assistons par exemple à la résurgence des phénomènes « pro-ana », qui touchent en particulier les jeunes filles atteintes de troubles du comportement alimentaire. Des sites et des forums existaient toutefois depuis plus de dix ans. Des livres ont été écrits à ce sujet, notamment par les sociologues Antonio Casilli, de Mines-Télécom, et Paola Tubaro. Ils ont expliqué qu’il ne fallait pas interdire ces espaces, car ils représentaient un élément de socialité essentiel pour les jeunes qui ont des problèmes. Ils trouvent du soutien au sein de ces communautés, même si elles ont également des aspects négatifs comme l’effet d’entraînement. Tout n’est pas blanc ou noir. J’ai également retrouvé un article  que je pourrai vous envoyer  de chercheurs italiens qui ont étudié les interactions avec les réseaux sociaux de jeunes souffrant de troubles du comportement alimentaire, qui plus est en période de confinement. Ils soulignent également le soutien que ces plateformes, y compris TikTok, peuvent apporter à la guérison.

Comment concrétiser la volonté et la nécessité de protéger les personnes qui sont en ligne, en particulier les mineurs, qui sont extrêmement influençables et dont la psyché est en formation ? L’enjeu est d’identifier la manière de répondre à un problème de société grâce à la technologie. C’est la responsabilité des vendeurs de solutions, mais également celle d’autres acteurs, notamment de santé publique.

M. le président Arthur Delaporte. S’agissant de l’exposition à différents contenus, quelle part de responsabilité est imputable aux individus ou aux acteurs publics et quelle part est imputable à la plateforme ?

Par ailleurs, les échanges qui ont lieu sur la plateforme s’inscrivent-ils vraiment dans la continuité des forums qui existaient il y a une dizaine d’années ? Intuitivement, nous avons l’impression que ce ne sont pas les mêmes types d’interactions au sein des communautés. Quelles sont les différences qui peuvent être constatées et quels sont les risques qui en découlent ?

Mme Rayna Stamboliyska. Pour moi, la responsabilité est partagée. Les parents doivent échanger en permanence avec leurs enfants, mais, bien que ces interactions soient essentielles, nous ne pouvons pas tout déléguer aux familles ou aux enseignants. C’est d’ailleurs la raison pour laquelle le législateur vote des lois qui s’appliquent aux différents acteurs.

La responsabilité des plateformes – et de la plateforme dont nous parlons en particulier –, est de mobiliser la technologie pour permettre, ou ne pas permettre, des effets d’entraînement ou certains types d’interactions qui ne devraient pas avoir lieu sans le contrôle d’un adulte par exemple. Elles agissent toutefois dans un cadre défini par le RGPD et le DSA.

Le RGPD est actuellement en révision. Le moment est donc opportun pour corriger ce qui dysfonctionne, comme l’obligation de passer par une autorité chef de file. Il s’agit pratiquement toujours de l’autorité irlandaise, puisque les grandes plateformes ont installé leur siège européen en Irlande. Or elle a tendance à se montrer conciliante à leur égard. Il devrait être possible de saisir l’autorité de protection des données à caractère personnel du pays dans lequel on réside, pour avoir des échanges dans une langue que l’on maîtrise. Il serait ainsi plus facile d’exercer ses droits fondamentaux garantis par le RGPD. En Grèce, des plaignants ont fait appel à des membres de la société civile, en l’occurrence l’association Noyb et Max Schrems, afin de saisir, par leur entremise, l’équivalent de la Commission nationale de l’informatique et des libertés (CNIL) irlandaise et de provoquer un contrôle de TikTok concernant le transfert de données à caractère personnel vers la Chine. Ce processus est très complexe, ce qui limite la capacité des individus à exercer leurs droits, pourtant garantis par le RGPD.

Sur le papier, le DSA est très intéressant. Il semble accorder beaucoup de latitude à la Commission européenne pour mener des investigations. La réalité est toutefois plus nuancée.

Le DSA définit les responsabilités des plateformes s’agissant de la diffusion de contenus problématiques en ligne. Cette catégorie est très large, puisqu’elle recouvre à la fois les contenus de nature terroriste ou les contenus relatifs à des abus sexuels sur mineurs par exemple. La Commission peut mener des investigations pour contrôler comment ces aspects sont gérés. Les plateformes doivent en outre produire des rapports de transparence et faire appel à des tiers indépendants, qui auditent, article par article, la manière dont elles se conforment aux exigences du DSA.

Le DSA étant applicable dans son intégralité depuis le 17 février 2024, les premiers rapports de transparence et d’audit ont été publiés à la fin de l’année dernière. Or parmi les grandes plateformes, seule Wikipédia a obtenu une note positive de la part d’auditeurs indépendants. X, Meta avec Instagram et Facebook, ou TikTok ont des notes négatives.

Compte tenu de mon travail, je lis ces rapports, mais ce n’est pas le cas de 99 % des gens. S’ils les lisaient, ils ne les comprendraient probablement pas et, de toute façon, n’en tireraient pas pour conséquence d’engager des actions vis-à-vis de ces plateformes. Nous sommes confrontés à une forme de plafond de verre. C’est bien de définir des règles, mais il faut aussi s’assurer qu’elles soient comprises par les principaux concernés et leur donner de véritables leviers pour les faire respecter. Selon moi, le sujet ne relève pas tant du législateur que des autorités de contrôle.

Le RGPD par exemple oblige les plateformes et les organismes qui traitent de données à caractère personnel à disposer de politiques de confidentialité compréhensibles par tout un chacun, et non seulement par des juristes. Un audit atil déjà réalisé ? Les organisations qui continuent à avoir des politiques de confidentialité écrites en tout petits caractères, rédigées par des juristes pour des juristes, ont-elles été sanctionnées ? Non, ce n’est pas le cas.

Si les recommandations ne suffisent pas, il faut forcer ceux qui ne respectent pas la loi à s’y conformer. La loi n’est pas une option. J’ignore si la solution consiste à ce que le législateur renforce les sanctions. J’ai quelques idées à ce sujet, mais ce n’est peut-être pas le lieu pour les exprimer.

Mme Laure Miller, rapporteure. Au contraire, vos suggestions nous intéressent.

Un premier pas a été franchi avec diverses législations et réglementations qui permettent de mettre l’accent sur la responsabilité des plateformes. Toutefois, nous ne pouvons pas nous contenter de rapports et de recommandations. Nous devons peut-être passer un cap supplémentaire.

Vous considérez que la responsabilité est partagée et qu’elle incombe aussi aux parents notamment. De nombreux pays à travers le monde ont pris des mesures pour réguler, voire interdire, certaines plateformes. En France, nous avons constitué cette commission d’enquête à l’Assemble nationale, après une initiative similaire au Sénat. Diriez-vous que cette prise de conscience, que nous constatons au niveau des États, existe également chez nos concitoyens ? Perçoivent-ils les limites et les dangers des réseaux sociaux, précisément de TikTok ? Les pouvoirs publics devraient-ils renforcer la sensibilisation, afin de réussir à faire passer ce message dans tous les foyers français ?

Par ailleurs, établiriez-vous un lien de causalité direct entre l’utilisation de TikTok par un enfant ou un adolescent et la dégradation de sa santé mentale ?

Mme Rayna Stamboliyska. Cette prise de conscience existe. Néanmoins, des sensibilités différentes subsistent : ce qui est dangereux pour moi ne l’est pas nécessairement pour vous ou pour mes voisins, et inversement.

Quand j’ai reçu votre convocation, j’ai discuté avec mes étudiants et avec des parents d’adolescents et d’adolescentes. La prise de conscience existe, mais quels en sont les effets ? Mes étudiants ne cautionnent pas les comportements des plus jeunes. Ils essayent parfois de les aider, mais affichent surtout une forme de résignation. Je les ai également interrogés sur la réaction de leurs parents, dont la priorité semble être les études. Cette attitude se comprend. Les parents encouragent et aident leurs enfants à grandir et à se construire. En revanche, ils les laissent agir un peu comme ils le souhaitent sur leur temps libre, y compris par fatalisme.

Certaines actions pourraient être « sponsorisées » par les pouvoirs publics, tout en utilisant des canaux et des modes de communication que les publics cibles peuvent comprendre. Si les messages viennent de gens comme vous ou moi, nous n’aurons comme réponse qu’un « OK Boomer » qui n’apportera rien. Nous ne serons pas écoutés. Il faut que les messages viennent de gens qui sont reconnus et crus par les jeunes. Nous pouvons, en revanche, nous adresser aux parents, sans toutefois tenir un discours de victimisation ou de culpabilisation.

Vous m’avez interrogée sur les différences entre les forums d’il y a dix ans et les mouvements actuels, notamment dans le domaine « pro-ana ». La principale tient à la volumétrie et à la viralité des contenus, ainsi qu’à l’utilisation de l’image et de la vidéo, notamment sur TikTok. Par le passé, les échanges étaient principalement textuels et se déroulaient par l’intermédiaire de sites plus ou moins statiques. Ce changement n’est pas bénéfique, car l’impact de ce que l’on voit est beaucoup plus fort.

J’ai fait beaucoup de statistiques dans ma carrière et je suis assez réticente à parler de lien de causalité. Néanmoins, des études montrent que les représentations véhiculées par des contenus multimédias sur les réseaux sociaux affectent la perception que les personnes qui les reçoivent ont d’eux-mêmes. L’image de soi peut s’en trouver altérée.

Nous avons constaté un regain d’engouement pour la chirurgie plastique après que des influenceuses ont montré des photos de leur corps, notamment sur Instagram. Beaucoup d’études ont été publiées à ce sujet. Elles sont de plus en plus nombreuses, comme celles d’Amnesty International, à montrer que l’exposition à certains types de contenus diffusés sur TikTok entraîne une dépréciation de l’image que les jeunes ont d’eux-mêmes. Je pourrais vous envoyer les liens vers ces travaux après l’audition.

Nous ne devons pas oublier les jeunes garçons. Des études commencent à mettre en évidence les conséquences de l’exposition à des contenus émanant de la manosphère, qui véhiculent des images stéréotypées de la masculinité. Certains influenceurs, comme Andrew Tate et d’autres prônent en outre une vision très toxique des rapports entre les femmes et les hommes, des questions de genre et de la répartition des rôles sociaux.

M. le président Arthur Delaporte. Je vais laisser la parole aux députés qui souhaitent s’exprimer.

Vous pourrez nous envoyer à l’issue de l’audition les différents éléments que vous avez mentionnés, en particulier bibliographiques, pour alimenter notre réflexion. Si vous le souhaitez, vous pourrez également nous adresser des compléments sur des points que vous n’avez pas pu évoquer. Nous sommes notamment intéressés par ce qui concerne les solutions technologiques qui permettraient d’assurer la protection des usagers, en précisant éventuellement les différentes options législatives.

M. Thierry Sother (SOC). Vous avez évoqué le DSA et les avis émis par des tiers indépendants. Selon vous, quel serait l’impact d’une obligation d’affichage de la notation, dans l’esprit du nutri-score ou de la mention d’un âge minimum pour le visionnage de certains films ? Une telle mesure serait-elle perçue uniquement comme un outil de « boomer » ? Pourrait-elle avoir un effet ?

Mme Isabelle Rauch (HOR). Vous y avez déjà répondu en partie, mais l’impact des plateformes est-il différencié entre les jeunes filles et les jeunes garçons ? Est-il possible de le mesurer ? Le ciblage doit-il être différent selon le sexe et, le cas échéant, quelles adaptations seraient nécessaires ?

M. Thierry Perez (RN). Selon moi, TikTok est une catastrophe sociétale et psychologique. Néanmoins, l’application existe. Une solution technique, s’appuyant peut-être sur l’intelligence artificielle (IA), pourrait-elle au moins protéger les enfants de moins de 13 ans et les empêcher d’accéder à cette plateforme ? Nous constatons que des enfants de 8, 9 ou 10 ans en sont déjà des utilisateurs très actifs, ce qui les expose à des contenus qui ne sont pas du tout appropriés à leur âge.

Mme Rayna Stamboliyska. L’idée d’un mécanisme comme le nutri-score est intéressante. Néanmoins, lorsqu’un film est marqué comme réservé aux plus de 18 ans parce qu’il est trop violent, je le regarde quand même. Je mets juste ma main devant mes yeux pour ne pas voir certaines images. De la même façon, cessonsnous de consommer certains aliments parce qu’ils sont classés « D » ?

Faudrait-il dépasser l’incitation et faire en sorte que l’affichage soit véritablement respecté ? La solution serait-elle d’associer le marquage avec des moyens technologiques pour interdire le visionnage de certains contenus, par exemple aux moins de 13 ans ? Il n’est pas facile de savoir jusqu’où aller.

L’IA est à la mode, mais les pratiques ne sont pas toujours vertueuses, comme la prédation de contenus. Je serai donc assez prudente s’agissant de son utilisation. Nous disposons déjà de technologies, qui ne sont pas de l’IA générative comme ChatGPT, mais qui sont aussi de l’IA, et qui sont notamment utilisées dans les filtres antispam. La difficulté est, encore une fois, de parvenir à les imposer aux principaux concernés, en l’occurrence les plateformes. TikTok par exemple n’est pas très enclin à ce que des chercheurs accèdent aux données de la plateforme, alors que le DSA le prévoit. Donc, si nous fixons de nouvelles obligations, comment nous assurer qu’elles seront respectées ? C’est le véritable enjeu.

M. le président Arthur Delaporte. Je vous remercie.

5.   Audition de Mme Océane Herrero, journaliste, auteure de l’ouvrage Le système TikTok. Comment la plateforme chinoise modèle nos vies (mercredi 23 avril 2025)

Puis la Commission auditionne Mme Océane Herrero, journaliste, auteure de l’ouvrage Le système TikTok. Comment la plateforme chinoise modèle nos vies ([5]).

M. le président Arthur Delaporte. Madame Herrero, je vous remercie de prendre le temps de répondre à notre invitation.

Avant de vous donner la parole pour une intervention liminaire qui précèdera notre échange, je vous prie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations – par exemple si vous avez été rémunérée par une plateforme numérique – et je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Océane Herrero prête serment.)

Mme Océane Herrero, journaliste, auteure de Le système TikTok. Comment la plateforme chinoise modèle nos vies. Je n’ai pas de lien d’intérêt avec des entreprises ou plateformes dont il sera question. Je suis uniquement rémunérée par mon employeur, pour mon activité de journaliste.

J’avais commencé à m’intéresser à TikTok dans ma rédaction de l’époque et mon travail s’est poursuivi par la rédaction de ce livre, que j’ai débutée en 2022. Même si son audience se développait assez rapidement dans la société française, l’image de TikTok restait celle d’une application pour adolescents réalisant des chorégraphies. Ce n’était pas encore un sujet politique et mon thème de recherche était perçu comme un peu frivole par ceux qui suivaient de loin l’actualité des réseaux sociaux.

Trois ans plus tard, TikTok a connu une croissance exponentielle et, selon Médiamétrie, compte plus de 22,8 millions d’utilisateurs en France. Ils passent en moyenne une heure et quarante-sept minutes par jour sur l’application. Elle est devenue une plateforme où les utilisateurs se rendent pour se divertir, savoir quoi porter, quoi regarder, quoi manger et parfois même pour s’informer. C’est un espace de découverte et de formation d’identité avec un fort pouvoir prescripteur, qui concurrence la télévision, les sites d’information et les autres réseaux sociaux pour capter notre attention.

La situation politique de l’application a également évolué en trois ans, ce qui explique que nous cherchions aujourd’hui à évaluer son impact sur la jeunesse. Alors qu’elle est l’une des plus téléchargées par les adolescents, elle est également d’origine chinoise. De ce fait, elle est perçue par les autorités et les régulateurs comme représentant un enjeu à la fois de santé publique et de géopolitique, nécessitant des mesures spécifiques et souvent fortes.

TikTok tire son originalité de deux innovations principales, que sont un fil de vidéos verticales, immersif et sans fin, et un algorithme perfectionné qui trouve à tout instant la vidéo qui va plaire à l’utilisateur et l’inciter à rester plus longtemps sur l’application pour regarder toujours plus de contenus.

Au cours des dernières années, le modèle de TikTok a été largement copié et imité par ses concurrents. Il influence la manière dont nous consommons tous des contenus en ligne. Instagram et X proposent désormais l’équivalent du fil « Pour toi », avec le même type de sélection algorithmique. Ces plateformes ont mis en place des fils de vidéos verticales, comme l’ont également fait Facebook, Snapchat ou YouTube.

Nous pouvons choisir de ne pas installer TikTok, mais il est très difficile d’avoir une expérience des réseaux sociaux qui ne soit pas influencée par son modèle et par ce qu’il a pu apporter comme innovation en matière de consommation de contenus en ligne. Devons-nous nous en inquiéter ? En tout cas, les régulateurs et de nombreux professionnels de la santé mentale ou de la jeunesse se penchent sur cette question.

Au cours de la préparation de mon livre, j’ai échangé avec des utilisateurs, des psychologues et des responsables de la plateforme pour identifier les risques. Plusieurs éléments sont revenus assez régulièrement. Chez les utilisateurs, l’inquiétude la plus fréquente concerne l’impact de TikTok sur le temps d’attention. Dès qu’ils ont cinq minutes libres dans une journée, ils ont du mal à ne pas ouvrir l’application. Beaucoup indiquent que faire des tâches dans la longueur, comme lire un livre ou regarder un film, voire un épisode d’une série, devient un défi pour leur capacité de concentration. La manière dont TikTok parvient à créer une addiction est explorée par des professionnels et par la plateforme elle-même. L’application renforcerait en outre le cyberharcèlement et affecterait négativement l’image que les jeunes ont d’eux-mêmes, en particulier les jeunes filles.

 Concernant la diffusion de contenus dangereux, des manquements assez manifestes de la part de la plateforme ont pu être documentés par des confrères en France et à l’étranger et par moi-même, à la fois par le biais d’observations et d’entretiens avec des modérateurs. Certains de ces manquements ressurgissent dans l’actualité, notamment à propos des contenus liés à l’image du corps et à la promotion des troubles du comportement alimentaire, comme la tendance SkinnyTok.

Ces problèmes qui persistent depuis plusieurs années portent atteinte à l’image de TikTok, qui a déployé des stratégies de communication et d’affaires publiques pour lever les inquiétudes et tenter d’améliorer son image auprès du grand public et des régulateurs. Elles nous éclairent sur les critiques que la plateforme souhaite contrer rapidement, comme ses liens avec la Chine. Elle a également noué des partenariats culturels, notamment avec le Salon du livre à Paris ou le Festival de Cannes, et mène des campagnes de publicité en faveur de sa communauté littéraire, appelée BookTok. La crainte d’être perçue comme ayant un impact négatif sur la jeunesse et de ne pas être un espace de culture et d’apprentissage l’a donc fait réagir.

La plateforme a par ailleurs multiplié les échanges et organisé des déplacements pour la presse dans les centres dédiés à la sécurité de l’application et à la modération. Elle a renforcé sa coopération avec les autorités, notamment françaises, pour normaliser sa position dans le paysage des réseaux sociaux.

Néanmoins, TikTok continue de faire face à une pression politique sans doute plus intense que d’autres plateformes. Les États-Unis ont menacé l’application d’interdiction et d’autres pays ont déjà mis cette menace à exécution, sur fond de conflits géopolitiques avec la Chine. Elle est également visée par plusieurs enquêtes au niveau européen.

M. le président Arthur Delaporte. J’ai été très intéressé par votre livre, qui a le mérite de mettre en lumière certains éléments sur lesquels je reviendrai après l’intervention de Mme la rapporteure.

Mme Laure Miller, rapporteure. En prenant un peu de recul, on s’aperçoit que TikTok n’a aucun intérêt à modifier son algorithme, voire à modérer certains contenus. Nos efforts pour encadrer ou réguler son activité ne sont-ils pas vains ? Le bras de fer n’est-il pas plus compliqué que nous pourrions d’emblée le penser ? Quel est votre point de vue à ce sujet ? La lecture de votre ouvrage permet de réaliser la puissance de cette plateforme, qui constitue un vrai de fait de société. Puisqu’elle n’a aucun intérêt à revoir ses pratiques, comment l’y contraindre ? La solution n’est-elle pas de prendre des décisions plus radicales ?

Par ailleurs, lorsque j’ai interrogé la personne que nous avons auditionnée avant vous sur l’existence d’un lien de causalité entre l’usage de TikTok et la dégradation de la santé mentale des jeunes, elle a globalement expliqué qu’un contenu pouvait être perçu comme problématique ou dangereux par certains parents, mais pas par d’autres. Sa réponse m’a fait penser à un possible parallèle avec l’alcool ou la cigarette. Il fut un temps où leur nocivité pour la santé n’était pas si évidente. Puisque le diagnostic n’était pas clairement posé, de jeunes gens pouvaient boire ou fumer sans que cela soulève de difficulté. Pour mieux sensibiliser les parents et accélérer la prise de conscience, ne faudrait-il pas poser un diagnostic objectif et incontestable sur la nocivité de TikTok pour la santé mentale des jeunes ?

Mme Océane Herrero. Concernant la volonté de TikTok de prendre en compte la sécurité des utilisateurs dans sa politique de modération, nous constatons que les plateformes ne sont pas immunisées par rapport à une dégradation de leur image publique. Lorsque X – ex-Twitter – a modifié ses règles de modération pour autoriser une liberté d’expression à l’américaine, cela lui a valu l’ouverture d’enquêtes au niveau européen, mais aussi le départ de certains annonceurs, qui ont décidé de se retirer de ce réseau social ou en tout cas d’y suspendre leur activité. Les annonceurs choisissent les espaces dans lesquels ils estiment que leurs contenus seront les plus valorisés. Comme ils sont à l’origine d’une part substantielle des revenus de TikTok, la plateforme a intérêt à préserver son image publique.

Ce levier financier est réel, même s’il ne signifie pas que la politique de modération de TikTok est parfaite, loin de là. Beaucoup de déclarations restent au niveau des intentions. La plateforme prétend modérer les contenus qui pourraient promouvoir les troubles du comportement alimentaire par exemple. Or il est très facile de les retrouver en explorant l’application.

S’agissant des décisions qui pourraient être prises à l’encontre de TikTok, la question est de savoir sur quelle base elles s’appuieraient. Pour les Américains, le problème principal était le lien de la plateforme avec la Chine. Dans cette logique, contraindre la vente de la solution technique et de l’algorithme constitue une solution pour supprimer le risque, bien qu’elle crispe évidemment la Chine. Si le sujet est l’impact de TikTok sur les mineurs, cette application devrait-elle être la seule concernée, alors que beaucoup d’autres se sont inspirées de son modèle, ont tenté d’imiter la finesse de son algorithme et repris le format vertical des vidéos qui produit des effets similaires chez les utilisateurs ?

Mme Laure Miller, rapporteure. Vous avez rencontré d’anciens modérateurs de TikTok. Comment travaillent-ils ? Leur méthode est-elle partiellement efficace ou pas du tout ?

Mme Océane Herrero. J’ai échangé avec plusieurs modérateurs qui opéraient pour le marché français. Ils avaient des fonctions différentes, car la modération est segmentée.

Une modératrice était par exemple spécialisée dans les vidéos diffusées en direct. Ces dernières n’étant accessibles qu’à des utilisateurs de plus de 18 ans, sa principale mission était de s’assurer que cette règle était respectée et que des mineurs n’apparaissaient pas dans ces publications, qui peuvent attirer des adultes mal intentionnés. Ce travail est très intense, puisqu’il suppose de visionner plus d’une dizaine de vidéos simultanément. Il faut également s’assurer que les contenus ne comportent pas de scènes de violence ou d’actes contraires aux règles d’utilisation de TikTok.

Ces postes connaissent un turnover important, car ils sont épuisants. Pour les modérateurs avec lesquels j’ai pu échanger, ils ne sont pas un projet de carrière. Ils font ça pendant un certain temps, avant de passer à autre chose.

Un autre modérateur avait pour mission de repérer des cigarettes ou de l’alcool dans les vidéos postées sur la plateforme, ces produits étant contraires aux règles d’utilisation de TikTok. Elles n’étaient pas diffusées en direct, mais il devait passer au crible environ une centaine de vidéos par heure.

M. le président Arthur Delaporte. Dans votre livre, vous faites une différence entre Facebook et Instagram, qui montreraient la vie extérieure et la manière dont chacun se met en scène, et TikTok, qui s’intéresserait à la vie intérieure. Cette dichotomie légitime les travaux de notre commission d’enquête, qui portent précisément sur les effets psychologiques de TikTok. Considérez-vous que les spécificités de l’application demeurent, même si l’imitation dont elle a été l’objet par d’autres plateformes rend les frontières plus floues ? Vous faites également référence à des mécanismes d’addiction, comparables à ceux des casinos. Pourriez-vous développer ce point ?

Par ailleurs, les chercheurs que nous avons auditionnés ont évoqué des phénomènes de désappropriation des usages. Vous avez indiqué que des jeunes – ou d’ailleurs des adultes – se sentaient impuissants et n’arrivaient pas à modérer leur utilisation de la plateforme. Comment agir sur ces pratiques, y compris dans un contexte de stigmatisation éventuelle du réseau ?

Quelles relations la plateforme entretient-elle avec les influenceurs ? Vous avez observé qu’elle avait contacté des tiktokeurs ou des influenceurs d’autres réseaux sociaux pour les attirer sur l’application, en échange de rémunération. À votre connaissance, ces pratiques perdurent-elles ? Les modalités de rémunération sont opaques et évoluent de manière constante. Pouvez-vous néanmoins essayer de dresser un état des lieux ?

Dans votre livre, vous montrez le modèle économique sous-jacent, qui incite les utilisateurs à publier un grand nombre de contenus et à privilégier les contenus polémiques – ou dangereux –, car ils génèrent des vues. Vous avez‑vous‑même constaté la présence de contenus pédopornographiques, voire zoophiles semble-t-il. Pouvez-vous être plus précises sur les pratiques choquantes que vous avez relevées ? Avez-vous effectué des signalements et, le cas échéant, les contenus ont-ils été supprimés ?

Enfin, s’agissant de la régulation internationale, vous mentionnez une étude de l’équivalent irlandais de la Commission nationale de l’informatique et des libertés (CNIL) lancée en 2023, mais dont les résultats n’étaient pas connus au moment de la publication de votre livre. Savez-vous s’ils l’ont été ? Quelles sont les différentes procédures engagées à l’encontre de TikTok à l’échelle européenne ?

Mme Océane Herrero. La dimension d’exploration de soi est l’un des principaux éléments qui m’ont interpellée quand j’ai commencé à m’intéresser à TikTok. On peut y voir des vidéos assez troublantes de personnes qui racontent, face à la caméra et parfois en pleurant, des évènements très intimes, comme une rupture, un deuil ou une déception professionnelle. On imagine mal ces contenus sur d’autres plateformes, comme Facebook, où ils seraient vus par leurs familles et leurs proches. L’espace semble moins s’y prêter.

Quand vous créez une vidéo, l’algorithme va la proposer aux « bonnes » personnes, c’est-à-dire à des personnes, généralement assez similaires à vous, qu’elle intéressera. Il y a un côté rassurant et réconfortant, car cela permet parfois d’obtenir une forme de soutien virtuel. Il peut néanmoins y avoir un effet boomerang, si elle est visionnée par des personnes qui ne sont pas sur la même longueur d’ondes et qui réagissent de manière agressive, pouvant éventuellement aller jusqu’au harcèlement.

Selon moi, TikTok reste une plateforme où les utilisateurs ont tendance à davantage se dévoiler que sur les autres, souvent sans en mesurer les conséquences et réaliser la puissance de l’algorithme. Quand vous postez une vidéo, vous ne savez jamais si elle va toucher 10, 10 000 ou 100 000 personnes. Pour un créateur de contenus qui s’inscrit dans une démarche professionnelle ou qui recherche activement une audience, un tel fonctionnement revient à jouer à la roulette. Il est possible d’obtenir une certaine célébrité du jour au lendemain, puis d’avoir un nombre de vues qui plafonne, apparemment sans raison. Les utilisateurs peuvent se retrouver désemparés, car ils ne savent pas pourquoi leurs contenus ne plaisent pas à la plateforme. Les influenceurs avec lesquels j’ai échangé m’ont expliqué qu’ils recherchaient des voies de contournement, en variant constamment la longueur de leurs vidéos ou la fréquence de leur publication. Certains postent jusqu’à dix vidéos par jour, en espérant que l’une d’elles rencontrera suffisamment de succès pour renforcer leur notoriété.

S’agissant de la rémunération des influenceurs, TikTok avait lancé un programme lors de son arrivée en France pour attirer des créateurs de contenus avec une audience relativement modeste. L’idée était de leur permettre d’accroître rapidement leur notoriété et de les rendre ainsi fidèles à la plateforme. J’ignore si cette démarche perdure, mais elle n’est plus forcément nécessaire, car TikTok a atteint une taille critique. De fait, elle est devenue la plateforme sur laquelle beaucoup d’utilisateurs postent leurs vidéos en premier, avant de les republier sur Instagram ou d’autres applications pour démultiplier leur audience. Il est plus rare de faire l’inverse, car TikTok a internalisé des outils de montage qui incitent les créateurs de contenus à rester dans cet écosystème de la création à la publication de leurs vidéos.

Je n’ai pas échangé récemment avec des créateurs de contenus au sujet de la rémunération proposée par TikTok en fonction du nombre de vues. Je préfère ne pas faire d’estimations qui pourraient se révéler fausses.

M. le président Arthur Delaporte. Pouvez-vous nous rappeler les chiffres que vous avez cités dans votre livre, pour que les membres de la commission disposent au moins d’un ordre de grandeur ?

Mme Océane Herrero. Au moment de la rédaction de ce livre, la rémunération était de 20 euros pour un million de vues. Elle peut ne pas paraître énorme, mais elle est à comparer avec celle proposée par les autres plateformes.

M. le président Arthur Delaporte. J’ai retrouvé un passage où vous indiquez que les créateurs de quelques pays, dont la France, pouvaient prétendre à une tarification d’environ 1 euro par tranche de 1 000 vues pour toutes les vidéos de plus d’une minute. Ces chiffres sont cohérents avec ceux qui nous ont été mentionnés il y a quelques semaines, mais il me semble que le système a été modifié. Nous interrogerons les tiktokeurs à ce sujet lorsque nous les auditionnerons.

Mme Océane Herrero. TikTok utilise sa politique de rémunération pour orienter les créateurs vers les contenus qu’elle souhaite voir se développer. En l’occurrence, elle proposait une rémunération plus importante pour encourager la publication de vidéos de plus d’une minute, qui sont un peu plus construites et considérées comme des vidéos longues à l’échelle de la plateforme.

Lorsque j’ai constaté des contenus problématiques, je n’ai pas effectué de signalement à proprement parler. Pendant l’écriture de mon livre, mes relations avec TikTok ont été compliquées. Malgré plusieurs relances, je n’ai obtenu que des réponses écrites et assez formatées à mes questions. Depuis cette époque, la situation a évolué, notamment compte tenu de la pression régulatrice en France et dans d’autres pays. TikTok a renforcé sa communication et échange davantage avec les journalistes. Il est désormais plus facile d’avoir des informations.

Concernant la CNIL irlandaise, la procédure ne semble pas achevée s’agissant du respect de la vie privée des enfants. En revanche, Bloomberg a annoncé la semaine dernière qu’une sanction devrait être prononcée au sujet du transfert de données vers la Chine. Les procédures en cours recouvrent plusieurs aspects, dont la protection de la vie privée, l’utilisation et le lieu de conservation des données des utilisateurs européens ou les pratiques de modération. Ces différents sujets sont examinés par la Commission européenne.

Mme Isabelle Rauch (HOR). Qu’en est-il de la modération quand la démarche de retrouver certains contenus est volontaire ? Qu’est-ce qui peut inciter un jeune à rechercher des contenus problématiques ? Y est-il encouragé par d’autres jeunes ? Quand il les visionne, est-il ensuite exposé à des contenus similaires ? Ces vidéos peuvent-elles se propager auprès d’autres utilisateurs ?

Mme Océane Herrero. TikTok modère les contenus qui évoquent le suicide par exemple. Un message de prévention s’affiche lorsque vous recherchez des vidéos traitant de ce sujet. Pour contourner cette politique, les utilisateurs ont recours à des mots détournés, comme unalive, dont la signification est « qui n’est plus en vie » en anglais. Aujourd’hui, le même message de prévention apparaît si vous tapez ce mot. En revanche, ce n’est pas le cas si vous changez l’une des lettres par un chiffre.

Les utilisateurs qui souhaitent parler de sujets sensibles comme le suicide jouent au chat et à la souris avec la plateforme. Leur objectif est parfois de faire de la prévention et non d’inciter à attenter à sa vie, mais tous les contenus sont mélangés. Lorsque vous regardez plusieurs vidéos sur le même thème, l’algorithme le prend en compte pour alimenter le fil « Pour toi », sans faire preuve du recul qui serait nécessaire compte tenu de la sensibilité de ces questions, notamment auprès d’un public d’adolescents.

M. Thierry Perez (RN). Des millions de jeunes de 9, 10 ou 12 ans ont une addiction à TikTok. Si la plateforme ne connaît pas d’évolutions majeures, pouvonsnous imaginer les conséquences sur le développement de leur cerveau et leurs comportements quand ils seront devenus adultes, qu’ils seront censés faire des études, puis travailler ? Ma propre vision est assez noire, compte des problèmes de concentration, de sommeil ou de socialisation auxquels ils risquent d’être confrontés, mais quelle est la vôtre ?

Mme Océane Herrero. N’étant pas psychologue, je laisserai les professionnels se livrer à un diagnostic prospectif. En revanche, vous pouvez vous référer à une étude interne à TikTok qui date de 2019. Elle a été révélée dans le cadre d’une enquête de la justice américaine, après la plainte de plusieurs États qui accusaient la plateforme de ne pas avoir pris de mesures suffisantes et de tromper les utilisateurs sur la sécurité de l’application. Certaines informations auraient dû être caviardées, mais le document a été publié tel quel.

Dans cette étude, TikTok évalue que le visionnage de 260 vidéos est nécessaire pour que l’utilisateur développe une habitude de consommation. Ce chiffre peut paraître élevé, mais il est rapidement atteint sur une plateforme de vidéos courtes. TikTok reconnaît par ailleurs qu’une utilisation compulsive de l’application est corrélée à une série d’effets négatifs sur la santé mentale, en altérant les capacités d’analyse, de mémorisation et de compréhension contextuelle, la qualité des échanges, l’empathie et en provoquant une augmentation de l’anxiété. Ces constats sont un peu anciens, puisqu’ils datent de 2019. Il serait intéressant de savoir si TikTok continue de mener ce type de travaux, sachant que ces sujets donnent également lieu à des recherches de la part de chercheurs et psychologues indépendants.

M. le président Arthur Delaporte. La commission d’enquête souhaite comparer la version mondiale, voire française, de TikTok à la version chinoise. Selon vous, qu’est-ce qui différencie TikTok et Douyin, notamment en matière de protection des mineurs ?

Mme Océane Herrero. Le fonctionnement de Douyin est régi par les règles définies par le gouvernement chinois pour les médias sociaux et les jeux vidéo. Le temps passé quotidiennement sur l’application est limité, ainsi que son usage la nuit. La modération est effectuée conformément aux principes de la censure chinoise. Il n’y a donc pas la même liberté d’échange que sur TikTok.

S’agissant de la protection des mineurs, Douyin promeut des contenus pédagogiques, avec l’objectif de rester un espace d’apprentissage. Pour m’être rendue en Chine l’an dernier et avoir vu des enfants interagir avec l’application, j’ai néanmoins constaté qu’ils pouvaient être exposés à des contenus violents. Par exemple, une petite fille d’environ 6 ans, qui n’était pas sous la surveillance de sa mère, regardait une vidéo en partie générée par l’IA sur les morts les plus violentes de l’histoire. La question de la modération constitue donc un enjeu global.

M. le président Arthur Delaporte. Vous venez de citer un exemple, mais quels types de vidéos choquantes, auxquelles les mineurs peuvent être exposés, avez-vous pu visionner sur TikTok ?

Mme Océane Herrero. Ces vidéos concernent tous les sujets que vous pouvez imaginer. Les jeunes sont généralement intéressés par les contenus qui testent les limites et TikTok n’apporte peut-être pas une réponse suffisante en matière de modération ou de sélection des vidéos promues auprès de ce public.

Lors de la rédaction de mon livre, je mettais habituellement de côté les contenus hypersexualisés ou violents auxquels j’étais confrontée et, au bout d’un certain temps, une partie d’entre eux disparaissait. Des signalements avaient probablement été effectués par des utilisateurs ou ces vidéos avaient été détectées par l’algorithme, qui scanne tous les contenus postés.

M. le président Arthur Delaporte. Souhaitez-vous nous faire part d’un dernier élément, qui vous semble essentiel et qui n’aurait pas encore été abordé ?

Mme Océane Herrero. Non. Si nécessaire, je pourrais vous envoyer une contribution ou des réponses écrites à votre questionnaire.

M. le président Arthur Delaporte. Je vous remercie.

6.   Audition de M. Bruno Patino, président de Arte France et auteur des ouvrages La civilisation du poisson rouge, Tempête dans le bocal et Submersion (mercredi 23 avril 2025)

Enfin la Commission auditionne M. Bruno Patino, président de Arte France et auteur des ouvrages La civilisation du poisson rouge, Tempête dans le bocal et Submersion ([6]).

M. le président Arthur Delaporte. Monsieur Patino, je vous remercie de prendre le temps de répondre à notre invitation.

Avant de vous donner la parole pour une intervention liminaire qui précèdera notre échange, je vous prie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations – par exemple si vous avez été rémunéré, directement ou indirectement, par une plateforme numérique – et je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Bruno Patino prête serment.)

M. Bruno Patino, président de Arte France et auteur de La civilisation du poisson rouge, Tempête dans le bocal et Submersion. Je n’ai jamais été rémunéré par une plateforme numérique. Il y a quelques années, j’ai siégé au comité d’experts de la Digital News Initiative de Google, qui était chargé d’évaluer les projets devant être technologiquement aidés dans le domaine de l’information. Cette mission était toutefois indépendante de Google et bénévole.

La question des réseaux sociaux – au sens large, mais aussi plus spécifiquement à propos de certains acteurs comme TikTok, qui connaît aujourd’hui la plus forte croissance – me semble fondamentale pour comprendre l’évolution de notre espace public. Tous les sociologues ont montré que ces applications étaient devenues, au cours des dernières années, des outils de socialisation, qui inspirent les rapports entre les individus, en particulier les plus jeunes. Elles sont par ailleurs des outils d’information, de divertissement et de culture, qui construisent l’environnement dans lequel évolue une part grandissante de nos contemporains.

Nous sommes face à un double phénomène.

Le premier aspect, à propos duquel j’ai beaucoup écrit, est lié au fait que ces réseaux ont tous été construits par des acteurs numériques qui se rémunèrent grâce à l’économie de l’attention, c’est-à-dire par de la publicité. Du point de vue économique, leur objectif est que nous y consacrions un temps sans cesse croissant.

Un réseau social comme Facebook aurait pu être payant sur abonnement. D’autres modèles économiques auraient pu être imaginés, en s’inspirant du modèle contributif en code source ouvert de Wikipédia par exemple. L’influence du contexte historique des années 20062007, marqué par le développement de l’économie de la donnée, a toutefois été déterminante.

Les acteurs ont mis en place à la fois des outils capables de procéder à l’extraction maximale des données des utilisateurs pour les monétiser d’un point de vue publicitaire et des outils de captologie permettant de développer une certaine forme d’assuétude aux écrans. Rien de tout cela n’est un accident. C’est la conséquence directe du modèle économique de ces réseaux sociaux.

Le second aspect, qui me semble souvent sous-estimé par les analystes et qui ne dépend pas de leur modèle économique, tient à l’absence de contexte. Au cours des derniers siècles, celui-ci normait toutes les conversations. Comme le disait le philosophe espagnol Ortega y Gasset, « je suis moi et ma circonstance ». À 15 ans, quand on me demandait de définir ce qu’était l’information, je répondais par le contexte. L’information, c’était ce que je lisais dans le journal, ce que j’écoutais au journal radiophonique le matin ou ce que je voyais au journal télévisé le soir. Nos conversations ne sont pas de même nature selon que nous sommes au bistrot, en audition parlementaire, avec des amis, etc. Notre société s’est construite en ayant des conversations différentes selon le contexte.

Le contexte posait le décor du type de conversations que nous devions avoir et la manière dont nous devions les interpréter. Si quelqu’un me dit quelque chose au bistrot, accoudé au zinc, je ne le prends pas forcément aussi au sérieux que quelqu’un qui s’exprime dans un amphithéâtre universitaire. Le contexte étant différent, ma perception de ce que j’entends ou de ce que je vois l’est également. Il existe un filtre contextuel.

Les réseaux sociaux ont la particularité de ne pas proposer de contexte, ou plutôt de laisser l’utilisateur comprendre lui-même la nature de la conversation à laquelle il assiste et la nature du message auquel il est soumis. Certes, vous prenez plus au sérieux ce qui émane du compte de l’Agence France-Presse (AFP) que de celui de Toto27, mais les études sociologiques montrent que le détenteur du compte a moins d’importance que la plateforme sur laquelle on se trouve.

Le modèle de l’économie de l’attention vise à rendre les utilisateurs de plus en plus dépendants. Le mélange des contextes, des cultures et de tous les types de messages entraîne en outre une perte de repères et sape la confiance.

Toutefois, les réseaux sociaux ne sont pas des espaces sans organisateur. D’après les dernières études qui ont été publiées, les utilisateurs ont pris conscience du rôle joué par l’algorithme et ont compris que ce qu’ils voyaient n’était pas dû au hasard. Ce qui leur est proposé est défini en fonction de leurs propres données et des « intérêts » de la plateforme. Il y a dix ans, cette perception n’était pas aussi claire. Beaucoup pensaient que le contenu était aléatoire, qu’il était lié à la chronologie ou qu’il dépendait de l’activité de leurs amis. Ils savent maintenant qu’il existe un organisateur caché.

Dans le modèle de l’attention, les messages sont organisés de façon à maximiser les revenus publicitaires. Ils sont classés selon leur efficience économique. L’objectif est que vous les regardiez, même si vous êtes occupés à autre chose, et que vous les partagiez le plus rapidement possible. L’un des principaux leviers est l’émotion, mais pas n’importe laquelle. La joie ou le rire ne provoquent pas autant de viralité que la colère et la rage.

Les motivations de l’organisateur peuvent être économiques, mais M. Elon Musk nous démontre que l’algorithme peut aussi être utilisé à des fins idéologiques. Nous le constatons depuis que Twitter est devenu X.

Aux États-Unis, les réseaux sociaux se sont construits à l’abri de la section 230 du Communications Decency Act, qui distingue les éditeurs et les hébergeurs. Elle a acté ce qui a été appelé « la neutralité du net ». Des tuyaux ne peuvent pas être responsables des flux qui y circulent, comme le facteur n’est pas responsable du contenu des lettres qu’il distribue. Néanmoins, puisqu’il existe un organisateur, ce ne sont pas de simples tuyaux.

Les plateformes ne sont pas des éditeurs, puisqu’elles ne créent pas les contenus qu’elles proposent. En revanche, elles en accélèrent la diffusion et en amplifient la portée. Sachant par ailleurs que les messages sont choisis en fonction de leur efficience économique  donc de leur degré émotionnel – ou de leur posture idéologique, il est difficile de considérer qu’elles n’ont pas de responsabilité, même si la nature de cette dernière n’a pas encore été définie.

Prétendre que la neutralité existe quand vous amplifiez des messages que vous choisissez et que vous accélérez leur diffusion est une vue de l’esprit, d’autant plus quand vous créez une forme de dépendance. La difficulté est cependant de qualifier cette responsabilité. Tout tourne autour de cela.

Une Nation – ou l’Europe – a besoin d’exercer une forme de souveraineté sur les outils qui mettent en relation les individus. Même si nous sommes dans le cadre d’une audition parlementaire, je vais faire un raccourci. Je suppose que si M. Elon Musk devenait propriétaire de La Poste, les Français considèreraient que ce n’est pas à lui de décider du courrier qui est distribué. Ils demanderaient des garanties quant au respect de règles de neutralité.

Pour des raisons technologiques et capitalistiques ou par manque de volonté, les Européens n’ont pas réussi à développer d’outils qui mettent en relation les individus au cours des deux dernières décennies. Ma conviction, qui est également celle du chercheur américain Ethan Zuckerman, ancien directeur du Center for Civic Media du Massachusetts Institute of Technology (MIT), est que tant que nous ne disposerons pas de solutions souveraines, nous aurons du mal à imposer une régulation, car le rapport de force ne nous sera pas forcément favorable.

Quelques pistes sont envisageables, mais elles ne constituent qu’un optimum de second rang par rapport au fait d’avoir nos propres outils. Pour M. Ethan Zuckerman, l’Europe devrait – comme elle l’a fait au lendemain de la seconde guerre mondiale en se dotant de fréquences permettant d’assurer sa souveraineté sur la télévision et la radio – disposer de services publics en matière de numérique. Je referme néanmoins cette parenthèse.

S’agissant de l’addiction, il faudrait promouvoir la responsabilité algorithmique. Il ne s’agit pas de transparence, parce que certains aspects sont couverts par le secret des affaires et que très peu de gens sont capables de comprendre l’évolution quotidienne d’un algorithme. L’enjeu est de pouvoir mesurer les impacts de ce dernier sur la santé mentale ou sur l’attention par exemple et d’en rendre responsables les sociétés concernées, en développant des mécanismes de prévention, d’alerte, puis d’interdiction, comme nous le ferions avec des industriels qui commercialiseraient de la nourriture empoisonnant les individus ou les rendant obèses.

La responsabilité algorithmique commence à se traduire dans la législation européenne, notamment dans le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA). Avant l’élection du président américain Donald Trump, l’administration du président Joe Biden travaillait également sur cette piste, avec l’Algorithmic Accountability Act. Certains d’entre nous la défendent depuis assez longtemps. Elle était évoquée dans le rapport de Benoît Loutrel « Régulation des réseaux sociaux - expérimentation Facebook » il y a six ou sept ans. Je l’ai également mentionné dans un de mes livres il y a presque dix ans.

Lors des états généraux de l’information (EGI), nous avons évoqué le pluralisme des algorithmes. Le DSA contient des éléments qui permettraient une telle évolution à l’occasion de sa révision. Un procès a été intenté contre Google, parce que son outil publicitaire est totalement lié à son moteur de recherche, ce qui le place en situation de monopole. Or les algorithmes sont dans cette situation. Un réseau social devrait être contraint d’en proposer plusieurs. Cela peut paraître irréaliste, mais ce que nous avions en tête dans le groupe de travail des EGI, notamment avec M. Sébastien Soriano, c’était de permettre au Monde, au Figaro, à Libération ou à L’Humanité de proposer leur propre algorithme d’organisation du fil de X. Différents types de messages auraient ainsi été mis en avant et ils auraient pu être contextualisés.

Au-delà de la responsabilité algorithmique et du pluralisme des algorithmes, l’élément le plus important est toutefois l’éducation. Il est essentiel d’apprendre très tôt l’importance d’une connexion maîtrisée, à la fois dans le temps et dans l’espace. Certains moments doivent être consacrés à la lecture, à l’écriture ou au dialogue. Des lieux doivent aussi être préservés. Je suis partisan que ce soit le cas de l’école, voire de l’université. Ça l’est d’ailleurs parfois. À Stanford, au cœur de la Silicon Valley, de nombreux cours de master se déroulent sans connexion, afin de préserver l’attention. La situation évolue progressivement. Il est désormais interdit d’utiliser son portable au cinéma et c’est heureux !

Il faut maîtriser la connexion, mais aussi comprendre ce qu’est un algorithme et prendre conscience de l’existence d’un organisateur caché. Enfin, il est essentiel de développer la culture contextuelle et la culture du libre arbitre. Puisqu’il n’existe plus de filtres, toute une génération doit être formée à déterminer la nature et le contexte des messages.

En 2025, TikTok peut être considéré comme la version ultime des produits d’addictologie. Si on comparait les réseaux sociaux à une forme de drogue addictive, cette plateforme serait la formule parfaite. Elle vous met dans un rail de passivité sucrée. Vous pouvez visionner à l’infini des vidéos de formats courts, en accélérant et en passant ce qui ne vous convient pas. Je défie quiconque, quel que soit son âge, de ne pas entretenir ce type de relation avec TikTok.

Beaucoup de jeunes ont avec l’application un rapport qui s’apparente à la boulimie. Vous pensez regarder TikTok cinq minutes avant de vous endormir et vous y êtes toujours deux heures après, sans en avoir tiré une réelle satisfaction. Avec Arte, nous essayons d’établir des passerelles pour détourner les utilisateurs du rail dans lequel ils se trouvent, mais celui-ci est d’une efficacité absolue.

TikTok est un outil sur lequel la souveraineté nous échappe et un instrument d’addictologie majeur. En cinq ou six ans, il a provoqué une modification profonde des comportements. Ses effets sur la lecture, l’attention ou le rapport à l’autre sont inquiétants. Le fonctionnement de la plateforme s’appuie sur du calcul, avec des extractions de données qui permettent de mesurer la satisfaction en permanence, mais utilise tous les codes du jeu. La puissance du calcul et l’efficacité du jeu se combinent pour enfermer les utilisateurs dans un rail dont ils ne peuvent pas sortir.

Les réseaux à l’ancienne, comme Facebook ou Instagram, avaient accepté d’établir des codes de bonne conduite. Tant qu’ils ne mettaient pas en péril leur modèle économique, ils étaient plus ou moins respectés. Il y a un an et demi, TikTok a également proposé un dispositif de contrôle parental, etc. Toutefois, ces mécanismes sont tellement antinomiques par rapport à son modèle que j’aimerai connaître leur taux de pénétration.

Mes enfants sont grands et ne sont plus vraiment concernés, mais demander à un adolescent de vous montrer son fil TikTok est, à mon avis, l’une des questions les plus intrusives que vous pouvez lui poser. L’algorithme est tellement puissant qu’il est étroitement lié à votre intimité et donc d’une très grande efficacité pour créer une dépendance.

Mme Laure Miller, rapporteure. Vous avez souligné que les réseaux sociaux, dont TikTok, faisaient partie de nos vies, qu’ils étaient des outils de socialisation, d’information, de divertissement ou de culture. Nous reviendrons difficilement en arrière et il est vain de chercher à remettre en cause leur existence.

Notre commission s’est donc focalisée sur les mineurs et sur l’impact que ces réseaux sociaux, en particulier TikTok, peuvent avoir sur leur santé mentale. Pensez-vous que cette distinction entre le grand public et les plus fragiles d’entre nous soit pertinente pour atteindre notre objectif de régulation ou de contrôle de l’algorithme ?

Dans votre propos liminaire – comme dans La civilisation du poisson rouge , vous avez évoqué les effets des réseaux sociaux sur la patience, la capacité de concentration et sur tout ce que les jeunes délaissent au profit des plateformes, que ce soit la lecture ou d’autres formes de divertissement et de culture. Ce propos est personnel, mais j’ai le sentiment que l’usage excessif des applications, et particulièrement de TikTok, est en train d’abîmer des générations entières. Quand nous allons dans des classes ou même quand nous nous promenons dans la rue, nous constatons que les comportements des jeunes et surtout des mineurs ont fortement évolué.

Nous pouvons nous appuyer sur le DSA et d’autres initiatives se préparent, mais est-ce que nous avançons assez vite par rapport à l’ampleur du phénomène ? Ne devrions-nous pas être plus volontaristes et plus radicaux pour les protéger ?

M. Bruno Patino. Il y a quelques jours, j’ai lu une étude – j’essayerai de la retrouver – qui expliquait que la puberté numérique était à 9 ans. En moyenne, c’est à cet âge que les enfants ont leur premier smartphone ou accès à un écran de façon régulière. C’est beaucoup trop tôt.

À l’arrivée des outils numériques, ma génération a dû apprendre la vitesse et la gestion simultanée de plusieurs tâches. Aujourd’hui, les jeunes grandissent dans cet environnement, qui ne laisse pas de place à la lenteur et à la concentration sur une seule tâche.

J’ai toujours été technophile et je m’intéresse au numérique depuis très longtemps. Néanmoins, je suis convaincu que l’école doit apprendre la connexion et ne pas devenir elle-même connectée.

Selon moi, donner accès à TikTok avant 16 ans produit des catastrophes. Il y a cinq, six ans ou peut-être un peu plus, Facebook avait envisagé de créer un réseau social pour les moins de 13 ans. Une grande partie de la communauté scientifique, et pas seulement elle, s’était élevée contre ce projet. Intuitivement, je dirais que nous avons besoin d’une surprotection pour les jeunes, en tout cas avant 15 ou 16 ans, mais de telles règles seraient-elles respectées ? Nous savons aussi que l’interdit est très attirant. Par conséquent, je ne sais pas ce qu’il faudrait faire. Une partie de moi est favorable à l’interdiction de TikTok avant 18 ans et une autre se dit qu’il serait souhaitable d’avoir un outil moins létal pour tout le monde. Heureusement, je ne suis pas législateur et je n’ai pas à prendre de décision dans ce domaine.

Nous sommes dépassés, principalement parce que nous n’avons pas la souveraineté sur les outils. De nombreuses personnes se mobilisent, notamment dans le cadre d’associations citoyennes. Des élus, comme vous, sont également sensibles à ces questions. Nous savons cependant que tout se passe au niveau européen. Lors des états généraux de l’information, nous avons évoqué la prochaine réforme du DSA, mais les évolutions seront difficiles à imposer. Il a déjà été compliqué de définir ce cadre, dans un contexte géopolitique qui était complètement différent.

Aujourd’hui, toute la Tech se rassemble derrière le pouvoir américain dans l’espoir d’obtenir une dérégulation totale, qui permettrait de maximiser les chiffres d’affaires – au prix d’un développement de l’addiction complètement dingue, dont nous ne pourrions même plus évaluer les effets, puisque des laboratoires de recherche d’universités sont fermés faute de budget –, et de faire voler en éclat le cadre européen.

Je suis désolé de ne pas pouvoir vous apporter une réponse plus claire. Une partie de moi pense que ce serait souhaitable d’interdire TikTok aux moins de 16 ou 17 ans, mais une autre se demande ce que donnerait une telle mesure.

Mme Laure Miller, rapporteure. Vous avez évoqué l’éducation, qui est un aspect fondamental. Nous sommes très sensibilisés au sujet. Nous connaissons les dérives et les effets d’un réseau social comme TikTok sur les individus. De ce point de vue, nous ne sommes sans doute pas représentatifs de la population française. J’ai récemment eu l’occasion de rencontrer une médecin et une assistante sociale d’un quartier défavorisé de Reims, ville qui se trouve dans ma circonscription. Elles m’expliquaient que les mamans avaient une forme de fierté à voir leurs enfants de 2, 3 ou 4 ans naviguer sur les réseaux sociaux et connaître certaines chorégraphies, certaines musiques ou certains influenceurs.

Ne nous manque-t-il pas un diagnostic scientifique du lien de causalité entre l’usage de TikTok et la dégradation de la santé mentale des jeunes ? Il nous permettrait d’objectiver notre message auprès du grand public, comme ce fut le cas pour la cigarette et l’alcool. Ces produits ont pu être interdits aux mineurs, parce qu’il était incontestable qu’ils étaient nocifs pour eux.

M. Bruno Patino. Quand j’ai publié La civilisation du poisson rouge en 2019, TikTok n’existait pas encore. Ce n’était pas prévu, mais j’ai été invité dans de nombreuses écoles primaires et pas seulement des collèges. Je me souviens d’être allé en Bourgogne, je crois, dans une classe de CE1 ou CE2, où l’institutrice avait organisé un atelier qui s’appelait « Ne soyons pas des poissons rouges ». J’avais été surpris – positivement – par le fait que les enfants se rendaient compte du mécanisme d’addiction auquel ils étaient exposés.

Je partage votre avis sur la nécessité d’un diagnostic clair, qui permettrait de poser des mots sur un ressenti général. Certains parents sont sans doute heureux de voir leurs enfants danser sur TikTok, mais beaucoup sentent quand même que quelque chose ne va pas. Je faisais référence à la boulimie tout à l’heure. On « s’empiffre » avec TikTok. Personne n’aurait l’image d’une nourriture équilibrée et saine.

Mon avis ne fera pas forcément plaisir, mais la volonté de faire entrer le numérique au sein de l’éducation nationale a créé une ambiguïté. Il est important d’apprendre à effectuer des recherches en ligne et à utiliser Google. YouTube apporte une aide essentielle aux professeurs et aux élèves, avec des contenus très intéressants. TikTok, c’est très différent. Pour le moment, le diagnostic concernant l’impact des réseaux sociaux est posé à l’initiative d’enseignants ou d’enseignantes, mais pas de manière claire à l’échelle de l’éducation nationale.

Il est peut-être utile de faire appel à des médecins, mais le ressenti est déjà très fort. Des institutrices ou des instituteurs parviennent très facilement à faire dire à leurs élèves qu’ils aimeraient passer moins de temps sur les réseaux sociaux, et se connecter juste pendant la récréation par exemple.

Lors des EGI, il a été question d’éducation aux médias, mais ce n’est pas le sujet. L’enjeu n’est pas d’apprendre à lire le journal. Il faut apprendre à contextualiser les messages et apprendre le discernement. Dans certains pays, comme la Finlande, cet enseignement est généralisé. En France, ce n’est qu’une activité pour des bénévoles, certes formidables, mais insuffisamment structurés.

M. Thierry Perez (RN). Je partage les propos de Mme la rapporteure. Si un enfant de 10 ans était assis à la terrasse d’un café en train de fumer une cigarette et de boire une vodka, nous trouverions ça absurde – outre le fait que c’est interdit. N’est-ce pas ce modèle que nous devons reproduire pour les réseaux sociaux et TikTok en particulier ? Aucun enfant de 4, 10 ou même 15 ans ne devrait pouvoir passer ses journées sur TikTok.

Nous avons identifié une piste pour renforcer la communication et l’éducation, mais elle prendra du temps pour faire changer les comportements. Ne faudrait-il pas tout simplement interdire les smartphones aux moins de 15 ans ?

M. Bruno Patino. Quand j’étais enfant, on nous faisait faire des cendriers en pâte à sel pour la fête des pères. Aujourd’hui, cela paraît absurde.

Ce n’est pas normal de passer trente-six heures par semaine sur les réseaux sociaux et seulement quinze minutes à lire. L’interdiction est peut-être une solution, mais je ferais davantage confiance au triptyque régulation-modération-éducation, surtout pour des raisons d’efficacité. La force de la technologie est telle que toute interdiction passe par son contournement. D’un point de vue politique et philosophique, l’interdiction de TikTok me semblerait logique. Je crains toutefois qu’elle se traduise par la création d’un autre TikTok, s’appuyant sur les mêmes modèles addictifs, et nous ne ferions que passer d’interdiction en interdiction.

S’agissant de l’interdiction des smartphones aux moins de 16 ans, je ne sais pas quoi vous dire. Il me semble difficile d’aller à rebours d’un mouvement qui a commencé en 2006 ou 2007. L’apparition de la connexion permanente a tout changé dans nos vies et, bien que technophile, je le regrette. L’invention du smartphone a surtout inventé le fait d’être connecté en permanence et de devenir – pardonnez mon obsession économique – un marché pour l’économie de l’attention.

Dans une société connectée en permanence, il me semble difficile de refuser l’accès à cet aspect-là de la société avant un certain âge. Je suis favorable à ne pas autoriser le smartphone à l’école, à le ranger avant d’aller dormir, etc. En revanche, je doute de l’efficacité d’une interdiction totale. Nous partageons le même objectif, mais je m’interroge sur la méthode permettant de l’atteindre.

M. le président Arthur Delaporte. Je vous remercie pour la qualité de cette audition et pour votre engagement en faveur d’un espace numérique plus sain. J’aurais encore eu beaucoup de questions à vous poser, au sujet de l’économie de l’attention, du soulagement de la délégation – que vous évoquez dans Submersion – ou des préconisations des états généraux de l’information. Vous nous avez toutefois livré beaucoup d’éléments pour alimenter notre réflexion.

Souhaitez-vous ajouter un dernier mot ?

M. Bruno Patino. Je vous transmettrai mes réponses écrites au questionnaire de Mme la rapporteure.

Le prochain sujet qui devra certainement nous occuper est lié au fait qu’une partie croissante des jeunes effectuent leurs recherches grâce à l’intelligence artificielle. Le rapport à la réalité va s’en trouver encore plus biaisé.

7.   Audition de MM. Serge Abiteboul, informaticien, chercheur à l’École normale supérieure de Paris, directeur de recherche à l’Institut national de recherches en sciences et technologies du numérique (Inria), et Gilles Dowek, informaticien et logicien, chercheur à l’Inria, co-auteurs de l’ouvrage Le temps des algorithmes (mercredi 23 avril 2025)

La Commission auditionne conjointement MM. Serge Abiteboul, informaticien, chercheur à l’École normale supérieure de Paris, directeur de recherche à l’Institut national de recherches en sciences et technologies du numérique (Inria), et Gilles Dowek, informaticien et logicien, chercheur à l’Inria, co-auteurs de l’ouvrage Le temps des algorithmes ([7]).

M. le président Arthur Delaporte. Nous accueillons MM. Serge Abiteboul, informaticien, chercheur à l’École normale supérieure de Paris, directeur de recherche à l’Institut national de recherche en sciences et technologies du numérique (Inria), et Gilles Dowek, informaticien et logicien, chercheur à l’Inria, co-auteurs de l’ouvrage Le temps des algorithmes.

Avant de vous laisser la parole pour un court exposé liminaire, je vous remercie de déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité et rien que la vérité.

(MM. Serge Abiteboul et Gilles Dowek prêtent successivement serment.)

M. Serge Abiteboul, informaticien, chercheur à l’École normale supérieure de Paris, directeur de recherche à l’Inria. En préambule, je n’ai pas de compte TikTok ni l’intention d’en créer un. Si j’en crois mes amis, cela me fait gagner plusieurs heures par jour car TikTok est extrêmement addictif. Le côté négatif, c’est que je suis exclu de certaines conversations – un peu comme l’étaient dans le temps les gens qui refusaient d’avoir la télévision.

J’ai présidé la mission « Régulation des réseaux sociaux - expérimentation Facebook » créée à la demande du secrétaire d’État chargé du numérique. Notre rapport, intitulé « Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne », a été remis en 2019. D’une certaine façon, il a préfiguré le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services act (DSA). Avec M. Jean Cattan, secrétaire général du CNNUM (Conseil national du numérique), j’ai aussi écrit Nous sommes les réseaux sociaux, publié en 2022 chez Odile Jacob.

Nous pourrons revenir sur les algorithmes des réseaux sociaux, et en particulier ceux de recommandation et de modération qui vous intéressent probablement le plus – même si d’autres algorithmes sont utilisés pour la publicité. Mais, avant cela, il est plus intéressant de s’attarder un peu sur la particularité de TikTok.

TikTok est basé sur des échanges de vidéos. En général assez courtes – quelques secondes, parfois plus –, elles sont proposées par les utilisateurs, auxquels la plateforme fournit des outils pour les éditer. Au départ, c’était plutôt une plateforme de divertissement entre amis. Désormais, on y partage de plus en plus des vidéos avec le monde entier et c’est devenu une plateforme d’information et de médias. On y trouve des entreprises et des personnalités politiques.

Pour beaucoup de jeunes – mais pas seulement –, elle est devenue l’un des premiers moyens d’information. Elle est aussi utilisée comme moteur de recherche. Je connais des jeunes qui regardent des vidéos sur TikTok pour préparer leurs voyages. C’est un outil d’accès à la connaissance et à l’information qui est vraiment primordial, surtout pour les jeunes.

TikTok est un réseau social un peu comme les autres, qui suit de très près les modèles dominants américains tels que Facebook et Instagram, et qui fait un tabac. C’est déjà un point intéressant, car il taille des croupières aux grands réseaux américains.

Cependant, il présente deux différences principales.

Tout d’abord, ce n’est pas un réseau social étasunien. Pour les États-Unis, il représente la perte d’un monopole critique qu’ils détenaient en Occident. La très grande majorité des réseaux étaient jusque-là américains. Pour les Européens, cela signifie que la masse des données personnelles mises par les utilisateurs sur les réseaux – nous pourrons revenir sur ce point si vous le voulez – passe sous le contrôle d’un pays qui n’est pas forcément ami. Les lois en Chine permettent au gouvernement d’accéder à toutes ces données. Personne n’a vraiment de doute à ce sujet. Cela étant, depuis le Clarifying lawful overseas use of data act ou Cloud Act (H.R. 4943) américain de 2018, il ne faut pas se faire d’illusions : toutes les données recueillies par le biais des réseaux sociaux américains, tels que Facebook ou Instagram, ainsi que par l’intermédiaire de Google peuvent être utilisées par un pays dont on peut se demander s’il est encore un ami.

TikTok est au cœur d’un véritable conflit commercial, avec toutes les plateformes américaines, mais aussi géopolitique. On pourrait donc se dire qu’il n’est pas juste que TikTok ne soit pas autorisé dans certains pays et que les États-Unis veuillent le bloquer sur leur territoire. Mais il faut aussi constater que le marché chinois est extrêmement fermé et n’a pas laissé des entreprises comme Google et Facebook s’y installer.

Du point de vue européen et de la souveraineté numérique, il n’est pas forcément mauvais de disposer d’une alternative aux réseaux américains. D’un autre côté, on peut se dire que, si on ne peut pas vivre sans les systèmes d’exploitation des téléphones, sans les logiciels du cloud et sans l’IA (intelligence artificielle), on pourrait vivre sans les réseaux sociaux. Ce n’est pas d’une importance stratégique.

La deuxième différence, plus difficile à cerner, c’est que TikTok est le réseau social le plus populaire chez les jeunes – enfants et jeunes adolescents. Il y a de nombreuses raisons à cela. Tout d’abord, les vidéos sont des choses qui leur plaisent. Ensuite, ils ont voulu s’inscrire sur un autre réseau qu’Instagram ou Facebook, où se trouvent leurs parents. Les jeunes sont d’ailleurs en train d’amener leurs parents vers TikTok.

Le fait d’être un réseau très populaire chez les enfants donne une énorme responsabilité, parce que c’est le moment où se forment un caractère et une identité. Le faire en passant beaucoup de temps sur TikTok peut poser quelques problèmes et avoir des effets psychologiques, quels qu’ils soient. Je ne suis pas du tout un spécialiste en la matière et je pense qu’il faudrait des études plus poussées.

M. le président Arthur Delaporte. Nous auditionnerons des psychologues et des psychiatres.

M. Serge Abiteboul. Je me contenterai de dire qu’il y a des effets négatifs, qu’on mesure mal. On sait grâce à Mme Francs Haugen et aux Facebook Files que les réseaux sociaux n’ont pas naturellement tendance à laver leur linge sale.

Je termine par les algorithmes de recommandation. Ils permettent de choisir parmi les millions d’informations et de contenus publiés sur le réseau ceux que l’on va présenter à l’utilisateur. C’est critique et c’est à ce niveau que les réseaux ont un rôle d’édition, puisqu’ils choisissent ce que l’utilisateur va voir. Et ils le choisissent d’abord pour que ça lui plaise, pour le fidéliser et pour pouvoir monnayer son attention. Ils privilégient donc les informations récentes, celles qui concernent son cercle d’amis, celles qui entraînent le plus de réactions, les sujets qui l’intéressent, etc.

Suivant quels critères ? On ne sait pas car c’est un secret industriel. C’est en outre quelque chose de très peu stable. On sait que la recette du Coca-Cola ne bouge pas, mais les algorithmes de recommandation des réseaux sociaux peuvent être modifiés presque au jour le jour.

Les biais de recommandation sont destinés à bénéficier à l’utilisateur, mais ils finissent par être des choix éditoriaux, commerciaux, voire politiques, de la plateforme. L’effet de bulle est une conséquence des algorithmes. Il confine l’utilisateur dans des domaines qu’il apprécie plutôt que de l’ouvrir à des contenus qui pourraient l’enrichir. C’est un biais naturel, mais il est extrêmement renforcé avec les réseaux sociaux.

Je suis obnubilé par un problème. Lorsque l’on choisit un journal, on sait qu’il présente une vision biaisée, ou en tout cas politique, de la situation dans le monde. Devant un réseau social, on a l’impression qu’on vous présente quelque chose d’universel, puisqu’il y a plus de 1 milliard d’utilisateurs. Or ce n’est pas du tout le cas, car la vision qui vous est proposée est vraiment biaisée selon vos goûts et vos choix sur la plateforme. Si vous avez tendance à croire que la Terre est plate, ou si simplement vous vous posez la question, vous allez d’un seul coup être inondé de vidéos « platistes » qui vont vous maintenir dans l’erreur – et sans que vous en ayez conscience.

Quelles sont les spécificités propres à TikTok ? Encore une fois, son modèle est très classique. Il existe des modèles de réseaux sociaux qui ne sont pas dominants et qui sont très intéressants, mais celui de TikTok est finalement très classique.

Son algorithme de recommandation est réputé être extrêmement bon et il arrive à bien cerner les goûts à partir du comportement de l’utilisateur, de ses interactions, de ses recherches et de sa manière de regarder une vidéo. La valeur de TikTok – et je suis obligé d’utiliser le conditionnel – tiendrait à cet algorithme. ByteDance, la maison mère, serait réticente à vendre TikTok à une société étasunienne car elle risquerait de perdre l’avantage que lui donne son algorithme de recommandation.

Ce dernier encourage les nudges, peut être encore plus que les autres réseaux, afin que l’utilisateur reste connecté le plus longtemps possible. On parle d’addiction. Je ne sais pas si c’est le cas, mais mes amis disent que lorsqu’on est sur TikTok on a envie d’y rester.

Se pose aussi la question de la manipulation politique. Dans le passé, TikTok a bloqué des contenus désapprouvés par les autorités chinoises – par exemple des vidéos de soutien aux Ouïghours. TikTok a fait marche arrière devant la levée de boucliers, mais il est très probable qu’au minimum il limite la propagation de tels contenus. C’est une façon de les éditorialiser.

Plus perturbant encore, ByteDance a développé en Chine un système de notation sociale. Il n’est évidemment pas proposé en Europe ou aux États-Unis, parce que ce serait interdit – en tout cas, c’est illégal en Europe en vertu du règlement sur l’intelligence artificielle. Cependant, il faut bien mesurer que cette même entreprise qui possède TikTok propose cela en Chine.

M. Gilles Dowek, informaticien et logicien, chercheur à l’Inria. Je vais commencer par déclarer que je ne possède pas d’actions TikTok ni de compte sur ce réseau – je vais expliquer pourquoi.

Une remarque au préalable sur la formulation étrange d’une question qui nous a été posée par écrit et qui porte sur les effets psychologiques de TikTok sur les mineurs : il est peu vraisemblable que ce réseau ait des effets que n’auraient pas d’autres plateformes de présentation de vidéos. Je me suis donc dit que la question concernait plutôt les effets psychologiques sur les mineurs des plateformes de diffusion de vidéos.

Ces dernières ne sont qu’un des éléments du paysage, avec les réseaux sociaux et les plateformes de microblogage. On a tendance à tout désigner sous l’appellation de réseaux sociaux, mais, dans une acception plus restreinte, ces derniers sont constitués par les plateformes qui permettent aux utilisateurs d’organiser leur vie sociale, hors ligne et en ligne.

Les plateformes de microblogage – comme X, Truth Social ou Mastondon – nous aident à transmettre des messages à destination du monde entier, et pas seulement de nos amis, connaissances ou collègues.

Enfin, les plateformes de diffusion de vidéos – comme TikTok ou YouTube – sont un peu du même type que celles de microblogage, mais elles s’appuient sur des vidéos amateurs et non sur du texte.

L’ensemble de ces structures forme le web symétrique, ou web 2.0. C’est une rupture avec l’ensemble des moyens de communication utilisés lors de la période de 5 000 ans qui débute avec l’invention de l’écriture et se termine avec le premier web.

Les moyens de communication étaient alors limités. Le premier web permettait certes à ceux qui avaient une certaine connaissance technique d’envoyer des messages universels, mais eux seuls le pouvaient. Ce n’était pas à la portée de tout le monde, car il fallait pouvoir créer son site. De très nombreuses personnes se connectaient à des sites, notamment pour lire la presse, mais peu y écrivaient. Il y avait donc encore une dissymétrie entre le récepteur du message et son émetteur, lequel était soit savant soit puissant – M. Bernard Arnault ne sait pas créer un site web, mais des gens dans son entreprise savent le faire.

Tout cela a complètement changé avec le web symétrique. Désormais, tout le monde peut parler et tout le monde peut entendre ce que tout le monde dit – et n’importe quand. C’est un changement radical des moyens de communication et il entraîne un certain nombre de transformations qui sont assez visibles.

Cela a tout d’abord permis un échange des connaissances sans précédent. Nous connaissons tous Wikipédia, mais il ne faut pas oublier que cette encyclopédie comprend 9 millions d’entrées dans l’ensemble des langues du monde, soit un contenu cent fois plus important que celui de l’Encyclopédie de Diderot et d’Alembert ou de l’Encyclopædia Britannica. Grâce aux contributions que chacun peut apporter à Wikipédia, on assiste à un changement de la nature même du partage de la connaissance.

Cette situation bouleverse également les institutions politiques, parce qu’il est difficile de concevoir une démocratie, à savoir un régime dans lequel le peuple gouverne, sans que celui-ci puisse parler. Entre le XVIIe et le XXe siècle, des compromis ont été trouvés pour pallier l’impossibilité de donner la parole publique à chacun, dont l’un des plus vertueux fut la démocratie représentative, appelée initialement « régime représentatif ». Ce système arrive à bout de souffle puisque tout le monde peut dorénavant prendre la parole pour donner son avis sur les questions politiques. Cette nouvelle configuration, qui n’en est qu’à ses débuts, transforme profondément le rôle du représentant politique.

Le premier internet exigeait de posséder certaines connaissances pour pouvoir s’y exprimer, ce qui n’est pas le cas du web 2.0, celui-ci intéressant par conséquent moins les informaticiens. Je n’ai aucun compte TikTok ou Facebook, en revanche, j’administre un site web et peux m’y exprimer sans utiliser les services des réseaux sociaux.

Le web symétrique présente deux avantages principaux : le partage de connaissances et la démocratisation. Néanmoins, tout progrès technique emporte des effets secondaires négatifs. Parmi ceux-ci figure le changement du statut de l’injure, évolution qui appelle une réflexion éthique et un contrôle des citoyens et des institutions. Jusqu’à récemment, il n’était pas possible pour tout un chacun de s’adresser à la foule entière. Ce privilège était réservé à trois catégories : les hommes politiques, les enseignants et les hommes d’Église. Les premiers prononcent des discours, dont certains sont parvenus jusqu’à nous, que l’on songe à ceux de Danton ou de Robespierre ; les seconds parlent publiquement dans des amphithéâtres de plusieurs centaines d’étudiants ; quant aux troisièmes, ils prennent la parole devant plusieurs dizaines de fidèles. Le changement tient au fait que, depuis vingt ou trente ans, les gens qui s’énervaient dans un café en injuriant d’autres clients ont eu accès à la parole publique : seules deux ou trois personnes assistaient autrefois à ces débordements, dorénavant, grâce au web symétrique, le monde entier est témoin des injures ou des accusations lancées sans preuve. Cette nouveauté modifie totalement le statut de l’injure, à tel point que certaines personnes estiment que l’action judiciaire est devenue inutile. Si quelqu’un vous nuit, il suffit de l’injurier ou de l’incriminer publiquement : la sanction sera alors prononcée par le peuple, non par la justice. Nous devons nous montrer vigilants sur cette évolution.

L’un des autres problèmes tient à l’absence de contrôle des messages passés. L’un de mes amis a posté, à l’âge de 16 ans, une vidéo dans laquelle il mangeait du Nutella en public : plusieurs années plus tard, la première question qu’on lui posait à chaque entretien d’embauche portait sur le Nutella. Il a voulu supprimer la publication, mais il n’y est parvenu qu’après plusieurs années d’efforts car toutes les vidéos sont copiées et republiées dans d’autres applications et sur d’autres sites internet.

Le troisième risque a trait à la logorrhée. Jean Racine a consacré sa vie au théâtre, mais il n’a écrit qu’une douzaine de pièces ; en revanche, il a très longuement ciselé chaque alexandrin. Sur les réseaux sociaux, l’approche est exactement inverse : on peut publier une heure de vidéo chaque jour et produire ainsi en douze jours autant que ne l’a fait Racine dans toute sa carrière. En 1975, Jacques Besnard a réalisé un film au titre prophétique, Ce n’est pas parce qu’on a rien à dire qu’il faut fermer sa gueule. Film oubliable, mais dont le titre illustre parfaitement le fonctionnement du microblogage et des plateformes de vidéos. Lorsque l’on n’a pas grand-chose à dire, l’une des facilités consiste à parler de soi : certains auteurs de vidéos sur TikTok, YouTube ou d’autres plateformes parlent de sciences, d’histoire ou d’arts, d’autres racontent les fictions qu’ils ont créées, mais la plupart d’entre eux racontent leur vie. Ces vidéos ne présentent aucun intérêt, mais elles sont devenues un mode d’expression à la première personne, qui prend le pas sur tout le reste. D’ailleurs, au-delà d’internet, de nombreuses œuvres littéraires contemporaines ne sont rien d’autre que des témoignages de scènes vécues.

Le dernier risque résulte de la captation de données personnelles. Contrairement au premier web, géré par une instance publique internationale, le World Wide Web Consortium (W3C), le web symétrique est géré par des entreprises privées : pour les réseaux sociaux, Facebook, pour le microblogage, X, Mastodon, Truth Social, et pour les plateformes de diffusion de vidéos, Instagram, TikTok, YouTube, etc. Ces entreprises ont pour but de générer des profits, qu’elles tirent de l’exploitation des données personnelles de leurs utilisateurs. La plupart de ces derniers n’imaginent pas la quantité de données qu’ils transmettent sur eux. Un adolescent qui publie une vidéo dans laquelle il annonce redoubler sa terminale fera penser à la plupart des personnes qui la regarderont qu’il est paresseux. Le public déduira d’une vidéo d’une personne évoquant ses angines à répétition qu’elle fume, d’une autre visitant la cathédrale de Chartres qu’elle est catholique, d’une autre qui a une entorse à la cheville qu’elle pratique le volley-ball, ou d’une autre aimant Émile Zola qu’elle est socialiste : ces conclusions peuvent être individuellement erronées, mais elles sont statistiquement probables. Ces éléments, qui semblent anecdotiques, constituent des informations pleines d’intérêt.

M. le président Arthur Delaporte. Ma collègue Laure Miller, rapporteure de la commission d’enquête, a lu Émile Zola mais elle n’est pas socialiste.

M. Gilles Dowek. Cela peut arriver en effet ! L’algorithme n’a pas raison à l’échelle individuelle, mais il a raison statistiquement. Il fonctionne aussi sur le croisement d’informations : si une personne a lu Zola et Karl Marx, la probabilité qu’elle soit socialiste augmente.

M. Serge Abiteboul. Des études, réalisées à partir de Facebook et non de TikTok, montrent que l’on peut détecter, avec un taux de réussite très élevé, proche de 100 %, les positions politiques, les croyances religieuses et l’orientation sexuelle des personnes très actives sur la plateforme. On y parvient en croisant les informations et en regardant les préférences, par exemple politiques, des membres de leur réseau.

M. Gilles Dowek. Si une personne compte une majorité d’amis socialistes, elle donne en effet une indication sur ses propres idées.

Ces informations sont très utiles aux recruteurs, qui veulent savoir si vous êtes paresseux, aux vendeurs de cigarettes, qui souhaitent savoir si vous êtes fumeur, mais aussi aux églises, aux vendeurs de ballons de volley-ball, aux partis politiques, etc. Toutes ces structures sont prêtes à acheter ces informations à un prix élevé : la vente de ces éléments rapporte de l’argent aux plateformes comme TikTok. Le montant total du chiffre d’affaires ainsi constitué rapporté au nombre d’inscrits actifs donne le revenu moyen généré par chaque utilisateur de la plateforme. Il s’élève à quelques euros. Par conséquent, faire payer un abonnement mensuel de 5 euros ou de 10 euros à chaque utilisateur apporterait le même revenu aux plateformes sans que celles-ci revendent les données personnelles. Certaines structures ont choisi ce modèle et affirment, probablement sans mentir, qu’elles ne revendent pas les données qu’elles collectent. Il n’y a donc aucune fatalité à la revente des données des utilisateurs.

Le risque d’être injurié ou accusé sans preuve, la difficulté de contrôler son image, l’écueil de trop parler de soi, l’exposition à une avalanche de messages commerciaux ou politiques constituent le revers de la médaille de la libre parole. La notion de pudeur a évolué, puisque de nombreuses personnes font part d’éléments intimes sans comprendre les problèmes que ce dévoilement peut poser. Les utilisateurs des plateformes doivent conduire une réflexion éthique. En outre, l’exacerbation de ces travers peut créer un risque psychologique. La mise en évidence de ces dangers doit faire l’objet d’un travail scientifique solide. Serge Abiteboul a dit que les utilisateurs de TikTok aimaient rester longtemps sur l’application, mais j’aime aussi rester dans mon bain sans que cela soit addictif : cet adjectif doit être employé avec rigueur et ne doit pas relever de l’expression d’une simple opinion. Des études pseudo-scientifiques ont été publiées : l’une d’entre elles dressait un lien entre les écrans et l’autisme, mais elle a été retirée à cause de biais méthodologiques qui traduisaient un objectif idéologique. Il faut éviter ce type d’études et privilégier celles qui parviendraient à montrer scientifiquement l’existence de difficultés psychologiques.

Mme Laure Miller, rapporteure. Nous n’avons plus que le mot « algorithme » à la bouche, mais est-ce que nous l’employons de manière pertinente ? Pourriez-vous nous donner une définition concrète et simple de ce terme ?

Quelles données personnelles sont utilisées par l’algorithme des réseaux sociaux ? Les pouvoirs publics peuvent-ils encadrer la captation effectuée par l’algorithme ou limiter le partage des données personnelles afin de mieux protéger ces dernières ?

M. Serge Abiteboul. Dans les réponses écrites au questionnaire que je vous transmettrai, je vous donnerai des éléments détaillés sur cette question. Il n’y a pas un seul algorithme, il y en a beaucoup : dans la perspective des travaux de votre commission d’enquête, les algorithmes les plus importants sont, dans un réseau social comme TikTok, ceux de recommandation et de modération. Les premiers sont dirigés vers les utilisateurs et les seconds servent à la plateforme pour bloquer des contenus illégaux ou opposés aux orientations de celle-ci. D’autres algorithmes existent, par exemple ceux qui sélectionnent la publicité que les utilisateurs reçoivent.

Les utilisateurs ne se rendent pas compte des données qu’ils partagent avec la plateforme : nom, prénom, âge, genre, date de naissance, courriel, numéro de téléphone, photos et vidéos personnelles. Très importants sont les éléments relatifs au comportement de l’utilisateur – vidéos visionnées, aimées, cherchées –, mais également à la localisation et aux connexions. Même si l’utilisateur cache certaines informations comme son orientation sexuelle, la plateforme pourra très probablement les découvrir.

Il ne me semble pas que TikTok collecte des données différentes de celles captées par les autres plateformes : Instagram récupère le même genre de données que TikTok. Petite différence, TikTok recueille des données comportementales relatives à la façon dont les utilisateurs visionnent les vidéos : l’algorithme d’analyse des comportements va assez loin dans l’identification des émotions des utilisateurs.

La question est de savoir ce que TikTok peut faire de ces données qui, à mon avis, ne sont pas celles qui se vendent le mieux – mais je peux me tromper. On peut penser qu’il les exploite de manière exhaustive pour mieux capter l’attention des utilisateurs et les garder le plus possible au sein du réseau. À part cela, TikTok présente les mêmes caractéristiques que les autres réseaux sociaux.

M. Gilles Dowek. La formulation de la question – « Quelle est votre définition de ce qu’est un algorithme ? » – m’a mis un peu mal à l’aise car je n’ai pas de définition personnelle à proposer, pas plus que je n’ai d’opinion personnelle sur le fait que deux et deux font quatre. Tous les dictionnaires définissent l’algorithme. Il s’agit, selon celui de l’Académie française, d’une « méthode de calcul qui indique la démarche à suivre pour résoudre une série de problèmes équivalents en appliquant, dans un ordre précis, une suite finie de règles » ; l’Académie cite l’exemple de l’algorithme de la multiplication de nombres à plusieurs chiffres. Le mot me paraît bien employé, dans le débat public, par ceux qui ont lu sa définition mais, en règle générale, il est très mal utilisé et, comme tous les mots techniques, peut servir d’injure. Ainsi, le 19 octobre 2024, Le Monde titrait sur la généralisation de la vidéosurveillance « algorithmique », ce dernier terme étant supposé faire peur. Je n’ai aucune idée de ce que cette expression signifie.

Mme Laure Miller, rapporteure. Je reviens sur votre remarque relative au périmètre de la commission d’enquête. Il ne nous a évidemment pas échappé que les autres réseaux sociaux exerçaient un impact sur la santé mentale des jeunes mais, eu égard au temps limité dont nous disposons, il m’a semblé pertinent – après en avoir débattu avec les autres membres de la commission – que nous nous focalisions sur le réseau social qui est à l’heure actuelle le plus problématique et le plus utilisé par les mineurs. Les recommandations que nous formulerons pourront être appliquées à d’autres réseaux sociaux.

M. Gilles Dowek. Ma remarque était donc sans objet.

M. le président Arthur Delaporte. J’ai moi aussi émis quelques réserves, au départ, sur le fait que nos travaux soient circonscrits à TikTok et aux mineurs, mais il était nécessaire que nous concentrions notre enquête sur un objet précis. Cela étant, nos propositions pourront être mises à profit pour réguler les autres réseaux ; en outre, elles sont susceptibles de concerner également les majeurs.

Mme Isabelle Rauch (HOR). À quel moment peut-il y avoir une intervention humaine sur l’algorithme ? Pourrait-on exercer, grâce à cela, une forme de régulation ?

M. Serge Abiteboul. Commençons par rappeler que l’algorithme est écrit par l’homme. Dans les algorithmes de décision, très souvent, on demande une validation par un humain. Par exemple, chez Facebook – je suppose qu’il en va de même chez TikTok –, l’algorithme ne peut pas décider de fermer un compte : il ne peut que le proposer, la décision revenant à une personne. En outre, les humains peuvent vérifier et modifier les algorithmes. Si vous souhaitez légiférer en la matière, il faudra tenir compte du fait que les algorithmes de modération et de recommandation sont instables, dans la mesure où ils sont modifiés, quasiment en permanence, par des programmeurs. D’une certaine façon, cela complique le travail des chercheurs car, aussi sérieuses soient-elles, les mesures qu’ils réalisent – je pense à l’étude en boîte noire des logiciels – ne seront peut-être plus vraies trois mois après.

Les algorithmes peuvent faire des choix par eux-mêmes, sans que les humains les contrôlent, si ces derniers leur en ont laissé la possibilité. À ma connaissance, les algorithmes des réseaux sociaux sont toujours programmés par des humains. Leur comportement peut évoluer, soit parce qu’ils dépendent de paramètres dont la valeur change, soit parce qu’ils sont soumis à un phénomène d’apprentissage – qui n’est pas, en général, un apprentissage en ligne. Le risque principal vient des modifications que l’homme apporte à l’algorithme car il est compliqué de vérifier ce que fait l’algorithme en temps réel. Aussi est-il impératif de pouvoir vérifier les effets des lois que vous élaborez dans l’objectif de réguler les réseaux sociaux. Si le DSA contient de nombreuses dispositions satisfaisantes, son application m’inquiète. Je ne vois pas, en effet, comment on parviendra, sans monter considérablement en compétences, à contrôler ce que font les plateformes.

Mme Isabelle Rauch (HOR). On a le sentiment que les algorithmes, les réseaux nous échappent complètement, mais il y a beaucoup d’humain derrière.

M. Gilles Dowek. Je ne comprends pas l’opposition que vous suggérez entre humain et algorithme : l’homme se distingue de la machine, de l’ordinateur, qui n’ont rien à voir avec l’algorithme. On emploie des algorithmes depuis 5 000 ans ; le mot existe, en français, depuis le XIIIe siècle. La question est de savoir si l’on pourrait remplacer les ordinateurs par des humains. Cela ne paraît pas possible car, pour prendre le seul exemple de TikTok, seul un ordinateur est en mesure de contrôler l’ensemble des vidéos – dont le nombre doit s’élever à 1 million, au bas mot – qui sont postées, quotidiennement, sur la plateforme, afin de censurer celles qui, par exemple, contiennent des injures.

Mme Isabelle Rauch (HOR). Il est important de rappeler que des humains programment les algorithmes et peuvent les contrôler et les modifier car le grand public a le sentiment que les machines sont autonomes.

M. Gilles Dowek. C’est une confusion qui a cours au sein du grand public.

Mme Isabelle Rauch (HOR). Je souhaitais que cela soit précisé pour toutes les personnes qui suivent nos travaux.

M. le président Arthur Delaporte. Vous écrivez, dans Le Temps des algorithmes : « La responsabilité des actes d’un algorithme incombe à ceux qui le conçoivent et l’utilisent », ce qui montre bien la place qu’occupe l’humain en ce domaine.

Monsieur Abiteboul, dans votre rapport de 2019 – antérieur, donc, à l’adoption du DSA –, vous proposiez des pistes de régulation. Comment analysez‑vous la situation aujourd’hui, alors que le DSA montre ses premiers effets, notamment en matière de transparence ? Pourriez-vous faire des préconisations supplémentaires concernant les moyens de contrôle et d’analyse ? Vos recommandations de 2019 sont-elles toujours pertinentes et sont-elles applicables à TikTok ?

M. Serge Abiteboul. La situation est différente car nous avons le DSA alors qu’à l’époque, il n’y avait rien. On doit se réjouir de l’existence de ce texte ; on aimerait que des normes similaires se propagent dans le monde, comme c’est le cas, par exemple, pour le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit RGPD (règlement général sur la protection des données). La question est de savoir si le DSA est suffisant. Ce texte m’inspire plusieurs réserves, la principale d’entre elles concernant son application. Dans la vision de la Commission européenne, tout doit être fait à Bruxelles, y compris le contrôle de la mise en œuvre du règlement. Je n’y crois pas une seconde : à moins d’instituer un groupe pléthorique de contrôleurs, on n’y parviendra pas.

Le texte n’accorde pas aux États la possibilité d’intervenir plus directement car la Commission n’a pas souhaité aller dans ce sens. Surtout, cette dernière a maintenu le critère de l’État d’origine, ce qui revient à faire peser la responsabilité exclusive, en la matière, sur l’Irlande. Cette solution n’est pas acceptable. Les pays de destination, où les effets induits par les réseaux sont les plus notables, devraient être beaucoup plus impliqués dans la recherche de la vérité et l’étude de ces plateformes. Je ne crois pas que l’Irlande et la Commission puissent régler le problème, dans le cadre de ce dispositif trop centralisé. Les grands États, eux, peuvent y parvenir.

Le rôle des régulateurs est d’obliger les plateformes à adopter un comportement responsable ; à cet égard, le DSA n’est qu’une première étape.

Une erreur fondamentale consiste à croire que les réseaux sociaux ne peuvent reposer que sur le modèle américain – symbolisé par des entreprises comme Facebook, Instagram ou YouTube –, lequel a été reproduit quasiment à l’identique par TikTok  vous trouverez des développements à ce sujet dans le livre que Jean Cattan et moimême avons consacré aux réseaux sociaux. C’est un problème majeur dans la mesure où l’utilisateur de ces plateformes ne se voit offrir aucun choix en matière de modération et de recommandation : il est peu ou prou considéré comme une marchandise. Cette situation, qui résulte de la volonté des plateformes, pourrait très bien être évitée. Il est essentiel de redonner aux utilisateurs, au moins partiellement, le contrôle de leur destin, autrement dit de leur proposer un choix s’agissant de la modération et de la recommandation. La tâche, il est vrai, n’est pas aisée ; Jean Cattan et moi-même proposons, dans notre ouvrage, des pistes pour y parvenir.

Il me paraît également fondamental que l’on remédie à la très forte concentration des pouvoirs dans les mains de quelques entreprises fonctionnant en silos. À l’origine, internet était distribué entre une multitude d’acteurs ; cela fonctionnait bien. Il en allait de même du courriel, qui était interopérable. Le modèle actuellement imposé par les plateformes ne comporte plus la moindre interopérabilité : ainsi, on doit se rendre sur TikTok pour parler à quelqu’un qui y est inscrit. Cela entraîne un effet de concentration, des groupes se rassemblant au sein d’un réseau, avant de migrer vers une autre plateforme. Pour remédier à cet écueil, il existe des solutions techniques telles qu’ActivityPub, qui permet à des réseaux sociaux d’échanger des informations. Le rôle du législateur pourrait être d’encourager l’usage de ces moyens techniques.

M. le président Arthur Delaporte. Messieurs, je vous remercie pour votre participation aux travaux de la commission d’enquête. Vous pouvez nous communiquer toute information complémentaire que vous jugerez utile.

N’hésitez pas à faire connaître, au sein de vos réseaux, la consultation citoyenne que nous lançons sur le site de l’Assemblée nationale. Tout témoignage de nature à alimenter notre réflexion peut nous être adressé à l’adresse : commission.tiktok@assemblee-nationale.fr.

8.   Audition de Mme Sophie Jehel, professeure en sciences de l’information et de la communication à l’Université Paris 8 Vincennes – Saint-Denis, auteure de l’ouvrage L’adolescence au cœur de l’économie numérique. Travail émotionnel et risques sociaux, Mme Murielle Popa‑Fabre, ancienne chercheuse au Collège de France et à l’Inria, experte au Conseil de l’Europe, spécialiste de l’intelligence artificielle inclusive et responsable, Mme Elisa Jadot, journaliste, auteure et réalisatrice du documentaire Emprise numérique, 5 femmes contre les Big 5, et M. Stéphane Blocquaux, docteur et maître de conférence en sciences de l’information et de la communication, auteur de l’ouvrage Le biberon numérique : Le défi éducatif à l’heure des enfants hyper connectés (mercredi 23 avril 2025)

Puis, la Commission auditionne conjointement, Mme Sophie Jehel, professeure en sciences de l’information et de la communication à l’Université Paris 8 Vincennes  Saint-Denis, auteure de l’ouvrage L’adolescence au cœur de l’économie numérique. Travail émotionnel et risques sociaux, Mme Murielle Popa-Fabre, ancienne chercheuse au Collège de France et à l’Inria, experte au Conseil de l’Europe, spécialiste de l’intelligence artificielle inclusive et responsable, Mme Elisa Jadot, journaliste, auteure et réalisatrice du documentaire Emprise numérique, 5 femmes contre les Big 5, et M. Stéphane Blocquaux, docteur et maître de conférence en sciences de l’information et de la communication, auteur de l’ouvrage Le biberon numérique : Le défi éducatif à l’heure des enfants hyperconnectés ([8]).

M. le président Arthur Delaporte. Je vous remercie d’avoir accepté notre invitation. Avant de vous céder la parole, je vous demanderai de déclarer tout intérêt public ou privé de nature à influencer vos déclarations. Par ailleurs, l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Stéphane Blocquaux, Mme Elisa Jadot, Mme Sophie Jehel et Mme Murielle Popa-Fabre prêtent successivement serment.)

M. Stéphane Blocquaux, docteur et maître de conférences en sciences de l’information et de la communication. Je travaille depuis près de vingt ans sur les natifs du numérique – catégorisation qui suscite quelques controverses. Depuis 2006, je m’intéresse plus particulièrement aux addictions liées aux réseaux sociaux ainsi qu’aux frontières entre l’intimité et l’extimité et à l’exposition à la cyberpornographie, à laquelle j’ai consacré un ouvrage en octobre dernier.

J’interviens sur le terrain, puisque je dispense des conférences devant des auditoires de 250 à 400 élèves de cinquième, quatrième et troisième. Ces collégiens, en particulier ceux de quatrième, se trouvent à un moment charnière où les questions liées à la gestion des réseaux sociaux, à l’intimité et à l’accès aux images pornographiques explosent. C’est aussi un moment charnière pour les parents : après avoir résisté aux demandes incessantes de leur enfant qui s’estime marginalisé parce qu’il ne possède pas de téléphone portable, ils cèdent, par lassitude. Or le smartphone est la principale porte d’entrée vers les réseaux sociaux. Voilà dix ans que je préconise de réguler l’accès des collégiens à cet outil – je propose des pistes à ce sujet dans mon livre Le Biberon numérique.

J’ai rencontré des centaines de milliers de jeunes depuis une quinzaine d’années, en France mais aussi en Belgique et en Suisse. J’étais ce matin même devant 250 collégiens de troisième d’un établissement rennais, et j’interviendrai jeudi et vendredi devant près de 1 000 élèves de quatre établissements du Mans ; autant dire que je peux faire des statistiques en temps réel. Ma conférence, conçue comme un outil pédagogique, se décompose en trois parties. J’invite d’abord les enfants à compter le temps qu’ils passent sur les réseaux sociaux afin d’apprendre à le gérer eux-mêmes. Je les sensibilise ensuite à la protection de leurs données et de leur intimité : je simule une effraction dans un compte Instagram pour évoquer les conséquences de la rupture d’un barrage qu’ils considèrent comme solide, le mot de passe. Nous réfléchissons enfin à leur image intime et à leur facilité à consommer, voire à produire des images personnelles en pensant qu’elles sont à l’abri, malgré les nombreux conseils et mises en garde qui leur sont fréquemment adressés.

M. le président Arthur Delaporte. Avant de vous céder la parole, madame Jadot, je précise que votre documentaire Emprise numérique, 5 femmes contre les Big 5 a inspiré la création de cette commission d’enquête, puisqu’il donne à voir des extraits d’auditions de plateformes devant le Congrès américain.

Mme Elisa Jadot, journaliste, auteure et réalisatrice. Je me réjouis de la création de cette commission. Instagram a été lancé en 2010 ; cela fait donc quinze ans que les plateformes de médias sociaux agissent en toute liberté, protégées par leur statut d’hébergeuses de contenus. Alors que l’âge minimum pour s’inscrire sur un réseau social est de 13 ans, 87 % des enfants de 11 à 12 ans y sont présents en France ; l’âge moyen de la première connexion est de 8 ans, et un tiers des enfants de 5 à 7 ans y naviguent sans aucune surveillance.

Sous le couvert d’une connexion au monde, les réseaux sociaux isolent les jeunes, réduisent les interactions réelles et modèlent une génération incapable d’exprimer ses émotions autrement que par écran interposé. Résultat : en dix ans, le nombre de jeunes souffrant de dépression a explosé, et la prévalence des pensées suicidaires a doublé. J’enquête sur ces sujets depuis 2019 – je leur ai consacré trois documentaires – et j’ai eu des centaines d’échanges avec des adolescents. Leurs témoignages sont très clairs : les réseaux ne sont pas seulement un terrain de jeu, mais aussi un terrain de danger.

Lorsque je réalisais mon documentaire sur l’emprise numérique, qui a été diffusé sur France Télévisions, des adolescents m’ont dit être tombés dans une spirale infernale après avoir été confrontés à des contenus faisant l’apologie de l’anorexie, de l’automutilation et du suicide. J’ai donc décidé de créer un faux profil d’adolescente de 13 ans – aucune vérification de mon âge ne m’a été demandée. Pour mener cette enquête de la façon la plus rigoureuse possible, j’ai utilisé un téléphone neuf et une nouvelle connexion internet, et je me suis abstenue de toute recherche ou interaction initiale pour ne pas influencer les algorithmes.

Dans un premier temps, l’algorithme d’Instagram m’a proposé des vidéos de jeunes femmes racontant leur chagrin d’amour. Plus j’ai cliqué sur ces contenus, plus je me suis retrouvée noyée sous des vidéos d’adolescentes en larmes, de plus en plus sombres. Très vite, en vingt minutes à peine, je me suis vu proposer un flot continu de sang, de vampirisme, de scènes sexualisées, de scènes d’automutilation où les plaies étaient fraîches et encore bien profondes.

Sur TikTok, dont l’algorithme est le plus puissant de tous les réseaux sociaux, ce fut encore plus rapide : après avoir scrollé moins de cinq minutes – quatre minutes quarante-cinq, exactement –, j’ai fini par tomber sur des vidéos qui valorisaient le suicide. J’y ai appris les meilleures façons de me scarifier, avec la lame de mon taille-crayon, un stylo et des glaçons. L’on m’a expliqué comment cacher mes blessures à mes parents et l’on m’a suggéré des vidéos tutorielles pour faire un nœud coulant en vue de me pendre dans ma chambre.

Tous les réseaux sociaux fonctionnent de la même manière. L’algorithme n’est pas fabriqué pour nous montrer ce que nous voulons voir, mais pour nous faire rester le plus longtemps possible.

La dépression est un thème central dans l’univers adolescent ; les plateformes l’identifient comme un sujet stratégique et la mettent automatiquement en avant dans les contenus suggérés. Comme si cela ne suffisait pas, l’accès des enfants à la pornographie et à la pédopornographie n’a jamais été aussi facile, car les réseaux sociaux ont transformé la pédocriminalité en général : l’on peut y effectuer des repérages, se livrer à des manipulations et partager des contenus très facilement, sans aucune modération. Des documents internes aux plateformes révèlent que les algorithmes jouent même les entremetteurs, puisque 75 % des contacts inappropriés entre adultes et mineurs proviennent de suggestions d’amis faites par le réseau social.

Sur mon faux profil d’adolescente de 13 ans, j’ai été repérée en quelques jours par un bon nombre d’hommes. Ils ont eu le droit de me contacter – certains avaient des pseudonymes très explicites, comme Grosse bite dure – et de m’envoyer des photos à caractère sexuel. D’autres ont essayé de me manipuler par la méthode du grooming, ou pédopiégeage, consistant à dissimuler son identité pour installer une forme de confiance et soutirer à l’enfant des photos sexuelles afin de le soumettre à un chantage – ou sextorsion – ou de le rencontrer. Une adolescente victime de sextorsion m’a raconté que pour éviter que ses photos ne soient dévoilées à ses parents ou à ses camarades de collège, elle a été contrainte de se filmer en train de se lacérer les jambes, de boire son urine et de lécher ses excréments. J’ai également recueilli l’histoire de frères de 7 et 9 ans, présents sur un réseau social à l’insu de leurs parents, qu’un prédateur a manipulés et obligés à réaliser une fellation l’un sur l’autre. Tous deux ont donc été agresseur et agressé.

En l’absence de modération et de censure, les pédocriminels sont parvenus à structurer leur communauté sur les réseaux sociaux. Ils emploient des mots-clés ou des acronymes pour se reconnaître. Sous les photos d’utilisateurs mineurs, ils publient des commentaires dans lesquels ils s’échangent des contacts et des liens vers des sites pédopornographiques où chacun peut acheter ou vendre des vidéos. J’ai ainsi reçu un lien sur mon faux profil qui m’a fait directement atterrir sur la vidéo du viol d’un bébé.

Il peut être très difficile de réparer les enfants victimes de ces actes, d’autant que le monde virtuel connaît le même phénomène de reproduction que la vie réelle : un enfant qui a été confronté à ces images peut être attiré à son tour par des contenus similaires. Le nombre de pédocriminels a explosé depuis l’avènement des réseaux sociaux, et ils sont de plus en plus jeunes : l’on a vu des enfants de moins de 13 ans rechercher activement ce type de vidéos.

Les réseaux sociaux ne protègent pas les enfants, mais au contraire les monétisent : pour Instagram, un adolescent vaut en moyenne 270 dollars. Sachant que plus de 1 milliard d’adolescents sont connectés aux plateformes, cette catégorie représente une cible économique et stratégique majeure. Certaines réalisent jusqu’à 41 % de leurs revenus grâce aux mineurs. Elles ont tout à gagner à capter l’attention des plus jeunes, dont le cerveau, encore en construction, est malléable – il n’est mature qu’à 25 ans.

Pour continuer à grossir, les plateformes doivent s’assurer que les générations suivantes seront autant, voire plus accros que les précédentes. Cela passe par l’instauration précoce d’habitudes de connexion et par l’évitement de toute forme d’autorégulation chez les jeunes. Des documents internes révélés par des lanceurs d’alerte prouvent que ces entreprises analysent les vulnérabilités cognitives des jeunes pour maximiser leur engagement. Le modèle des plateformes repose donc sur un double levier : la vulnérabilité des jeunes et l’ignorance ou l’absence de réaction des adultes face à la puissance des algorithmes. Les entreprises minimisent ces risques et choisissent de ne pas agir. Elles consacrent des budgets ridicules à la modération : 2 milliards de dollars chez TikTok pour 85 milliards de revenus annuels, 5 milliards chez Meta pour 140 milliards de revenus. Elles n’emploient que 40 000 modérateurs pour 3,5 milliards d’utilisateurs.

J’attends beaucoup de votre commission d’enquête, car les plateformes bloquent depuis longtemps toute tentative sérieuse de régulation et n’ont jamais autant dépensé en lobbying. L’industrie technologique est désormais le premier lobby auprès de l’Union européenne, devant les industries pharmaceutique et pétrolière. Elle reprend les stratégies de l’industrie du tabac, conjuguant mensonges, doutes entretenus et absence de responsabilité légale, pour protéger son modèle et s’abstenir de protéger les enfants.

J’estime qu’il ne revient pas aux enfants de se défendre ni aux parents de porter seuls le poids de la régulation ; c’est à la société d’agir dans son ensemble et aux États d’être plus interventionnistes. Il doit en aller des réseaux sociaux comme des produits vendus en supermarché : lorsqu’ils s’avèrent dangereux, on impose qu’ils soient modifiés ou retirés.

Comme de nombreuses victimes et leurs familles, j’attends avec impatience le résultat de vos travaux. Je sais que vous auditionnerez des représentants du collectif Algos victima, et vous faites bien : ils ne théorisent pas ces sujets mais les vivent dans leur chair jour après jour.

Mme Sophie Jehel, professeure en sciences de l’information et de la communication à l’université Paris 8 Vincennes-Saint-Denis. Je me réjouis moi aussi du lancement de cette commission d’enquête. Au début de ma carrière, j’ai travaillé sur les questions de protection de l’enfance au Conseil supérieur de l’audiovisuel (CSA). Entre ce qui était négociable à l’époque avec les chaînes de télévision et ce qui l’est aujourd’hui avec les plateformes numériques, le fossé est surprenant. Je ne pensais pas que nous attendrions aussi longtemps pour installer des systèmes de contrôle parental un tant soit peu efficaces afin de protéger les jeunes de la pornographie à la télévision. Ils sont quoi qu’il en soit insuffisants depuis que les réseaux sociaux numériques donnent accès à des contenus pornographiques très crus – de ce point de vue, X porte bien son nouveau nom.

Mon approche relève de la sociologie des usages. J’étudie la réception des contenus et les usages des dispositifs numériques en m’attachant à leur ancrage social. Cette dimension sociale des pratiques numériques explique que votre travail soit si compliqué : une régulation qui passerait par des interdictions radicales ne serait ni pertinente ni réaliste, car l’économie nationale, les sociabilités et les relations affectives des jeunes et des moins jeunes sont traversées dans leur ensemble par ces usages.

La création de comptes sur les réseaux sociaux numériques participe de la carrière sociale et de la vie ordinaire des adolescents depuis au moins dix ans, voire davantage puisque Facebook a été créé en 2004. Les parents et les médiations adultes jouent un rôle majeur dans la manière dont les adolescents et les enfants se comportent sur les plateformes. Par ailleurs, nous ne pouvons comprendre et interpréter ces usages sans tenir compte de la socio-économie des plateformes et du fait qu’elles considèrent les jeunes comme une cible stratégique.

La grille d’interprétation que j’ai développée cherche à articuler ces modèles socio-économiques avec l’instrumentation des émotions opérée par les plateformes. La politique émotionnelle de ces dernières repose sur trois piliers, à commencer par l’injonction à la publication : ces entreprises n’existent que si les usagers postent des contenus, qui constituent autant d’informations sur leurs centres d’intérêt. Cette injonction à publier répond aussi à une disposition des individus des sociétés contemporaines, appelée individualisme expressif, faite d’un désir d’extension de soi, de prolonger son identité par des créations, des productions, des publications.

Le deuxième pilier, que certains collègues appellent le web affectif, réside dans l’instrumentalisation des émotions des usagers au profit d’affects qui seront captés par le design des plateformes en vue de calculer des comportements. Concrètement, le web affectif se manifeste dans les émojis, les fonctions de partage et d’enregistrement, les likes, etc. Ce qui importe aux plateformes n’est pas la nature des émotions, mais la possibilité de les calculer et de les revendre.

Le troisième pilier est la surveillance panoptique des comportements. Le profil que les plateformes construisent pour chaque usager dépend non seulement de ses actions volontaires, mais aussi de calculs fondés sur l’activité de ses contacts. Nous savons depuis 2013, grâce à M. Edward Snowden, que les données issues de cette surveillance sont récupérées par les États, en particulier les États-Unis. À cette surveillance par les plateformes s’ajoute une surveillance par les pairs : chacun peut être épié par ses contacts plus ou moins proches – les jeunes le comprennent dès qu’ils mettent un pied dans les réseaux.

Tout ceci s’inscrit dans un contexte de très faible régulation publique.

Mes recherches sont à la fois quantitatives et qualitatives. Sur le plan quantitatif, j’ai la chance, grâce aux centres d’entraînement aux méthodes d’éducation active (Ceméa) et à la région Normandie, de disposer des réponses à un questionnaire administré depuis dix ans à plusieurs milliers d’adolescents de 15 et 16 ans. Mon collègue Jean-Marc Meunier m’aide depuis deux ans à traiter ces données. Le dernier rapport que nous avons produit pour l’Observatoire des pratiques numériques des jeunes en Normandie vient d’être publié sur le site Éducation aux écrans de la région et sur HAL.

Sur le plan qualitatif, je mène des entretiens semi-directifs individuels ou en petits groupes, le cas échéant en utilisant des images. Dans le cadre de ma recherche sur la réception des images violentes sexuelles et haineuses, j’ai rencontré 200 adolescents en couplant des entretiens collectifs et individuels. Pour le projet Adoprivacy, dont les résultats seront publiés prochainement, nous avons constitué des focus groups afin de comprendre comment les adolescents percevaient les enjeux de la protection de la vie privée sur les plateformes numériques.

Nous avons aussi échangé avec des enseignants sur leur perception de ces enjeux et leur rôle dans la transmission des connaissances en la matière et organisé des ateliers avec des adolescents pour qu’ils expliquent leur compréhension du fonctionnement des plateformes et réfléchissent aux problèmes qu’elles posent ; je mène également ces réflexions avec mes étudiants en licence et en master.

Néanmoins, nous manquons de connaissances sur le fonctionnement exact des algorithmes, notamment s’agissant de TikTok – pour ce qui est de Facebook, nous avons bénéficié des déclarations de Mme Francs Haugen. Avec les chercheurs du laboratoire du Centre d’études sur les médias, les technologies et l’internationalisation (Cemti) auquel j’appartiens, nous espérons accéder, grâce à l’article 40 du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services act (DSA), à des données plus précises sur les critères utilisés par les algorithmes.

J’ajoute qu’une étude transversale de l’Observatoire des pratiques numériques des jeunes en Normandie a démontré que le nombre de comptes ouverts par les adolescents sur les plateformes numériques ne cesse d’augmenter – un jeune de 15-16 ans en a sept en moyenne – et la crise du covid a accéléré l’importance de TikTok et d’autres plateformes, telles que Pinterest, Discord ou Twitch.

Sur le plan de la santé mentale, il est important de comprendre le fonctionnement des réseaux sociaux, qui mettent les usagers en concurrence les uns par rapport aux autres, dans une conception très néolibérale, où chacun doit se penser comme une entreprise et rentabiliser son capital de likes, quelles que soient ses vulnérabilités, puisque tous les éléments de la vie personnelle, les liens amicaux, etc., peuvent faire l’objet d’une marchandisation, sans aucune limite. C’est cette extension des règles du marché économique aux relations sociales qui produit de l’anxiété.

Si TikTok pose des problèmes particuliers, son algorithme étant moins régulé que les autres, Snapchat en pose également de nombreux en matière d’intrusion dans la vie privée et dans la manière dont les adolescents construisent leur propre représentation de leurs amitiés, puisque la plateforme est en mesure de mesurer les interactions et d’inciter les jeunes à publier du contenu.

Par ailleurs, les réseaux sociaux soulèvent aussi la question du sexisme et de la propagande masculiniste. Je participe à la rédaction d’un rapport qui sera publié prochainement par France Stratégie sur les stéréotypes : nous pensions que, grâce au numérique, la représentation des femmes serait améliorée ; or nous constatons au contraire une aggravation de celle-ci, même s’il existe quelques niches dans lesquelles les pensées féministes peuvent s’exprimer.

M. Stéphane Blocquaux. Permettez-moi de revenir sur le smartphone, qui constitue le principal canal d’accès aux réseaux sociaux. J’ai participé à de nombreuses commissions sur le sujet, notamment à la première, lancée par la ministre d’alors Laurence Rossignol, sous la présidence de François Hollande : nous avions conclu à l’impossibilité de réguler les contenus, au motif qu’il était difficile de vérifier l’identité des utilisateurs dans un système démocratique. En effet, à l’époque, il était plutôt question de pornographie : interdire l’accès des mineurs à ce type de contenus impliquait d’identifier les adultes autorisés à se connecter. Quelques idées brillantes avaient été avancées pour ce faire, comme utiliser FranceConnect. Ce fut un échec. Pendant quinze ans, plusieurs commissions successives se sont heurtées à cette question – notamment celle de M. Adrien Taquet et de M. Cédric O –, tout comme des pays étrangers : la Grande-Bretagne a mobilisé les meilleurs experts pour tenter de réguler l’accès aux réseaux sociaux et à leurs contenus, en particulier pornographiques.

Il aura toutefois fallu attendre 2020 pour comprendre enfin que l’explosion du smartphone chez les mineurs constitue la porte d’entrée des réseaux sociaux : il faudrait donc protéger, en priorité, la tranche d’âge des collégiens de son utilisation. Par conséquent, si votre commission d’enquête doit déboucher sur la recommandation de mesures nouvelles, cette piste mérite réflexion – plutôt que des mesures uniquement coercitives. Je me suis radicalisé sur le plan scientifique : si j’ai longtemps pensé qu’il fallait éduquer au virtuel et accompagner les parents, je m’aperçois, après quinze ans de recherches, que cette stratégie est un échec cuisant puisque, pour reprendre l’exemple de la pornographie, 96 % des mineurs ont eu accès à ce type de contenus avant leur majorité, malgré l’interdiction faite aux moins de 18 ans.

La seule solution consisterait à interdire aux mineurs la possession d’un smartphone – je ne parle pas, bien sûr, du téléphone à neuf touches. Il suffirait de légiférer, comme cela a été fait pour le scooter, qui a été jugé dangereux et interdit aux jeunes de moins de 14 ans. Nous sommes capables de protéger les mineurs des risques physiques mais pas des risques psychiques, au motif qu’une telle interdiction serait liberticide et constituerait une intrusion dans la vie des foyers. C’est pourtant ce que nous avons fait s’agissant du scooter : ceux qui habitent à la campagne et sont éloignés du réseau scolaire rêveraient de laisser leur enfant de 12 ans partir seul à l’école sur un scooter. À quand une réflexion sur le smartphone, qui est aussi un outil dangereux pour les mineurs ? Cela impliquerait que les constructeurs et les vendeurs de téléphones s’assurent de l’âge de l’utilisateur pour qui le smartphone est acheté. Cette mesure radicale consistant à imposer aux collégiens la détention d’un téléphone à touches – les talkies-walkies comme ils les appellent – aurait des effets bien plus bénéfiques que la seule régulation des plateformes. Il s’agit d’une véritable piste de travail, rarement évoquée par les politiques – Emmanuel Macron l’avait proposée pendant la campagne pour les élections législatives.

Mme Murielle Popa-Fabre, ancienne chercheuse au Collège de France et à l’Inria, experte au Conseil de l’Europe, spécialiste de l’intelligence artificielle inclusive et responsable. J’articulerai mon propos liminaire en trois grandes parties : les algorithmes de recommandation, avec une comparaison entre Twitter et TikTok ; les effets cognitifs induits sur les mineurs ; et la gouvernance. Je vous propose de l’illustrer à l’aide de diapositives, dont les données sont issues d’une étude publiée en mars dernier par une équipe de l’université de Columbia.

La première partie vise à en finir avec l’idée selon laquelle les algorithmes seraient des immenses boîtes noires et à optimiser la compréhension des décideurs sur le sujet. Pour mieux comprendre la fonction de l’algorithme, on peut la diviser en trois parties : l’une dédiée aux contenus candidats, l’autre à la sélection par priorités et la troisième liée aux stratégies d’engagement et de business des réseaux sociaux. Procéder de cette manière permet de mesurer plus efficacement l’impact des politiques publiques sur telle ou telle partie, notamment sur le plan économique ou en matière de modération des contenus, en particulier s’agissant de la sélection des priorités.

Sur X – anciennement Twitter –, réseau le plus connu, les contenus émanent pour moitié de personnes avec lesquelles l’utilisateur est directement ou indirectement connecté et pour moitié de personnes qu’il ne connaît pas. Ce point est important pour comprendre les dynamiques qui entrent en jeu dans les phases de l’algorithme. Sur ce réseau social, le comportement de l’utilisateur sur la plateforme n’est pas une priorité, ce qui est moins vrai sur TikTok et qui explique en partie l’expérience décrite par Mme Jadot. Sur le losange multicolore présenté à l’écran, on constate que l’algorithme prend en compte quatre éléments fondamentaux : la spécificité du contenu par rapport à vos centres d’intérêt, l’intensité de l’usage qui en est fait, la nouveauté et sa date de péremption, cette dernière étant plus courte sur X que sur les autres réseaux sociaux.

Sur TikTok, la sélection des contenus est très différente puisque ceux-ci émanent majoritairement de personnes avec lesquelles l’utilisateur n’est pas connecté ; de plus, leur caractère récent est moins important, ce qui explique que le réseau soit utilisé par les jeunes générations pour rechercher de l’information, même si une récompense très forte est donnée à la nouveauté. Son algorithme permet de hiérarchiser les priorités par catégorie et place en deuxième position le comportement de l’utilisateur sur la plateforme : celui-ci est pris en compte grâce aux vidéos que l’usager visionne en boucle et auxquelles il s’intéresse tant qu’il ne fait pas défiler les images – le fameux swipe. La plateforme recueille ainsi une quantité incroyable d’informations sur ses centres d’intérêt. C’est ce qui explique que Mme Jadot se soit retrouvée en quelques minutes prise dans une spirale infernale, liée au nombre de visionnage de certaines vidéos.

Depuis l’entrée en vigueur en 2023 de la réglementation européenne sur les services numériques (DSA), quelques études ont été menées sur la modération des contenus : le graphique projeté à l’écran présente toutes les décisions de modération prises par les plateformes Facebook, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, X et YouTube en une journée – celle du 5 novembre 2023. Il s’agit majoritairement de décisions d’effacement des contenus, liées à leur nature – caractère illégal ou violent – et non à l’âge des utilisateurs. Il est important de comprendre et de comparer les décisions prises par les plateformes car la façon de catégoriser les contenus est révélatrice du type d’informations qui y seront diffusées. Un autre élément important, et qui changera radicalement avec l’arrivée de l’IA générative, c’est la manière dont la modération de contenus est opérée : en 2023, elle était déjà pratiquement entièrement automatisée chez TikTok – c’est la plateforme qui automatise le plus.

Je voulais également vous présenter une étude publiée cet automne concernant la plateforme de commerce en ligne Alibaba, qui démontre à quel point il est possible de prédire avec une très grande précision les actions d’achat d’un utilisateur à partir des images qu’il a visionnées, grâce à des modèles multicomportementaux – les grands modèles de langage (LLM) – qui analysent des données multimodales de différentes catégories. Pour être plus précise, si l’usager consulte des casques de vélo de couleur rose, violet, etc., avant d’acheter finalement un casque qui ne correspond pas forcément à ce qu’il vient de regarder, l’algorithme sera en mesure d’analyser les données liées à son comportement sur la plateforme et de prévoir qu’il achètera un shorty d’un certain type. Autrement dit, l’analyse de son comportement, qui est connu grâce aux traceurs, à ses achats précédents et à son expérience de visionnage permet d’obtenir des résultats bien meilleurs pour prédire ses achats que les simples algorithmes de recommandation. Il en va de même du gamer, présenté en figure b du tableau, dont on peut prédire qu’après avoir consulté des tours de gaming, il achètera une carte graphique. Il est possible de retracer si celui-ci s’est intéressé ou non aux spécifications techniques de la tour de gaming, ainsi qu’une multitude d’autres activités, y compris le mouvement de la souris sur la plateforme, et de fusionner l’ensemble des données dans une vision à 360 degrés pour déterminer des prédictions optimales d’achat et proposer des recommandations multicomportementales.

La deuxième partie de mon expertise porte sur les effets des réseaux sociaux sur les mineurs. Je voudrais mettre en avant quelques éléments en particulier : d’une part, l’impact de l’activité sur TikTok, lié au nombre d’heures qui y sont consacrées, et le fait que les jeunes effectuent souvent d’autres tâches en même temps qu’ils consultent les réseaux sociaux – ce qu’on appelle le digital multitasking. Des études ont montré que cette habitude avait une incidence importante sur la capacité de mémorisation des jeunes. Et, d’autre part, l’impact lié à tout ce que le mineur ne fait pas lorsqu’il reste devant les écrans et sur les réseaux sociaux, avec des répercussions en termes de sédentarité, de perte de motricité fine, d’obésité – ce point a beaucoup préoccupé la Chine – ou encore de socialisation. Enfin, il ne faut pas oublier l’impact du phénomène addictif, dans une phase du développement très importante.

Sachez qu’un marché de la détox existe, non seulement grâce à des livres best-sellers mais aussi à des applications qui visent à vous désintoxiquer et à faire remonter votre taux de dopamine pour éviter que vous n’alliez la chercher sur les réseaux sociaux. La diapositive présente deux exemples de sites proposant une détox et des actions de phone fasting.

M. le président Arthur Delaporte. Cela fonctionne-t-il ?

Mme Murielle Popa-Fabre. Il est trop tôt pour évaluer ces méthodes qui sont récentes. Nous disposons davantage de témoignages et de données de terrain que d’études menées à grande échelle, mais il serait intéressant que la science se concentre sur cette question, car il est évident que l’action de scroller a une incidence sur le système dopaminergique.

M. le président Arthur Delaporte. Ce n’est donc pas scientifiquement prouvé à ce stade.

Mme Sophie Jehel. Je me permets d’ajouter que, d’après mes étudiants, les contenus sur la tristesse ou la dépression s’accompagnent de publicités pour des antidépresseurs.

M. le président Arthur Delaporte. On crée un marché, en quelque sorte.

Mme Murielle Popa-Fabre. Le marché de la détox présenté à l’écran n’est pas disponible sur les réseaux sociaux : ce sont des personnes spécialement formées qui ont lancé leurs start-up pour proposer ce genre d’activités.

La troisième partie de ma présentation porte sur la gouvernance. Je m’attarderai plus longuement sur le cas de la Chine, que je connais bien, mais je commencerai par le Royaume-Uni, qui a été le premier pays à adopter, dès 2021, un code de bonnes pratiques à l’intention des réseaux sociaux, code qui a essaimé à travers le monde, notamment aux États-Unis, jusqu’à aboutir à l’adoption d’une loi par l’État de Californie. L’objectif était de renforcer la protection des données des mineurs, par exemple en désactivant la géolocalisation pour éviter tout risque de prédation. Ensuite, en décembre dernier, l’Australie a décidé d’opérer un choix radical en fixant un âge minimum – 16 ans – d’accès aux réseaux sociaux. Elle a aussi décidé de créer, d’ici à la fin de l’année, un poste de commissaire pour la sécurité en ligne. Des discussions sont donc en cours avec les grandes plateformes numériques, afin d’appliquer un contrôle de l’identité et de l’âge des utilisateurs – comme quoi, lorsqu’on arrête une stratégie, il est possible de trouver le chemin pour la faire aboutir.

J’en viens à la Chine et aux restrictions progressivement instaurées en matière d’utilisation des réseaux sociaux : l’épidémie de jeux vidéo a conduit ce pays à réduire le temps d’usage des jeux en ligne de quatre-vingt-dix minutes en 2019 à soixante en 2021 et à le limiter aux vendredis, aux week-ends et aux vacances. En 2023, la Chine a arrêté quelques grandes lignes directrices, entrées en vigueur au 1er janvier 2024 : interdiction d’accéder aux réseaux sociaux et aux plateformes de jeux en ligne entre 22 heures et 6 heures du matin, pour résoudre le problème de la dette chronique de sommeil ; limitation de l’utilisation d’internet à deux heures par jour pour les jeunes âgés de 16 à 18 ans, une heure par jour pour ceux âgés de 8 à 15 ans et seulement quarante minutes pour les enfants de moins de 8 ans.

Je me suis plongée dans le texte de loi adopté par la Chine et j’ai noté que le terme d’addiction était mentionné six fois, dès le premier article. L’objectif est de guider les mineurs pour qu’ils utilisent internet « de manière scientifique, civilisée, sûre et raisonnable », et de prévenir et réduire la dépendance des mineurs à internet. La stratégie consiste à exercer un contrôle depuis le logiciel lui-même et le smartphone – téléphone ou montre connectée –, sur lesquels le mode « mineur » est activé.

La grosse différence entre le réseau TikTok déployé en Chine et celui utilisé en Europe, c’est que le premier constitue une plateforme commerciale inouïe : en 2022, 33 % du chiffre d’affaires étaient liés à des utilisateurs de moins de 25 ans. Les décisions automatisées de marketing commercial à destination des mineurs ont donc été interdites. La loi précise que « les produits et services susceptibles de provoquer une dépendance […] ne doivent pas être fournis aux mineurs » et prévoit qu’un rapport sera publié annuellement sur les mesures anti-addiction prises, pour que le public se rende compte des efforts déployés pour limiter les phénomènes addictifs sur les plateformes et sur internet.

Mme Laure Miller, rapporteure. Alors que de plus en plus de voix se font entendre, en France et à l’international, pour dénoncer les effets des réseaux sociaux sur la santé mentale de nos jeunes et déplorer une modération insatisfaisante, nous ne protégeons toujours pas nos enfants. Comme vos exposés très éclairants en témoignent – en particulier le documentaire de Mme Jadot –, nous ne pouvons pas nous contenter d’une position attentiste ou modérée, car il y a urgence : les réseaux sociaux ont des conséquences psychologiques importantes et sont en train d’abîmer des générations d’enfants. Il faut absolument trouver des solutions les plus efficaces et directes possibles pour endiguer ce phénomène.

Je retiens de vos interventions que les réseaux sociaux, singulièrement TikTok, n’ont pas intérêt à protéger nos enfants, car c’est contraire à leur modèle économique – à cet égard, pourrez-vous nous préciser la source de vos données sur la valeur monétaire des enfants pour les réseaux ? Partant, il sera très difficile de leur imposer des règles visant à limiter l’accès des enfants à certains contenus ou à faire mieux respecter l’âge minimum requis pour créer un compte sur les plateformes.

Nous ne disposons d’aucun diagnostic clair sur les conséquences directes de l’utilisation des réseaux sociaux sur la santé mentale des jeunes. Selon vous, celui-ci ne permettrait-il pas de sensibiliser davantage les parents, les enfants eux-mêmes, et d’inciter le législateur et les pouvoirs publics à interdire leur utilisation ou, à tout le moins, à les réguler davantage, comme cela a été le cas pour d’autres produits à la nocivité démontrée pour les enfants – scooter, cigarette, alcool, certains produits alimentaires ? L’usage des réseaux sociaux altère-t-il uniquement la santé mentale de jeunes déjà fragiles, ou les conséquences touchent-elles tous les enfants de manière générale ?

Mme Elisa Jadot. Mes données proviennent de l’Insee, d’études britanniques ou américaines, ou encore de l’association Génération numérique pour ce qui concerne, par exemple, le pourcentage d’enfants de 11-12 ans connectés aux réseaux. Je vous transmettrai la liste des sources.

S’agissant de la valeur monétaire d’un enfant pour les plateformes, mes chiffres proviennent de documents internes, notamment ceux de Meta et de TikTok. Dévoilés récemment, les « TikTok papers » montrent à quel point le réseau travaille en coulisse pour rendre nos enfants vulnérables et les capter sur la toile. Beaucoup d’employés s’interrogent sur leur responsabilité et la nécessité de modérer les contenus pour protéger davantage les enfants, mais de telles suggestions ne sont jamais suivies d’effet, car le manque à gagner serait beaucoup trop important pour les plateformes, certaines réalisant jusqu’à 40 % de leur chiffre d’affaires grâce aux mineurs.

Depuis vingt ans, les plateformes affirment publiquement – notamment devant le Sénat américain – qu’il n’existe aucune étude établissant un lien de causalité direct entre les réseaux sociaux et la santé mentale des mineurs, voire présentent des contre-études qui prouveraient que ce sont des outils formidables pour les enfants. Cet enjeu est au cœur de leur stratégie de communication. Pourtant, leurs propres études internes montrent combien ces réseaux sont catastrophiques pour la santé mentale des mineurs : selon une étude de Meta dévoilée en 2021 grâce à une lanceuse d’alerte, l’utilisation d’Instagram est une véritable tempête, qui augmente le mal-être d’un adolescent sur trois, et la modération automatique des contenus ne fonctionne pas, si tant est qu’elle existe. Par exemple, la plupart des contenus mortifères en lien avec la dépression – le troisième thème le plus recherché par les adolescents – ou les tentatives de suicide, sont suggérés par les plateformes. Notons également que les centres d’addictologie, qui reçoivent traditionnellement des personnes dépendantes des drogues dures, comme l’héroïne, de l’alcool ou du tabac, accueillent de plus en plus de jeunes accros aux réseaux sociaux et qui ont du mal à s’en sortir.

Cela a été souligné, il existe aussi un problème dans la prise en charge de la santé mentale des adolescents. Aux États-Unis, en Espagne, en Angleterre ou en France, toutes les familles que j’ai rencontrées m’ont raconté la même chose : lorsqu’un enfant a tenté de se suicider ou se scarifie, le lien avec l’usage des réseaux sociaux est rarement fait ; on propose aux parents de placer l’enfant sous antidépresseurs ou de lui prescrire un traitement contre la bipolarité ou la schizophrénie. À en croire certains médecins et psychiatres, la moitié de nos adolescents souffriraient de tels troubles ! Certains parents, à qui on avait refusé l’hospitalisation de leur enfant – « il faut bien que jeunesse se fasse », « si on devait hospitaliser tous les enfants qui se scarifient, les hôpitaux seraient pleins » – se sont retrouvés complètement démunis, à l’image de cette mère qui a eu le courage d’accompagner son enfant dans ses scarifications – elle lui donnait les lames, l’attendait derrière la porte et entrait pour le consoler une fois qu’il avait terminé. Or cet enfant, pendant qu’il se scarifiait, regardait des vidéos sur TikTok. Les liens de causalité entre l’usage des réseaux sociaux et la santé mentale des jeunes ont donc bien été étudiés, établis dans des documents internes des plateformes et confirmés par les témoignages des adolescents eux-mêmes.

Quant aux conséquences des réseaux, elles touchent tous les jeunes : certains, déjà dans une bulle sombre –  les victimes de harcèlement, par exemple –, sont évidemment plus fragiles que les autres, mais, par définition, tous les adolescents sont vulnérables, puisque le cerveau n’est mature qu’à 25 ans. Ils ne peuvent donc pas se protéger eux-mêmes face à des contenus mortifères et très violents ou à des pédocriminels surentraînés : c’est aux plateformes, et à nous tous, d’être vigilants.

Mme Murielle Popa-Fabre. Pour ma part, j’ai cité des chiffres de 2022 sur le nombre d’utilisateurs de moins de 25 ans sur la plateforme Douyin, la version chinoise de TikTok. Mais notre estimation de la valeur monétaire des mineurs pour Tiktok sera très vite caduque, car le réseau prévoit le lancement à l’international de sa plateforme de social commerce, où des influenceurs organisent des réunions de groupe – des lifestream –, dans lesquelles les jeunes chinois semblent particulièrement enclins à dépenser de l’argent.

M. le président Arthur Delaporte. Disposez-vous de données particulières sur ce phénomène ? Savez-vous combien les jeunes dépensent en moyenne ?

Mme Murielle Popa-Fabre. D’après les données de e-marketing chinoises – aucune fonction sur notre version de TikTok ne permet de disposer des mêmes données à notre échelle –, en 2022, les moins de 25 ans ont dépensé 1,5 trillion de renminbi, soit environ 175 milliards d’euros, ce qui correspond à 33 % des gains de la plateforme.

Être présent dans un groupe est une chose ; réaliser des achats en groupe relève d’un engagement totalement différent : le e-commerce sur les réseaux comporte une dimension sociale, et cette dynamique est vouée à se développer fortement dans le futur.

M. le président Arthur Delaporte. Vous parlez des lives sur TikTok Shop, mais qu’en est-il des sommes dépensées par les mineurs en cadeaux virtuels lors des matchs entre deux influenceurs ? On y retrouve une dynamique collective. Nous manquons d’éléments sur les lives, n’hésitez pas à nous en faire parvenir si obtenez davantage d’informations auprès des jeunes.

Mme Murielle Popa-Fabre. Je ne me suis pas intéressée aux basic lives individuels, en « one to one », animés par une seule personne ; je me suis concentrée sur les lives de groupe comme ceux qui existent sur la plateforme chinoise de Bytedance, et qui ont un impact beaucoup plus important.

Quant à un éventuel diagnostic, peut-on vraiment l’établir ? C’est une question sur laquelle on m’interroge en permanence s’agissant de l’IA, notamment générative. Nous ne sommes plus dans la même situation qu’il y a vingt ou vingt‑cinq ans : le temps de la technique est beaucoup plus rapide que celui de la science, en particulier sur les questions de santé mentale. La multiplicité des facteurs en jeu est source de difficultés pour les chercheurs et empêche les études d’être totalement conclusives. Par exemple, on sait que lorsqu’il excède trente minutes, le temps d’écran d’un enfant entre 3 et 5 ans est corrélé à des déficits cognitifs. Mais certains facteurs, comme le niveau de social de la famille, peuvent amoindrir ces déficits. Pour avoir une vision plus globale et mieux appréhender les réalités, il faut sortir d’une lecture binaire et adopter une approche davantage multifactorielle, qui conjugue les témoignages de terrains et les statistiques à grande échelle, puisque c’est celle des algorithmes de l’IA. C’est un des défis.

Mme Sophie Jehel. Je ne savais pas que la Chine associait réseaux sociaux et jeux vidéo – merci de me l’avoir appris, madame Popa-Fabre. Justement, je ne comprends pas pourquoi nous nous focalisons à ce point sur les réseaux sociaux numériques, car les plateformes de jeux en ligne posent des problèmes assez similaires. Leur fonctionnement et leur éthique devraient susciter les mêmes inquiétudes, et nous aurions tout intérêt à adopter une approche plus large incluant à la fois les premiers et les seconds.

L’interdiction semble la solution la plus rapide, mais cette démarche me fait peur, car l’usage des réseaux sociaux est massif : 99 % des adolescents de 15 ans ont des comptes sur plusieurs réseaux sociaux, et ils y sont attachés. Si on leur interdisait d’y accéder, ils trouveraient d’autres moyens pour perpétuer les pratiques sociales que ces plateformes leur offrent. Les réseaux proposent aux jeunes un accès très facilité à l’information et au divertissement pour les jeunes, et des modalités d’expression qui n’existent pas ailleurs. Cela explique d’ailleurs pourquoi le modèle économique des médias sociaux est différent de celui des médias traditionnels, qui se sont beaucoup moins intéressés aux adolescents.

Par ailleurs, il ne faut pas oublier qu’il existe de fortes disparités sociales dans l’usage des réseaux, notamment selon que les parents peuvent retarder ou non l’accès aux plateformes numériques.

Enfin, il ne faudrait pas qu’une éventuelle interdiction des réseaux sociaux pénalise en priorité les établissements scolaires et tous les dispositifs d’éducation aux médias et au numérique – un risque important, déjà identifié dans le rapport Enfants et écrans. À la recherche du temps perdu, remis en 2024. Attention, l’éducation ne remplace pas la régulation, et la menace d’une interdiction peut être un levier pour renforcer une régulation encore trop peu efficace, notamment en matière de modération des contenus. Mais il faut veiller à ce que cette volonté de protection, aussi bien intentionnée soit-elle, n’affaiblisse pas le travail d’éducation aux médias et au numérique – un travail qui doit être poursuivi et soutenu, mais dont les moyens restent très insuffisants en France.

Je suis très engagée sur ces sujets : l’université Paris 8 s’apprête à ouvrir un diplôme universitaire en éducation critique aux médias et à l’information, et je dirige un groupe de travail portant sur la sensibilisation aux enjeux émotionnels des plateformes numériques, dans le cadre des travaux de la direction du numérique pour l’éducation. Je suis donc bien placée pour connaître les moyens disponibles et les lacunes actuelles, et je mesure l’importance d’accompagner les établissements scolaires face à ces enjeux.

M. Stéphane Blocquaux. Au risque de passer pour un chercheur obsessionnel, je ne vois ni pourquoi, ni comment le gouvernement parviendrait aujourd’hui à réguler les plateformes et à les mettre au pas, alors que ça fait quinze ans que cette stratégie est un échec. Il n’est pas possible de couper brutalement le flux des réseaux : comme l’a souligné Mme Jehel, les pratiques sont installées et les jeunes iront voir ailleurs. Le problème, c’est le nomadisme lié au téléphone portable – le « tout, tout le temps ».

J’ai rencontré dernièrement des CM2 : sur 108 élèves, 48 avaient un smartphone connecté au net, et 22 un iPhone. On marche sur la tête ! J’anime des conférences sur les dangers des réseaux à destination des parents : à la fin, ils me demandent comment empêcher leur enfant d’utiliser les fonctionnalités d’un produit qu’ils leur ont eux-mêmes acheté. Ils voudraient une baguette magique pour que l’iPhone ne puisse plus filmer, ni accéder au réseau, car cela permet d’avoir accès à la pornographie, etc. C’est de la folie !

Dans les années 1990, un enfant de 10 ans partait-il à l’école avec un téléphone ? Admettons que c’est une évolution sociétale. Le téléphone, très bien, mais aurait-on toléré que le collégien parte avec un caméscope ? L’appareil photo reflex familial ? Aurait-on accepté de laisser partir un enfant avec une Game Boy, pour qu’il puisse jouer à des jeux vidéo n’importe où, à n’importe quel moment, sans aucune régulation ? Et je ne parle pas d’une télévision, alors qu’il est aujourd’hui possible d’accéder au flux télévisuel par le net, ou d’un studio de télé, alors que les smartphones sont un outil permettant d’enregistrer, monter et diffuser du contenu à des milliards de personnes sans passer par l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique). En trente ans, tout cela est devenu possible, et on demande maintenant aux chercheurs comment faire pour réguler ces usages aux effets si délétères – car nous sommes tous bien d’accord sur ce point. Si les enfants de 11 ou 12 ans – et j’insiste sur le terme d’enfant, car on assimile les adolescents à des adultes beaucoup trop tôt – n’avaient pas dans leur poche un smartphone multifonctions en partant au collège, les effets néfastes des réseaux seraient beaucoup moins importants.

Au risque de me répéter, il y a donc une urgence sanitaire – psychique – à réguler ces outils. Je ne suis pas le seul à le dire, mais je suis de ceux qui l’ont dit le plus fort et le plus tôt, il y a déjà fort longtemps, dès la fin du quinquennat du président Nicolas Sarkozy et le début de celui de François Hollande.

Mme Elisa Jadot. J’ajoute que les plateformes ne sont considérées que comme des hébergeurs de contenus, et non des éditeurs ; elles se retranchent derrière ce statut pour s’exonérer de toute responsabilité sur les contenus diffusés. L’industrie technologique ne peut pas être attaquée pour négligence : c’est la seule au monde à bénéficier d’une telle protection, et cette dernière n’est peut-être plus justifiée. Si les réseaux étaient assimilés à des produits non meubles – dont la définition n’a pas été révisée depuis 1996 et l’extension à l’électricité –, ils pourraient être considérés comme défaillants : c’est une piste.

Il paraît compliqué d’interdire totalement les réseaux ou d’en modérer réellement les contenus. Pour ne pas que tout repose sur les parents, il faut surtout réussir à inverser la pression sociale afin que l’enfant différent ne soit plus celui qui n’a pas de téléphone mais, au contraire, celui qui en possède un. Cela aiderait les parents à ne pas céder à ce réflexe d’offrir un téléphone portable à leur enfant à l’entrée au collège, quand ce n’est pas avant.

Mme Josiane Corneloup (DR). Effectivement, pourquoi offrir un portable à un enfant de 11 ans ? Ce n’est pas une nécessité absolue. De nombreux parents sont démunis et se disent incapables de ne pas acheter de smartphone à leur enfant. Que préconisez-vous pour renforcer la sensibilisation ?

Mme Murielle Popa-Fabre. Une possibilité serait de mettre les parents dans la boucle informationnelle en leur fournissant une copie du feed de leurs enfants, pour leur permettre de prendre conscience de ce qui est visionné et de l’impact des contenus. Cela éclairerait leur décision.

Une autre piste, très soutenue au niveau européen, consiste à travailler sur la définition du produit pour faire des plateformes des éditeurs de contenus. L’objet technologique est volontairement présenté comme une grande boîte noire : je propose de sectionner l’algorithme en trois blocs, et de considérer la dernière partie, le fil – c’est-à-dire l’enchaînement de contenus montré aux internautes – comme un produit consommé. Matérialiser cet objet qui reste trop évanescent offrirait des leviers d’action.

Mme Elisa Jadot. Attention tout de même à ne pas faire reposer toute la stratégie sur le contrôle parental. Les enfants ont souvent plusieurs comptes : un compte officiel, montré aux parents, et des comptes cachés, anonymes, utilisés en toute discrétion par les jeunes pour consulter à peu près ce qu’ils veulent – sur Instagram, par exemple, cela s’appelle des Finsta, pour fake instagram. Il existe aussi aujourd’hui des applications qui masquent l’existence d’un réseau social sur le téléphone en remplaçant l’icône de l’application par un autre symbole, comme celui d’une calculatrice. Ces profils cachés échappent totalement à la vigilance des parents et ne seraient pas concernés par le dispositif de contrôle du fil.

Mme Murielle Popa-Fabre. Dans une optique de renforcement de la vérification de l’âge, cela ne poserait pas de problème, car l’identité serait également vérifiée.

M. le président Arthur Delaporte. Merci à tous pour toutes ces informations. N’hésitez pas à nous faire parvenir tout élément complémentaire.

J’en profite pour vous informer que nous venons de lancer sur le site de l’Assemblée une consultation citoyenne visant à recueillir des témoignages et éléments d’information sur les pratiques et usages des réseaux sociaux, ainsi que les dangers repérés par les utilisateurs. Elle est ouverte jusqu’au 31 mai. Il est également possible de nous joindre à l’adresse commission.tiktok@assembleenationale.fr.

9.   Audition de MM. Mickaël Vallet et Claude Malhuret, sénateurs, président et rapporteur de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence (Sénat, juillet 2023) (mardi 29 avril 2025)

La commission auditionne MM. Mickaël Vallet et Claude Malhuret, sénateurs, président et rapporteur de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence (Sénat, juillet 2023) ([9]).

M. le président Arthur Delaporte. Messieurs les sénateurs, vous avez été respectivement président et rapporteur de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données et sa stratégie d’influence, dont le rapport a été publié en juillet 2023. Je vous remercie d’avoir pris le temps de répondre à notre invitation.

Nous aurions souhaité, par courtoisie républicaine, vous entendre en ouverture de notre propre commission d’enquête. En effet, il nous paraît important d’insister sur le caractère cumulatif des travaux menés par le Parlement et de partir de votre rapport, de très grande qualité, qui nous a servi pour lancer notre commission, en particulier pour repérer certaines personnes à auditionner et pour avoir une vue d’ensemble des enjeux liés au réseau social TikTok. Nous avons choisi de nous focaliser sur ses effets psychologiques pour les mineurs, sujet que vous avez également traité mais d’une façon plus restreinte. Nous tenons à montrer que nous pouvons, sénateurs et députés, travailler main dans la main pour nous saisir des enjeux du siècle.

Je vous remercie de déclarer au préalable tout intérêt public ou privé qui serait de nature à influencer vos déclarations. Par ailleurs, l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(MM. Mickaël Vallet et Claude Malhuret prêtent successivement serment.)

M. Claude Malhuret, sénateur, ancien rapporteur de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence. Je vous remercie pour votre invitation et ne peux que corroborer vos propos concernant la continuité et la complémentarité des travaux des deux chambres du Parlement, lesquels vont probablement se prolonger car les questions portant sur TikTok et l’ensemble des réseaux sociaux ne sont pas près d’être derrière nous, en France comme dans d’autres pays.

Votre commission s’attache essentiellement aux effets psychologiques sur les mineurs, ce que je trouve tout à fait bienvenu. Ce prisme réduit toutefois la contribution que nous pouvons apporter à vos travaux puisque ce sujet était certes inclus dans notre rapport mais il n’en constituait pas la pièce essentielle : nous nous sommes davantage focalisés sur les problèmes d’influence externe, notamment sur le plan politique, compte tenu de la nature chinoise de la société mère de TikTok.

Deuxième bémol, les études menées par différents instituts et spécialistes de pédiatrie, de pédopsychologie ou tout simplement de psychologie étaient beaucoup moins abondantes en 2023 – on avance à toute vitesse dans ce domaine, comme dans celui de l’intelligence artificielle et de la tech en général. Les travaux étaient très peu nombreux et fragmentaires. Depuis – mais vous avez sans doute déjà analysé cette question –, bon nombre d’études qui étaient en cours se sont conclues et d’autres ont été lancées. On dispose sans doute aujourd’hui de davantage d’éléments.

Je vous souhaite, par ailleurs, bon courage : notre rapport commençait par ce titre « La tactique TikTok : opacité, addiction et ombres chinoises ». Le terme « opacité » ne qualifiait pas tellement le contenu de l’application mais plutôt la coopération des représentants de TikTok en France. Nous n’en avons pas obtenu grand-chose, malgré des questions à répétition. Nous avons eu l’impression, et nous l’avons dit dans le rapport, d’être confrontés à de la langue de bois, et d’un bois particulièrement dur. À part la présidente de TikTok, que nous avons fini par débusquer – son nom ne figurait pas dans les documents communiqués par l’entreprise – et dont les dirigeants de la société se sont probablement aperçus qu’elle ne donnait peut-être pas la meilleure image possible dans le tableau d’ensemble, puisqu’elle était chinoise et par conséquent soumise à la loi chinoise, même si elle n’habitait pas alors, à notre connaissance, en Chine –, les principaux responsables n’ont pas changé. En ce qui la concerne, un toilettage a sans doute paru opportun aux dirigeants de TikTok, mais je suppose que vous entendrez les mêmes responsables et que vous vous attendez déjà aux mêmes réticences face aux tentatives de pénétrer à l’intérieur du système.

Autre élément qui ne facilite pas le travail, mais c’est peut-être moins important pour les questions psychologiques que pour les relations avec la Chine ou les problèmes de modération, TikTok France n’est pas grand-chose. L’activité menée dans notre pays concerne les rapports avec les pouvoirs publics, la publicité et des affaires commerciales. Le système européen de TikTok est basé, essentiellement, en Grande-Bretagne et en Irlande. TikTok avait promis de rapatrier l’application et l’essentiel de ce qui se passe en Europe, y compris en France, en Irlande, qui est dans l’Union européenne, et en Norvège. Néanmoins, l’essentiel, notamment la partie charnière qu’est l’application, est centré en Chine. Quant au business et à l’actionnariat, c’est aux Îles Caïmans que tout se joue. Les États-Unis ont obtenu que l’application américaine soit gérée dans leur pays, mais ils n’ont pas eu gain de cause pour leur deuxième demande et ils sont d’ailleurs en train de changer d’avis, puisque le président Trump exige maintenant le contraire de ce qui était demandé il y a un an ou deux. Tout cela rend encore plus difficile de décortiquer cette plateforme. Un certain nombre d’éléments sont certes spécifiques à TikTok, mais ça ne l’est pas vraiment par rapport à d’autres plateformes.

M. Mickaël Vallet, sénateur, ancien président de la commission d’enquête du Sénat. Je rejoins Claude Malhuret, dont le rapport a été adopté à l’unanimité par notre commission d’enquête. Nous sommes tombés assez facilement d’accord sur l’ensemble des analyses, des propositions et des termes du rapport à la suite de nos auditions, qui n’ont pas été de même nature selon que nous entendions des personnes qui travaillaient sérieusement, suivant une approche scientifique, et qui ont pu nous éclairer sur les questions relatives au journalisme ou à la mésinformation, ou bien j’allais dire les principaux responsables de TikTok mais ce n’était pas le cas – disons les seuls responsables que nous avons pu auditionner. Nous avons assez vite touché du doigt le fait que nous avions en face de nous des gens qui savaient très bien jouer des procédures pour éviter d’avoir à répondre aux questions aussi concrètement que si nous avions traité un sujet ayant une dimension purement nationale. Nous devons y réfléchir : ce ne sera probablement pas la dernière fois que nous aurons à nous interroger sur les limites des travaux menés dans le cadre des commissions d’enquête des parlements nationaux.

J’en viens à une réflexion plus personnelle. Lorsque la question a été évoquée au Sénat, sur proposition de Claude Malhuret, j’ai pensé qu’il était nécessairement intéressant, de manière globale, de travailler sur l’un des Gafam et autres géants du numérique dans l’époque que nous vivions – c’était il y a deux ans, dans le vrai « ancien monde », avant que les choses basculent. J’ai alors dit à mon collègue que je pensais la même chose de Facebook, de Twitter et de tout ce qui pouvait ressembler à des algorithmes ne visant pas spontanément le bien public ou un intérêt public, mais un des grands intérêts du rapport est d’avoir montré qu’on ne pouvait pas aborder tous ces acteurs de la même façon, ce qui n’enlève rien aux autres questions que l’on peut se poser au sujet des Gafam, X faisant suffisamment réfléchir en ce moment. TikTok présente une très forte spécificité du fait de sa proximité avec le pouvoir chinois. Certains spécialistes de géopolitique que nous avons auditionnés au début de nos travaux ont souligné que, selon des documents publics de doctrine, rédigés en chinois et qui ont mis très longtemps à être traduits en anglais ou dans d’autres langues occidentales – ce qui fait qu’on passe parfois à côté d’informations qu’on a pourtant sous la main – le pouvoir chinois s’est fixé un objectif clair en matière de guerre cognitive. Même si vous vous focalisez, avec raison, sur les jeunes et la santé publique, la question de la guerre cognitive ne sera probablement pas absente de votre travail. On peut notamment se demander quelle jeunesse sera la mieux armée dans le monde qui va advenir.

Je pense aussi que vous retomberez sur des questions auxquelles notre commission n’a pas pu répondre intégralement pour les raisons que j’ai évoquées. Qui commande vraiment l’algorithme ? Nous avons écrit, en creux, que TikTok n’avait jamais pu nous dire qui appuyait sur le bouton – s’agissant de X, en revanche, on le voit à peu près. Au-delà de ce que dit TikTok, qu’on est prié de croire sur parole, vous vous poserez certainement la question des moyens de contrôle et de modération et vous vous interrogerez probablement sur les limites des pouvoirs ou des moyens d’action dont disposent la CNIL (Commission nationale de l’informatique et des libertés) et l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique), selon les sujets et en fonction des législations nationales, ainsi que sur le travail de contrôle que peuvent effectuer les parlementaires.

Par ailleurs, j’appelle de mes vœux un approfondissement de la réflexion sur les questions de dépendance, d’addiction ou d’abrutissement – nous avons suivi une approche beaucoup plus transversale que vous. Comment peut-on définir des objectifs de santé publique par rapport à ce type d’application ? Je crois qu’il est possible de faire œuvre utile en la matière.

Enfin, il m’est apparu au fil de nos auditions que s’attaquer aux questions posées par TikTok était effectivement fondamental si l’on voulait travailler sur les enjeux de santé publique mais qu’il existait un second aspect, indépendant de TikTok et des autres acteurs, qui est l’éducation à la parentalité. Nous devons renforcer les politiques publiques en la matière, les modeler différemment, les financer et les faire partager, grâce à une prise de conscience.

M. le président Arthur Delaporte. Je vous remercie pour vos propos liminaires et vos pistes de réflexion, qui font en effet partie du champ de notre commission d’enquête.

Mme Laure Miller, rapporteure. Merci pour votre disponibilité et surtout pour l’énorme travail que vous avez réalisé il y a deux ans. Vous n’étiez sans doute pas totalement des précurseurs, car beaucoup s’étaient déjà interrogés sur ces questions dans le monde, mais c’était en tout cas le premier rapport dans ce domaine en France. Il nous a permis, à l’Assemblée, de faire évoluer notre propre réflexion. L’objectif de la présente commission est de se focaliser sur l’un des points que vous avez abordés, la santé mentale des jeunes et l’impact que peut avoir TikTok sur eux.

On voit bien l’opacité que vous avez évoquée, monsieur Malhuret. Avez‑vous eu des contacts avec TikTok à la fin de vos travaux ? A-t-on cherché à établir un lien direct avec vous lorsque vous élaboriez vos recommandations ? Par ailleurs, comment le rapport a-t-il été accueilli par les ministres de l’époque ? Certaines de vos recommandations ont-elles attiré en particulier leur attention ?

Deux ans plus tard, quel est votre sentiment ? Vous aviez fait des propositions très concrètes compte tenu de l’attitude de TikTok – vous envisagiez même une interdiction en l’absence d’évolution des pratiques. Diriez-vous que la situation a empiré ou en tout cas que TikTok n’a pas respecté les engagements qu’il donnait le sentiment de vouloir prendre ? Quel regard portez-vous, d’une façon peut-être plus personnelle, sur la situation actuelle et sur l’opportunité d’aller plus vite et plus loin sur ce sujet ?

Votre rapport montre que TikTok nous balade, pour parler un peu franchement, qu’il s’agisse du contrôle de l’âge, de la modération, de la politique du prétendu bien-être numérique, qui paraît avoir assez peu de contenu, ou même de la description de l’application. M. Éric Garandeau, alors directeur des affaires publiques de TikTok France, a ainsi nié lors de son audition qu’on pouvait être enfermé dans une bulle de filtres. Au-delà des positions que l’on peut adopter dans le débat public au sujet de la régulation ou des incitations à plus de modération, faudrait-il aller plus loin et mener une politique beaucoup plus interventionniste pour agir de manière positive pour la santé des jeunes ?

Si nous n’arrivons pas nécessairement à atteindre nos cibles dans ce domaine, notamment en matière de sensibilisation des jeunes publics et de leurs parents, c’est peut-être parce qu’un lien de causalité n’a pas été assez clairement établi entre l’usage de TikTok, ou plus largement des réseaux sociaux, et la détérioration de la santé mentale des jeunes. Vous avez un peu évoqué la question dans votre rapport : pensez-vous qu’il manque un diagnostic plus clair concernant l’impact de l’usage de TikTok sur la santé mentale des mineurs dans notre pays ?

M. Claude Malhuret. Les questions que vous avez posées ouvrent une perspective extrêmement vaste.

Vous avez notamment demandé quelles ont été les réactions des pouvoirs publics français. Le premier constat, qui pose lui-même une question – je le dis d’une manière un peu crue, mais telle est la réalité, au-delà des apparences –, c’est que les pays européens ont aujourd’hui presque entièrement délégué leurs responsabilités, le contrôle et la réglementation, à la Commission européenne en ce qui concerne les plateformes. C’est moins vrai dans d’autres domaines, comme l’audiovisuel, dont l’Arcom s’occupe essentiellement. Deuxième réflexion, le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act, DMA et le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) étaient en voie d’élaboration lors de nos travaux. Nous ne savions donc pas ce qui allait rester au niveau national. Je n’ai rien contre la Commission – je suis tout à fait pro-européen – mais ses moyens en matière de contrôle des plateformes ont eux-mêmes été largement délégués à la CNIL irlandaise.

Le premier problème est que l’Irlande est le paradis des plateformes : elles s’y sont toutes installées pour des raisons fiscales. Sans vouloir mettre en cause l’impartialité de la CNIL irlandaise, je rappelle que même si elle a été renforcée depuis quelque temps, elle n’est pas en mesure, à mon avis, de mener des enquêtes sur l’ensemble des plateformes dans tous les pays européens. Autre problème, le Gouvernement irlandais n’a pas intérêt à renforcer les moyens de ses autorités de régulation puisque les plateformes sont, avec d’autres entreprises, de véritables vaches à lait.

S’agissant de la politique, plus ou moins interventionniste, à mener, le DMA et le DSA représentent un progrès juridique par rapport au règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD). Depuis que ces textes existent, des enquêtes ont eu lieu et des sanctions commencent à être prononcées. Néanmoins, il faut avoir en tête le rythme des enquêtes de la Commission européenne sur les violations du DMA et du DSA, lesquelles sont quotidiennes de la part de toutes les plateformes, et la lenteur des décisions, qui doivent respecter toutes les normes juridiques européennes et peuvent faire l’objet d’un appel. Outre la longueur des enquêtes, les sanctions ou les conclusions doivent être soumises aux Vingt-Sept avant d’être entérinées par la Commission. Le combat est complètement déséquilibré en raison du rapport des forces en présence – les agents des plateformes d’un côté et ceux de la Commission européenne de l’autre – et de la façon dont fonctionnent les procédures. Celles-ci s’étalent sur des années alors qu’un algorithme change plusieurs fois par jour, en fonction de l’évolution des pratiques des internautes ou des desiderata des dirigeants de TikTok et des autres plateformes.

Quant à savoir si nous avons eu des contacts avec les représentants de TikTok, en parallèle de l’audition ou après la remise de notre rapport, la réponse est non. Ils ont simplement réagi par voie de presse, de façon assez neutre – ils avaient d’ailleurs tout à fait intérêt à banaliser la chose pour ne pas lui donner d’importance.

Enfin, si les liens de causalité entre l’usage des réseaux sociaux et la détérioration de la santé mentale des enfants ou des adolescents semblent établis dans certains domaines comme l’addiction, les troubles du sommeil et de l’attention, ou encore les difficultés d’apprentissage – ils étaient déjà largement documentés en 2023 et les études conduites depuis semblent le confirmer –, il me semble nécessaire de distinguer entre plusieurs sujets. Les problèmes de santé mentale, les difficultés d’apprentissage et les addictions ne sont pas exactement du même ordre et méritent de faire l’objet d’études séparées.

Les difficultés d’apprentissage, dont la lecture de divers indicateurs comme les classements Pisa (Programme international pour le suivi des acquis des élèves) suggère qu’elles deviennent un enjeu majeur en Europe et en France, touchent l’ensemble des mineurs qui utilisent TikTok. Les problèmes de santé mentale, quant à eux, ne concernent qu’une partie d’entre eux : les bulles de filtres accroissent surtout les symptômes de ceux qui en souffrent déjà. Le phénomène d’addiction est encore un troisième problème, qui peut avoir des incidences sur les deux précédents mais qui ne doit pas être confondu avec eux. Nous aurions donc intérêt à séparer ces différents aspects, qui ne relèvent pas tous du même paradigme.

M. Mickaël Vallet. Nous n’avons effectivement été contactés ni avant ni après nos travaux. Nous n’avons d’ailleurs pas eu non plus beaucoup d’interactions pendant les auditions, puisque nous avions affaire à des responsables des relations publiques dont le but était, à l’instar de certains joueurs de tennis, de renvoyer la balle sans prendre aucun risque. Ils ont ainsi passé trois ou quatre heures à en dire le moins possible sur le fond, tout en développant à loisir des considérations inintéressantes au dernier degré et plus ridicules les unes que les autres, sur le thème « nous sommes la nouvelle Nouvelle vague car nous subventionnons le Festival de Cannes ». Personnellement, j’ai souffert pour M. Garandeau : je me demandais quel niveau de salaire il faudrait me proposer pour me convaincre d’accepter un travail impliquant de s’exposer autant au ridicule. Visiblement, c’est un métier, puisqu’il semblerait que des gens soient recrutés pour cela.

Nous n’avons donc rien appris de la part des représentants de TikTok, qui nous ont seulement soumis à une sorte de publicité – assez mal faite, qui plus est – pour la plateforme.

Nous avons rencontré à Bruxelles plusieurs membres des cabinets des commissaires compétents, ainsi que des personnes chargées de l’organisation pratique et de l’interaction entre ces derniers au sein du cabinet de la présidente, ou encore des membres du Parlement européen, pour échanger sur leur décision d’interdire l’installation de l’application sur les terminaux des fonctionnaires de la Commission ainsi que son accès depuis les réseaux du Parlement européen. À cette occasion, j’ai été très marqué d’entendre ces décideurs expliquer que TikTok s’était abstenu de tout lobbying auprès d’eux, alors même que le DMA et le DSA entraient à l’époque dans leur phase d’application concrète. Je les crois néanmoins bien volontiers, d’abord parce qu’ils n’avaient aucune raison de mentir, mais aussi parce que j’ai compris par la suite que ces gens-là n’ont pas besoin de convaincre en amont : ils consacrent plutôt leur énergie à mener une politique d’évitement permanent et à jouer au chat et à la souris pour faire durer les procédures. Vous noterez d’ailleurs qu’à la différence des dirigeants d’autres réseaux sociaux, les responsables de TikTok ne protestent pas urbi et orbi contre les atteintes à la liberté d’expression en Europe ou que sais-je : ils font les choses différemment.

Pour ce qui est des suites données à nos recommandations, il faut effectivement se replacer dans le contexte de l’époque. Nous avons remis notre rapport au moment de l’adoption du projet de loi visant à sécuriser et à réguler l’espace numérique défendu par M. Jean-Noël Barrot alors ministre chargé de la Transition numérique et des Télécommunications. Les règlements européens ont commencé à entrer en application au mois d’août suivant. La période durant laquelle nous aurions pu déposer une proposition de loi transpartisane issue des travaux de notre commission a ensuite coïncidé avec le bras de fer opposant M. Thierry Breton, alors commissaire européen au marché intérieur, à M. Elon Musk. C’est la raison pour laquelle il me paraît tout à fait pertinent de continuer à creuser la question plus précise dont s’est emparée votre commission d’enquête : chacun voit bien combien les choses ont évolué en deux ans.

Quant à la prise en compte du sujet par les différents ministres, j’aurais tendance à renvoyer la question aux gouvernements successifs. Le président de la République a demandé en début d’année 2024 un rapport sur l’impact de l’exposition des jeunes aux écrans, qui dressait un constat assez éloquent, unanime et partagé. Qu’en a-t-on fait ? Avant de nous demander s’il est possible de contraindre ou de modérer les plateformes, peut-être devrions-nous nous interroger sur notre capacité à recueillir l’adhésion du plus grand nombre – en tout cas des parents –, alors même qu’on demande aux enfants, sitôt rentrés de l’école, de consulter sur un écran les devoirs à faire pour le lendemain. Les pratiques de ce type ne relèvent ni de la réglementation européenne, ni d’une discussion avec les plateformes, ni même de la loi : le ministère de l’Éducation nationale devrait être capable d’exiger, par le biais d’une circulaire, que les devoirs ne soient plus donnés sur Pronote ou Éducartable. De la même façon, pourquoi les enfants et les parents sont-ils incités à vérifier, de manière parfois compulsive, les notes qui tombent chaque jour sur ces logiciels ? Parce que personne n’a donné pour instruction de définir des plages où elles ne peuvent pas y apparaître, par exemple le dimanche, pendant les vacances ou les jours fériés. La France, cinquième puissance mondiale, devrait pourtant être en mesure de demander aux éditeurs de logiciel d’agir en ce sens. Commençons donc par balayer devant notre porte.

Claude Malhuret a assuré qu’il n’était pas anti-européen, ce que je peux confirmer. J’ajoute que je ne suis pas précisément un atlantiste de premier ordre. Néanmoins, nous sommes confrontés à une difficulté quant au bon niveau d’élaboration des règles. Le débat qui s’est instauré entre la Commission européenne et certains propriétaires de plateformes montre que ces dernières commencent à sentir le vent du boulet, depuis que Thierry Breton a doctement expliqué, à raison, qu’une plateforme qui ne respecte pas les règlements européens s’expose au risque juridique de voir ses accès coupés – sous réserve, bien entendu, que soient respectés les grands principes du droit ainsi que de nombreuses conditions cumulatives. Il faut rendre cette possibilité effective, car c’est seulement ainsi qu’on pourra inciter une plateforme à amender son fonctionnement. Or un tel régime de sanctions ne peut être défini qu’au niveau continental, ce qui pose d’autres difficultés. Le fait d’avoir confié ces compétences à la CNIL irlandaise pose ainsi un problème de coordination avec les autres CNIL nationales, tout comme le choix de centraliser les politiques relatives aux contenus auprès de la Commission européenne implique des enquêtes plus nourries, plus fournies, donc plus longues, même s’il peut être le gage d’une plus grande efficacité in fine.

Il faudrait réussir à séparer le bon grain de l’ivraie et à distinguer ce qui peut relever des États de ce qui revient exclusivement à la Commission européenne. Chacun a en tête ces vieux reportages des années 1950 dans lesquels on salue la fin de l’alcool à la cantine pour les enfants de moins de quatorze ans. Cette décision avait été prise dans le cadre d’une politique publique nationale. Pourquoi devrions‑nous obligatoirement en passer par les réglementations européennes pour nous demander si, comme cela a été établi scientifiquement, le fait de priver des enfants – et même des adultes – de plusieurs heures de sommeil par jour n’est pas de nature à poser un énorme problème de santé publique, qui justifierait de brider les applications concernées ?

M. le président Arthur Delaporte. J’ai été stupéfait de vous entendre décrire le théâtre d’ombres chinoises et même le mépris auquel vous avez été confrontés, ainsi que la difficulté que vous avez eue à accéder à des documents. Je pense notamment à ce fameux organigramme, que M. Garandeau, qui avait pourtant prêté serment de dire toute la vérité, disait ne pas connaître : comment avez-vous pu l’obtenir, si ce n’est à travers la direction des affaires publiques de TikTok dont il était à la tête ? Existe-t-il d’autres voies permettant d’obtenir davantage d’informations ? Vous aviez également auditionné Mme Marlène Masure, qui est depuis devenue responsable de TikTok à l’échelle européenne et que nous convierons également à venir s’exprimer devant nous.

Pouvez-vous détailler la méthode que vous avez employée pour obtenir des informations, et dont nous pourrions éventuellement nous inspirer ?

M. Claude Malhuret. Nous avons obtenu l’organigramme après l’avoir demandé à plusieurs reprises – une bonne partie des questions ont d’ailleurs dû être posées plusieurs fois, par courrier puis par lettre recommandée. Ce document semblait assez facile à établir, l’équipe étant très réduite, et nous avait paru satisfaisant jusqu’au moment où nous avons songé à solliciter le tribunal de commerce. Nous nous sommes alors aperçus que la présidente de TikTok France, Mme Zhao Tian, ne figurait pas sur l’organigramme qui nous avait été fourni, alors même qu’elle était celle qui disposait de la faculté de signature et qui pouvait donc prendre toutes les décisions importantes, comme vendre l’application. Voilà le genre de pratiques auxquelles nous avons été confrontés. Certaines auraient sans doute pu, en effet, relever de la violation par les personnes auditionnées de leur engagement à livrer en toute bonne foi l’ensemble des renseignements dont elles disposaient, mais nous n’allions pas commencer à effectuer des dénonciations pénales pour parjure ou à faire des signalements au titre de l’article 40 du code de procédure pénale.

Mme la rapporteure m’a interrogé sur les engagements pris par nos interlocuteurs. Ils font partie intégrante de la stratégie de toutes les plateformes, et de TikTok en particulier. Chaque fois que leurs représentants sont convoqués chez un régulateur, européen ou national, ils suivent la même tactique. Ils essaient d’abord d’écarter toutes les questions qui peuvent être considérées comme étant à la limite de ce qui peut leur être reproché et d’atténuer autant que possible les accusations et les soupçons. Puis, à propos de la part incompressible, qu’ils ne peuvent pas nier, ils prennent des engagements. Les représentants de TikTok rappelaient ainsi qu’ils venaient tout juste de s’installer en France, contrairement à d’autres acteurs plus anciens, et assuraient qu’ils allaient s’adapter, ce dont les régulateurs se satisfaisaient généralement. Lorsqu’on s’aperçoit, un ou deux ans plus tard, qu’ils n’ont rien changé ou presque à leurs pratiques, c’est déjà autant de temps de gagné.

Ensuite, le contentieux, s’il a lieu, dure quelques années supplémentaires et se solde, dans le pire des cas, par une sanction financière qui, même élevée, ne fait qu’égratigner légèrement le budget de l’entreprise. Jamais aucune décision d’interdiction n’a été prise, si ce n’est en Nouvelle-Calédonie, dans des circonstances très particulières et pour des raisons qui tenaient à l’ordre public et non au respect du DMA ou du DSA. Entre-temps, cinq ans auront passé et tout aura changé. Il y a cinq ans, par exemple, personne ne parlait d’intégrer l’intelligence artificielle dans les systèmes des plateformes. Cette technologie n’en a pas moins complètement balayé les engagements pris en matière de modération des contenus.

Ces acteurs ont compris depuis le début – j’ai utilisé mon premier moteur de recherche en 1996 – que leurs manquements n’auraient aucune conséquence. La rapidité des progrès réalisés dans ce domaine dépasse de si loin les possibilités d’action des régulateurs que ces entreprises se savent intouchables.

M. Stéphane Vojetta (EPR). Merci pour vos travaux, que nous avons suivis avec intérêt – et qui semblent déjà dater d’une autre époque, tant le temps passe vite dans le monde des réseaux sociaux.

J’ai écouté avec beaucoup d’attention vos réflexions sur le choix que nous avons fait, volontairement ou inconsciemment, de déléguer une partie de notre capacité à réguler ce secteur à la Commission européenne plutôt que de maintenir notre souveraineté législative en la matière. Nous en subissons désormais les conséquences, puisque nous ne pouvons plus imposer d’actions ou de limitations aux plateformes, mais seulement espérer que Bruxelles voie la lumière et prenne les bonnes décisions. J’ignorais d’ailleurs combien l’infrastructure de surveillance et de contrôle de conformité européenne est affaiblie, notamment par le conflit d’intérêts auquel l’Irlande, qui est à la fois le gendarme et le premier bénéficiaire potentiel du crime, semble exposée de manière assez évidente.

Dans quelle mesure ce qui nous reste de prérogatives, à savoir notre capacité à imposer des restrictions à des entreprises de droit français, notamment les opérateurs télécoms, peut-elle nous permettre de pallier l’inaction ou l’inefficacité de Bruxelles ?

Vous avez évoqué la volonté stratégique de la Chine d’utiliser TikTok comme une arme politique d’influence et de manipulation de l’information, voire d’abrutissement des masses. Votre enquête vous a-t-elle permis de découvrir des preuves de l’existence d’une stratégie délibérée en ce sens ? À défaut, pensez-vous que ces preuves existent, ou s’agit-il simplement d’une intuition de votre part ?

M. Claude Malhuret. Il est bien évident que personne ne laisse traîner de telles preuves. Pour les trouver, il suffit cependant de comparer le fonctionnement de TikTok avec celui de Douyin, sa version chinoise, et de constater qu’une très grande partie des effets négatifs de TikTok sur les jeunesses du monde entier épargnent les utilisateurs de Douyin.

Une des mesures actuellement envisagées en France consiste à limiter le temps passé sur les écrans. J’y suis favorable, tant il est évident que la perte de sommeil cause des problèmes d’apprentissage. Or l’application Douyin est configurée de façon à s’arrêter automatiquement après soixante minutes. Ce n’est pas une question de censure ou de liberté d’expression – même si la censure existe évidemment sur Douyin –, mais de santé publique. La première preuve que les responsables chinois sont parfaitement conscients des effets négatifs de TikTok réside donc dans le fait qu’ils en protègent leurs enfants alors qu’ils en font délibérément usage ailleurs. Ceci s’inscrit dans la bataille cognitive évoquée par M. Vallet.

De la même façon, une bonne partie de l’application Douyin, au-delà de la censure qui y sévit comme dans l’ensemble des médias chinois, est consacrée à des contenus pédagogiques et scientifiques qui sont totalement absents de TikTok – sauf de façon anecdotique ou par des biais humoristiques. Les enfants chinois sont certes eux aussi confrontés à un algorithme très addictif, mais, contrairement aux autres, ils peuvent avoir accès à des contenus éducatifs.

Ces différences majeures entre les deux applications sont la preuve d’une volonté de protéger les mineurs chinois des conséquences psychologiques que subissent ceux du reste du monde.

Quant à la possibilité pour la France d’adopter une législation spécifique en matière de régulation des plateformes, le chemin est encore long. Le Conseil d’État a désavoué la décision du Gouvernement de bloquer, pour des raisons d’ordre public, l’accès à TikTok en Nouvelle-Calédonie durant quelques jours.

Plus généralement, les plateformes posent un problème aux pays démocratiques. Nous pâtissons du fait d’avoir poussé la réflexion, le vocabulaire et les intentions libéraux jusqu’au bout du libertarianisme. Les libertariens californiens, qui ont lancé le mouvement dans le monde entier, considèrent la moindre critique ou la moindre régulation comme une atteinte à la liberté d’expression. Nous avons confondu la liberté d’expression avec celle de dire n’importe quoi, licence renforcée par l’anonymat. Depuis la loi du 29 juillet 1881 sur la liberté de la presse, la liberté d’expression s’exerce dans un cadre juridique qui s’applique aux médias et aux personnes, notamment en matière de diffamation et d’injures, mais pas aux réseaux sociaux.

En 2018, j’ai demandé au secrétaire d’État chargé de la transition numérique et des communications électroniques, Cédric O, d’interdire en France Sputnik et Russia Today – RT. Levant les bras au ciel, il a dit que le Gouvernement ne supprimerait pas la liberté d’expression. Je lui ai répondu que ce n’était pas la liberté d’expression qui était en jeu mais plutôt la liberté de propagande de régimes hostiles à notre pays, ces deux organismes de propagande ayant été créés par les services de renseignement et de propagande russes.

Le 27 février 2022, quelques jours après l’invasion de l’Ukraine par la Russie, les Européens ont interdit RT et Sputnik. Nous sommes victimes de cette naïveté. Les parents et les acteurs du jeu démocratique se lamentent. La liberté d’expression est tellement importante dans nos sociétés libérales qu’il est compliqué de plaider pour une régulation, notamment en raison de l’influence du libertarianisme californien qui est devenu la norme. En 2020, dans un entretien à The Atlantic, Barack Obama a déclaré que « les réseaux sociaux [étaient] devenus l’une des principales menaces contre la démocratie ». Les Gafam dépensent des milliards d’euros en lobbying à Bruxelles pour protester en permanence contre les atteintes qui seraient portées à la liberté d’expression. Du reste, une majorité de personnes, qui ne comprennent rien au système, les croient.

Lors de l’examen du projet de loi confortant le respect des principes de la République, j’avais déposé un amendement visant à assimiler les plateformes qui effectuent de la recommandation algorithmique – sous forme de sélection de contenu – à des éditeurs, donc à les rendre responsables des informations qu’elles stockent. Il a été adopté à l’unanimité contre l’avis du Gouvernement. Tant qu’on considérera les plateformes comme des hébergeurs, elles ne seront pas tenues responsables de leur contenu ; c’est une grosse arnaque. Tout le monde se plaint de l’opacité des algorithmes, couverts par le secret des affaires, qui évoluent tout le temps et incitent à la violence et attisent la polémique.

Une plateforme qui met en exergue des contenus violents est un éditeur de contenus violents et non un hébergeur neutre. Aucun État n’autoriserait la commercialisation d’une voiture sans frein. Or les créateurs de plateformes, dont les algorithmes permettent de sélectionner les contenus qui font du buzz, donc du fric, ont bénéficié d’une impunité totale.

Tout le monde se plaint des impacts de ces plateformes sur les jeunes et, plus généralement, de la menace qu’elles font peser sur le débat démocratique. En notre qualité de législateur, nous sommes bien placés pour savoir la part de responsabilité qui incombe aux réseaux sociaux dans l’affaiblissement des démocraties.

Si l’amendement qui vise à assimiler les plateformes sélectionnant du contenu à des éditeurs était définitivement adopté par le Parlement – la mesure avait été supprimée en nouvelle lecture à l’Assemblée nationale –, les plateformes ne pourraient plus invoquer le secret des affaires pour refuser de communiquer les algorithmes. Du reste, certaines plateformes, comme X, acceptent de donner accès à leurs algorithmes. D’une part, on découvrirait des choses sur les plateformes qui feraient changer d’avis de nombreuses personnes ; d’autre part, les plateformes, à l’instar des médias depuis 1881, seraient responsables de leur contenu, ce qui ne porterait pas pour autant atteinte à la liberté d’expression.

Si cette mesure était définitivement adoptée, le Conseil constitutionnel pourrait la juger contraire aux règlements DSA et DMA. D’ailleurs, à l’époque, on m’avait demandé si j’étais contre la liberté d’expression. Il est bien plus facile de prétendre que je serais favorable à la censure.

M. le président Arthur Delaporte. Une ordonnance-balai a rectifié les dispositions de la loi du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux que la Commission européenne avait considérées inconventionnelles.

Tout en étant conscients de ces difficultés, nous devons avancer pour éviter que certaines plateformes ne se cachent derrière le statut d’hébergeur. Je vous rejoins : ce sont des éditeurs, donc ils ont, à ce titre, une responsabilité majeure. Il reviendra à cette commission d’enquête de le démontrer.

Mme Laure Miller, rapporteure. Mme Anne Genetet, qui suit cette audition à distance, m’a transmis ses questions.

Elle demande si vous avez évoqué avec la Commission européenne la possibilité d’interdire totalement TikTok. De quels moyens dispose-t-elle pour assurer le contrôle des contenus et de l’application des règles européennes ?

Vous proposez d’instaurer pour les mineurs un blocage de l’application au bout de soixante minutes d’utilisation – recommandation n° 20 de votre rapport. Comment pourrait s’appliquer concrètement cette mesure ?

M. Claude Malhuret. Douyin bloque déjà l’accès aux mineurs ; il est donc évident que cette fonctionnalité ne pose aucun problème technique. Du reste, à l’époque, M. Garandeau nous avait dit qu’il réfléchissait à proposer aux parents d’installer cette fonctionnalité sur TikTok, ce qu’il n’a pas fait. Les associations de parents que nous avions rencontrées y étaient favorables.

Le contrôle de l’âge est également un sujet consensuel mais son déploiement se heurte à une difficulté technique. Les réseaux sociaux sont d’accord pour contrôler l’âge des utilisateurs mais ils demandent aux régulateurs de proposer des systèmes de vérification, tandis que les autorités, notamment européennes, considèrent qu’il revient aux plateformes de proposer des outils. Ils se renvoient donc la balle. Le recours au tiers de confiance serait une solution mais personne ne semble vouloir avancer dans ce domaine. Néanmoins, ces deux mesures pourraient facilement être appliquées.

M. Mickaël Vallet. Gardons-nous de toute approche caricaturale en ce qui concerne le niveau européen. Il y a quinze ans, si on avait expliqué que la gestion des données deviendrait un enjeu de politique publique jusque dans la plus petite commune de France ou dans les plus petites associations, conscientes du fait qu’on n’exploite pas les adresses électroniques ou qu’on n’héberge pas certaines données relatives aux administrés, on aurait considéré que la marche était un peu haute. Or le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) est maintenant entré dans les mœurs.

Compte tenu des volumes de données collectées, des contentieux importants peuvent être engagés. Bien qu’elle ait récemment été améliorée, la procédure suivie par la CNIL irlandaise pose un problème. Elle consiste à soumettre un projet de décision à l’ensemble des autorités de protection de données européennes. Au bout du compte, nonobstant le temps passé et l’énergie dépensée, une norme européenne en matière de protection des données sera prise. Certains pays asiatiques s’inspirent du cadre européen pour élaborer leur législation nationale – cela mérite d’être souligné.

S’agissant du DMA et du DSA, le problème, c’est le temps. Le cadre juridique ne se construit pas assez vite alors que les plateformes et les Gafam avancent et essayent de gagner du temps. Les législations nationales permettraient d’avancer plus rapidement et de manière plus flexible ; néanmoins, l’impact ne serait pas le même. Vous avez dit que nous avions consciemment ou inconsciemment délégué ces compétences à Bruxelles. Cette délégation était tout à fait consciente : des responsables politiques nationaux prennent les décisions en la matière et ils doivent les assumer. Ce ne sont pas les Chinois qui ont décidé que Thierry Breton ne serait plus commissaire européen – du reste, cela aurait été très grave en plus d’être idiot –, alors qu’il commençait à taper dur sur les plateformes et que son travail sur ces questions commençait à être reconnu par l’opinion. Les responsables nationaux doivent faire avancer les choses dans le bon sens. On peut s’interroger sur la volonté de la présidente de la Commission européenne, qui a été à deux doigts de nommer une ancienne responsable d’Apple économiste en chef de la direction générale de la concurrence. En tout état de cause, un cadre existe ; il nous revient, dans le cadre des relations diplomatiques intra-européennes, d’avoir des exigences beaucoup plus concrètes en la matière.

S’agissant de la question de savoir s’il est faisable ou opportun de brider le temps d’utilisation d’une application, il existe deux aspects. Le premier est juridique : ce blocage ne doit pas contrevenir pas à certains grands principes de droit. Claude Malhuret a parlé de naïveté : nous ne pouvons être les seuls à le décider, nous devons converger vers cette solution au niveau européen, il y va de notre santé démocratique. Une vraie bataille doit être menée.

Le second aspect est technique. On dit parfois que tout ce qui est techniquement possible n’est pas politiquement souhaitable. Le splinternet – ou cyberbalkanisation – existe déjà : en Chine, on n’a pas accès aux mêmes contenus que dans l’Union européenne. De la même façon, certains contenus chinois ne sont pas accessibles dans l’Union européenne – et c’est heureux. Nos concitoyens ne comprendraient pas qu’on mette en avant des considérations techniques. Je prends un exemple local : la diffusion de musique à l’occasion d’une fête de village qui n’a pas été déclarée à la Sacem (Société des auteurs, compositeurs et éditeurs de musique) conduira à l’acquittement d’une amende pour non-respect des droits d’auteur. La Sacem lit la presse locale et vérifie si les événements annoncés ont été déclarés. Des règles analogues doivent s’appliquer aux réseaux sociaux.

Selon M. Paul Charon, directeur du domaine renseignement, anticipation et stratégies d’influence de l’Institut de recherche stratégique de l’École militaire (Irsem), la Chine mène, de manière assumée, une véritable guerre cognitive. Par ailleurs, je vous invite à consulter le rapport sénatorial de juillet 2024 « Lutte contre les influences étrangères malveillantes. Pour une mobilisation de toute la Nation face à la néo-guerre froide ». Dans l’Union européenne, notamment en Roumanie, TikTok a eu des effets sur l’opinion publique. Comment est-il possible que cette application ait une influence telle qu’elle entraîne des manifestations bien réelles et l’annulation d’un scrutin public ? Cet événement, qui donne le vertige, doit nous alerter.

Enfin, je nuancerai les propos de Claude Malhuret sur la Nouvelle‑Calédonie. Le Conseil d’État a considéré que l’application avait été suspendue en dehors de tout cadre légal. Certes, il doit être possible de suspendre une application pour des considérations d’ordre public, mais cette décision doit s’inscrire dans un cadre juridique. Depuis la décision du Conseil d’État, le travail n’a pas été remis sur l’ouvrage. Nous devons avancer sur cette question.

M. le président Arthur Delaporte. Le Conseil d’État a jugé que la décision avait porté une atteinte disproportionnée aux droits et aux libertés.

M. Mickaël Vallet. Oui, il a jugé que la décision n’avait pas été prise dans les règles.

La question du cadre légal et la caractérisation des menaces réelles sont un élément fondamental. Se demander comment pourraient agir les pouvoirs publics, notamment en matière d’éducation à la parentalité, indépendamment des plateformes, est également essentiel.

M. le président Arthur Delaporte. Nous travaillons dans ce sens : nous auditionnerons les associations de parents et le Réseau Canopé, qui déploie des dispositifs d’accompagnement des jeunes et d’éducation à la citoyenneté à l’ère numérique, lesquels ne sont pas suffisamment soutenus par les pouvoirs publics. Enfin, nous recevrons la ministre de l’Éducation nationale, de l’enseignement supérieur et de la recherche, et le ministre chargé de la Santé et de l’accès aux soins.

10.   Audition de Mme Sihem Amer-Yahia, directrice de recherche CNRS, directrice adjointe du Laboratoire d’informatique de Grenoble, Mme Lucile Coquelin, maître de conférences en sciences de l’information et de la communication, Laboratoire DyLIS, Inspé Normandie Rouen Le Havre, Sciences Po Paris, et M. Olivier Ertzscheid, chercheur en sciences de l’information et de la communication, maître de conférences à l’université de Nantes, auteur des ouvrages L’appétit des géants : pouvoir des algorithmes, ambitions des plateformes et Le monde selon Zuckerberg : portraits et préjudices (mardi 29 avril 2025)

Puis, la commission auditionne conjointement, Mme Sihem Amer-Yahia, directrice de recherche CNRS, directrice adjointe du Laboratoire d’informatique de Grenoble, Mme Lucile Coquelin, maître de conférences en sciences de l’information et de la communication, Laboratoire DyLIS, Inspé Normandie Rouen Le Havre, Sciences Po Paris, et M. Olivier Ertzscheid, chercheur en sciences de l’information et de la communication, maître de conférences à l’université de Nantes, auteur des ouvrages L’appétit des géants : pouvoir des algorithmes, ambitions des plateformes et Le monde selon Zuckerberg : portraits et préjudices ([10]).

M. le président Arthur Delaporte. Madame la rapporteure vous a communiqué préalablement un questionnaire, auquel vous pourrez apporter de plus amples réponses ultérieurement, par écrit. Je vous demanderai de déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Marc Faddoul, Mme Lucile Coquelin, Mme Sihem Amer-Yahia et M. Olivier Ertzscheid prêtent serment.)

Mme Lucile Coquelin, maître de conférences en sciences de l’information et de la communication. Dans le cadre de mes travaux de recherche, je suis amenée à produire du contenu pour TikTok afin de comprendre l’interface de la plateforme, mais je n’en ai encore perçu aucun bénéfice financier. Il faudrait pour cela que des utilisateurs souscrivent à un abonnement à mon compte pour accéder à des contenus exclusifs.

M. Marc Faddoul, directeur et cofondateur d’AI Forensics. J’ai travaillé avec Facebook voici environ sept ans dans le cadre d’un partenariat de recherche avec l’université de Berkeley, mais je n’ai rien perçu à ce titre.

Mme Lucile Coquelin. Je tiens à vous exprimer ma gratitude pour la constitution de cette commission d’enquête, que j’appelais de mes vœux.

J’enseigne les épistémologies et les méthodologies de la recherche sur l’éducation aux médias, l’information et les cultures numériques. Je me présente devant vous, non pas en tant que psychologue ou informaticienne, mais comme sémio-anthropologue de la communication. Mes objets d’étude sont les signes, les mythes, les croyances, les récits par lesquels nos sociétés se racontent, se rêvent et, parfois, se trahissent. Ce sont dans les interstices du langage que se nichent nos croyances et que se tissent, selon moi, les véritables dynamiques du pouvoir. Voilà pourquoi, depuis bientôt dix ans, je questionne les mythologies produites par les productions audiovisuelles sérielles en circulation dans la sphère publique, notamment numérique.

Mes recherches m’ont conduite à explorer diverses plateformes telles qu’Instagram, YouTube, TikTok ou même Netflix, à travers plusieurs objets d’étude, dont les figures des influenceurs fitness ou les mobilisations autour du mouvement #MeTooInceste.

Depuis près de deux ans, je mène un projet de recherche visant à circonscrire, au moins partiellement, le modèle des plateformes Instagram et TikTok. Il s’agit pour moi de comprendre le ressort de la viralité des contenus et les dynamiques d’engagement des publics telles que les oriente une stratégie algorithmique propre à chaque dispositif. Mon approche vise à interroger ce que ces interfaces numériques nous donnent à voir, mais aussi ce qu’elles font à nos subjectivités. Il n’est question ni de céder aux enchantements faciles de la technique ni d’ériger TikTok en bouc émissaire commode des désordres de l’époque. Il n’importe pas seulement de comprendre TikTok de l’extérieur, mais de réfléchir à ce que ces dispositifs nous font éprouver, à la manière dont ils participent à façonner nos désirs, nos imaginaires et notre rapport à nous-mêmes. Nous devons interroger ce que ces outils font à notre manière d’habiter le monde, de nous dire et de nous percevoir.

Mon propos ne s’enfermera ni dans la dénonciation sommaire ni dans l’apologie ingénue de ces réseaux sociaux numériques, car je revendique, dans ma démarche, une lucidité, une vigilance, une foi raisonnable dans la capacité humaine à apprivoiser, sinon à dompter, les forces qu’elle déchaîne, en particulier sur les plus vulnérables. Si la jeunesse, naturellement avide d’expériences, est souvent désignée comme la première concernée, nul n’est à l’abri de cette fragilité, car toute ignorance des codes, tout éloignement des savoirs numériques rend chacun de nous vulnérable. La vulnérabilité numérique n’est pas propre à un âge ou à une génération. Elle est une contingence qui guette, à bas bruit, toutes les personnes impréparées, car celui qui manque de connaissances ou de compétences numériques, qu’il soit jeune ou non, peut se retrouver exposé à des environnements qu’il ne maîtrise pas. Cette vulnérabilité n’est toutefois en aucun cas permanente, mais évolutive et contextuelle. Elle ne constitue ni une fatalité ni une prison. Elle peut même receler des opportunités.

M. Marc Faddoul. Je félicite également l’initiative de cette commission. J’aimerais, dans mes propos liminaires, souligner le rôle de l’amplification algorithmique dans la distribution de l’information, aborder la crise de la souveraineté que nous traversons, vis-à-vis de nos infrastructures numériques, et formuler des recommandations au régulateur dans l’objectif de regagner plus de souveraineté, par le biais de l’interopérabilité.

Les algorithmes de recommandation sont devenus les gardiens de l’information en ligne. Je songe aussi bien aux systèmes de recommandation des réseaux sociaux qu’aux modèles de langages tels que ChatGPT. Il me semble nécessaire de se concentrer sur l’amplification algorithmique, plus que sur la modération de contenu, alors même que celle-ci tend à occuper une large place dans les débats, aussi bien autour du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) que sur la liberté d’expression aux États-Unis. L’expérience de l’utilisateur de TikTok est pensée pour et autour de l’algorithme, qu’il s’agisse du flux des recommandations ou du moteur de recherche intégré à l’application, à l’origine de suggestions personnalisées de contenu comme de recherche. La spécificité de l’algorithme de TikTok tient à sa capacité de recevoir un feedback rapide et abondant des utilisateurs. Ceci permet de raffiner le profil psychologique et d’intérêt de chacun. Un tel modèle algorithmique, fondé presque exclusivement sur la maximisation de l’engagement, entraîne les conséquences les plus dramatiques en termes d’addiction, d’amplification de contenus sensationnalistes, conspiratoires et polarisants, et d’exploitation des vulnérabilités. Ainsi, selon une étude d’AI Forensics, un utilisateur suivant du contenu lié à une rupture amoureuse se retrouve, en moins d’une demi-heure, exposé à du contenu lié aux dépressions, puis à des idées suicidaires. Ce phénomène inquiétant s’observe sur d’autres plateformes. Il convient de souligner la similitude dans la conception des algorithmes de recommandation d’Instagram, TikTok ou YouTube. En réalité, nous observons une convergence des fonctionnalités sur l’ensemble des plateformes, s’inspirant les unes, des autres. Aussi importe-t-il de s’en tenir à une approche systémique.

Nous affrontons aujourd’hui une crise de notre souveraineté numérique dans un contexte géopolitique adverse en reconstruction. Nous avons délégué notre infrastructure informationnelle à des plateformes qui obéissent à des intérêts étrangers, notamment gouvernementaux. Le parti communiste chinois a, de fait, infiltré la gouvernance de TikTok. Malgré l’absence de preuve d’ingérence à grande échelle de la plateforme elle-même, les mécanismes de séparation des pouvoirs mis en place n’apparaissent pas du tout convaincants. Aussi subsiste-t-il un risque. S’il ne s’est pas encore avéré, c’est sans nul doute grâce à l’intérêt des régulateurs américains et européens pour la plateforme. Car, si TikTok se livrait à de telles manipulations, elle s’exposerait au risque de devoir cesser son activité. D’autres plateformes américaines ne s’embarrassent pas de telles précautions. Ainsi, X, la plateforme dirigée par Elon Musk, s’est livrée à des manipulations algorithmiques visant à amplifier la portée des messages de son propriétaire ; celui-ci y partageant ses intérêts politiques et sa volonté d’influencer certaines élections, y compris en Europe. Certains techno-entrepreneurs nourrissent l’ambition explicite d’utiliser la domination technologique comme outil de conquête idéologique. Les mineurs font dès lors figure de cible privilégiée, bien qu’ils ne soient pas les seuls visés.

J’aimerais, pour finir, insister sur la nécessité d’une approche systémique des plateformes. Je recommanderais, dans cette perspective, l’approche d’un pluralisme algorithmique, recommandé notamment dans le cadre des états généraux de l’information. Les algorithmes de recommandation sont devenus les principaux canaux d’accès à l’information. Ils jouent même un rôle plus important encore que les médias dans la distribution de l’information. De même que la loi a inscrit le pluralisme des médias parmi les principes fondamentaux de la démocratie, il conviendrait d’imposer un pluralisme algorithmique, alors que les plateformes ne laissent justement aucun choix à l’utilisateur, de ce point de vue. Il me semblerait donc judicieux d’imposer aux plateformes des protocoles interopérables, sur le modèle de BlueSky, qui permet à ses utilisateurs de choisir leur propre algorithme et à des tiers de proposer des algorithmes ensuite intégrés à cette application. À titre d’exemple, TikTok pourrait proposer un algorithme de recommandation géré par la chaîne de télévision Arte. Ceci permettrait aussi bien aux utilisateurs qu’aux États de mieux contrôler les plateformes en luttant contre la centralisation des pouvoirs et des revenus au sein de certaines d’entre elles. Bien sûr, il serait préférable d’imposer de tels standards à l’échelle européenne, comme, par le passé, dans le domaine des télécommunications. Le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA) a imposé l’interopérabilité des applications de messagerie. Le Digital Fairness Act en discussion pourrait offrir une opportunité d’introduire de telles exigences dans le droit européen. Quoi qu’il en soit, il ne suffit pas de réguler. Nous devons investir dans l’infrastructure si nous voulons surmonter proactivement la crise de la souveraineté que nous affrontons.

Mme Sihem Amer-Yahia, directrice de recherche au CNRS. Mon objet de recherche n’est autre que l’algorithme, en particulier de recommandation. J’en ai développé et j’étudie leur comportement, en particulier lorsqu’il s’agit d’agréger les informations d’un grand nombre d’utilisateurs et de leur servir du contenu. Les algorithmes des réseaux sociaux, et plus spécifiquement celui de TikTok, fonctionnent en agrégeant de nombreux signaux à la fois explicites, c’est-à-dire basés sur un comportement prenant la forme d’un like ou d’un post, et implicites, comme le temps passé à visionner un contenu ou le moment où l’utilisateur se connecte à la plateforme. Une fois déterminé le profil d’un utilisateur, les algorithmes lui recommandent du contenu, des personnes à suivre et des publicités personnalisées. Le modèle économique des réseaux sociaux est fortement axé sur la publicité personnalisée. Ceci influe sur le développement des algorithmes de recommandation, conçus pour maximiser l’engagement des utilisateurs afin de soutenir la diffusion des publicités ciblées. Le principal objectif consiste à maintenir l’utilisateur actif, de manière à ce qu’il consomme du contenu et envoie des signaux alimentant l’algorithme.

TikTok se distingue par sa capacité à analyser en temps réel l’activité de ses utilisateurs, enrichissant ainsi l’algorithme par des données relatives à leurs préférences, leurs pensées et sentiments. Ceci contribue à l’extraordinaire capacité de la plateforme de servir du contenu personnalisé et ciblé, en augmentant dans le même temps le danger qu’elle exerce un contrôle sur les individus qui s’y connectent. Des inquiétudes se font jour quant aux effets de ces algorithmes sur les mineurs, d’autant que celui de TikTok a été conçu pour rendre la plateforme addictive. Il risque ainsi de profondément impacter l’attention et le développement cognitif des mineurs. Il conviendrait d’étudier comment l’exposition continue à des vidéos courtes et engageantes affecte les capacités de concentration, de développement intellectuel et d’engagement dans d’autres activités.

J’ai songé à de nombreuses recommandations légales, techniques et sociétales à adresser aux régulateurs. Il me semble nécessaire que ces trois dimensions interagissent pour parvenir à des solutions durables à fort impact. Il importe d’étudier comment les mineurs s’informent sur les plateformes et les risques liés à la rencontre de contenu non fiable ou biaisé. Sans une évaluation de leur éducation aux médias, les jeunes utilisateurs ne seront pas à même de comprendre le fonctionnement d’une plateforme ni de s’en détacher. Laisser de côté les aspects techniques du problème, négliger l’apport de plateformes comme BlueSky autorisant la personnalisation du contenu, rendrait inutile un simple examen de ses aspects sociétaux. Les aspects techniques incluent l’étendue des pratiques de collecte de données ou encore les politiques de modération. D’un point de vue légal, il conviendrait de concevoir des outils capables de mesurer l’impact de TikTok sur ses utilisateurs.

Olivier Ertzscheid, chercheur en sciences de l’information et de la communication. Merci pour la tenue de cette commission. Je suis enseignant‑chercheur en sciences de l’information et de la communication, mais je pourrais me définir comme médiologue, dans la mesure où j’examine, depuis vingt‑cinq ans, le rapport à l’information que transforment les médias numériques, depuis les moteurs de recherche jusqu’aux réseaux sociaux. Si je devais résumer en une phrase ces vingt-cinq années de recherche, je dirais que tout est de la faute du modèle économique de ces plateformes. Pour paraphraser le titre d’une conférence de Zeynep Tufekci : nous avons construit une dystopie rien que pour obliger les gens à cliquer sur des publicités. Les algorithmes de TikTok soulèvent des enjeux relevant d’effets de publicitarisation, entendue ici comme la manière dont le modèle économique des plateformes et leurs formats éditoriaux réservent une part quasi exclusive à ce qui relève, si ce n’est directement de la publicité, du moins d’espaces investis par la publicité.

D’abord, il me paraît indispensable d’envisager les médias sociaux dans une continuité et dans un espace médiatique global. TikTok ne serait pas ce qu’elle est si divers contenus médiatiques n’étaient pas fabriqués par ailleurs pour y être diffusés.

Ensuite, la meilleure définition d’un algorithme me semble encore celle de Deleuze et Guattari dans leur essai de 1980, Mille plateaux, où il est question de ritournelles. Les trois aspects qui les caractérisent valent aussi pour les algorithmes. Les ritournelles rassurent par une forme de régularité attendue. Elles installent une organisation qui semble familière dans un espace public susceptible d’être investi de manière intime. Elles sont aussi des chants traversants, permettant de découvrir des ailleurs y compris dans des environnements fermés et normés.

Rappelons en outre que nous parlons ici d’outils numériques ayant fait exploser le cadre anthropologique de la communication. Nous pouvons y parler à des personnes absentes, y monologuer ou y dialoguer, parfois sous forme d’avatars, dans des espaces réels ou fantasmés. Il en résulte un bouleversement de nos représentations cognitives. L’hyperfragmentation des contenus sur TikTok permet à son algorithme d’être alimenté à une fréquence particulièrement élevée par des données provenant des utilisateurs, peu importe que ceux-ci interagissent ou non avec la plateforme.

Enfin, je reste convaincu que trois grands mensonges ont marqué l’ère postindustrielle, perpétrés par l’industrie du tabac, par celle du pétrole, et par les plateformes sociales, en réalité parfaitement au courant de leurs impacts sur la santé publique, mais qui n’en persistent pas moins dans un déni permanent, jusqu’à ce que des lanceurs d’alerte parviennent à documenter ce qu’il s’y passe.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Vous dépeignez l’algorithme de TikTok comme extrêmement intrusif, car il capte des informations que les utilisateurs n’ont pas choisi de livrer. Un travail ne doit-il pas être mené auprès de ces utilisateurs pour les avertir, d’une part, du caractère intrusif de l’algorithme, et d’autre part, qu’ils évoluent dans une bulle ne correspondant pas à la réalité, puisque les autres ne voient pas forcément les mêmes vidéos qu’eux ? Autrement dit, ne conviendrait-il pas de les mettre en garde contre les effets de l’algorithme sur le contenu qu’ils visionnent et de les amener à réagir à la captation de leurs données ?

Vous avez évoqué la création d’un algorithme plus éthique. Ne pensez-vous pas que le travail de régulation des réseaux sociaux dans lequel nous sommes engagés est vain ? Ces réseaux obéissent en effet à une logique économique et non éthique. Ils conserveront toujours une longueur d’avance sur le régulateur.

Par ailleurs, avez-vous connaissance de législations en vigueur dans d’autres pays, dont nous pourrions nous inspirer pour mieux protéger la jeunesse des réseaux sociaux ?

Mme Lucile Coquelin. La formation des publics me concerne au premier chef, puisque je suis chargée de former des professeurs des écoles et des documentalistes à l’éducation aux médias, à l’information et aux cultures numériques. Je partage avec eux des outils pour qu’ils en fassent ensuite autant avec leurs apprenants. Je constate, depuis plusieurs années, que la plupart des publics connaissent des termes comme « algorithmes », « récolte » ou « surveillance de données », en se formant toutefois une idée très abstraite de ce à quoi ils renvoient concrètement. Beaucoup manquent de compétences techniques et de connaissance de ces thématiques, ce qui engendre en eux de la crainte. Le manque de confiance dans ces outils complique leur appropriation ainsi que, par ricochet, leur capacité à s’en départir.

J’aimerais partager mes propres doutes quant aux discours, constants dans l’espace public, de panique morale vis-à-vis de ces outils. Les journalistes tendent à se concentrer sur leurs dérives et leurs dangers potentiels en occultant leur apport en termes de construction identitaire ou de sentiment d’appartenance à une communauté. Il importe de sensibiliser les publics, en les alertant sur les dangers des plateformes, certes, mais aussi en leur apportant des compétences techniques et réflexives par rapport à ces outils. Nous développons pour ce faire avec un collectif de recherche, depuis plusieurs années, une méthode baptisée sémiotique sociale. Elle vise à naviguer en groupe sur des interfaces numériques afin d’en comprendre le fonctionnement et à s’engager dans une réflexivité sur ce que ces interfaces nous font. Je me tiens à la disposition des membres de la commission, au cas où ils souhaiteraient en savoir plus.

Concernant la question de l’éthique, particulièrement complexe, il convient de rappeler que l’éthique est située dans le temps et dans l’espace historiques. Oui, il semble possible de développer des algorithmes éthiques, mais éthiques de quel point de vue et au nom de quoi ? Certains de ceux que vous avez précédemment auditionnés recommandaient de s’inspirer de dispositifs de prévention similaires à ceux qui figurent sur les paquets de cigarettes ou les emballages alimentaires. Peut‑être pourrions-nous demander aux plateformes d’indiquer, à intervalles réguliers, le temps que l’utilisateur y a déjà passé ou la quantité de données récoltées grâce à lui.

M. Olivier Ertzscheid. Un certain nombre de professionnels de l’éducation nationale, dont les professeurs documentalistes, ainsi que des organismes comme le CLEMI (Centre de Liaison de l’Enseignement et des Médias d’Information) sont des hérauts des questions de sensibilisation des utilisateurs – questions qu’ils portent auprès du public de manière continue. Ces organismes ont besoin de financements pérennes, d’autant que l’effectif qu’ils emploient s’est accru à proportion de l’urgence du débat sur ces questions.

J’échange beaucoup avec de jeunes étudiants à propos de ces problématiques dans le cadre de mes enseignements. Deux d’entre eux m’ont fait observer que nous voyons rarement des campagnes de prévention dans l’espace public touchant aux liens entre l’utilisation des réseaux sociaux et la santé mentale, alors même que les jeunes n’ont jamais autant insisté sur l’importance de la santé mentale. Un éminent enjeu touche dès lors au renforcement de la communication publique autour de ces sujets ; cette communication pouvant être doublée par des dispositifs d’alerte au sein des plateformes elles-mêmes.

Monsieur le président Arthur Delaporte. Nous auditionnerons plus tard des acteurs institutionnels, dont le CLEMI, ainsi que Santé Publique France et les services de communication du gouvernement afin d’évoquer avec eux différentes options.

M. Marc Faddoul. L’éducation aux médias joue en effet un rôle primordial. La régulation des systèmes algorithmiques n’est absolument pas vaine. Je la tiens au contraire pour essentielle. Quelques progrès ont déjà eu lieu dans le cadre du DSA. Ils peuvent sembler vains dans la mesure où ils n’impliquent pas un changement systémique. Ils consistent simplement à tenter d’analyser les risques systémiques que présentent les algorithmes. Il en a quand même résulté une plus grande transparence des interfaces des plateformes.

Un changement de paradigme n’interviendra qu’à condition d’imposer l’interopérabilité, seule à même de transformer complètement le profil de risque. Seulement, l’interopérabilité apparaît contraire au modèle économique de ces plateformes, qui repose sur les bénéfices qu’elles tirent de leur monopole sur l’information dans certains secteurs. Je songe ici au fait que certaines agences publiques ne publient plus d’informations que sur la plateforme X. Les citoyens qui souhaitent en prendre connaissance se retrouvent contraints de passer par l’algorithme de recherche et donc de recommandation de X. Le régulateur doit mettre fin à ce monopole. BlueSky fait figure d’exemple contredisant ce qu’ont longtemps prétendu les plateformes, à savoir que la mise en place d’un modèle interopérable se heurtait à une impossibilité technique. BlueSky a démontré qu’un tel modèle pouvait fonctionner à l’échelle en autorisant aussi bien les utilisateurs que les États souverains à mieux contrôler leur usage des plateformes.

Mme Sihem Amer-Yahia. D’un point de vue technique, la possibilité d’intégrer et de choisir des algorithmes de recommandation sur une plateforme a d’ores et déjà été prouvée. Bien entendu, une telle possibilité ne suffit pas à elle seule. Il conviendrait d’accompagner les algorithmes d’une explication accessible à tous. En appeler à une simple transparence des algorithmes sans clarifier les enjeux qu’elle recouvre ne suffit pas. Des exemples de fonctionnement des algorithmes seraient nécessaires.

Au niveau européen est déjà préconisée la mise à disposition d’un registre de publicités indiquant quelle entité a parrainé telle annonce et quels individus celle-ci a ciblés, pour telle ou telle raison. Des audits indépendants auraient intérêt à être conduits afin de réduire les risques, comme le préconise le DSA. Encore une fois, j’insiste sur l’importance d’une convergence entre les aspects technique et législatif de la question.

Mme Laure Miller, rapporteure. Vous convenez avec moi que la question de l’interopérabilité ne pourra que se régler à l’échelle européenne et non nationale.

M. Marc Faddoul. Je préconise en tout cas de s’atteler au problème à l’échelle de l’Union européenne. Seule la force du marché unique européen permettrait de faire plier les plateformes. Un bras de fer a déjà été remporté à propos des connecteurs USB-C. Je ne pense pas que la France, seule, parviendrait à un tel résultat, compte tenu de l’intensité du lobbying que ne manqueraient pas de mener les plateformes.

M. Le président Arthur Delaporte. J’aimerais, monsieur Faddoul, que vous précisiez les missions de votre organisation ainsi que vos recherches sur TikTok. Les impératifs de transparence imposés à l’échelle européenne aux plateformes par le biais du DSA ont contraint celles-ci à publier des bases de données. Or vous êtes impliqué dans un projet d’analyse de ces données. Qu’en avez-vous d’ores et déjà conclu ? TikTok respecte-t-elle ou non ses obligations de transparence ? Les données recueillies sont-elles utilisables ou non par la recherche ou par le grand public ? Permettent-elles ou non d’exercer un contrôle sur les plateformes ?

M. Marc Faddoul. IA Forensics est une association française de loi 1901 à but non lucratif. Sa mission consiste à analyser les algorithmes opaques et influents et leurs impacts sur la société. Nous avons mené de nombreux travaux sur les systèmes de recommandation des réseaux sociaux ou encore les algorithmes de ChatGPT et d’autres chatbots émergents. Ces dernières années, nos travaux ont servi d’appui à la Commission européenne dans la mise en place du Digital services act. Nous sommes parmi les premières organisations à avoir tiré parti de ses nouvelles obligations de transparence. Celles-ci ont permis aux chercheurs d’accéder à des données grâce auxquelles il est possible d’analyser les risques systémiques que présentent les plateformes. Certes, ces obligations ont des limites. Néanmoins, sans ces nouveaux mécanismes d’accès aux données, nous n’aurions pas pu mener à bien certaines de nos études les plus récentes.

La législation européenne a imposé la transparence sur les publicités diffusées par les plateformes dans l’Union européenne, puisque ces publicités sont désormais inscrites sur un registre. La législation impose par ailleurs, en théorie du moins, de laisser les chercheurs accéder aux bases de données ainsi collectées, de manière programmatique et à grande échelle. Le degré de respect de cette obligation varie toutefois d’une plateforme à l’autre. En la matière, TikTok ne fait partie ni des meilleurs élèves ni des cancres. Des limites sont à déplorer concernant la quantité et le type de données fournies par cette plateforme. De fait, les médias n’y sont pas faciles à télécharger ni leurs sous-titres à consulter, alors que l’algorithme analyse ces éléments.

Instagram et Facebook disposent des registres de publicités les mieux tenus. Ceci a permis de mettre en évidence que de nombreuses publicités vantent des produits prétendument thérapeutiques aux vertus en réalité non démontrées, présentant des risques pour la santé. À ce risque systémique pesant sur la santé publique s’en ajoute un autre d’intégrité électorale. Les registres de publicités nous ont en effet permis de prouver l’orchestration, par des groupes prorusses, de campagnes de propagande ayant touché plus de cent millions d’utilisateurs dans l’Union européenne, dans le cadre des élections parlementaires de juin dernier.

Nous avons étudié, toujours grâce au registre imposé par le DSA, les publicités politiques diffusées sur TikTok, notamment dans le cadre des récentes élections allemandes. TikTok s’en tient à une politique plus contraignante que d’autres plateformes comme Instagram ou Facebook en interdisant a priori toute publicité politique dans le sens où les annonceurs n’y sont pas autorisés à acheter du contenu faisant référence à des candidats. L’application de cette politique sur TikTok n’est certes pas parfaite, encore que les publicités politiques n’y soient présentes qu’à une échelle réduite. Pour autant, il demeure possible d’acheter de l’influence sur TikTok par d’autres moyens, en particulier à travers les influenceurs. Lors de récentes élections en Roumanie, certains ont été rémunérés hors de la plateforme pour relayer des messages politiques.

M. le président Arthur Delaporte. Si vous avez mis en évidence les risques que fait peser Instagram sur la santé publique, vous n’avez pas, en revanche, été en mesure de prouver l’absence d’infractions similaires de la part de TikTok, faute que la plateforme ait fourni des données d’assez bonne qualité.

M. Marc Faddoul. Tout à fait. Seule la qualité des métadonnées fournies par Facebook nous a permis de mener à bien plusieurs de nos études. TikTok ne nous donne toujours pas accès à des métadonnées assez riches pour que nous comprenions la sémantique des contenus à grande échelle. Les sous-titres des vidéos nous manquent encore pour mener des analyses sémantiques d’ampleur.

M. Thierry Sother (SOC). Je me suis rendu compte, dans le cadre des travaux que j’ai récemment menés, en lien avec une résolution européenne, de la défaillance des plateformes en matière d’accès à leurs données. Je songe notamment à X qui, depuis son rachat par Elon Musk, n’autorise plus les chercheurs à consulter ses données via un API (Application Programming Interface ou Interface de programmation d’application) spécifique.

Madame Coquelin, vous évoquiez, dans vos propos liminaires, une méconnaissance des codes, à l’origine de vulnérabilités. Quel serait, selon vous, le socle minimum de savoirs à enseigner, partager et transmettre pour réduire autant que faire se peut les vulnérabilités ?

Mme Lucile Coquelin. Dans le cadre de ma mission d’enseignement, je me suis aperçue que certains étudiants de vingt ans en sciences de l’information et de la communication ne savaient pas comment envoyer un e-mail. Il me semble dès lors important de débuter la sensibilisation des apprenants en leur montrant comment réaliser des tâches de base telles que la rédaction d’un courrier numérique ou la production d’un écrit à l’aide d’un traitement de texte. Dans le cadre de mes terrains où je produis du contenu sur TikTok dans l’idée de saisir ce qui rend tel contenu plus viral qu’un autre et la manière d’engager un public vis-à-vis d’un contenu, je constate que beaucoup d’utilisateurs ne possèdent pas les compétences essentielles en littéracie numérique. Par exemple, ils ne sont pas capables d’ouvrir un lien vers une page Web ou un fichier au format pdf. Une fois acquises les compétences fondamentales, il importe de mobiliser les outils numériques et de s’en servir. Beaucoup de chercheurs s’intéressent aux interfaces numériques sans eux‑mêmes y publier du contenu. Je me demande s’ils ne restent pas trop à l’écart de ces outils pour les comprendre. J’inviterais donc tout un chacun à se saisir de ces outils pour les comprendre ; faute de quoi, il ne sera jamais possible de les déjouer. Le questionnaire qui nous a été adressé nous demandait comment empêcher les plateformes de capter nos données. D’abord, il convient de lire attentivement leurs conditions d’utilisation et de sélectionner les options pertinentes.

M. Olivier Ertzscheid. Un sujet d’accès aux corpus manipulés par les plateformes se pose pour la recherche publique. Je ne songe pas seulement aux corpus publicitaires. Le groupe Meta avait ouvert l’accès à une base de données relative aux affichages publicitaires sur Facebook lors d’une élection présidentielle aux États-Unis. La plupart des programmes partenariaux avec des universités ou des laboratoires publics se retrouvent à présent à l’arrêt, entravés ou soumis à des conditions inacceptables.

En outre, j’insisterai sur l’importance de comprendre les dynamiques algorithmiques et de viralité. Une expérience, déjà ancienne, portant sur l’amorçage, montre comment à partir d’un contenu à peu près neutre, un algorithme tend à amplifier et durcir les moindres tendances politiques, aussi bien vers la droite que vers la gauche. Ceci révèle des dynamiques sourdes et problématiques à l’œuvre sur les plateformes.

Enfin, s’il importe en effet de comprendre les algorithmes pour les détourner, leur contournement, dans la pratique, apparaît de plus en plus compliqué, ce qui a d’ailleurs lieu d’inquiéter, vis-à-vis de la démocratie. Voici assez longtemps, le bombardement de Google consistait à se coordonner pour rapidement contraindre l’algorithme du moteur de recherche à orienter ses utilisateurs vers tel contenu plutôt que tel autre, à propos d’un président de la République, par exemple.

M. Kévin Mauvieux (RN). J’aimerais revenir au cœur de notre sujet : la santé mentale des enfants. Madame Coquelin, je vous ai trouvée très optimiste à propos de TikTok, peut-être même un peu trop. Vous avez dit tout à l’heure que TikTok pouvait présenter un danger, mais qu’il était nécessaire de publier sur la plateforme pour la comprendre et qu’il valait mieux ne pas éveiller de la crainte chez ses utilisateurs, sous peine qu’ils ne se l’approprient jamais. Toujours selon vous, l’utilisation de la plateforme participe de la construction identitaire par la diffusion de contenu communautaire adapté à la personnalité de chacun. Estimez‑vous plus dangereux de se construire seul sans TikTok ou de laisser l’algorithme de la plateforme guider son utilisateur vers des contenus l’exposant à des risques ? Un jeune confronté à une rupture amoureuse peut par exemple se voir orienté vers des contenus évoquant des envies suicidaires. De fait, des suicides ont bien eu lieu, ce qui nous a d’ailleurs donné la volonté de constituer cette commission d’enquête.

N’importe-t-il pas, plutôt que de laisser un enfant se retrouver happé par l’engrenage de l’algorithme, réguler TikTok d’entrée de jeu, quitte à ce que son jeune utilisateur en ait peur ? Je préfère que la peur dissuade un enfant d’utiliser la plateforme que de le voir happé vers une issue fatale, lorsque celle-ci aura exploité ses vulnérabilités.

Disposez-vous d’éléments relatifs à l’implication d’enfants dans des contenus communautaires, c’est-à-dire ayant trait à des communautés religieuses aussi bien que définies par une orientation sexuelle ou encore par un mode de vie distinct ? Le témoignage d’un garçon de onze ans m’est parvenu. S’interrogeant sur son attirance pour d’autres garçons, il s’est rendu sur TikTok pour chercher des contenus susceptibles de l’aider à se construire. Sa démarche est certes louable, d’autant qu’à un tel âge, il peut être difficile d’aborder le sujet de la sexualité avec des proches. Ce garçon s’est retrouvé, au bout de quelques jours, exposé à des contenus communautaires LGBTQIA+ l’incitant à des pratiques qui, en réalité, ne lui convenaient pas. Une étude a-t-elle porté sur l’impact de l’algorithme de TikTok sur la diffusion de contenus communautaires ?

M. le président Arthur Delaporte. Qu’entendez-vous par ce terme ?

M. Kévin Mauvieux (RN). Je songe dans le cas présent à des contenus à caractère sexuel, voire pornographique, mettant en scène des pratiques particulières et poussées, auxquelles se livrent des représentants de la communauté LGBTQIA+. Ces pratiques étaient présentées comme une voie de concrétisation d’une orientation sexuelle, alors que le jeune utilisateur de TikTok voulait simplement se renseigner sur son attirance pour un autre garçon.

Mme Lucile Coquelin. Je n’ai à aucun moment parlé d’enfant. Votre commission d’enquête s’intéresse aux effets de TikTok sur la jeunesse. Des enfants de dix ou onze ans ne sont pas censés utiliser TikTok. Cela dit, personne n’est dupe. Une de mes étudiantes s’est intéressée, dans son mémoire de recherche, à une productrice de contenu TikTok âgée de huit ans. Je n’incite en aucun cas des enfants à se rendre seuls sur TikTok.

De plus, je ne me considère pas comme optimiste, mais lucide. Je ne souhaite pas me concentrer uniquement sur les dangers des plateformes. Je tiens aussi à mettre en évidence les opportunités qu’elles offrent. Le rôle de Facebook dans le Printemps arabe est ainsi connu.

Quoi qu’il en soit, je refuse de m’en tenir à une posture de peur, car la peur n’évite pas le danger. La diabolisation d’outils numériques donne lieu à des utilisations risquées de ces outils. Je préfère quant à moi accompagner mes apprenants vers l’acquisition de confiance en eux afin qu’ils sachent faire preuve de discernement dans leur utilisation des outils numériques, et pas seulement de TikTok. Le constat a été établi qu’un public capable de se servir d’une interface développe des pratiques de lecture et d’écriture intuitives, dans le sens où de fortes similitudes s’observent entre les plateformes. TikTok comporte ainsi des fonctionnalités également disponibles sur Instagram, YouTube ou même Netflix. Les compétences acquises au titre de la littéracie numérique se révèlent donc transposables d’un outil à l’autre.

Pour en revenir à la construction identitaire, sachez que j’ai moi-même vécu dans un foyer où s’exerçaient des violences conjugales et beaucoup de maltraitance. Je me suis alors sentie très seule. Lorsque j’ai découvert Instagram, peu après mes vingt ans, je me suis intéressée à un compte intitulé Parents Toxiques, recueillant bénévolement des témoignages de victimes de maltraitance durant leur enfance. J’ai dès lors pris conscience que, loin d’être seule dans mon cas, je vivais une situation de violences domestiques somme toute assez banale. Pendant plusieurs années, j’ai ensuite soutenu la créatrice de ce compte en réalisant des contenus pour elle, notamment durant la pandémie de Covid-19. Les dispositifs numériques présentent donc des opportunités en termes de sensibilisation. N’oublions pas qu’un sentiment de solitude et d’incompréhension peut pousser des jeunes au suicide.

M. le président Arthur Delaporte. Pourriez-vous revenir sur le mémoire de votre étudiante, consacré à une TikTokeuse de huit ans ?

Mme Lucile Coquelin. Je pourrais même lui demander de vous le transmettre. À vrai dire, j’ai repris la direction de son mémoire après ma titularisation à l’université de Rouen, alors qu’il était déjà largement entamé. Dans le cas contraire, j’aurais refusé son sujet d’étude, qu’elle semblait traiter comme un rat de laboratoire et qui n’était autre que sa sœur cadette. Celle-ci s’épanouissait dans la production et le partage de contenus ; ce qui m’a beaucoup interpellée. Je suis moi-même parent. Concernée par les enjeux numériques, je n’ai jamais publié de contenu où le visage de mes enfants soit identifiable, consciente des risques, de détournement des images, que présente l’exposition en ligne des mineurs. Une vidéo d’un enfant peut ainsi devenir un gif ou circuler sur des réseaux pédocriminels. Voilà pourquoi, dans mon travail sur les outils numériques, je sensibilise aux violences faites aux enfants. Je classe pour ma part TikTok parmi les plateformes présentant le plus de danger qu’un enfant se retrouve une proie sexuelle.

M. le président Arthur Delaporte. Si je vous comprends bien, le mémoire de votre étudiante ambitionnait plus de décrire des pratiques que de mener une réflexion sur les modalités d’accès des mineurs aux réseaux sociaux ou l’encadrement de leur utilisation de ces plateformes. À votre connaissance, à aucun moment, TikTok n’a vérifié l’âge de cette influenceuse.

Mme Lucile Coquelin. Ceci démontre l’importance de produire du contenu pour saisir les mécanismes qui régissent la plateforme. TikTok a déjà vérifié mon âge, mais uniquement pour m’autoriser à diffuser du contenu en direct ou à le monétiser.

M. le président Arthur Delaporte. Nous approchons de la fin de cette audition. Je vous laisse la parole si vous souhaitez encore préciser certains points.

M. Olivier Ertzscheid. Il me semblait important de rappeler aujourd’hui ce qui est déjà documenté en sociologie comme en ingénierie algorithmique, à savoir la connaissance très fine qu’ont ces plateformes de leurs propres mécanismes de recommandation virale. Il importe d’arriver à les contraindre de rompre ces chaînes de contamination. À titre d’exemple, il a été prouvé, lors de l’élection d président Jair Bolsonaro au Brésil, que limiter le partage de certaines informations sur WhatsApp en contexte électoral permet de réduire par un facteur de deux ou trois la propagation de fausses nouvelles. L’ajout, sur ce qui portait à l’époque le nom de Twitter, d’une case à cocher certifiant qu’un Tweet avait été lu avant son partage avait, de même, réussi à limiter la propagation de fausses informations ou encore le doomscrolling, système d’enfermement dans des contenus de plus en plus anxiogènes et toxiques, même en l’absence d’amorçage préalable. Il arrive ainsi qu’une vidéo sur la guerre en Ukraine précède une recommandation d’images d’une violence croissante. J’enrage souvent à la pensée que les plateformes ont documenté ces effets pervers de leurs algorithmes, comme l’ont révélé l’affaire des Facebook files et l’alerte lancée par Mme Frances Haugen. Les plateformes campent dans le déni en prétendant officiellement ne pas être au courant de ces effets pervers, ou bien refusent de mettre en place des dispositifs correctifs qui menaceraient leur modèle économique reposant sur la viralité des contenus. Il importe de les contraindre, par la législation notamment, à appliquer les correctifs qu’elles sont en capacité d’appliquer.

Mme Sihem Amer-Yahia. J’aimerais revenir sur ce que les concepteurs des plateformes recherchent et sur l’intérêt économique ou de réputation des plateformes, soucieuses d’attirer toujours plus de trafic. Si le moyen leur était donné d’apparaître comme plus sociales, éthiques ou vertueuses que leurs concurrentes, elles se serviraient de cet argument pour attirer un public plus vaste. Un décalage m’apparaît entre la volonté ou le besoin de promulguer des textes de loi punitifs et la conception d’outils dans un esprit comparable à l’échelle Nutriscore, à même de créer une dynamique plus positive.

M. le président Arthur Delaporte. Quel score éthique attribueriez-vous à TikTok et aux plateformes concurrentes ?

Mme Sihem Amer-Yahia. Je donnerais à TikTok un score très bas si je devais noter la qualité des données fournies par la plateforme. L’algorithme de TikTok ne me paraît pas très sophistiqué. À ce propos, il n’est pas techniquement possible de créer un algorithme dépourvu du moindre biais. Toute donnée alimentant un algorithme amplifiera en effet le biais qu’elle est elle-même susceptible de contenir. Un outil a été créé afin de pouvoir dénoncer à la Commission européenne les violations du DSA par les plateformes. Une telle approche ne me semble pas très constructive vis-à-vis d’elles. Je trouverais plus pertinent de leur imposer un outil de mesure de leur respect de l’éthique.

M. Marc Faddoul. La question de l’interopérabilité renvoie à une question de souveraineté, mais aussi à la possibilité de rendre aux utilisateurs le contrôle de leur navigation sur les plateformes. Celles-ci se plaisent à répandre l’idée que restituer leur contrôle aux utilisateurs s’avérerait trop compliqué, voire que ces utilisateurs eux-mêmes ne le souhaiteraient pas. Une telle position me semble erronée. Chacun de nous dispose en réalité de plusieurs persona en ligne, selon ses centres d’intérêt. Or, à l’exception de BlueSky, les plateformes ne nous laissent pas le choix d’interagir avec elles à partir d’une persona plutôt que d’une autre. La création en ligne de communautés ne me paraît pas problématique en elle-même, tant que la possibilité reste offerte de sortir de ces bulles algorithmiques.

11.    Audition de M. Grégoire Borst, Professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris Cité, et directeur du Laboratoire de psychologie du développement et de l’éducation de l’enfant (LaPsyDÉ - CNRS), Mme Sylvie Dieu Osika, pédiatre, et M. Serge Tisseron, psychiatre, docteur en psychologie, co responsable du diplôme universitaire de cyberpsychologie à l’université Paris Cité, membre de l’académie des technologies (mardi 29 avril 2025)

Enfin, la commission auditionne conjointement  M. Grégoire Borst, Professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris Cité, et directeur du Laboratoire de psychologie du développement et de l’éducation de l’enfant (LaPsyDÉ - CNRS), Mme Sylvie DieuOsika, pédiatre, et M. Serge Tisseron, psychiatre, docteur en psychologie, coresponsable du diplôme universitaire de cyberpsychologie à l’université Paris Cité, membre de l’académie des technologies ([11]).

M. le président Arthur Delaporte. Madame, Messieurs, je vais vous donner la parole pour une intervention liminaire de cinq minutes chacun, qui précédera notre échange sous forme de questions et réponses, à commencer par celles de Madame la rapporteure.

Au préalable, je vous remercie de nous déclarer tout intérêt public ou privé (rémunération par un réseau social…) de nature à influencer vos déclarations.

Auparavant, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958, relative au fonctionnement des assemblées parlementaires, impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

Je vous invite donc, Madame, Messieurs, à lever la main droite et à dire : « Je le jure ».

(M. Grégoire Borst, Mme Sylvie Dieu-Osika et M. Serge Tisseron prêtent serment.)

M. Grégoire Borst, professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris Cité, et directeur du Laboratoire de psychologie du développement et de l’éducation de l’enfant (LaPsyDÉ - CNRS). Il est crucial de souligner le manque actuel de données scientifiques probantes concernant l’impact des réseaux sociaux sur le développement cognitif et socio-émotionnel, notamment des adolescents. Les études existantes sont peu nombreuses et souvent de qualité insuffisante, particulièrement en ce qui concerne les études longitudinales nécessaires pour établir des liens de causalité entre l’exposition aux réseaux sociaux et leurs effets potentiels notamment sur la santé mentale. Cette situation complexifie considérablement l’élaboration de recommandations basées uniquement sur des preuves scientifiques solides. De fait, les données qui existent sont complexes et difficiles à interpréter, relevant plus d’associations que de liens de causalité.

Un autre défi majeur réside dans l’hétérogénéité de la population adolescente. Cette période de la vie est caractérisée par une variabilité interindividuelle exceptionnelle, notamment en raison du neurodéveloppement. Les différences de genre sont particulièrement marquées, avec des dynamiques de développement cérébral distinctes entre filles et garçons, engendrant des facteurs de vulnérabilité spécifiques à chaque sexe.

Les études actuelles révèlent des effets très faibles des réseaux sociaux sur la santé mentale en population générale adolescente. Cependant, cela ne signifie pas une absence totale d’impact. Des interactions complexes existent en fonction de l’âge et des vulnérabilités préexistantes. Une étude de 2024 met en lumière le développement différentiel de certains réseaux cérébraux, notamment ceux impliqués dans le traitement des récompenses sociales, comme facteur de risque d’une utilisation accrue des réseaux sociaux. Chez les filles, mais pas chez les garçons, on observe une augmentation des symptômes dépressifs sur le long terme. Les recommandations de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, dont j’ai fait partie, sont un peu complexes car les données sont peu probantes de ce point de vue.

Il est également important de considérer l’impact indirect des écrans, incluant les réseaux sociaux, sur la santé mentale via leur effet sur le sommeil. L’adolescence est une période critique en termes de déficit de sommeil, et l’exposition aux écrans altère significativement la qualité du sommeil, ce qui peut avoir des répercussions sur la santé physique et mentale. Ces relations sont indirectes et dépendent de vulnérabilités préexistantes et de particularités adolescentes.

Notons que l’adolescence débute généralement vers 10 ans. Or les enquêtes actuelles sur l’utilisation des réseaux sociaux incluent souvent les messageries instantanées comme WhatsApp, ce qui peut biaiser les résultats.

Enfin, il est crucial de souligner l’absence d’études spécifiques sur TikTok, ce qui constitue une lacune importante dans notre compréhension des effets de cette plateforme. En effet, nos recherches actuelles ne nous permettent pas de distinguer précisément l’usage d’un réseau social par rapport à un autre. Nous observons des parts d’utilisation relatives, mais en l’absence d’une mise en place complète du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), nous ne disposons pas encore de toutes les données des plateformes qui nous permettraient de différencier exactement l’utilisation de TikTok par rapport à celle d’Instagram.

Or il est important de noter que des effets de genre se manifestent dans ces usages. Chez les adolescents, nous constatons une utilisation différenciée d’Instagram et de TikTok selon le sexe. Les garçons tendent à utiliser davantage Instagram, tandis que les filles privilégient TikTok. Cependant, cette observation n’explique pas à elle seule les difficultés de santé mentale plus importantes chez les filles adolescentes. Indépendamment de l’utilisation des réseaux sociaux, nous observons un risque de dépression deux fois plus élevé chez les adolescentes que chez les adolescents, ce qui constitue un facteur de vulnérabilité spécifique.

Nous manquons donc de données scientifiques pour établir des recommandations s’appuyant sur des preuves scientifiques solides. Cela ne signifie pas que nous ne pouvons pas appliquer un principe de précaution. Néanmoins, il est crucial de ne pas instrumentaliser les données scientifiques existantes. C’est pourquoi l’une des recommandations formulées par la commission enfants et écrans précitée est la mise en place de cohortes longitudinales. Ces études nous permettraient d’évaluer de manière précise l’impact des réseaux sociaux sur la santé physique et mentale, notamment des adolescents.

Mme Sylvie Dieu-Osika, pédiatre. Je suis pédiatre, exerçant à la fois en libéral et en milieu hospitalier. Ma pratique couvre la prise en charge des enfants de 0 à 16 ans, ce qui inclut naturellement les adolescents, qu’ils soient en bonne santé ou en difficulté. Mon expérience hospitalière me confronte également à diverses situations de santé infantile. La prévention occupe une place importante dans mon activité. Je suis par ailleurs membre fondatrice du Collectif Surexposition écrans (CoSE), qui se consacre depuis 2017 à la problématique de la surexposition aux écrans. J’insiste sur mon statut de clinicienne de terrain, car je suis en contact direct avec des familles de tous horizons socio-économiques.

J’ai également publié un ouvrage intitulé L’enfant-écran : Comment échapper à la pandémie numérique, qui aborde la question des adolescents face à l’omniprésence de plateformes comme TikTok. Depuis 2019, j’ai mis en place une consultation spécialisée sur l’exposition aux écrans à l’hôpital Jean-Verdier de Bondy, au sein de l’assistance publique-hôpitaux de Paris (AP-HP). Cette expérience m’a permis de constater les effets alarmants d’une exposition précoce et intensive aux écrans chez les très jeunes enfants, dès l’âge de six mois. Ces enfants, qui arrivent en petite section de maternelle, présentent souvent des difficultés significatives. Il est crucial de prendre en compte cette problématique pour les générations futures.

Mon époux, également pédiatre, M. Éric Osika, contribue depuis plus de quatre ans à des travaux d’expertise sur ce sujet, notamment sur les réseaux sociaux. Dans un souci de transparence, je tiens à préciser que je n’ai aucun conflit d’intérêts, mon seul engagement étant le bien-être de l’enfant.

Concernant les réseaux sociaux et TikTok en particulier, il me semble important de souligner l’existence de nombreuses études, à la fois longitudinales et transversales, qui apportent des éclairages significatifs. Ces recherches, souvent récentes, prennent en compte divers facteurs tels que le sexe, le genre, et s’intéressent également à des groupes minoritaires. Des chercheurs renommés, comme Mme Jacqueline Nesi, ont exprimé des inquiétudes quant à l’impact de ces plateformes sur le bien-être des jeunes. Je souhaite également attirer votre attention sur les résultats concernant les troubles du comportement alimentaire, particulièrement préoccupants chez les jeunes filles.

Je voudrais vous sensibiliser à une réalité alarmante concernant l’accès des enfants à la pornographie. Aujourd’hui, l’âge moyen de la première exposition à ce contenu est de dix ans, contre quatorze ans auparavant. Cette situation est en partie due à la facilité d’accès via les moteurs de recherche et les réseaux sociaux. Il suffit de taper « porno » dans un moteur de recherche pour constater la faiblesse des barrières de protection. Cette réalité souligne l’importance d’une supervision attentive de l’utilisation d’Internet par les enfants et les adolescents.

Je souhaite également partager des données récentes issues d’une étude américaine menée par Common Sense Media auprès de 203 enfants âgés de 11 à 17 ans. Cette étude, basée sur le suivi de trackers placés dans les téléphones des adolescents avec leur consentement, offre des données factuelles sur leurs habitudes numériques. Les résultats montrent une prédominance de l’utilisation de TikTok, Snapchat et YouTube, devant le gaming. Ces informations sont cruciales pour comprendre les pratiques numériques actuelles des adolescents et leurs potentiels impacts.

Les données recueillies révèlent une utilisation préoccupante des réseaux sociaux, particulièrement TikTok, chez les enfants de 11-12 ans. Près de la moitié de cette tranche d’âge y est présente. Ces chiffres proviennent de mesures effectives du temps d’écran, et non de déclarations subjectives. L’analyse des habitudes nocturnes est particulièrement alarmante, avec une activité significative durant la nuit, s’intensifiant avec l’âge des utilisateurs. Bien que tous les adolescents n’adoptent pas ce comportement, nous sommes confrontés à des plateformes conçues pour être intrinsèquement addictives, point qui a dû être soulevé à plusieurs reprises au sein de cette commission.

Cette situation soulève de sérieuses inquiétudes quant à la qualité du sommeil de ces jeunes utilisateurs. Sur ce point précis, je rejoins l’avis de Monsieur Borst : les troubles du sommeil constituent un problème majeur, corroboré par l’ensemble des études sur le sujet. Les conséquences d’un sommeil perturbé sont vastes et affectent de nombreux aspects de la vie de ces jeunes. L’étude portant sur 200 enfants révèle des chiffres alarmants concernant le nombre de notifications reçues quotidiennement. Plus de 20 % des enfants reçoivent plus de 500 notifications par jour, tous réseaux confondus, alors que 100 notifications seraient déjà excessives. Ces chiffres s’étendent également à la période nocturne, ce qui montre l’ampleur du phénomène.

Cette période de la vie des adolescents est caractérisée par un déséquilibre extrêmement important. Leur réponse au stress et aux menaces est complexe, tandis que leur système de récompense est exacerbé. En parallèle, le cortex préfrontal, responsable de l’inhibition et du contrôle des impulsions, ne termine sa maturation que vers 25 ans. Ce déséquilibre rend les adolescents particulièrement vulnérables.

D’un point de vue médical, l’adolescence est une période critique pour l’apparition de nombreuses pathologies psychiatriques. On observe des pics d’incidence pour les troubles du comportement alimentaire vers 15 ans, potentiellement exacerbés par l’utilisation de réseaux comme TikTok qui valorisent certains standards corporels. S’y ajoutent les troubles obsessionnels compulsifs, les troubles anxieux, les addictions, les troubles de l’humeur, les troubles de la personnalité, et les premiers signes de schizophrénie. La vulnérabilité intrinsèque à l’adolescence s’étend de 10 à 25 ans, touchant tous les jeunes à des degrés divers, modulés par leur environnement familial.

Des études récentes, notamment celle d’Amy Orben et Blackmore portant sur 17 000 enfants, en 2022, ont mis en évidence une « fenêtre de sensibilité » aux réseaux sociaux. Cette étude montre une corrélation entre le temps passé sur les réseaux sociaux et la satisfaction de vie. Les filles de 11-13 ans et les garçons de 1415 ans semblent particulièrement affectés, avec une nouvelle baisse significative pour les deux sexes entre 18 et 19 ans.

M. Serge Tisseron, psychiatre, docteur en psychologie, co-responsable du diplôme universitaire de cyberpsychologie à l’université Paris Cité, membre de l’académie des technologies. Je souhaite mettre en lumière la complexité des enjeux liés à la consommation des réseaux sociaux et leurs impacts sur les jeunes, voire sur l’ensemble des générations. En la matière, il est primordial de distinguer les études de corrélation, nombreuses, des études de causalité, plus rares, dans ce domaine.

Mon expérience de terrain, acquise notamment au sein de l’association 36912+, m’a permis d’interagir avec un grand nombre de jeunes. Au cours du premier trimestre, nous avons visité 63 classes, touchant ainsi 1 640 élèves. Ces échanges directs nourrissent ma réflexion et mes observations.

Les jeunes affirment utiliser TikTok principalement pour combattre l’ennui, ce qui soulève la question de l’occupation de leur temps libre. Certains y trouvent un refuge apaisant face à un monde anxiogène, créant ce qu’ils appellent leur « safe place ». Paradoxalement, les boucles de vidéos, souvent critiquées à juste titre pour leurs effets néfastes potentiels, peuvent aussi jouer ce rôle rassurant. D’autres y cherchent du divertissement, de la détente, voire de l’information, suivant des médias et des journalistes sur la plateforme. Il convient de comprendre ce besoin d’information chez les jeunes et de proposer des alternatives crédibles si l’on envisage de restreindre l’accès à ces outils.

Les difficultés familiales liées à l’utilisation des réseaux sociaux ne se limitent pas à un simple décalage générationnel. Elles s’inscrivent dans un contexte plus large de dépendance matérielle croissante des jeunes envers leurs parents, créant un paradoxe avec leur autonomie numérique. Cette tension entre dépendance financière et indépendance numérique est au cœur des conflits familiaux actuels.

Les outils numériques, et particulièrement les réseaux sociaux, génèrent également des malentendus entre les jeunes. L’absence des signaux non verbaux traditionnels dans la communication en ligne favorise les quiproquos, pouvant mener à des situations de harcèlement. Une éducation spécifique à ces nouveaux modes de communication s’avère nécessaire. Le phénomène « Ils sont cons les sixièmes » illustre une évolution dans les relations entre les différentes tranches d’âge au collège, reflétant une aspiration précoce à la maturité et créant de nouvelles tensions intergénérationnelles.

Enfin, les questions liées aux réseaux sociaux sont indissociables des inégalités sociales. L’accompagnement parental face aux contenus choquants en ligne et l’accès aux activités extrascolaires varient considérablement selon les milieux sociaux. Pour lutter contre ces disparités, j’ai proposé d’ouvrir les cours de récréation et les gymnases des écoles le week-end, offrant ainsi des espaces de socialisation physique essentiels au développement des enfants.

En conclusion, toute approche législative de ces questions doit prendre en compte l’ensemble de ces aspects pour être véritablement efficace et pertinente.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. J’aimerais aborder un point soulevé lors de notre rencontre avec les sénateurs, notamment M. Malhuret, à l’origine du rapport sur TikTok. Ce rapport, bien que plus large, traitait déjà de l’impact de TikTok sur les jeunes. Une question cruciale concerne la nature de cet impact : s’agit-il d’une addiction, d’une dépendance, ou comme l’ont suggéré les sénateurs, d’un « abrutissement » ? En tant que professionnels, pourriez-vous nous éclairer sur le terme le plus approprié pour décrire cette situation ? Existe-t-il une distinction significative entre addiction et dépendance dans ce contexte ?

Mme Sylvie Dieu-Osika. Cette question, bien que fréquemment posée, risque de détourner l’attention des enjeux plus profonds si elle prend trop d’importance dans le débat. Je pense qu’il est pertinent de parler d’usage problématique ou excessif. Certains addictologues, comme M. Amine Benyamina qui a présidé la commission enfants et écrans l’année dernière, utilisent effectivement le terme d’addiction. Bien que je ne sois pas addictologue moi-même, je constate que nous sommes face à une situation qui présente plusieurs critères caractéristiques : sensation de bien-être lors de l’utilisation, besoin constant d’y recourir en cas de malêtre, augmentation du temps passé, conflits familiaux, difficultés et absentéisme dans d’autres domaines de la vie. Le débat sur la terminologie exacte à employer, bien qu’intéressant, ne devrait pas occulter l’analyse des problématiques concrètes liées à ces usages.

M. Serge Tisseron. Il est essentiel de rappeler les critères précis établis par l’Organisation mondiale de la santé concernant l’addiction aux jeux vidéo. Cette addiction comportementale se caractérise par une utilisation exclusive du jeu vidéo, entraînant une déscolarisation et une désocialisation complètes sur plus d’une année, généralement accompagnées de troubles mentaux.

La situation est bien différente pour les réseaux sociaux. Leur utilisation se caractérise par une grande diversité d’activités, ce qui rend difficile l’application du concept d’addiction. Les jeunes alternent entre le visionnage de vidéos, le partage de contenus avec leurs amis, et la recherche de nouvelles informations. Cette multiplicité d’usages ne correspond pas à la définition classique d’une addiction.

Il est important également de souligner que l’addiction aux jeux vidéo, ou gaming disorder, se distingue par deux critères spécifiques : l’absence de syndrome de sevrage lors de l’arrêt de la pratique et l’absence de risque de rechute. Cela explique pourquoi de nombreux adolescents passionnés de jeux vidéo deviennent des adultes capables de jouer de manière occasionnelle et équilibrée. L’intensité de la pratique des jeux vidéo à l’adolescence s’explique par des facteurs psychologiques propres à cette période de développement, comme l’a souligné M. Grégoire Borst. Les adolescents cherchent à s’émanciper de leur famille, et les mondes numériques offrent un refuge idéal, d’autant plus que les parents en ignorent souvent les subtilités. Cette fuite dans le virtuel peut aussi être une réponse aux restrictions parentales concernant les activités extérieures.

En conclusion, il serait inapproprié de parler d’addiction aux réseaux sociaux. Leur utilisation, bien que parfois intensive, ne correspond pas aux critères d’une addiction comportementale. Les jeunes naviguent entre différentes plateformes comme TikTok, Instagram, WhatsApp et YouTube, démontrant une variété d’usages incompatible avec la notion d’addiction telle qu’elle est définie pour des substances comme l’alcool, le tabac ou la morphine. Cette diversité des pratiques numériques ne permet pas, à l’heure actuelle, de les qualifier d’addictions.

M. Grégoire Borst. Il est primordial de laisser aux experts, notamment aux addictologues, le soin de déterminer si l’utilisation des réseaux sociaux peut être qualifiée d’addiction. À ce jour, l’Organisation mondiale de la santé n’a pas classifié cette utilisation comme telle. Si une telle classification devait intervenir, il serait alors nécessaire d’ajuster nos recommandations, notamment concernant l’âge d’accès à ces plateformes.

Dans le cadre de la commission enfants et écrans, le docteur Amine Benyamina, qui la présidait, a évoqué des algorithmes aux propriétés addictogènes, mais n’a pas qualifié l’usage des réseaux sociaux d’addiction en tant que telle. En tant que chercheurs et professeurs d’université, nous devons nous abstenir de porter des jugements sur des domaines cliniques qui ne relèvent pas de notre compétence, et vice versa.

La difficulté actuelle concernant les écrans réside dans la nécessité de conjuguer deux types de preuves : celles issues de la clinique, qui permettent d’élaborer des approches préventives et d’appliquer le principe de précaution, et celles provenant de la littérature scientifique. Par exemple, les graphiques présentés précédemment ne montrent pas simplement une baisse de la satisfaction de vie chez les filles, mais établissent une corrélation entre le temps passé sur les écrans et cette satisfaction de vie. Il est crucial que chacun reste dans son domaine d’expertise pour aborder efficacement ces questions complexes.

M. Serge Tisseron. En réalité, la distinction entre addiction et usage problématique ne change pas fondamentalement l’approche thérapeutique. Mon expérience de collaboration avec le docteur Marc Valleur au centre Marmottan de soins et d’accompagnement des pratiques addictives pendant deux décennies le démontre. Nous traitions de la même manière les cas d’usage excessif de jeux vidéo, bien que les réseaux sociaux n’étaient pas encore un sujet à l’époque.

La réticence de certains cliniciens à utiliser le terme d’addiction provient d’une volonté d’éviter une médicalisation excessive des comportements. En effet, cette tendance à la médicalisation risque de déresponsabiliser les parents, alors qu’il faudrait au contraire les impliquer davantage dans la gestion de ces problématiques.

Mme Sylvie Dieu-Osika. La responsabilisation des parents est certes cruciale, mais elle se heurte à un manque criant d’information. Les parents se trouvent confrontés à des technologies conçues pour capter l’attention, sans disposer des connaissances nécessaires pour y faire face. En tant que clinicienne, je constate quotidiennement leur désarroi.

La situation est d’autant plus préoccupante que l’accès aux smartphones intervient désormais dès l’école primaire, exposant les enfants à des contenus inappropriés, notamment pornographiques, et aux réseaux sociaux. L’utilisation de plateformes comme TikTok est particulièrement problématique, car elle est conçue pour encourager un défilement infini, orientant les utilisateurs vers des contenus potentiellement dangereux.

Le rapport d’Amnesty International met en lumière les risques liés à l’utilisation prolongée de TikTok, notamment l’exposition à des contenus relatifs à l’automutilation et aux tentatives de suicide.

M. Serge Tisseron. Il est important de noter une évolution dans l’utilisation des réseaux sociaux chez les adolescents. Nos interventions dans les établissements scolaires révèlent qu’à partir de la troisième et de la seconde, les jeunes commencent à prendre du recul par rapport à des plateformes comme TikTok. Ils développent un regard critique et conseillent même les plus jeunes sur les dangers associés.

Cependant, nous observons un décalage entre le discours vertueux que les adolescents peuvent tenir lors de nos interventions et leurs pratiques réelles. Ce décalage, bien que problématique, peut avoir un effet positif sur les générations suivantes. En effet, les messages de prévention, même s’ils ne sont pas toujours appliqués par ceux qui les entendent, peuvent bénéficier aux plus jeunes.

Notre espoir réside dans le fait que les nouvelles générations puissent recevoir ces messages de prévention avant leur première utilisation des réseaux, contrairement aux générations actuelles qui y ont été exposées sans préparation. Cette sensibilisation précoce pourrait conduire à des pratiques moins problématiques à l’avenir.

Mme Laure Miller, rapporteure. Je considère que l’enjeu fondamental de cette commission d’enquête est de déterminer comment transmettre efficacement les messages et solutions appropriés, afin que les générations futures soient mieux informées. En vous écoutant, j’ai le sentiment que la faiblesse actuelle de l’intervention des pouvoirs publics sur la question plus large des écrans pourrait s’expliquer par l’absence d’un lien de causalité direct entre l’utilisation de TikTok et des réseaux sociaux d’une part, et l’altération de la santé mentale des jeunes d’autre part. Contrairement à la cigarette, dont la nocivité pour la santé a été clairement établie, justifiant ainsi son interdiction aux mineurs, nous ne parvenons pas encore à démontrer un tel lien pour les réseaux sociaux, ce qui entrave potentiellement une action plus vigoureuse.

La création de cette commission d’enquête répond à un phénomène de société préoccupant : l’accès de plus en plus précoce des enfants aux téléphones portables et leur utilisation massive des réseaux sociaux. Ce défi s’intensifie, avec des contenus insuffisamment modérés exposant les jeunes à des images inappropriées telles que la pornographie, la violence, ou la promotion du suicide et de la scarification. L’impact de cette exposition sur nos enfants ne peut être négligé. De plus, le temps considérable consacré à ces activités, souvent plusieurs heures par jour, affecte inévitablement leur quotidien et leur développement.

Face à cette situation, nous constatons que de nombreux parents se trouvent dépassés ou ignorent les réalités derrière des applications comme TikTok. Parallèlement, l’État peine à définir des actions efficaces pour protéger les plus jeunes. Pendant ce temps, les plateformes continuent d’optimiser leurs algorithmes, accentuant le déséquilibre.

Dans ce contexte, je m’interroge sur votre perception de la situation. Estimezvous que nous sommes dans l’impasse, incapables de réguler suffisamment pour protéger nos enfants ? Avez-vous identifié des pratiques prometteuses ailleurs dans le monde qui pourraient nous inspirer ? Pensez-vous qu’il faille envisager des solutions radicales ou privilégier l’information et la sensibilisation ?

M. Grégoire Borst. Je tiens à rappeler l’existence d’une commission d’experts sur l’impact de l’exposition des jeunes aux écrans qui a formulé 29 propositions, soulignant l’importance d’une approche holistique. Ces recommandations englobent l’éducation à la parentalité dès le plus jeune âge, abordant non seulement les problématiques du numérique mais aussi les fondamentaux du développement de l’enfant et de l’adolescent. Elles préconisent également une éducation scolaire renforcée sur ces sujets, reconnaissant que la compréhension de l’adolescence est tout aussi cruciale que la maîtrise du numérique.

Nos observations révèlent que de nombreux adolescents manquent de connaissances sur leur propre période de développement, pourtant particulièrement complexe à gérer. L’adolescence implique des changements morphologiques et psychologiques majeurs, désormais en interaction avec l’émergence des nouvelles technologies, créant une situation particulièrement délicate pour cette génération. De plus, la pandémie de covid-19 a exacerbé ces difficultés en imposant une exclusion sociale à un âge où les relations sont cruciales, provoquant une explosion des problèmes de santé mentale chez les adolescents.

Bien que la question des réseaux sociaux soit importante, l’urgence actuelle réside dans la mise en place d’un plan ambitieux pour la santé mentale des adolescents en France, sachant que 30 à 40 % de la population adolescente présente des symptômes dépressifs. Il est impératif d’augmenter le nombre de psychologues dans l’éducation nationale et d’investir massivement dans la pédopsychiatrie pour prendre en charge ces symptômes dépressifs.

Concernant l’approche à adopter, je préconise une stratégie globale. Bien que nous ayons beaucoup discuté du rôle des parents et des adolescents, la responsabilité première incombe aux plateformes. Lors de leur audition par la commission d’experts sur l’impact de l’exposition des jeunes aux écran, leur discours s’est révélé inacceptable, niant notamment la présence d’utilisateurs de moins de treize ans sur leurs réseaux sociaux sous prétexte de déclarations volontaires. Il est évident que des solutions de vérification d’âge plus efficaces pourraient être mises en place rapidement. Nous devons contraindre ces réseaux sociaux à assumer leurs responsabilités.

Parallèlement, l’éducation joue un rôle crucial. Elle doit débuter dès la maternelle, pour sensibiliser les enfants aux enjeux du numérique. Le parcours de parentalité devrait être étendu au-delà de la simple préparation à l’accouchement, incluant une formation approfondie sur le développement cognitif et socioémotionnel des enfants et des adolescents. Cela permettrait aux parents de prendre des décisions éclairées. Bien que des recommandations comme l’absence d’écrans avant six ans soient louables, leur application pratique reste un défi considérable. Il est essentiel de proposer des solutions réalistes et applicables au quotidien.

Mme Sylvie Dieu-Osika. Les chiffres du premier trimestre 2025 révèlent une aggravation significative de la santé mentale des enfants et des adolescents, avec une augmentation de 26 % des gestes suicidaires chez les 0-17 ans. Cette détérioration ne peut être uniquement imputée à la pandémie de covid-19, désormais relativement éloignée. Les réseaux sociaux jouent un rôle prépondérant dans cette crise.

La littérature scientifique met en lumière l’impact considérable des réseaux sociaux sur la santé mentale des jeunes. Ces réseaux amplifient les vulnérabilités individuelles, perturbent les processus biologiques et émotionnels, notamment le sommeil et l’humeur, et renforcent des dynamiques sociales délétères telles que la comparaison sociale. Les effets varient selon les plateformes, contrairement à ce qui a été avancé précédemment.

De nombreuses études, tant transversales que longitudinales, ont été menées sur divers aspects : dépression, estime de soi, anxiété, bien-être, risques suicidaires, image corporelle, et troubles alimentaires. Un phénomène particulièrement inquiétant est l’anorexie mentale, exacerbée par des défis sur TikTok tels que le « skinny challenge » ou le « zizi challenge ». Globalement, il est important de noter qu’aucune étude n’a démontré d’effets positifs des réseaux sociaux sur le bien-être des enfants, dans aucun pays du monde.

Les recherches récentes adoptent une approche plus nuancée, prenant en compte non seulement le temps passé sur les réseaux, mais aussi les modes d’utilisation (passif ou actif), les motivations, et les comportements à risque comme le sexting ou le cyberharcèlement. Des chercheurs tels que Patti Valkenburg, à Amsterdam, Jacqueline Nesi, Edmund Sonuga-Barke et Sophia Choukas-Bradley ont mis en évidence la complexité et la bidirectionnalité des effets des réseaux sociaux sur la santé mentale des adolescents.

Ces plateformes présentent un double tranchant : d’un côté, elles offrent des effets positifs comme la connexion sociale, mais de l’autre, elles engendrent des conséquences négatives telles que la comparaison sociale excessive, le cyberharcèlement et la dépendance. Les mécanismes en jeu incluent l’amplification ou l’atténuation des réactions aux activités numériques à risque, les interactions basées sur la recherche de reconnaissance via les likes, particulièrement sur des plateformes comme TikTok.

Un schéma complexe se dessine, englobant la pression socioculturelle liée au genre, la survalorisation de l’apparence physique et l’hypersexualisation. Les adolescents, en particulier les jeunes filles, sont confrontés à une objectification croissante. La comparaison sociale permanente, facilitée par le caractère visuel et quantifiable des interactions sur les réseaux sociaux, a des répercussions importantes sur l’estime de soi et le bien-être mental.

Les spécificités des réseaux, telles que leur disponibilité constante et la permanence du contenu publié, augmentent les risques de cyberharcèlement. La présence des smartphones dans les chambres des adolescents complique la tâche des parents, souvent dépassés par ces enjeux technologiques.

Les algorithmes et les filtres altèrent la perception de la réalité, contribuant à une idéalisation de la minceur et à une insatisfaction croissante de l’image corporelle. Des groupes promouvant des comportements dangereux, comme l’anorexie, prolifèrent sur des plateformes telles que TikTok, incitant les jeunes à des pratiques extrêmes de perte de poids.

Je souhaite aborder d’autres aspects cruciaux. Le sommeil, en particulier, revêt une importance capitale. Nous constatons que les enfants, qu’ils soient jeunes ou plus âgés, ne dorment pas suffisamment, restant éveillés toute la nuit. En moyenne, les jeunes ne dorment que sept heures par nuit, ce qui représente un déficit de sommeil significatif, s’aggravant au fil des années.

Contrairement à certaines opinions, je ne pense pas que la pandémie de Covid-19 soit la principale responsable de cette situation. J’estime que les réseaux sociaux, les jeux vidéo et l’accès à Internet durant la nuit sont les véritables causes de ces problèmes de sommeil. Or le manque de sommeil affecte négativement l’humeur, la concentration et la performance au travail. Cette réalité s’applique particulièrement aux adolescents qui, en raison de leur développement, ont tendance à se coucher tard, mais qui, de surcroît, restent actifs sur TikTok ou sur des jeux vidéo jusqu’à des heures avancées de la nuit. Une étude française de 2018 a porté sur cette problématique, deux ans après l’arrivée de TikTok en France. Cela souligne la nécessité de contextualiser les études que nous citons.

En matière de cyberharcèlement, une étude menée par Mme Patti Valkenburg en 2025 a suivi quotidiennement, durant cent jours, l’état émotionnel de cinq cents adolescents, leur utilisation des réseaux, leur bien-être, leur estime de soi et leur sentiment d’appartenance. Les résultats sont frappants : on observe une prédominance d’effets négatifs, particulièrement pour TikTok, avec très peu d’effets positifs constatés. Patti Valkenburg elle-même, initialement plus réservée dans ses conclusions, affirme désormais clairement l’existence d’effets négatifs tangibles et significatifs.

Des études expérimentales de sevrage, notamment menées en Australie, apportent des preuves supplémentaires (Dondzilo, Tiggemann, Hessel). Ces recherches, menées entre 2023 et 2024, démontrent une amélioration notable de divers aspects de la santé mentale lors de la réduction de l’utilisation des réseaux sociaux. Par exemple, une étude a révélé une diminution des symptômes de troubles du comportement alimentaire, une amélioration de l’image de soi et du bien-être émotionnel après seulement une semaine de réduction d’utilisation des réseaux sociaux.

Ces problématiques touchent également les plus jeunes. La cohorte ABCD, qui étudie des enfants de 9-10 ans, a déjà identifié des altérations du sommeil, une augmentation des pensées suicidaires, une hausse des troubles du comportement alimentaire et des conduites à risque, tous liés à l’utilisation des réseaux sociaux (travaux de M. Jason Nagata).

Nous ne devons pas négliger les risques pour la santé physique. La sédentarité induite par l’utilisation excessive des écrans entraîne des problèmes d’obésité, d’hypertension artérielle et de diabète. Les cardiologues et pédiatres s’inquiètent de la diminution des performances physiques des jeunes, ce qui pourrait avoir des conséquences à long terme sur leur santé respiratoire et cardiologique. De plus, la santé visuelle est également menacée, un problème de plus en plus reconnu, notamment en Asie.

L’Organisation mondiale de la santé a mis en lumière en 2024 l’impact des réseaux sociaux sur les troubles d’apprentissage et les choix de carrière, particulièrement chez les filles.

Pour conclure, il est impératif d’éduquer, mais aussi d’agir concrètement. Nous avons réussi à empêcher les jeunes d’accéder aux jeux d’argent en ligne grâce à des restrictions bancaires. Pourquoi ne pas appliquer une approche similaire pour les contenus pornographiques et les réseaux sociaux comme TikTok ? Je suggère d’envisager une vérification de l’âge via une empreinte de carte bancaire pour l’accès à ces plateformes. Face à la détresse croissante des enfants et aux études alarmantes, il est urgent d’agir.

Nous pourrions promouvoir des réseaux éthiques existants comme Mastodon. J’ai également expérimenté l’utilisation de téléphones basiques dans des écoles de mon quartier, qui distribuent des Nokia aux élèves de sixième, avec des résultats encourageants. Cette approche n’exclut pas l’apprentissage de l’utilisation d’Internet à l’école ou dans des espaces dédiés, potentiellement avec l’aide de conseillers numériques. L’urgence de la situation exige une action immédiate et concertée.

M. Serge Tisseron. Le mal-être des jeunes est un phénomène complexe et multifactoriel. De nombreuses études attestent de cette réalité, mais il serait réducteur d’en attribuer la cause uniquement aux réseaux sociaux. L’éco-anxiété, par exemple, joue un rôle considérable, particulièrement chez les jeunes filles. Il est crucial de ne pas simplifier excessivement cette problématique.

De plus, il convient de distinguer les études de corrélation des études de causalité. Les premières, comme celles de Pagani, Zimmermann et Christakis, menées entre 2000 et 2015 environ, ont souvent été critiquées pour leur caractère alarmiste. Aujourd’hui, les recherches intègrent davantage les facteurs sociaux et environnementaux. Ainsi, l’étude Elfe, notamment conduite par M. Jonathan Bernard, démontre que lorsqu’on isole la composante sociale, l’impact des écrans demeure minime.

L’étude de Madigan sur les moins de trois ans révèle une baisse de 0,5 à 0,7 point de quotient intellectuel pour chaque heure supplémentaire d’exposition aux écrans. L’interprétation de ces chiffres divise les experts, certains les jugeant négligeables, d’autres significatifs. Cette divergence d’opinions souligne l’importance des valeurs personnelles dans l’interprétation des données scientifiques.

Mme Sylvie Dieu-Osika. Il est important de préciser que l’étude Elfe porte sur 18 000 enfants français nés en 2011, âgés de deux à trois ans en 2013-2014. Nous ne disposons pas encore de données sur les adolescents, car cette partie de l’étude n’a pas été dépouillée. M. Jonathan Bernard est en attente de financements pour analyser les données concernant les enfants de dix à onze ans.

M. Serge Tisseron. L’étude de M. Jonathan Bernard évalue spécifiquement l’influence de la consommation télévisuelle. Il est important de noter que l’impact d’une heure supplémentaire ou d’une heure en moins de télévision reste constant, quelle que soit l’année considérée.

Par ailleurs, certains sociologues de la ville, comme Mme Valérie Goby, proposent une inversion de la causalité généralement admise entre l’isolement des jeunes, leur mal-être et leur consommation accrue de médias numériques. Selon Valérie Goby, c’est la disparition des espaces traditionnels de rencontre pour les jeunes qui les pousse vers une utilisation plus intensive des outils numériques. Les parents, considérant la chambre comme l’espace le plus sûr pour leurs enfants, y concentrent les équipements numériques, favorisant ainsi leur utilisation.

Aux États-Unis, on observe des initiatives visant à rétablir des espaces de jeux libres, permettant aux jeunes d’interagir sans surveillance adulte avant l’école. Cette approche part du constat que les enfants manquent aujourd’hui d’opportunités de se retrouver dans des espaces physiques.

Il est également crucial de comprendre que les réseaux sociaux remplissent une fonction spécifique. Leur utilisation ne peut être uniquement imputée aux algorithmes, bien que ceux-ci contribuent à retenir les utilisateurs. Un phénomène important à considérer est la « merdification » des réseaux sociaux : la qualité des services proposés se détériore au fil du temps. Cela pousse les nouvelles générations vers de nouveaux réseaux, souvent financés par du capital-risque, et qui cherchent à fidéliser les utilisateurs pour rentabiliser leur modèle. Cette dynamique explique pourquoi les plateformes populaires changent régulièrement, les jeunes étant attirés par des expériences nouvelles et spécifiques à leur génération.

La séance est suspendue seize minutes.

M. le président Arthur Delaporte. Cette audition met en lumière l’absence de consensus concernant la mesure scientifique des effets des réseaux sociaux sur les jeunes. Cette controverse est cruciale pour notre commission, notamment dans le cadre de l’administration de la preuve.

Bien que de nombreux professionnels de santé mentale, tels que des psychiatres et des psychologues, traitent des problématiques liées à l’usage des réseaux sociaux chez les enfants, il semble persister une absence de preuve scientifique irréfutable, comme le suggère M. Borst. Des études récentes ont été évoquées, mais leur interprétation reste sujette à débat.

M. Grégoire Borst. La difficulté ne réside pas dans l’existence d’un débat extrême ou d’une absence totale de consensus au sein de la communauté de recherche. Il est crucial de distinguer la simple lecture d’articles de la conduite effective de recherches, qui implique un niveau d’expertise bien supérieur.

Nous sommes unanimes sur le constat selon lequel les adolescents rencontrent des difficultés. De même, il est indéniable que les réseaux exploitent certaines vulnérabilités cérébrales, particulièrement chez les adolescents, les incitant à rester connectés plus longtemps. De plus, les preuves sont solides concernant l’impact négatif de l’exposition à la lumière artificielle des écrans sur le sommeil, avec des répercussions en cascade sur la santé physique et mentale. La question de la sédentarité ne fait pas non plus débat.

La complexité survient lorsqu’il s’agit d’identifier précisément la contribution de chaque facteur dans les mécanismes de vulnérabilité. Une simple énumération d’études, comme celle effectuée ici, ne suffit pas. Je peux citer une centaine d’études montrant des effets, mais également des études préenregistrées n’en démontrant aucun. Par exemple, pour Adolescent Brain and Cognitive Development, portant sur 13 000 préadolescents et adolescents, lorsque l’étude est préenregistrée, aucun effet n’est observé. Sur des échantillons plus larges, comme 300 000 adolescents, aucun effet significatif n’est constaté. Même lorsqu’une association est identifiée, elle n’explique que 0,4 % du bien-être adolescent lié au temps passé sur les réseaux sociaux.

Je ne nie pas l’existence potentielle d’effets, mais je souligne la difficulté de les mettre en évidence face à une population extrêmement hétérogène. Cela n’exclut pas l’existence de sous-groupes d’adolescents particulièrement vulnérables nécessitant une attention spécifique. En tant que décideur public, il est essentiel de considérer l’ampleur des effets. Un impact de 3 % sur la santé mentale des adolescents n’a pas les mêmes implications qu’un impact de 20 %. C’est cette nuance qui manque dans la présentation qui vous a été faite.

De plus, il convient de distinguer entre la population générale et celle reçue en consultation, qui représente un échantillon biaisé. Le biais peut également provenir de la manière dont les questions sont posées lors des consultations. En tant que professeur des universités spécialisé dans la recherche sur la population adolescente et l’exposition aux écrans, je peux affirmer qu’il est actuellement difficile de se prononcer de manière définitive sur ces données. Cela ne vous empêche pas d’appliquer un principe de précaution en tant que décideur public, mais il faut éviter d’instrumentaliser les données comme cela a été fait en partie lors de cette audition.

Pour obtenir des preuves solides, il convient de réaliser des méta-analyses, compilant l’ensemble des données de toutes les études pour évaluer l’effet réel. Concernant les réseaux sociaux, ces méta-analyses sont encore attendues. Il est important de reconnaître que le temps de la recherche diffère de celui de l’observation clinique. Les observations cliniques peuvent effectivement révéler des données alarmantes, justifiant certaines décisions politiques. Cependant, il faut être vigilant quant aux niveaux de preuve utilisés, qui peuvent varier considérablement.

Nous avons besoin de plus de recherches, notamment de cohortes françaises. Les données étrangères, comme celle de la cohorte ABCD aux États-Unis, ne peuvent pas être directement transposées à la réalité française. En effet, le développement neurocognitif est influencé par le milieu social d’origine. Or les systèmes de protection sociale diffèrent entre l’Europe et les États-Unis. Les études Eden et Elfe datant de 2011 nécessitent une mise à jour. Il est impératif de documenter les effets spécifiques à la population française à travers de nouvelles études.

M. le président Arthur Delaporte. Vos propos alimentent notre réflexion et soulignent la nécessité de soutenir la recherche. Vous avez raison de mettre en évidence que le temps de la recherche, particulièrement pour des études sur des cohortes importantes et sur le long terme, ne correspond pas au rythme de la politique. Je retiens notamment votre mention du principe de précaution, qui guide actuellement nos intuitions. Cependant, il est crucial, dans l’application de ce principe, d’évaluer soigneusement les effets potentiels des préconisations que nous formulons concernant les enfants.

M. Stéphane Vojetta (EPR). Bien que nous ne disposions pas de preuves scientifiques statistiquement démontrables, nous observons un lien apparent entre certains phénomènes. Dans le cadre de la loi sur les influenceurs, notre décision d’agir plus fermement sur la publicité pour la chirurgie esthétique découlait de la corrélation présumée entre l’abondance de contenus sur les réseaux sociaux traitant du corps féminin, particulièrement celui des adolescentes, et l’incitation financière que représentaient les revenus publicitaires pour les influenceuses abordant fréquemment les thèmes du corps et de la beauté physique.

C’est précisément pour cette raison que nous avions opté, initialement contre l’avis du gouvernement qui s’est finalement rallié à notre position, pour une interdiction pure et simple de ce type de publicité. Notre décision reposait en partie sur l’intuition, nourrie par des témoignages alarmants. Certains professionnels de santé nous avaient alertés sur une augmentation significative des consultations pour troubles alimentaires graves dans les centres hospitaliers universitaires (CHU) depuis la fin de la pandémie de covid-19. Ils rapportaient une multiplication par trois ou quatre de ces cas en seulement trois ans, touchant des jeunes filles de plus en plus précocement pour des problèmes tels que l’anorexie mentale.

Au sein de la communauté scolaire du lycée français de Madrid, que je connais bien, nous constatons des cas graves d’anorexie chez des élèves dès le cours moyen de deuxième année (CM2) ou la sixième, un phénomène qui n’existait pas auparavant. Ces constats soulèvent des questions cruciales : existe-t-il un lien avéré avec l’usage des réseaux sociaux ? Disposons-nous de statistiques probantes sur ces sujets ? Ces observations confirment-elles nos préoccupations quant à un impact potentiel sur la santé des jeunes, en particulier celle des jeunes filles ?

M. Grégoire Borst. Premièrement, des études ont tenté d’évaluer l’impact des réseaux sociaux et des nouveaux outils numériques. Je vous renvoie notamment aux travaux de Mme Amy Orben, qui démontrent l’absence d’augmentation significative de la prévalence des troubles évoqués. Cela ne signifie pas pour autant, encore une fois, que le problème n’existe pas. Je tiens à préciser que ma position n’est nullement une défense des réseaux sociaux, envers lesquels je reste extrêmement critique. Il est impératif de les responsabiliser, notamment en ce qui concerne l’accès des jeunes enfants à ces plateformes. Une vérification d’âge contraignante me semble indispensable.

Il convient de rappeler l’existence d’une loi sur la vérification de l’âge pour les contenus pornographiques, bien que son application semble faire défaut. Ceci souligne la nécessité de concevoir des solutions réellement applicables. Vos décisions devront s’accompagner de recommandations et de mesures d’application réalistes, en gardant à l’esprit que la régulation des plateformes s’effectuera à l’échelle européenne. La commission d’experts sur l’impact de l’exposition des jeunes aux écrans, dans ses recommandations, a constamment intégré cette dimension de faisabilité.

Il est crucial de souligner la difficulté d’établir des conclusions uniquement sur la base de données scientifiques. Pour déterminer avec certitude une relation de causalité, il faudrait pouvoir observer les sujets bien avant leur première utilisation des réseaux sociaux, afin d’identifier d’éventuelles vulnérabilités préexistantes qui pourraient se manifester indépendamment de l’usage de ces plateformes. En effet, lors du développement, de petites perturbations peuvent, par des phénomènes d’amplification, avoir des répercussions considérables sur la santé mentale.

J’insiste sur le fait que la crise du Covid-19 aura des impacts sur la santé mentale des adolescents pour les dix prochaines années, sans lien direct avec les réseaux sociaux. L’ampleur de ces effets est sans commune mesure avec ceux observés actuellement pour les réseaux. Cela ne nie pas l’influence potentielle des réseaux sociaux, mais souligne la complexité des interactions entre différents facteurs.

Pour conclure, je recommande vivement que toute nouvelle proposition législative s’accompagne dès le départ d’une évaluation rigoureuse de ses effets réels. Il est primordial de mener une évaluation des politiques publiques dans ce domaine. Nous devons nous interroger : une mesure telle que la restriction de l’accès aux réseaux sociaux améliorera-t-elle effectivement la santé mentale des adolescents ?

M. Stéphane Vojetta (EPR). Une étude interne d’Instagram, qui a fait l’objet d’une fuite en 2022, reconnaissait que l’utilisation de sa plateforme avait altéré la perception corporelle d’une proportion significative d’adolescentes utilisatrices. Selon cette étude, entre 30 et 40 % des jeunes filles utilisant Instagram avaient constaté une dégradation de la perception de leur propre corps depuis qu’elles utilisaient l’application. Cette information me semble pertinente pour enrichir notre discussion sur l’impact des réseaux sociaux.

Mme Sylvie Dieu-Osika. Cette affirmation s’applique également à TikTok. Il est erroné de prétendre que l’augmentation des troubles du comportement alimentaire et de l’anorexie n’a pas été constatée. Les Pays-Bas font face à une recrudescence majeure des cas d’anorexie mentale, comme en témoignent les chiffres. Cette réalité est palpable pour quiconque côtoie les familles dans les hôpitaux. L’augmentation est indéniable, et il est légitime de s’interroger sur le rôle des réseaux sociaux dans ce phénomène.

Nous sommes conscients des critiques émanant de toutes parts, ce qui n’est ni nouveau ni surprenant. Notre seule préoccupation demeure le bien-être des enfants et des adolescents. Dans ma pratique quotidienne, je rencontre aussi bien des enfants en bonne santé que des enfants en difficulté. Il est crucial de prendre en compte la réalité actuelle de notre société. Observez ce qui se passe dans les parcs publics : les enfants sont absorbés par leurs portables, isolés les uns des autres.

J’ai présenté aujourd’hui de nombreuses études récentes, datant de 2023, 2024, et même 2025. Bien que la recherche prenne du temps et que nous manquions encore de données françaises ou européennes spécifiques sur les réseaux sociaux, les études actuelles montrent soit un effet neutre minime, soit, dans la majorité des cas, un impact négatif significatif.

Parallèlement, nous constatons une détérioration alarmante de la santé mentale des enfants et des adolescents, se manifestant par de l’anxiété, de la dépression, et des comportements d’automutilation. Ces derniers sont parfois encouragés et amplifiés sur des plateformes comme TikTok. Les tentatives de suicide augmentent chez les filles, surtout, et les garçons. L’anorexie mentale connaît une progression fulgurante. Nous assistons également à une objectification et une hypersexualisation des jeunes filles, phénomène que l’on retrouve aussi dans les jeux vidéo.

En médecine, nous évaluons constamment le rapport bénéfice-risque. Dans le cas présent, les risques sont considérables. Bien que l’on puisse débattre indéfiniment des détails méthodologiques des études, l’alarme est sérieuse et ne peut être ignorée. Les études mentionnées précédemment par mon voisin sont désormais obsolètes. Rappelons que TikTok n’existe en France que depuis 2016, ce qui explique que les études les plus pertinentes n’aient été publiées qu’à partir de 2022-2023.

Il est urgent de protéger nos enfants. Concernant la pornographie, malgré les promesses répétées, la mise en place d’un système de vérification par carte bancaire, similaire à celui utilisé pour les jeux d’argent en ligne, n’est toujours pas effective. Cette mesure simple et concrète serait pourtant d’une grande importance pour les familles.

Nous sommes conscients que ces propositions susciteront l’opposition des réseaux sociaux et des sites pornographiques, qui craignent de perdre l’accès aux jeunes enfants, certains âgés d’à peine cinq ou six ans, déjà présents sur des plateformes comme TikTok. Il est crucial de prendre en compte cette réalité quotidienne.

M. le président Arthur Delaporte. L’un des objectifs de cette commission d’enquête est précisément d’éclaircir ces questions. Aucun membre de cette commission ne peut être accusé de méconnaître la gravité des enjeux et l’impact potentiel sur les adolescents particulièrement vulnérables. Notre démarche vise à objectiver la situation, sans a priori moral, tout en étant pleinement conscients des effets plus larges du mal-être de la jeunesse, qui ne sont pas uniquement liés aux réseaux sociaux, et encore moins à TikTok en particulier. Nous avons choisi d’utiliser TikTok comme point de départ pour aborder des problématiques plus vastes et formuler des recommandations générales. Cette approche nous permet de poser à la société un certain nombre de questions cruciales.

Mme Sylvie Dieu-Osika. Les observations de terrain et les études récentes plaident en faveur du principe de précaution.

M. Serge Tisseron. Nous sommes confrontés à un choix : agir sur les réseaux sociaux, leur potentiel addictif, et en interdire certains aspects, ou bien nous concentrer sur d’autres facteurs, comme la réceptivité. Or j’ai d’emblée souligné l’importance des inégalités sociales en la matière. Lors de nos interventions dans les écoles, nous constatons que de nombreux enfants souffrent d’une estime de soi extrêmement fragile. Il faut également considérer leurs possibilités de faire des rencontres en personne et l’accès à l’aide dont ils pourraient avoir besoin, notamment dans un contexte où la pédopsychiatrie traverse une crise majeure.

Nous pouvons donc choisir d’agir sur les réseaux sociaux par des systèmes d’interdiction ou de balisage, ou bien nous pouvons agir sur la réceptivité des utilisateurs. Cette seconde approche offre de nombreuses possibilités sans nécessairement modifier les réseaux sociaux eux-mêmes. Je ne dis pas qu’il ne faut pas intervenir sur les réseaux sociaux, mais il faut se fixer des objectifs réalistes. L’Europe a déjà mis en place des réglementations comme le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA), le DSA, le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 dit Artificial Intelligence Act (AI Act) mais ces plateformes restent des machines extrêmement puissantes, capables de contourner la plupart des interdictions.

Notre objectif devrait être de réduire la réceptivité des populations, en particulier des jeunes, face à l’impact des algorithmes pervers des réseaux sociaux. Des propositions intéressantes émergent, comme la possibilité du dégroupage, permettant aux utilisateurs de choisir spécifiquement les fonctionnalités qui les intéressent dans chaque réseau social, plutôt que d’être contraints d’accepter l’ensemble des propositions.

Beaucoup est aussi à faire en termes d’information des parents. L’Union nationale des associations familiales (Unaf) a montré que la moitié des parents s’estimaient insuffisamment informés sur les dangers des technologies numériques. Dans le cadre des études à mener, il serait pertinent de déterminer si l’autorisation excessive de l’utilisation des outils numériques par les parents est due à un manque d’information ou à d’autres facteurs. Cette clarification nous permettrait de mieux comprendre la situation et d’agir en conséquence.

Il est essentiel d’examiner l’impact de divers facteurs sur le comportement des jeunes en ligne, notamment l’information parentale, le milieu social, les jeux disponibles et les espaces de jeu physiques. Une compréhension approfondie de ces éléments permettrait à l’État et aux municipalités de mettre en œuvre des actions de prévention efficaces, non seulement contre les dangers actuels des réseaux sociaux, mais aussi contre les menaces futures encore inconnues.

Prenons l’exemple de TikTok, dont personne n’avait anticipé l’émergence. Il est évident que sa popularité décline, comme ce fut le cas pour Facebook et X, et que les utilisateurs attendent déjà la prochaine plateforme. C’est pourquoi, plutôt que de cibler spécifiquement les réseaux sociaux existants, il est crucial de renforcer la résilience des utilisateurs et d’agir sur les facteurs de protection. La pédopsychiatrie, l’éducation maternelle et les autres aspects évoqués par M. Borst offrent de nombreuses pistes d’action sans nécessairement intervenir directement sur les réseaux sociaux. Cela ne signifie pas qu’il faille s’abstenir de toute régulation, mais il est impératif de comprendre les fonctions de ces plateformes avant d’envisager des modifications.

M. le président Arthur Delaporte. Je vous remercie pour ces éléments qui s’inscrivent dans la lignée de notre réflexion. Permettez-moi toutefois d’apporter une nuance : notre objectif est double. Nous visons à la fois à aborder les grands enjeux et à renforcer les facteurs de protection, mais aussi à créer des mécanismes qui, quelle que soit la plateforme, limitent les risques. TikTok nous sert de cas d’étude pour réfléchir plus largement à la question de la limitation des risques.

M. Stéphane Vojetta a évoqué précédemment l’exemple de la loi sur les influenceurs. On aurait pu arguer que toute action était vaine en raison de la nature même des réseaux sociaux. Pourtant, le Parlement français a légiféré, et aujourd’hui, ce cadre français sert de base à l’élaboration d’un cadre européen. Nous pouvons donc nous inscrire dans un mouvement de pression sur les parlements et participer à un effort européen, voire mondial, de régulation des réseaux sociaux et de protection des mineurs. C’est l’un des objectifs de cette commission.

M. Serge Tisseron. Je n’ignore pas cet aspect, mais il est crucial de rappeler qu’Internet ne se limite pas aux réseaux sociaux. Je tiens à réitérer la règle du 36912 : pas d’écran avant trois ans, des écrans éducatifs limités à une demiheure ou une heure entre trois et six ans, pas d’Internet accompagné avant neuf ans, et pas d’Internet en autonomie avant treize ans. Dès 2008, j’ai donc préconisé l’absence de smartphone avant treize ans. À partir de cet âge, tous les smartphones devraient être vendus avec les réseaux sociaux bloqués, laissant aux parents la responsabilité de les débloquer après discussion avec leurs enfants. Cette approche inciterait les parents à consulter les ressources d’information proposées par le Gouvernement, les réintégrant ainsi dans le dispositif de protection. Sans responsabilisation parentale, nous passerons à côté du problème.

M. le président Arthur Delaporte. Vous évoquez la règle 3-6-9-12, voire 13. Dans certaines auditions que nous avons menées, l’âge de 15 ou 16 ans a été suggéré pour l’interdiction d’accès aux réseaux sociaux.

M. Serge Tisseron. Si les parents décident d’autoriser l’accès aux réseaux sociaux à leur enfant à 15 ans, pourquoi pas ? Cependant, l’État s’occupe déjà de trop de choses, et plus il intervient, plus les parents se désengagent de l’éducation de leurs enfants. Je pense que si les parents ont la responsabilité de débloquer les réseaux sociaux à partir de 13 ans, ils pourront le faire à 14, 15, 16 ou 18 ans, selon leur jugement. Je n’ai rien contre une interdiction avant 15 ans, mais cela devrait relever d’une décision parentale, pas étatique. En effet, vous ne pouvez pas interdire efficacement l’accès aux réseaux sociaux avant 15 ans, car la plupart des parents et des enfants contourneront cette interdiction. En revanche, en donnant aux parents la responsabilité du déblocage, vous les obligez à s’informer sur les réseaux sociaux.

J’ai travaillé avec Bouygues sur ce sujet. Nous avions obtenu que les vendeurs proposent aux parents de prendre le temps nécessaire pour programmer le smartphone de leur enfant selon leurs souhaits. Malheureusement, les parents ne savaient pas ce qu’ils voulaient pour leur enfant, ignorant même l’existence de certaines applications comme Instagram. Cela démontre le manque d’information des parents et leur désintérêt pour ces questions, puisqu’ils achètent des smartphones avec un accès illimité aux réseaux sociaux. Si les smartphones étaient vendus avec tous les réseaux sociaux bloqués, les parents seraient contraints de s’y intéresser lorsque leurs enfants demanderaient l’accès à ces plateformes.

M. le président Arthur Delaporte. Votre position est très claire et ne correspond pas nécessairement à certaines opinions exprimées aujourd’hui. Cela nous permet d’avoir une vision équilibrée des différents avis, ce qui est essentiel.

12.   Audition de M. Jean-Marie Cavada, président de iDFrights (vendredi 2 mai 2025)

La commission auditionne M. Jean-Marie Cavada, président de iDFrights ([12]).

M. le président Arthur Delaporte. Nous recevons aujourd’hui M. Jean‑Marie Cavada, ancien député européen, journaliste et président de iDFrights, l’Institut des droits fondamentaux du numérique.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Jean-Marie Cavada prête serment.)

M. Jean-Marie Cavada, président de iDFrights. Je n’ai aucun intérêt ni de près ni de loin avec les compagnies sur le sujet desquelles travaille cette commission d’enquête et, d’une façon générale, sur lesquelles l’Institut des droits fondamentaux du numérique, que je préside, travaille depuis maintenant cinq ans.

Nous entrons désormais dans une phase où la question de la maltraitance des mineurs, qu’elle soit physique, intellectuelle, émotionnelle ou liée à leur sécurité, est devenue un sujet largement compris et auquel un nombre croissant de personnes s’intéresse activement. Il était grand temps, en effet, que nous prenions à bras-le-corps ces dynamiques de destruction sociale, à commencer par celles qui frappent les enfants, lesquels ont été précipités dans ce flux technologique incontrôlé, bien plus rapide que ce que le régulateur, le législateur ou l’exécutif peuvent encadrer par nature. Il est donc légitime de constater le décalage entre le temps de la loi et la réalité des dommages subis par la population en général, et en particulier par les adolescents et les mineurs, qui sont au cœur de votre enquête. Il devient urgent de mobiliser les moyens nécessaires pour restaurer un équilibre et un ordre dont l’absence nuit gravement à l’ensemble de notre société.

Je souhaite élargir le regard à l’échelle internationale car la situation actuelle ne concerne pas uniquement le continent européen et ses enfants, mais s’étend à l’Afrique, à l’Australie, à l’Asie du Sud-Est et à l’ensemble de l’Asie, à l’exception notable de la Chine, ainsi qu’au Canada et à d’autres territoires. Le monde entier se trouve ainsi soumis à une extraterritorialité judiciaire qui a nourri une forme d’impérialisme numérique. Celui-ci trouve son origine dans un texte voté en 1996 sous l’administration du président Bill Clinton, dénommé la section 230. Ce dispositif, adopté pour des raisons qui n’étaient pas toutes innocentes, a permis aux fournisseurs de réseaux d’être exonérés de toute responsabilité quant au contenu qu’ils acheminent vers les utilisateurs. En conséquence, l’ensemble de la planète s’est retrouvée soumise à une loi américaine que seul le Congrès des États-Unis avait souhaitée, et qui s’applique pourtant à tous, puisque les réseaux irriguent désormais le monde entier sur la base de cette législation adoptée il y a près de trente ans. C’est là que se situe, selon moi, le cœur du mal actuel.

La logique aurait voulu que, dès cette époque, certaines grandes institutions, notamment européennes, se saisissent de cette problématique pour définir simplement la nature d’un réseau, qui est avant tout un instrument de communication publique. Dès lors, pourquoi un journal local, tel que Le Petit Bleu des Côtes d’Armor ou Le Quotidien du Calvados, se voit-il tenu juridiquement responsable s’il publie un contenu diffamatoire, infamant ou contraire à la loi, même avec un tirage limité à 10 000 exemplaires, alors que les plateformes numériques, qui touchent 1,5 à 1,6 milliard de consommateurs dans le monde, échappent à toute responsabilité juridique ? Ce déséquilibre est profondément problématique et il sera très difficile d’en corriger les effets. Tant que nous n’aurons pas appliqué aux instruments de communication numériques les mêmes règles de responsabilité que celles qui régissent les médias classiques, nous resterons condamnés à courir après les méfaits, les uns après les autres, sans jamais pouvoir les prévenir durablement.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Comment expliquer, alors même que votre démonstration rend parfaitement évidente l’idée que les plateformes ne sauraient être neutres dans la diffusion de l’information, puisqu’elles l’orientent à travers leurs algorithmes, que nous n’ayons pas réussi, après tant d’années, à les rendre davantage responsables, tant au niveau européen que national ?

J’aimerais recueillir votre opinion sur le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA). Considérez-vous que nous sommes allés assez loin ? Vous avez, par le passé, exprimé l’idée qu’il existait en réalité deux leviers principaux pour faire évoluer le comportement de ces plateformes, et en particulier celui de TikTok. Selon vos termes, il s’agit, d’une part, de les responsabiliser, en repensant leur statut juridique, en les qualifiant non plus comme de simples hébergeurs mais comme de véritables éditeurs de contenu et, d’autre part, de leur imposer des sanctions financières, à travers des amendes suffisamment dissuasives pour qu’elles soient réellement impactées. À vos yeux, les avancées opérées à l’échelon européen sont‑elles suffisantes ou pensez-vous qu’il soit nécessaire d’aller plus loin ?

M. Jean-Marie Cavada. Le retard pris par l’Europe et la France en matière de régulation des technologies numériques s’explique, selon moi, par deux facteurs principaux. Le premier tient à la fascination que nous avons longtemps éprouvée pour l’utilité et l’efficacité du smartphone, au point de négliger d’en examiner avec la rigueur nécessaire les effets négatifs, en particulier sous un angle géopolitique. Le second réside dans la vitesse fulgurante des avancées technologiques, qui n’a cessé de devancer nos efforts législatifs, nous condamnant à un état de poursuite constante.

Mon expérience au Parlement européen, où j’ai eu l’honneur de présider plusieurs commissions, m’a permis d’observer ce décalage de manière concrète. Ce n’est qu’en 2016 que l’Union européenne a commencé à se saisir sérieusement de la question de la protection des données personnelles, avec le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD), qui n’a finalement été adopté qu’en 2018.

Pendant ce temps, la question de la protection du droit d’auteur, entendue comme la répartition équitable de la richesse entre, d’un côté, les grandes plateformes et, de l’autre, les auteurs, demeurait largement négligée. Or la culture a besoin d’un socle économique pour prospérer. C’est d’ailleurs l’une des grandes spécificités de l’Europe que de disposer d’une économie culturelle particulièrement riche, laquelle constitue le fondement d’une création foisonnante et dynamique. Pourtant, la richesse générée par les réseaux, notamment par le biais de la publicité, échappait pour une large part à ceux qui en étaient pourtant les contributeurs essentiels. Les plateformes numériques n’hésitaient pas à reprendre des contenus issus de la presse d’information sans qu’aucun journaliste ne soit employé au sein de ces structures, et sans que la moindre rétribution ne soit versée aux ayants droit. La question du partage de cette richesse était donc non seulement absente, mais gravement menacée. C’est dans ce contexte que la loi sur le droit d’auteur et les droits voisins de la presse, dont j’ai eu l’honneur d’être l’un des initiateurs, a vu le jour.

L’émergence récente de l’intelligence artificielle illustre de manière emblématique ce phénomène de décalage. La proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’union dite IA Act, formulée en 2022, s’est rapidement révélée insuffisante face à l’irruption de ChatGPT, venu bouleverser l’ensemble des repères établis. Cet outil, aussi prometteur qu’inquiétant, introduit une série de ruptures majeures. Il menace d’effacer une part substantielle des droits de propriété intellectuelle des créateurs, sans même aborder les risques qu’il fait peser sur la vérité, la désinformation ou encore l’amplification des fake news. Lorsque le texte de la Commission est arrivé sur le bureau des parlementaires européens, il était déjà en partie obsolète, puisqu’il reposait sur des principes fondamentaux, certes louables, mais sans disposer des moyens nécessaires à leur mise en œuvre effective. Par ailleurs, il ne traitait pas les bouleversements introduits par ChatGPT puisque, depuis l’émergence de ce dernier, d’innombrables déclinaisons ont vu le jour et l’intelligence artificielle s’est désormais immiscée dans de nombreux services proposés aux utilisateurs.

Il est ainsi évident que l’IA Act devrait être revu, renforcé, ou du moins adapté à cette nouvelle réalité. Cela prendra du temps, comme toujours, et, le temps que les lois prennent forme, que les décrets soient promulgués, les instruments d’application déployés et les dispositifs de contrôle mis en place, une nouvelle technologie aura surgi, susceptible d’engendrer d’autres bouleversements. Tel est le rythme contemporain.

Il faut cependant souligner que ce ne sont pas, à proprement parler, l’intelligence artificielle ou les contenus diffusés sur les réseaux sociaux qui posent un problème. Le véritable enjeu réside dans le cynisme absolu des monopoles mondiaux qui ont bâti leur fortune sur ces innovations. Je ne m’attarderai pas ici sur les chiffres d’affaires, les valorisations boursières ou les bénéfices trimestriels colossaux des géants du numérique, dits Gafam, mais il est clair que nous faisons aujourd’hui face à des structures monopolistiques. Il s’agit là du dernier avatar d’un péril que le sénateur américain John Sherman dénonçait déjà à la fin du XIXe siècle. Dans un texte d’une modernité remarquable, il mettait en garde contre les monopoles, qu’il qualifiait d’ennemis de la démocratie. Je recommande à quiconque s’intéresse à ces questions de relire ce texte, qui décrit avec précision comment les concentrations de puissance économique finissent par s’attaquer aux institutions dans le but de les dominer. Leur objectif premier consiste à générer toujours davantage de profits. Le second, plus inquiétant encore, vise à organiser des pans entiers de la société de manière à renforcer la domination de ces monopoles. Certains y voient les prémices d’un projet transhumaniste, qui ne serait pas totalement absent de l’imaginaire de certains dirigeants de ces groupes. Je n’ai, à ce stade, aucun élément concret permettant d’étayer cette hypothèse, mais elle mérite d’être posée.

Mme Laure Miller, rapporteure. Votre analyse laisse entendre que nous serons inéluctablement en retard dans la régulation des réseaux sociaux, puisque le rythme de nos processus démocratiques ne peut, par nature, rivaliser avec celui des grandes entreprises technologiques. Une telle asymétrie invite peut-être à envisager une approche plus radicale dans la manière de gérer ces plateformes, notamment lorsqu’il s’agit de la protection des mineurs, qui constitue le cœur des préoccupations de notre commission d’enquête.

Disposez-vous de recommandations concrètes en ce domaine ? À vos yeux, les États doivent-ils reconquérir une part de leur souveraineté numérique afin de retrouver une véritable autonomie dans la manière dont ils encadrent l’accès des jeunes à ces plateformes ? Et, dans cette perspective, quelles mesures spécifiques jugeriez-vous pertinentes pour améliorer la situation actuelle ?

M. Jean-Marie Cavada. Le législateur, en réalité, n’est pas en retard, mais il se trouve naturellement placé dans une position qui l’oblige à la fois à combler un certain écart avec les innovations passées et à anticiper celles à venir. Cette tension, loin d’être propre à la France, caractérise l’ensemble des démocraties contemporaines.

Divers exemples permettent d’illustrer cette dynamique. L’Australie, à la faveur d’un changement de gouvernement, a récemment durci sa législation. L’Italie a engagé des démarches en ce sens, même si les résultats ne sont pas encore pleinement satisfaisants. Le Royaume-Uni a lui aussi entrepris une évolution, bien que certaines critiques aient émergé quant à l’insuffisance des mesures prises par l’Office of communications (Ofcom), l’équivalent britannique de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

La régulation à l’échelle nationale joue ici un rôle fondamental. Elle permet aux parlements et gouvernements les plus audacieux d’initier un débat public, qui peut ensuite s’étendre à l’échelon européen. Il est en effet rare que ce type de discussion naisse spontanément au sein de la Commission européenne sans qu’une impulsion préalable ait été donnée par les États membres. Cette articulation entre les niveaux nationaux et européens constitue l’un des ressorts essentiels de la progression du droit dans ce domaine.

Cependant, l’efficacité de ces législations repose avant tout sur leur application concrète, ce qui demeure loin d’être systématique. Nous observons aujourd’hui que le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA), pourtant conçu pour encadrer le marché numérique européen, fait déjà l’objet de remises en question jusque dans l’hémicycle du Parlement. Quant au règlement sur les services numériques (DSA), porté par le commissaire européen au marché intérieur Thierry Breton pour lutter contre les contenus illicites, il a sans doute permis certaines avancées, mais le chemin reste encore long.

Aussi, si je ne condamne nullement la nécessité de légiférer a posteriori, car elle est structurelle et inévitable dans toute démocratie, vous avez néanmoins raison d’insister sur l’urgence qu’il y a à anticiper davantage afin de prévenir de nouvelles dérives. Cette posture prospective n’est pas sans périls et j’ai moi-même été confronté à des pressions et à des menaces personnelles au moment des débats sur le droit d’auteur et les droits voisins.

Vous avez vous-même eu le courage d’initier ce travail, et je tiens à le saluer. Il ne s’agit pas là d’une tâche aisée. Je sais, pour l’avoir vécu personnellement lors de mon engagement en faveur des lois sur le droit d’auteur et les droits voisins, ce que représente l’expérience du lobbying et même les menaces qui l’accompagnent. Je sais quelles sont les difficultés auxquelles sont confrontés les parlementaires lorsqu’ils défendent des textes de régulation. Je connais également les formes d’intimidation, les pressions financières ou politiques qui pèsent parfois sur les gouvernements, et la tentation de céder. Mais tout cela ne doit pas nous paralyser face à la déferlante que représentent ces puissances économiques qui, par leur volonté ou parfois par le simple effet mécanique de leur action, risquent d’aboutir à une désintégration progressive de notre démocratie. Les domaines que vous explorez ici, à travers cette commission d’enquête, sont parmi les plus essentiels. Vous vous attaquez à l’un des enjeux les plus graves de notre temps que sont les atteintes à la santé mentale, l’addiction et parfois le suicide de mineurs.

Ma collègue maître Laure Boutron-Marmion, qui défend aujourd’hui douze familles, détient dans son portefeuille des témoignages accablants, dont ceux de deux familles dont les enfants se sont donné la mort. Ces suicides ne peuvent être dissociés de l’influence de contenus diffusés sur TikTok, où l’on constate une convergence de suggestions morbides, parfois à peine voilées. Les moyens de passer à l’acte y sont parfois évoqués de manière implicite et l’isolement dans lequel ces enfants se sont trouvés est effrayant.

Je pourrais tenir des propos similaires sur le sujet des données personnelles, car nous sommes en train de franchir les principes mêmes de l’Union européenne en matière de respect des droits fondamentaux, qui sont aujourd’hui bafoués. Non seulement alimentons-nous ces réseaux par nos propres données, mais celles-ci font ensuite l’objet d’un commerce massif, souvent dissimulé et parfois illégal. Elles sont extraites, croisées et revendues, le plus souvent sans aucun consentement explicite. Nous devons également mesurer la violence des attaques portées contre nos démocraties. Je ne parle même pas ici du négationnisme ou des discours de haine, bien qu’ils soient présents, mais d’un flot continu d’injures, d’insultes, de contestations du bon sens, de remise en cause de la loi et d’attaques directes contre nos institutions. Ces réseaux, qu’ils le veuillent ou non, franchissent des seuils interdits. En se posant en interlocuteurs directs, en face-à-face, avec les institutions démocratiques, ils minent peu à peu l’autorité républicaine.

Le chantier est donc immense, mais je suis convaincu que l’on ne perd que les batailles que l’on refuse d’engager. Ce combat sera long, il sera difficile, parfois rude, mais nous ne pouvons pas laisser un outil nous détruire.

Une grande part de cette responsabilité est désormais entre vos mains, ainsi que dans celles du Gouvernement, qui devra tirer les enseignements de vos travaux. Il ne saurait y répondre par des mesures légères. Nous avons besoin d’une réponse forte et claire.

Je me permets ici de citer l’exemple australien, qui a pris la décision d’interdire l’usage du smartphone pour les mineurs de moins de seize ans. À ceux qui estimeront que les parents pourraient permettre cet usage, je réponds que cette interdiction s’accompagne d’une recommandation complémentaire, celle d’offrir à ces jeunes un appareil limité aux appels téléphoniques, sans accès à internet ni aux réseaux sociaux. Il s’agit ici de préserver la santé mentale des enfants, de protéger leur discernement, leur jugement et leur rapport au monde. Il ne s’agit pas d’une mesure symbolique mais d’une nécessité face à une réalité qui, si nous ne la régulons pas, continuera d’oblitérer leur développement, leur esprit critique et leur avenir. Nous le constatons déjà, dans l’érosion de la cohésion sociale, dans la montée des extrêmes, et dans la fragilisation des institutions.

Votre travail se concentre, à juste titre, sur TikTok, puisqu’il s’agit aujourd’hui du réseau qui rencontre le plus grand succès auprès de la jeunesse. Cependant, au regard de mon expérience en matière de contrôle et des échanges que je peux avoir avec des chercheurs spécialisés sur ces questions, je tiens à souligner que Snapchat n’est en rien moins préoccupant. Si TikTok et Snapchat venaient à être efficacement régulés sur le territoire européen, d’autres réseaux ne manqueront pas de prendre le relais, selon une dynamique bien connue.

Pour prendre toute la mesure de l’enjeu et trouver en nous la lucidité et le courage d’y faire face, une simple question suffit : pourquoi les enfants chinois qui consultent TikTok ne sont-ils pas exposés aux contenus dégradants, vulgaires ou toxiques destinés aux enfants occidentaux ? Cette question mérite d’être posée, et la réponse qu’elle appelle est, en elle-même, profondément révélatrice.

M. le président Arthur Delaporte. Des discussions ont effectivement eu lieu pour déterminer s’il convenait ou non de restreindre le champ d’investigation de notre commission d’enquête à la seule plateforme TikTok. Compte tenu de la durée limitée des travaux, fixée à six mois, et de l’ampleur des dérives que nous avons d’ores et déjà identifiées, nous avons collectivement fait le choix de concentrer nos efforts principalement sur cette plateforme, tout en veillant à ne pas nous y limiter exclusivement. Nous prévoyons ainsi d’auditionner, dans la phase finale de nos travaux, l’ensemble des grandes plateformes, notamment Meta et Snapchat. Il nous paraît en effet évident que les réseaux sociaux forment un écosystème interconnecté et que les dérives que nous observons ne se cantonnent pas à une seule entité. Toutefois, TikTok, en raison de sa popularité écrasante auprès du jeune public et de la particulière visibilité de ses dérives algorithmiques, constituera le socle de notre analyse.

Les recommandations que nous formulerons à l’issue de nos travaux seront, nous l’espérons, transposables à l’ensemble des plateformes. Cette méthode nous permettra d’optimiser le temps imparti tout en conservant une approche globale et cohérente de la problématique.

M. Jean-Marie Cavada. Votre travail dépasse le cadre national et s’inscrit dans une problématique de portée internationale. Permettez-moi d’évoquer deux cas tragiques qui illustrent, de manière poignante, l’ampleur du phénomène. Aux États‑Unis, le jeune Sewell, âgé d’environ quinze ans, s’est donné la mort après être tombé amoureux d’un avatar rencontré en ligne. Au Royaume-Uni, en 2017, Molly Russell, une adolescente de treize ou quatorze ans, a connu le même destin tragique, victime de l’addiction, de l’isolement et du mal-être engendrés par une exposition prolongée aux écrans. Depuis ce drame, son père, M. Ian Russell, s’est engagé avec une grande dignité en créant une fondation dédiée à la mémoire de sa fille et à la prévention de ces dérives. J’espère d’ailleurs pouvoir l’inviter prochainement en France, aux côtés de familles françaises également concernées, afin qu’ils puissent témoigner ensemble publiquement de ces réalités bouleversantes.

Mme Anne Genetet (EPR). En Australie, l’interdiction d’accès à certaines plateformes pour les jeunes de moins de seize ans n’est pas encore entrée en vigueur. Elle prendra effet à la fin de l’année, conformément au délai d’un an prévu après l’adoption du principe par les autorités. Il convient toutefois de préciser que certaines plateformes, telles que YouTube, seront exemptées de cette interdiction, alors même que leur algorithme présente lui aussi des problématiques sérieuses.

M. Jean-Marie Cavada. Je partage entièrement l’avis de Mme la députée.

M. le président Arthur Delaporte. Je précise que Mme Anne Genetet est députée des Français de l’étranger pour la circonscription incluant l’Australie et en profite pour informer l’ensemble de nos collègues que nous consacrerons une demi‑journée spécifique à l’étude des expériences étrangères, parmi lesquelles le cas australien occupera une place importante.

Je m’adresse à présent à l’ancien parlementaire européen que vous êtes, et dont l’engagement en faveur de la régulation du numérique et de la protection des droits d’auteur est bien connu. Nous avons, un peu plus tôt, évoqué la question du lobbying. Pourriez-vous nous décrire les formes d’approche dont vous avez personnellement fait l’objet de la part des acteurs concernés ? À titre personnel, je précise que je n’ai pas encore eu le sentiment d’être exposée à un quelconque lobbying de la part de TikTok depuis le lancement de notre mission.

M. Jean-Marie Cavada. Les tentatives de lobbying ne sauraient tarder, à moins qu’elles ne soient déjà à l’œuvre de manière plus insidieuse dans l’entourage immédiat des décideurs. J’ai personnellement été exposé à ces pratiques, comme plusieurs de mes collègues siégeant au sein de la commission des affaires juridiques du Parlement européen. Lors de l’élaboration des textes relatifs au droit d’auteur et aux droits voisins, nous avons été confrontés à un déploiement de moyens financiers considérable, puisque plusieurs dizaines de millions d’euros ont été investis dans des cabinets de conseil et d’avocats, non seulement pour rémunérer les opérations de lobbying ponctuel mais également avec la promesse implicite ou explicite de futurs contrats.

À cela se sont ajoutées des tentatives de manipulation d’événements politiques, notamment en Allemagne, où de jeunes militants ont été incités à manifester avec des pancartes aux slogans simplistes tels que « Vote against copyright ». Bien que je n’aie jamais pu établir avec certitude les modalités de cette incitation, il est difficile de croire qu’il ne s’agissait que de simples élans spontanés.

Nous avons également été confrontés à des actions de saturation visuelle organisées autour des institutions européennes. Des camions publicitaires, arborant de larges placards, étaient loués pour tourner autour du Parlement européen les jours mêmes où se tenaient les votes, que ce soit en commission ou en séance plénière. Cette pression constante témoignait d’une volonté manifeste de peser sur la décision législative.

Une attaque informatique ciblée a également frappé les ordinateurs de plusieurs députés, avec des robots mobilisés pour inonder les boîtes de messagerie d’appels au rejet de la loi. Ce qui pourrait apparaître comme un épisode annexe relève en réalité d’une stratégie globale visant à prendre le contrôle de tout ce qui peut générer du profit à partir du travail intellectuel et créatif. Car nous ne devons pas oublier que la culture est un secteur économique d’une valeur considérable. En 2014, une étude estimait son poids à plusieurs centaines de milliards d’euros par an, représentant plus de 7 millions d’emplois, soit davantage que les secteurs des télécommunications et de l’automobile réunis. Il n’est donc guère étonnant que certains acteurs aient déployé des moyens considérables pour tenter d’en capter une part maximale.

Lorsque je parle d’impérialisme pour désigner l’attitude des grandes plateformes américaines, je pèse mes mots. Et je n’hésiterai pas, dès que les données seront plus claires, à employer le même terme pour qualifier les ambitions de la Chine, tant certaines dynamiques commencent à émerger de façon visible. Je souhaite souligner ici le caractère profondément problématique de l’exportation de lois conçues à l’origine pour un usage strictement domestique, en l’occurrence américain. Ces textes, qui n’auraient jamais dû franchir les frontières, se sont imposés faute de réponse adéquate des continents utilisateurs tels que l’Europe. De même, en matière de services numériques, l’Europe souffre de ne pas disposer d’instruments équivalents, ni de réseaux, ni de groupes industriels capables de rivaliser avec les géants étrangers. Il est révélateur de constater que le marché européen représente aujourd’hui plus de 25 % du chiffre d’affaires des Gafam un chiffre considérable pour un continent de 460 millions d’habitants répartis dans vingt-sept membres. Que penser alors de ce que deviendrait ce phénomène si un accès massif était ouvert à la Chine, à l’Asie du Sud-Est ou à l’Amérique du Sud ?

Ce que nous observons, c’est bien la superposition d’un appétit financier colossal à une exception juridique qui nous a été imposée faute de disposer des moyens nécessaires pour y résister.

M. Thierry Perez (RN). Nous, membres de cette commission d’enquête, avons grandi dans un monde dépourvu de réseaux sociaux et de smartphones. Je crains aujourd’hui que le pire soit à venir car une génération entière vient au monde avec un écran entre les mains. Notre marge de manœuvre pour influencer de manière significative les algorithmes de ces plateformes, à commencer par TikTok, me paraît particulièrement restreinte. Dès lors, ne devrions-nous pas envisager une approche plus ferme, à l’image de celle que nous avons collectivement adoptée en matière de sécurité routière ? Il serait impensable et socialement inacceptable de laisser un enfant de huit ans prendre le volant d’une voiture. Pourquoi, alors, acceptons-nous qu’un enfant du même âge puisse passer quotidiennement cinq heures sur TikTok, exposé à des contenus dont la nature est souvent inappropriée ? Ne serait-il pas temps d’envisager une interdiction pure et simple des réseaux sociaux pour les mineurs ? Une telle mesure s’appliquerait non seulement à TikTok, mais également à Snapchat et à l’ensemble des plateformes similaires

M. Jean-Marie Cavada. Il est en effet impératif de consolider, à l’échelle du continent européen, les règles encadrant l’usage des réseaux sociaux, y compris les règles relatives au fonctionnement du marché, afin de contenir les dérives des monopoles existants. Nous nous heurtons toutefois à un danger immédiat puisque le Parlement européen envisage lui-même, dans certains cas, un assouplissement de la réglementation. Cette tendance, que nous observons régulièrement lorsqu’il s’agit d’éviter des frictions, est particulièrement préoccupante.

Votre proposition d’interdire l’accès aux réseaux sociaux pour les mineurs de moins de quinze ans trouve un écho dans de nombreux pays et une telle mesure pourrait offrir un appui aux parents, souvent tiraillés entre la pression sociale, les exigences de leur quotidien et la praticité apparente des smartphones. Il demeure néanmoins essentiel de rappeler que la responsabilité parentale constitue une composante centrale de cette problématique. L’éducation des enfants ne saurait reposer exclusivement sur les épaules du législateur. Les familles, tout comme le système éducatif, doivent également assumer leur part.

Certaines nations ont déjà entrepris des démarches significatives. L’Italie, notamment, a promu l’usage de téléphones basiques à neuf touches, limités aux seules fonctions d’appel, et dépourvus d’accès aux réseaux sociaux. Ces approches méritent d’être étudiées avec attention et pourraient inspirer nos réflexions.

Il est profondément paradoxal que notre société investisse massivement dans la santé mentale des enfants tout en autorisant, voire en finançant indirectement, l’usage d’outils susceptibles de compromettre leur équilibre et leur développement. Cette contradiction doit être affrontée de manière frontale. La tâche est certes de longue haleine, mais elle est essentielle pour les générations à venir.

La situation actuelle est alarmante. Comment imaginer que nous permettions, sans la moindre restriction, d’acheter un smartphone à un enfant de six ans, alors que nul n’imaginerait vendre un scooter à un mineur de douze ans sans encadrement préalable ni autorisation spécifique. Cette disparité, à elle seule, devrait nous alerter. Elle est d’autant plus préoccupante que le temps passé par les jeunes sur les écrans dépasse largement celui consacré à d’autres activités structurantes, avec des conséquences graves sur le sommeil, le développement émotionnel et les fonctions cognitives.

L’ampleur de ce phénomène est comparable à celle d’une pandémie et appelle une réponse à la hauteur de cette urgence. Bien que ces technologies aient offert à notre société des opportunités inédites, elles ont également introduit des menaces insidieuses, qui pèsent sur son intégrité. Il est temps d’agir avec lucidité et détermination pour protéger nos enfants et, ce faisant, préserver les fondements de notre avenir collectif.

M. le président Arthur Delaporte. Je pense que nous partageons, indépendamment de nos affiliations politiques, un grand nombre des points que vous avez soulevés.

Mme Anne Genetet (EPR). Un parent peut acheter un scooter en son nom et autoriser son enfant à le conduire. Cela souligne la nécessité non seulement d’interdire l’accès aux réseaux sociaux pour les mineurs, mais également d’imposer des sanctions sévères aux parents qui permettraient un tel usage.

M. Jean-Marie Cavada. Il convient de rappeler que nos échanges, dans le cadre de cette commission d’enquête, se concentrent principalement sur les dispositifs de régulation. Or ces mesures ne représentent qu’une partie du travail qu’un État, ou une communauté d’États comme l’Union européenne, doit impérativement engager. Nous devons également investir massivement dans le développement de grandes entreprises numériques européennes. Faute de cette volonté stratégique, la demande demeurera forte et nous n’aurons rien à proposer en contrepartie. Dans cette configuration, nous continuerons à consommer les produits issus de monopoles hégémoniques, qui imposent leurs règles et dominent sans partage l’ensemble du marché.

Si vous m’y autorisez, je souhaiterais formuler une requête plus personnelle. Je serais reconnaissant à la cheffe de secrétariat de votre commission d’enquête de bien vouloir transmettre mes coordonnées téléphoniques à Mme Genetet afin de recueillir son point de vue sur ces enjeux, qui me semblent majeurs.

M. le président Arthur Delaporte. Je souhaite élargir notre perspective en abordant la question de la révision de la Charte des droits fondamentaux de l’Union européenne. Pourriez-vous nous indiquer quelles sont les pistes d’amélioration que vous suggérez et que vous défendez dans votre plaidoyer pour la révision de ce texte ?

M. Jean-Marie Cavada. Notre institut, iDFrights, déploie son action à la fois au niveau national, principalement en France, ainsi qu’à Bruxelles. Nous collaborons étroitement avec l’Institut de la souveraineté numérique (ISN), dirigé par monsieur Bernard Benhamou, qui siège également au sein de notre conseil d’orientation.

Notre équipe de juristes suit avec la plus grande attention les évolutions juridiques et législatives à Bruxelles, qu’il s’agisse de directives appelant à une transposition dans les droits nationaux, ou de règlements directement applicables dans l’ensemble des vingt-sept États membres. Notre objectif est de faire en sorte que les nouvelles régulations européennes s’inscrivent, autant que possible, dans la continuité du cadre juridique traditionnel qui fonde nos démocraties, et dont la Charte des droits fondamentaux constitue aujourd’hui l’expression la plus aboutie.

Il nous semble toutefois nécessaire d’enrichir cette Charte afin qu’elle prenne mieux en compte les réalités nouvelles qui affectent le fonctionnement même de nos démocraties. Parmi ces menaces figurent les cyberattaques, mais également les effets délétères de certains services numériques sur les consommateurs, en particulier lorsqu’il s’agit des enfants. Bien que l’adoption du RGPD ait constitué une première avancée importante, son application demeure trop souvent partielle. Les autorités de contrôle, telles que la Commission nationale de l’informatique et des libertés (CNIL) en France, disposent de moyens et de pouvoirs encore insuffisants pour remplir pleinement leurs missions.

Nous plaidons donc pour une mise à jour de la Charte des droits fondamentaux, qui permettrait de renforcer la protection face aux nouvelles formes de menace qui pèsent sur les fondements mêmes de la démocratie. Il est crucial de mieux encadrer l’exploitation des données personnelles, lesquelles font toujours l’objet d’un commerce massif, malgré les règles en vigueur relatives au consentement. Les risques sont particulièrement préoccupants lorsqu’il s’agit de données identitaires ou de santé, susceptibles d’être utilisées à des fins discriminatoires, notamment dans le secteur des assurances.

Nous appelons de nos vœux une réflexion politique de fond, nourrie par l’esprit d’Alexis de Tocqueville, afin de donner une perspective plus large et plus ambitieuse aux travaux en cours. Il est essentiel que les parlementaires incitent les gouvernements à agir avec une détermination accrue sur ces enjeux cruciaux.

M. Thierry Perez (RN). Au cours de votre parcours et des travaux que vous avez menés sur la question des réseaux sociaux au sein du Parlement européen, avez-vous eu l’occasion de rencontrer des personnes défendant l’idée que ces plateformes pouvaient exercer une influence positive sur les mineurs ? Depuis le début des auditions menées par notre commission d’enquête, aucun argument en ce sens n’a été porté à notre connaissance.

M. Jean-Marie Cavada. Permettez-moi, tout d’abord, de préciser que je ne suis pas dans une posture de diabolisation du numérique en tant que tel. Ce que je dénonce, ce sont les pratiques des monopoles mondiaux qui tirent profit de ce domaine à travers des mécanismes commerciaux à la fois licites et illicites. Le danger ne réside pas dans le numérique lui-même, mais bien dans la puissance excessive de ces monopoles, qui menacent les équilibres individuels et sociétaux.

Pour répondre directement à votre question, je n’ai jamais rencontré de personne défendant explicitement les bienfaits des réseaux sociaux pour les mineurs. Cela étant, je tiens à rappeler que le numérique présente des aspects indéniablement positifs, notamment dans le domaine médical, où l’intelligence artificielle a permis des avancées remarquables en matière d’observation, de synthèse et d’analyse, au bénéfice des professionnels de santé et des chercheurs.

Le véritable problème tient à l’usage abusif de ces outils et surtout à l’enrichissement illicite qui peut en découler. C’est sans doute l’une des raisons pour lesquelles les parents sont peu nombreux à revendiquer ouvertement l’usage des réseaux sociaux par leurs enfants. Le numérique n’est qu’un outil et, comme tout outil entre les mains d’un mineur, il appelle un encadrement strict. La question se pose en particulier au sein des collèges, s’agissant de la pertinence même de ces outils numériques en milieu scolaire. Le Gouvernement a d’ailleurs évoqué la possibilité d’interdire les réseaux sociaux, et donc l’usage des smartphones, dans les établissements scolaires. Cela constituerait une première mesure concrète.

Il faut également reconnaître que les parents peuvent, parfois, se rendre complices, par action ou par omission, de l’usage excessif du numérique par leurs enfants. Il s’agit parfois d’un moyen de se décharger, en partie, de leur propre responsabilité éducative. Ce phénomène n’est pas nouveau puisque, dès les années 1970 en France, nous avons pu observer une tendance à transférer au ministère de l’Éducation nationale, non seulement la mission d’instruire, mais également celle d’éduquer les enfants. À mon sens, il est nécessaire de rétablir une distinction claire entre l’instruction, l’éducation civique et l’éducation au sens large, cette dernière ne devant en aucun cas reposer uniquement sur les épaules des enseignants, déjà fortement sollicités.

M. le président Arthur Delaporte. Je souhaiterais apporter une nuance à notre échange concernant les effets, positifs ou négatifs, des réseaux sociaux. En tant que président, j’adopte une posture que je qualifierais d’agnostique, dans la mesure où je m’efforce de ne pas céder à une forme de diabolisation excessive de ces plateformes. Les auditions que nous avons menées jusqu’à présent, notamment auprès de sociologues des usages, de représentants de la CNIL ou encore de spécialistes du rapport des jeunes aux écrans, ont permis de mettre en lumière des effets positifs réels en matière de socialisation et d’apprentissage. Les jeunes interrogés soulignent leur aptitude à rechercher de l’information et à développer certaines compétences grâce à ces outils numériques. Il me semble essentiel, malgré les dérives que nous nous attachons précisément à identifier, de ne pas occulter cette dimension.

Je tiens également à rappeler ce qui a été exprimé depuis le début de nos travaux, y compris lors de l’intervention de M. Serge Tisseron la semaine dernière. Les réseaux sociaux apparaissent également comme des espaces de construction relationnelle et d’affirmation sociale. Le véritable problème, à mes yeux, réside dans le modèle économique qui structure le fonctionnement de ces plateformes. C’est en ce sens que votre remarque prend toute sa pertinence : comment pourrions‑nous concevoir des réseaux sociaux qui ne soient pas gouvernés par des logiques exclusivement mercantiles ?

Cette réflexion m’amène à évoquer l’existence de réseaux sociaux expérimentaux, qui cherchent à inventer d’autres formes de mise en relation numérique et que nous pourrions envisager d’auditionner, au-delà des plateformes dominantes. Dans ma circonscription, j’ai eu l’occasion d’observer, au sein d’un incubateur, des projets innovants qui s’interrogent sur les biais structurels du numérique et tentent de proposer des modèles alternatifs. Mastodon, par exemple, s’inscrit dans cette logique d’organisation décentralisée et communautaire. Il me paraissait important d’évoquer ces pistes, afin de nourrir une approche plus nuancée et plus prospective de notre travail.

M. Jean-Marie Cavada. Je partage pleinement votre analyse. Il semble important de rappeler que l’objectif premier de la commission d’enquête n’était pas d’évaluer les éventuels bienfaits de TikTok en particulier, ni ceux des réseaux sociaux dans leur ensemble, mais bien de réfléchir aux modalités de leur régulation, ce qui implique nécessairement un travail d’identification et de lutte contre les dérives qu’ils engendrent.

Je souscris entièrement aux propos que vous avez tenus et j’ai d’ailleurs eu l’occasion de souligner qu’il existe bel et bien un usage vertueux des réseaux sociaux, qui peut contribuer à l’ouverture d’esprit et offrir certains bénéfices, notamment en termes d’accès à l’information et de développement personnel. Il nous revient toutefois d’examiner avec rigueur tout ce qui relève de l’illicite et qui, de manière plus ou moins insidieuse, s’est introduit au sein de ces plateformes.

M. le président Arthur Delaporte. Nous vous transmettrons le rapport complet, incluant toutes les auditions.

M. Thierry Perez (RN). Nous sommes effectivement unanimes sur la nécessité de lutter contre les contenus illicites. Je souhaiterais toutefois attirer votre attention sur certains phénomènes particulièrement préoccupants qui, bien qu’ils ne soient pas formellement interdits par la loi, n’en sont pas moins d’une extrême dangerosité. J’ai récemment pris connaissance d’un article consacré à une tendance inquiétante circulant sur TikTok, qui incite de jeunes garçons à se frapper le visage à l’aide d’un marteau, dans le but de renforcer leurs traits masculins. Ce comportement, qui touche des enfants dès l’âge de huit ans, illustre à quel point certaines dérives peuvent s’enraciner précocement. Même si ces pratiques ne relèvent pas, à proprement parler, de l’illégalité, elles n’en demeurent pas moins profondément inquiétantes. Ces contenus insidieux, qui s’infiltrent dans l’imaginaire des enfants et des préadolescents, sont véritablement terrifiants.

Je suis convaincu que nous ne parviendrons pas à contenir de tels phénomènes par le seul levier algorithmique, ni en laissant les choses suivre leur cours. Face à cette instabilité constante et à cette viralité imprévisible, nous devons avoir le courage de reconnaître que nous ne pourrons jamais exercer un contrôle réellement efficace sur ces contenus, si ce n’est en interdisant l’accès aux réseaux sociaux aux mineurs.

M. Jean-Marie Cavada. Je comprends parfaitement l’inquiétude que vous exprimez. Je la partage pleinement.

Je souhaiterais, pour ma part, attirer votre attention sur un autre phénomène particulièrement alarmant, qui touche plus spécifiquement les jeunes filles : l’incitation à l’anorexie. Nous observons une pression croissante en faveur d’une maigreur extrême, présentée comme une condition d’attractivité et de popularité. Les conséquences de cette dérive sont tragiques puisqu’elles entraînent des troubles alimentaires graves, des accidents et, dans certains cas, des suicides. En France, j’ai pu recenser au moins huit cas de suicide directement liés à ce phénomène et il est fort probable que le chiffre réel soit bien plus élevé.

Il faut bien comprendre que, face à de tels drames, les parents se retrouvent souvent démunis, submergés par un sentiment de honte et d’impuissance. Pire encore, les dispositifs d’aide, qu’ils soient étatiques, départementaux ou nationaux, ont parfois tendance à minimiser ces situations ou à renvoyer la faute sur les familles elles-mêmes. Or les parents ne peuvent exercer une surveillance constante sur leurs enfants, d’autant plus lorsqu’ils doivent faire face à des contraintes professionnelles quotidiennes.

Il nous appartient, en tant que société, de nous interroger sur notre responsabilité collective dans la prolifération de ces contenus toxiques. À mes yeux, nous sommes confrontés à une forme contemporaine de non-assistance à personne en danger. Notre objectif doit être de rétablir un équilibre lucide et exigeant entre un usage éclairé des réseaux sociaux et l’interdiction formelle des pratiques dangereuses.

L’adoption de textes tels que le règlement sur les services numériques (DSA) au niveau européen constitue certes une avancée, mais leur application effective demeure un défi considérable. La mise en place de dispositifs tels que les signaleurs de confiance, censés alerter les autorités compétentes, va dans le bon sens, mais reste largement insuffisante au regard de l’ampleur du problème.

Je suis convaincu que nous devons rétablir la responsabilité juridique des éditeurs de contenus en ligne. Ce processus sera sans doute long, mais il est absolument indispensable si nous voulons enrayer la prolifération de contenus illicites ou dangereux, qui menacent non seulement la vie privée et la santé des enfants, mais également l’équilibre même de nos démocraties.

En conclusion, je tiens à remercier la commission d’enquête. Nous avons besoin de votre engagement et nous tenons à votre entière disposition pour vous accompagner dans vos travaux, que ce soit en vous faisant gagner du temps ou en mettant à votre service les moyens nécessaires à l’atteinte de vos objectifs.

13.    Audition de M. Michael Stora, psychologue et psychanalyste, co‑fondateur de l’Observatoire des mondes numériques en sciences humaines (vendredi 2 mai 2025)

Puis, la commission auditionne M. Michael Stora, psychologue et psychanalyste, cofondateur de l’Observatoire des mondes numériques en sciences humaines ([13]).

M. le président Arthur Delaporte. Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Michael Stora prête serment.)

M. Michael Stora, psychologue et psychanalyste, co-fondateur de l’Observatoire des mondes numériques en sciences humaines. Je précise, en préambule, que je n’ai jamais travaillé pour aucune plateforme numérique, même si j’ai exercé par le passé en tant que consultant pour l’industrie du jeu vidéo. Mon dernier ouvrage, intitulé Les réseaux asociaux, publié aux éditions Larousse, expose pour la première fois de manière explicite ma position critique sur la toxicité des réseaux sociaux, ainsi que sur leur impact délétère sur la démocratie, la cohésion sociale et, plus particulièrement, sur la santé mentale des jeunes.

En tant que psychologue clinicien spécialisé dans l’accompagnement des adolescents et des jeunes adultes, je constate que TikTok amplifie aujourd’hui des phénomènes déjà observables sur d’autres plateformes, telles qu’Instagram et Facebook, ce dernier étant désormais considéré par les jeunes comme un réseau utilisé principalement par une population plus âgée.

Mon expertise sur les usages numériques remonte à plus de vingt-cinq ans. En 1998, j’ai fondé l’Observatoire des mondes numériques en sciences humaines, qui s’est d’abord consacré à l’étude des jeux vidéo avant d’étendre progressivement son champ d’analyse aux réseaux sociaux. J’ai notamment dirigé la modération psychologique de Skyblog, un réseau qui comptait alors 55 millions d’utilisateurs. Cette expérience m’a mis face à des problématiques graves telles que l’automutilation, les troubles des conduites alimentaires mais surtout le suicide chez les adolescents. Nous avons été confrontés à des situations dans lesquelles des jeunes exprimaient leur désir de mourir de manière directe ou incitaient d’autres à passer à l’acte.

À partir d’un certain moment, malheureusement, des adolescents sont passés à l’acte et ont mis fin à leurs jours. Ces suicides ont entraîné des conséquences dramatiques, non seulement pour les familles mais également en matière de responsabilité pour la plateforme Skyblog, qui était à l’époque un acteur majeur dans l’univers numérique des jeunes.

C’est dans ce contexte que j’ai été auditionné dans le cadre d’une commission consacrée à la sécurité des jeunes. À l’époque, je défendais, de manière un peu isolée, une certaine culture du blog. En tant que clinicien engagé en faveur de la cause des adolescents, j’estimais que cette forme d’expression pouvait, malgré ses dérives, présenter un intérêt. M. Pierre Bellanger, conscient de l’urgence d’agir, m’a alors sollicité pour diriger la cellule psychologique de Skyblog. Cette expérience m’a permis de développer une expertise inédite sur une forme de modération qui, à l’époque, n’existait nulle part ailleurs. Le service de modération m’alertait dès lors qu’un blog comportait des contenus préoccupants, qu’il s’agisse de messages évoquant le suicide, des troubles de l’image corporelle, de comportements d’automutilation ou d’autres formes de détresse psychique, particulièrement fréquentes à l’adolescence dans ce que nous appelons la clinique de l’agir. Je pouvais alors entrer directement en contact avec les jeunes concernés, les orienter vers des structures de soins ou engager un dialogue permettant d’évaluer la gravité de leur situation. J’ai d’ailleurs publié un article à ce sujet dans la revue professionnelle Enfances et Psy.

Cette expérience m’a également conduit à collaborer à plusieurs reprises avec le ministère de la santé, qui m’a régulièrement sollicité sur la question du suicide des adolescents car, vous le savez, ce drame perdure depuis trop longtemps et les chiffres ne cessent de croître.

Depuis lors, j’ai observé une évolution inquiétante dans les pratiques des réseaux sociaux. Pour des raisons purement économiques, la plupart d’entre eux ont mis en place des mécanismes de captation de l’attention particulièrement puissants dont l’objectif est de maintenir l’utilisateur, adolescent ou adulte, connecté le plus longtemps possible. Avec TikTok, un seuil supplémentaire a été franchi.

Je terminerai en précisant que j’ai été membre de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans nommée par le président Macron. J’ai récemment été amené à réagir à certains faits divers ayant ravivé le débat sur les écrans. Je fais notamment référence aux déclarations de M. Gabriel Attal et de M. Marcel Rufo, qui ont proposé d’interdire l’accès aux réseaux sociaux avant quinze ans et l’usage des écrans avant six ans. Je me permets de souligner ici la complexité du sujet. S’en prendre uniquement à l’outil, qui est l’écran, revient à faire, une fois de plus, l’économie d’une réflexion bien plus vaste, qui doit inclure le contexte familial, les transformations sociétales et la place occupée par le jeune dans cet environnement. Cela dit, il est tout aussi fondamental de rester vigilant quant à la dimension toxique de certains mécanismes mis en œuvre par les plateformes.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Ma question porte sur la réflexion menée depuis de nombreuses années sur l’impact des écrans, et plus particulièrement des réseaux sociaux, sur la santé des jeunes. Au cours de nos auditions précédentes, certains intervenants ont établi un parallèle entre les réseaux sociaux et d’autres substances reconnues comme nocives pour la santé physique des enfants, telles que le tabac ou l’alcool. Dans ces cas précis, la puissance publique a su imposer des interdictions claires, fondées sur des faits objectifs scientifiquement établis.

S’agissant des réseaux sociaux toutefois, et en particulier de TikTok, nous nous heurtons à la difficulté majeure qui est celle d’établir un lien direct et scientifiquement indiscutable entre leur usage et l’altération de la santé mentale des jeunes. Je m’interroge dès lors sur les raisons pour lesquelles la recherche actuelle ne permet pas encore d’aboutir à des conclusions objectives et incontestables sur la nocivité de ces plateformes. S’agit-il d’un problème méthodologique ? Existe-t-il un déficit de travaux scientifiques sur le sujet ou est-ce que la complexité de la santé mentale rend cette causalité particulièrement difficile à isoler, dans un environnement où d’autres facteurs peuvent également influer sur le bien-être psychique des jeunes ?

Vous avez par ailleurs évoqué, en conclusion de votre intervention, que retirer un téléphone portable à un enfant ne suffisait pas et revenait à éviter de s’attaquer aux véritables enjeux. Pourriez-vous développer cette idée ? Selon vous, s’agit-il d’un problème plus profond, lié à la parentalité dans nos sociétés contemporaines et qu’il conviendrait d’examiner avec davantage de lucidité et de profondeur ?

M. Michael Stora. La question des effets des écrans se pose depuis bien avant l’émergence des réseaux sociaux ou des écrans interactifs. Dès le début de ma carrière de psychologue, nous nous interrogions déjà sur l’impact de la télévision, notamment sur l’apprentissage de la lecture. Plus de 110 000 études ont été menées sur l’impact de la télévision. Puis, avec l’émergence des jeux vidéo et, plus récemment, des réseaux sociaux, d’autres travaux ont été engagés.

Vous établissez un parallèle avec l’alcool ou le tabac, qui me semble pertinent. Même s’il est vrai que ces substances ont un impact direct et objectivable sur la santé somatique, il serait réducteur de limiter l’analyse à cet aspect physiologique, puisque toute addiction cache un moteur profondément psychique. La consommation excessive, qui est rarement un phénomène isolé, traduit avant tout une tentative de régulation émotionnelle, souvent en réponse à une angoisse diffuse. L’addiction, dans cette perspective, devient un geste, une manière d’éviter la pensée, de canaliser une détresse intérieure par l’usage ritualisé d’un objet. Paradoxalement, elle s’apparente parfois à une tentative de soin et constitue une forme de lutte contre la dépression.

Je me suis d’abord intéressé au sujet des jeux vidéo, qui portait en lui un questionnement sur la possibilité d’une addiction. Il a fallu attendre que l’OMS, il y a environ deux ans et demi, reconnaisse officiellement le « trouble du jeu vidéo » (video game disorder) pour que le débat prenne un tour plus consensuel. Avec le docteur Marc Valleur, alors chef de service à l’hôpital Marmottan, nous étions déjà parvenus à une forme de consensus clinique selon lequel l’usage devient problématique dès lors qu’il engendre une rupture des liens sociaux. Or nous observons chez de nombreux jeunes une préférence marquée pour l’interaction avec les écrans au détriment des relations avec leurs proches. Progressivement, certains en viennent à se retirer presque totalement du monde réel, au point de ne vivre qu’à travers des univers numériques. Ce phénomène s’apparente fortement à ce que les Japonais désignent sous le terme hikikomori. Plus notre société devient anxiogène et incertaine, plus ces univers virtuels apparaissent comme des refuges, synonymes d’évitement du réel.

Il est dès lors difficile de concevoir des protocoles de recherche capables d’en saisir toutes les dimensions. Je rappelle que je suis psychologue psychanalyste et que je travaille selon une approche clinique fondée sur l’observation qualitative. Or notre époque valorise prioritairement les approches neurophysiologiques au détriment de l’écoute clinique. Les sujets sont placés dans des dispositifs expérimentaux et des corrélations sont mesurées mais des causalités sont rarement établies.

Je souhaite ici mentionner un chercheur remarquable, M. Jonathan Bernard, affilié à l’Institut national de la santé et de la recherche médicale (Inserm) et au Centre national de la recherche scientifique (CNRS), qui a consacré plusieurs années à l’étude de la surexposition aux écrans, en adoptant une méthode qualitative de long terme, prenant en compte le contexte familial, le niveau socio-économique et d’autres facteurs structurels. Ses conclusions, édifiantes, démontrent que les effets délétères des écrans sont considérablement accrus dans les milieux où le dialogue parental est faible et où règne une précarité sociale ou relationnelle importante. À l’inverse, dans des familles où les parents sont disponibles, où les échanges sont fréquents et constructifs, ces effets sont nettement atténués. Il existe donc une forme d’injustice structurelle selon laquelle les réseaux sociaux ont un impact plus destructeur dans les contextes déjà fragilisés ou incertains. Ce constat, que je partage totalement après vingt-cinq ans de pratique, mériterait à lui seul une réflexion politique approfondie.

Les seules études véritablement éclairantes sont donc celles qui adoptent une approche qualitative. Les recherches quantitatives, qui traitent l’être humain comme une variable parmi d’autres, me semblent sans valeur. L’être humain est une entité variable, ambivalente et sensible à d’infinies nuances. Un test projectif passé aujourd’hui ne livrera pas les mêmes résultats dans deux semaines car, dans l’intervalle, un événement familial, un échec scolaire ou une simple remarque peuvent avoir modifié le paysage psychique du sujet. Cette complexité est telle que même les rats de laboratoire ne présentent pas des résultats constants, tant leurs états émotionnels influencent leur comportement. C’est dire à quel point les variables humaines exigent une approche nuancée et fondée sur la singularité.

C’est pourquoi, s’agissant de sujets aussi complexes que le suicide ou les troubles des conduites alimentaires, les approches cognitives ou neurobiologiques, aussi nécessaires soient-elles, ne sauraient suffire. Si elles permettent d’éclairer certains mécanismes, elles ne prennent pas en compte la profondeur des récits, la symbolique des actes, ni la construction du sujet.

À titre d’exemple, j’interviendrai prochainement sur France Inter à propos des SkinnyTok, phénomène complexe qui convoque la représentation des corps, l’image des femmes dans notre société, les processus adolescents et les parcours personnels. Ayant, dans ma pratique, rencontré de jeunes femmes souffrant d’anorexie, je sais que ces souffrances ne se réduisent pas à un désordre alimentaire mais sont l’expression d’un malaise plus profond, tissé d’exigences sociales, de vécus familiaux et de rapports à soi douloureux. C’est dans cette complexité que nous devons inscrire notre analyse.

Mme Laure Miller, rapporteure. Permettez-moi d’approfondir la réflexion en abordant un aspect susceptible de concerner l’ensemble des enfants, quels que soient leur milieu social ou leur environnement familial, qui est l’impact de la fréquentation des réseaux sociaux et plus particulièrement de TikTok. Au-delà des contenus spécifiques qui y circulent, c’est le fonctionnement même de ces plateformes, avec le recours à un algorithme structuré autour de vidéos très courtes, associées à un défilement rapide et continu, qui suscite des interrogations légitimes.

Quelles sont les conséquences concrètes de ce mode de consommation fragmentée sur la capacité de concentration de notre jeunesse ? Avez-vous eu l’occasion d’étudier ce phénomène de manière approfondie et d’en observer les effets tangibles sur les comportements, les capacités attentionnelles ou les rythmes cognitifs des jeunes que vous suivez ?

M. Michael Stora. Votre question met en lumière l’un des mécanismes les plus puissamment addictifs pour les jeunes utilisateurs.

Il est intéressant de rappeler que les recherches majeures sur la captation de l’attention ont été menées aux États-Unis bien avant leur appropriation et leur intensification par des plateformes comme TikTok. Cette dernière n’a fait que perfectionner des mécanismes déjà présents sur d’autres réseaux, notamment Instagram.

Le principe même de TikTok repose sur un algorithme d’une extrême sophistication, capable d’identifier très rapidement les préférences de l’utilisateur. Ce fonctionnement crée une bulle algorithmique dans laquelle l’individu est enfermé dans un flux de contenus similaires mais subtilement variés. Cette logique de répétition modulée rappelle, dans une certaine mesure, le phénomène d’accordage affectif que nous observons entre un nourrisson et sa mère où un enchaînement de stimuli, reconnaissables mais sans cesse réactualisés, créant une matrice virtuelle immersive.

Ce qui m’apparaît le plus préoccupant dans cette mécanique, c’est la libération répétée de dopamine qu’elle provoque à chaque visionnage de vidéo courte. Si la dopamine, hormone du circuit de la récompense, est libérée dans de nombreuses situations agréables du quotidien, l’intensité et la fréquence de ces décharges dopaminergiques sur TikTok excèdent toutefois de très loin ce que permet la réalité ordinaire. Ce décalage induit un effet de contraste brutal car, lorsqu’un utilisateur quitte l’application, le monde réel, avec ses frustrations, ses lenteurs et son absence de gratification immédiate, lui apparaît soudain fade, terne et peu valorisant. Ce déséquilibre entre un univers virtuel survalorisé et la réalité quotidienne entraîne des conséquences significatives sur l’équilibre psychique des jeunes car il peut altérer leur capacité à gérer la frustration, nuire à leur motivation dans les activités nécessitant un effort soutenu et influencer leur humeur générale.

Il serait, pour autant, caricatural de préconiser une déconnexion totale car les univers numériques peuvent également jouer un rôle de refuge temporaire ou d’échappatoire utile dans des contextes de souffrance. En tant que psychologue, je n’encourage donc pas une coupure radicale mais plutôt une recherche d’équilibre. Il s’agit de reconnaître le besoin, parfois légitime, d’évitement ou d’évasion, tout en gardant à l’esprit les risques associés à une surexposition.

Un autre aspect préoccupant tient à la brièveté des vidéos proposées par TikTok, qui semble affecter directement la capacité de concentration des jeunes. J’ai pu observer, chez certains patients, une difficulté croissante à maintenir leur attention sur des formats longs tels que les films, qu’ils perçoivent désormais comme excessivement lents. L’exemple de la série Adolescence, récemment diffusée, me paraît emblématique. Cette production remarquable propose un plan‑séquence d’une heure, une prouesse technique et narrative saluée par la critique. Pourtant, certains spectateurs l’ont jugée trop longue, illustrant notre habituation croissante à des formats rapides et à une fragmentation permanente de l’attention.

Cette tendance au raccourcissement des plans ne date pas d’hier, puisqu’elle remonte notamment à des productions telles que Mad Max, dont le réalisateur fut l’un des premiers à accélérer radicalement le rythme du montage pour dynamiser l’action et renforcer l’immersion du spectateur. Progressivement, cette logique a conduit à une moindre tolérance des scènes contemplatives, introspectives ou lentes. Aujourd’hui, les jeunes générations jugeraient une série comme Albator, pourtant culte, profondément ennuyeuse.

Il serait cependant réducteur d’attribuer cette évolution uniquement à TikTok ou aux vidéos en ligne. D’ailleurs, YouTube propose désormais une option permettant d’accélérer la lecture des contenus, répondant à une demande croissante de rythme toujours plus soutenu. Fait paradoxal, nous observons dans le même temps un regain d’intérêt pour des activités manuelles et concrètes telles que la poterie ou la couture, ce qui peut traduire un besoin d’ancrage corporel dans un monde devenu excessivement virtuel.

Aussi, bien que les réseaux sociaux modifient incontestablement notre perception du temps, notre capacité d’attention et, au fond, notre capacité à accepter le monde tel qu’il est, il convient néanmoins de ne pas leur imputer l’intégralité de nos dysfonctionnements. Certaines vidéos et certains algorithmes ont certes un effet délétère, mais le phénomène est plus complexe.

S’agissant de la capacité de concentration, il importe également d’adopter une lecture nuancée. Lors d’une conférence que j’ai récemment donnée devant des acteurs de l’éducation nationale des Hauts-de-Seine, j’ai insisté sur le fait que la concentration dépend, en amont, de la capacité à tolérer la frustration. Or cette aptitude se construit bien avant l’exposition aux écrans, dès les premières interactions entre le nourrisson et son environnement parental. Depuis deux à trois décennies, notre société tend vers une attention parentale accrue, parfois excessive, à l’égard du bien-être de l’enfant. Des études menées à l’hôpital Necker mettent en évidence une intolérance croissante à l’ennui et aux pleurs du nourrisson. Les réseaux sociaux, loin de créer ce phénomène, en amplifient donc les effets en fournissant un miroir grossissant de nos tendances culturelles.

L’inquiétude parentale, qui existe depuis toujours, trouve aujourd’hui de nouvelles expressions technologiques dont les dispositifs de géolocalisation des enfants sont une illustration frappante. Ils montrent comment certaines entreprises, dont l’éthique reste discutable, nourrissent des dynamiques déjà à l’œuvre dans notre société. En définitive, les réseaux sociaux agissent moins comme des instigateurs que comme des révélateurs et des amplificateurs de logiques sociales préexistantes.

Mme Laure Miller, rapporteure. En tant que professionnel accompagnant des jeunes confrontés à des difficultés liées ou amplifiées par l’usage des réseaux sociaux, ne pensez-vous pas qu’il serait opportun d’interpeller les pouvoirs publics en invoquant le principe de précaution ? Nous savons que ces plateformes, guidées par des logiques économiques, ne placent pas le bien-être des jeunes utilisateurs au centre de leurs priorités. La modération des contenus, en particulier sur TikTok, demeure notoirement insuffisante, laissant les adolescents exposés à des contenus potentiellement nocifs, à l’image du phénomène du SkinnyTok que vous avez évoqué.

Il est certes indéniable que les réseaux sociaux peuvent comporter certains aspects positifs et que tous les enfants ne sont pas égaux dans leur capacité à s’en protéger ou à les utiliser avec discernement. Toutefois, ne devrions-nous pas, dans l’incertitude, privilégier une posture de prudence et appliquer le principe de précaution ? Une telle orientation pourrait se traduire, par exemple, par l’instauration d’une limite d’âge plus stricte pour l’accès à ces plateformes.

M. Michael Stora. Je souscris pleinement à cette proposition, qui rejoint un combat que je mène depuis de nombreuses années. Il y a quinze ans, j’ai participé à une commission européenne intitulée Safer Internet France. À cette occasion, face à des représentants de réseaux sociaux alors émergents, tels que Facebook, j’ai défendu une position sans ambiguïté : « non à la modération entre pairs, oui au soutien entre pairs ». Cette distinction soulève la question fondamentale de la responsabilité en matière de modération des contenus.

Le débat actuel, qui tend à mobiliser l’État et, dans une certaine mesure, les parents comme relais éducatifs, passe trop souvent sous silence la responsabilité première des plateformes commerciales. Il est tout à fait incompréhensible que ces dernières ne soient pas davantage mises en cause. L’exemple d’Instagram est éclairant à cet égard car, peu avant la période de confinement, la plateforme avait annoncé la suppression des mentions like ainsi que de certains filtres esthétiques, reconnaissant de fait les effets délétères de ces fonctionnalités sur la santé mentale.

Au-delà des problématiques les plus graves que sont le suicide ou les troubles alimentaires, il convient d’appréhender l’impact plus insidieux, mais non moins profond, que ces plateformes exercent sur la construction psychique des adolescents. Mme Frances Haugen, auditionnée par l’Assemblée nationale en tant que lanceuse d’alerte, a révélé que Facebook et Instagram disposaient de données internes attestant parfaitement des effets nocifs de leurs outils sur les jeunes utilisateurs.

Dans ma pratique, j’ai pu observer à quel point les influenceurs et influenceuses peuvent agir sur la psychologie adolescente. Il est essentiel d’analyser la nature spécifique du lien qui s’établit entre ces figures numériques et leur jeune public, un lien qui diffère profondément de l’admiration portée, autrefois, à des figures publiques comme des artistes ou des sportifs. Ces mécanismes peuvent conduire à une véritable forme de ravissement, dans laquelle l’adolescent se trouve placé sous influence permanente, en proie à un sentiment d’inadéquation récurrent. J’ai longuement travaillé sur la dysmorphophobie, ce trouble de l’image corporelle qui pousse l’individu à percevoir son apparence comme fondamentalement défectueuse. Il est aujourd’hui particulièrement alarmant de constater que les 18‑30 ans sont devenus les principaux demandeurs de chirurgie esthétique, devant les plus de 50 ans. Cette évolution témoigne de l’importance démesurée prise par l’image de soi dans nos sociétés contemporaines, en particulier chez les jeunes, pour qui elle est devenue un vecteur central de reconnaissance et de validation sociale.

Cette obsession de l’image débouche sur une dépendance croissante à la validation numérique. Pour de nombreux jeunes, et même pour certains adultes, une expérience ne semble véritablement exister que si elle est photographiée, partagée et valorisée en ligne. Cette dynamique traduit une transformation profonde de notre rapport au réel, désormais médiatisé en permanence par l’interface des plateformes numériques. Le statut de l’image s’en trouve radicalement modifié, générant une situation inédite et préoccupante. Dans mon ouvrage Les réseaux asociaux, j’ai tenté de montrer que ces plateformes, bien qu’immatérielles, produisent des effets tangibles aux conséquences souvent inquiétantes. Certaines d’entre elles, à l’instar d’Instagram, ont adopté une philosophie de design émotionnel, pensée pour provoquer des réactions affectives fortes. Cette stratégie a causé des dommages considérables, en particulier chez les plus jeunes.

TikTok, bien que plus récent, s’est initialement présenté comme un espace plus inclusif, ouvert à la diversité des discours. Contrairement à Instagram, qui promouvait une représentation idéalisée du bonheur, de la beauté ou de la minceur, TikTok proposait des contenus plus hétérogènes, allant jusqu’à inclure des thématiques négatives ou marginales. Cette diversité initiale s’est toutefois peu à peu estompée en raison d’une modération insuffisante, fondée sur un filtrage de surface, incapable d’appréhender les effets psychiques plus subtils sur les mineurs, pourtant premières cibles de la plateforme.

L’influence exercée par TikTok ne se limite pas aux seuls contenus explicites mais s’étend à l’ensemble de la perception que l’utilisateur développe sur divers sujets, y compris politiques, sous l’effet d’un algorithme omniprésent. Ce conditionnement progressif, presque imperceptible, rend d’autant plus nécessaire le maintien d’un esprit critique rigoureux, sans lequel il devient extrêmement difficile de résister à la normalisation des représentations, des désirs et des comportements imposés par ces environnements numériques.

Mme Anne Genetet (EPR). Je n’ai pas clairement saisi votre position concernant la nécessité d’intervenir auprès des plateformes et des réseaux sociaux. Si j’ai bien compris que le rapport à l’écran et à l’image se construit très tôt, avant même que la plupart des jeunes n’aient un accès direct à ces technologies, j’ai également noté que la relation à l’autre se forge en amont et qu’il serait réducteur d’imputer tous les problèmes aux réseaux sociaux.

Cependant, quelle est précisément votre position sur la réponse que nous, en tant que législateurs, devrions apporter face à l’emprise de ces influenceurs ? Vous avez souligné que leur influence génère un sentiment d’infériorité et d’incapacité à atteindre les idéaux présentés, conduisant à une forme de mépris de soi. Quelle est votre opinion sur les possibilités de régulation dans ce contexte ?

M. Michael Stora. Il est impératif d’exiger des grandes plateformes, avec la plus grande fermeté, qu’elles investissent massivement dans des dispositifs de modération robustes et qu’elles fassent preuve d’une transparence totale quant à la suppression des contenus potentiellement nocifs pour les jeunes générations.

Il convient de distinguer avec rigueur l’évocation de sujets sensibles tels que le suicide, l’anorexie ou la boulimie, qui n’est pas problématique en soi. Ce qui l’est, en revanche, c’est la diffusion de contenus qui en font l’apologie ou qui présentent ces comportements comme des réponses acceptables, voire valorisées. De tels contenus sont inacceptables et dangereux, d’autant plus qu’ils s’adressent à un public adolescent, particulièrement vulnérable.

Sachant à quel point certaines vidéos peuvent exercer une influence délétère, il nous appartient d’exiger des principaux réseaux sociaux qu’ils démontrent leur capacité à modérer efficacement ces contenus. La modération entre pairs, encore trop souvent mise en avant, s’avère non seulement insuffisante, mais parfois contre-productive. Les commentaires observés sur les SkinnyTok en sont une illustration éloquente, où l’encouragement des comportements à risque l’emporte sur toute forme de prévention.

Fort de mes huit années d’expérience en tant que modérateur psychologique, je plaide en faveur de l’implication active de professionnels de santé mentale dans les processus de régulation des contenus. Il serait judicieux de créer des commissions spécialisées en modération psychologique, capables d’appréhender la complexité des problématiques rencontrées sur ces plateformes. Ainsi, lorsqu’un jeune exprime des pensées suicidaires, il est essentiel de faire la distinction entre idées suicidaires, tendances suicidaires et désir de mourir. Si les réseaux sociaux ne sont pas, à eux seuls, la cause de ces troubles, ils peuvent malheureusement les amplifier et présenter le suicide comme une échappatoire.

Nous faisons aujourd’hui face à une situation que je n’hésite pas à qualifier de non-assistance à personne en danger. Il y a quinze ans encore, internet était souvent perçu comme un espace de liberté d’expression absolue. Ce paradigme ne peut plus perdurer. Lorsqu’un adolescent verbalise publiquement son mal-être ou son désir d’en finir, les adultes ne peuvent plus détourner le regard et ont le devoir d’agir.

Cette responsabilité ne saurait reposer uniquement sur les épaules de l’État ou des parents. Les plateformes elles-mêmes doivent endosser une véritable responsabilité citoyenne, même si cela implique une réduction de leurs profits. Il en va de leur devoir moral et social.

M. le président Arthur Delaporte. Vous avez démontré avec clarté que les phénomènes préoccupants que nous observons aujourd’hui ne trouvent pas leur origine dans TikTok lui-même, et qu’ils ne sont pas non plus exclusivement imputables à cette plateforme. Cela étant, pourriez-vous préciser s’il existe, selon vous, des éléments propres à TikTok qui la rendent particulièrement problématique par rapport aux autres réseaux sociaux ? Ou bien considérez-vous que cette plateforme ne se distingue pas fondamentalement des autres en matière d’effets sur les jeunes utilisateurs ?

M. Michael Stora. Je souhaite porter à votre attention un exemple concret illustrant les techniques de captation de l’attention mises en œuvre par les réseaux sociaux, et plus particulièrement par Instagram et TikTok. Ces plateformes ont recours à des méthodes particulièrement perverses, destinées à maximiser le temps passé par l’utilisateur sur leur interface. L’une d’entre elles consiste, après cinq à dix minutes de navigation, à insérer délibérément une vidéo sans lien apparent avec les préférences habituelles de l’utilisateur, souvent anxiogène ou dissonante. Cette rupture cognitive suscite un sentiment de manque, incitant l’utilisateur à relancer frénétiquement le défilement, dans l’espoir de retrouver un contenu plus gratifiant.

Si ces stratégies sont relativement aisées à repérer sur Instagram, elles se révèlent plus insidieuses sur TikTok. Bien que je ne sois pas spécialiste en algorithmes issus de l’intelligence artificielle, je constate que TikTok dispose aujourd’hui d’un flux de vidéos plus important encore que celui d’Instagram et s’adresse à une audience plus diversifiée, tant en âge qu’en origine géographique et en milieu socioculturel. Cette particularité confère à TikTok une double dimension, en faisant à la fois une plateforme d’une grande richesse expressive et un vecteur de risques accrus, notamment pour les plus jeunes. Dans le cadre d’une intervention médiatique à venir, j’ai mené une recherche approfondie sur le phénomène SkinnyTok. Les résultats que j’ai obtenus sont alarmants, tant par leur volume que par la nature des contenus consultables. Cette tendance s’avère particulièrement préoccupante à l’adolescence, une période marquée par une fragilité identitaire et une grande instabilité de l’image de soi. Les jeunes filles, en proie aux bouleversements corporels de la puberté, se trouvent souvent enfermées dans des idéaux de beauté inaccessibles, amplifiés de manière virale par ces plateformes.

TikTok dépasse désormais Instagram en termes d’audience, notamment auprès des plus jeunes, occupant aujourd’hui une place centrale dans leur univers. Or l’adolescence est précisément une période où la parole parentale tend à être rejetée et où l’on accorde plus volontiers sa confiance à ses pairs, se construisant dans le regard de l’autre, en dehors du cadre familial. Si cette dynamique se jouait autrefois dans la cour du lycée, elle se déploie aujourd’hui dans l’espace numérique, sur ces réseaux où l’image de soi se fabrique, s’expose et se confronte à celle des autres. À cet égard, je vous recommande vivement le film Men, Women and Children de M. Jason Reitman, qui illustre avec une grande justesse les dynamiques psychiques en jeu.

Il est également essentiel de s’interroger sur la psychologie des influenceurs eux-mêmes. Nombre d’entre eux finissent par se confondre avec l’image virtuelle qu’ils ont construite, créant une dissociation profonde entre le moi authentique et le moi numérique. Ce processus peut être extrêmement destructeur, tant pour les créateurs de contenu que pour les jeunes qui les suivent.

Face à de tels constats, une action déterminée s’impose. J’émets de sérieux doutes quant à l’efficacité de l’éducation au numérique actuellement dispensée dans les établissements scolaires qui ne me semble pas, en l’état, suffisante pour préserver la santé mentale des jeunes.

M. le président Arthur Delaporte. J’ai, ce matin même, accompagné Mme la secrétaire d’État chargée du numérique à Bercy, à l’occasion d’une rencontre avec Mme Charlyne Buigues, cette infirmière grenobloise à l’initiative d’une pétition dénonçant l’existence et la diffusion du hashtag #SkinnyTok. Par cette mobilisation citoyenne, qui a d’ores et déjà recueilli près de 27 000 signatures, Mme Buigues appelle le Gouvernement à une action concrète en matière de régulation des contenus et exprime également le souhait d’être entendue par notre commission d’enquête. En réponse à cette demande, nous l’avons invitée à participer à notre prochaine séance, mardi prochain à 17 heures 30, consacrée aux troubles du comportement alimentaire, afin d’approfondir ce sujet crucial.

Mme la secrétaire d’État doit par ailleurs se rendre en Irlande la semaine prochaine et abordera notamment cette question avec TikTok.

Ces actions démontrent la capacité de notre commission d’enquête à se faire l’écho des préoccupations sociétales actuelles. Nous avons le devoir de répondre à ces attentes

M. Michael Stora. Bien que je salue l’initiative d’aborder ces sujets dans un cadre politique, il serait souhaitable que le ministre de la santé s’exprime également sur ces questions.

M. le président Arthur Delaporte. Il s’agit en effet d’un sujet transversal et nous aurons l’occasion d’auditionner l’ensemble des ministères concernés dans la suite de nos travaux.

Mme Anne Genetet (EPR). Je souhaite demander à M. Stora s’il a visionné la série britannique Adolescence. Quel est son avis sur cette série et sur l’obligation de la diffuser dans les collèges anglais ? Que penserait-il de sa diffusion dans les établissements français ?

M. Michael Stora. Cette question me semble particulièrement appropriée pour conclure nos échanges. J’ai effectivement visionné la série Adolescence et je l’ai trouvée tout à fait pertinente dans sa manière d’aborder les enjeux actuels auxquels sont confrontés les jeunes. Il me semblerait judicieux de diffuser ce type de production au sein des collèges et lycées, en l’accompagnant de groupes de réflexion construits sur un mode plus horizontal, à l’image de l’écosystème numérique dans lequel évoluent aujourd’hui les adolescents. Il est fondamental de s’adresser à leur intelligence car ils sont pleinement capables de s’approprier ces thématiques et de participer activement aux réflexions, voire aux décisions.

S’agissant du phénomène SkinnyTok, pourquoi ne pas envisager l’utilisation de ces contenus, aussi problématiques soient-ils, comme support de discussion dans les établissements scolaires ? L’éducation au numérique telle qu’elle est actuellement dispensée se concentre essentiellement sur les risques liés au cyberharcèlement ou à la présence de prédateurs en ligne. Ces enjeux, bien qu’ils soient importants, masquent des menaces plus insidieuses et plus diffuses, qui mériteraient une approche pédagogique davantage approfondie et nuancée.

Je suis convaincu que l’intégration de séries telles qu’Adolescence, ainsi que d’autres outils innovants, pourrait contribuer à former une génération de citoyens lucides et capables de porter un regard critique sur leurs usages numériques. Pour ma part, je suis tout à fait disposé à m’impliquer dans l’élaboration de tels programmes éducatifs.

M. le président Arthur Delaporte. N’hésitez pas à nous transmettre tout élément complémentaire en réponse au questionnaire qui vous a été envoyé, ainsi que tout autre document que vous jugeriez utile.

14.   Audition de M. Donatien Le Vaillant, chef de la Mission interministérielle de vigilance et de lutte contre les dérives sectaires (Miviludes) (mardi 6 mai 2025)

La commission auditionne M. Donatien Le Vaillant, chef de la Mission interministérielle de vigilance et de lutte contre les dérives sectaires (Miviludes) ([14]).

M. le président Arthur Delaporte. Je vous souhaite la bienvenue M. Le Vaillant et vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Donatien Le Vaillant prête serment.)

M. Donatien Le Vaillant, chef de la mission interministérielle de vigilance et de lutte contre les dérives sectaires (Miviludes). La Miviludes a récemment publié un rapport d’activité et d’analyse des dérives sectaires, dans lequel une attention particulière est portée aux menaces liées au numérique, en particulier celles visant les mineurs. Bien que le numérique offre des opportunités indéniables, je me concentrerai aujourd’hui sur les difficultés relevées, notamment certains phénomènes complexes à identifier et à combattre, qui ne relèvent pas toujours du champ pénal mais suscitent de vives inquiétudes quant à la santé des mineurs.

Nous assistons à l’apparition de nouveaux métiers exercés par des personnes dépourvues de tout diplôme reconnu par l’État ou de compétences vérifiables dans leur domaine d’activité, mais qui exercent néanmoins une influence considérable sur la vie de ces mineurs. Il s’agit notamment d’influenceurs se revendiquant spirituels, de coachs de vie ou encore de spécialistes autoproclamés du développement personnel, dont les compétences apparaissent souvent aléatoires.

La constitution de communautés en ligne constitue un phénomène encore récent, pour lequel nous ne disposons pas à ce jour de dispositifs réellement efficaces permettant d’anticiper ou de prévenir les dérives. Le droit pénal, à juste titre, encadre strictement certaines infractions, telles que la provocation directe au suicide. Pourtant, au sein de ces communautés virtuelles, la pression du groupe peut prendre une forme insidieuse et s’avérer particulièrement préoccupante, surtout lorsqu’elle s’exerce sur des publics mineurs.

Les réseaux sociaux ont ceci de spécifique qu’ils pénètrent l’espace privé des mineurs, souvent sans que les parents, insuffisamment armés sur le plan technique, soient en mesure de paramétrer ou de sécuriser les contenus diffusés. Cette intrusion dans l’intimité familiale constitue un défi d’une nature inédite.

Le nombre de nos signalements adressés au parquet a connu une progression significative, passant de 33 en 2021-2022 à 80 en 2023-2024, tous âges et thématiques confondus. La dimension numérique est désormais presque toujours présente, bien qu’elle soit fréquemment articulée à des interactions physiques. Nous constatons l’implication d’une diversité d’acteurs, souvent dépourvus de qualifications reconnues, intervenant dans des domaines tels que le bien-être, la santé mentale, les sciences occultes, l’astrologie, le coaching de vie pour mineurs, le sport, ou encore les cryptoactifs et les conseils en placements financiers. Ces influenceurs prétendent également traiter des sujets d’ordre intime, tels que les traumatismes, le harcèlement, les souffrances affectives ou les difficultés relationnelles, induisant ainsi des formes de dépendance chez les mineurs.

Au-delà des escroqueries numériques, nous faisons face à la prolifération des fake news et des discours complotistes, lesquels tendent à saper la légitimité des savoirs constitués et remettent en cause les fondements mêmes de la science, de la médecine ou des institutions publiques. Ces nouvelles menaces exigent des réponses audacieuses, en particulier une vulgarisation scientifique approfondie, mobilisant l’expertise des professionnels du savoir.

Nous constatons également un usage détourné des règles des plateformes sociales, notamment à travers la monétisation de contenus sur YouTube ou le recours aux micro-dons sur TikTok, ce qui instaure un climat de spectacle dont les effets peuvent s’avérer délétères pour un jeune public.

L’intelligence artificielle, quant à elle, représente à la fois une ressource et une source de préoccupations. Si elle peut, en effet, contribuer à détecter certains comportements à risque, elle génère également de nouveaux dangers.

Quant au métaverse, il ouvre la voie à des expériences immersives subjectives, susceptibles de favoriser des formes inédites de manipulation, particulièrement inquiétantes lorsqu’elles s’adressent à des mineurs.

La Miviludes enregistre un nombre croissant de demandes d’information et de signalements, qui sont passés de 1 160 à 4 570 en 2024. Pour faire face à cette progression, le Gouvernement a annoncé en novembre 2023 une stratégie nationale de lutte contre les dérives sectaires pour la période 2024-2027, incluant un axe spécifiquement consacré au numérique. Nous mettons en œuvre cette stratégie en partenariat avec plusieurs acteurs publics tels que la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (Pharos), le service de vigilance et de protection contre les ingérences numériques étrangères (Viginum), l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), mais également avec des associations telles que e-Enfance ou Génération Numérique.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Pour commencer, pourriez‑vous approfondir le lien entre la vulnérabilité psychologique des individus et les mécanismes qui conduisent à des phénomènes de dérive sectaire ?

Par ailleurs, en ce qui concerne les réseaux sociaux, identifiez-vous un phénomène de contagion sociale qui leur serait spécifiquement associé ? Observez‑vous, plus précisément, certaines spécificités propres à TikTok en matière d’amplification de ces phénomènes ?

Enfin, quel regard portez-vous sur la réglementation en vigueur, notamment le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), et ses modalités d’application ? Vous semble-t-elle suffisante ou conviendrait-il, selon vous, de la renforcer afin de mieux lutter contre les dérives sectaires, en particulier sur TikTok et les réseaux sociaux dans leur ensemble ?

M. Donatien Le Vaillant. L’emprise mentale, qui constitue le cœur du travail mené par la Miviludes, peut être analysée à travers plusieurs phases distinctes, même si le concept reste l’objet de débats parmi les experts.

La première phase est celle de la séduction, au cours de laquelle l’individu est valorisé, parfois présenté comme porteur de qualités exceptionnelles, voire désigné comme un être élu. Cette valorisation initie un processus d’adhésion progressive. Elle est suivie d’une phase d’endoctrinement, durant laquelle les repères antérieurs s’estompent ou disparaissent sous l’effet de pressions diverses, d’intimidations ou de l’influence du groupe, particulièrement redoutable lorsqu’il s’exerce sur des publics mineurs.

La troisième phase implique l’adoption de règles de vie nouvelles, souvent en rupture avec l’environnement habituel, ce qui tend à provoquer un isolement progressif. Ce retrait découle de la divergence croissante entre les convictions de l’individu et celles de son entourage, pouvant générer un conflit de croyances, voire une véritable rupture relationnelle. Dans ce contexte, il demeure essentiel de préserver le lien avec la personne concernée, quelles que soient la nature ou l’ampleur des croyances adoptées, aussi déroutantes ou préoccupantes qu’elles puissent paraître.

L’isolement favorise alors l’installation d’une phase de dépendance psychologique, susceptible d’induire des choix que la personne n’aurait pas faits en pleine possession de ses moyens. Cette dépendance peut même la conduire à commettre des actes répréhensibles ou à adopter des comportements dommageables. Un tel schéma se retrouve fréquemment dans les dérives sectaires, où tous les membres, à l’exception du leader, reproduisent le modèle d’emprise qu’ils subissent, tout en en demeurant eux-mêmes victimes.

Ce mécanisme se transpose aujourd’hui dans l’univers numérique, parfois avec une efficacité redoutable. Nous avons ainsi été saisis d’au moins deux signalements portant exclusivement sur des situations survenues dans la sphère numérique, même si elles ne concernaient pas la plateforme TikTok. Le premier cas, que nous avons transmis à l’autorité judiciaire, portait sur une provocation au suicide. Le second concernait un dispositif de coaching destiné à des entrepreneurs, mettant en œuvre des pratiques particulièrement inquiétantes, incluant l’usage de stupéfiants, avec une emprise manifeste et des enjeux financiers considérables.

S’agissant de TikTok, la possibilité offerte aux utilisateurs de verser des micro-dons instaure une dynamique singulière, particulièrement préoccupante dès lors qu’elle concerne des mineurs. Bien qu’une réglementation existe, celle-ci demeure aisément contournable. Ce qui nous alarme tout particulièrement, c’est l’impact direct sur les jeunes utilisateurs. Nous avons ainsi reçu un signalement impliquant des mineurs, dont certains étaient âgés de moins de quinze ans. La conjonction entre les fonctionnalités propres à un réseau social et l’émergence d’un phénomène de célébrité peut générer une forme marquée de dépendance, certains mineurs se retrouvant dans une attente permanente de réactions ou d’interventions émanant de la figure centrale du groupe. Cet état d’hypervigilance peut altérer la qualité de leur sommeil, bouleverser leurs habitudes de vie et provoquer une détresse émotionnelle profonde.

À cet égard, nous avons été sollicités par un gendarme qui nous a signalé une tentative de suicide concernant une jeune fille de moins de quinze ans, consécutive au comportement d’une influenceuse. Il nous interrogeait sur l’éventualité que nous ayons déjà instruit un dossier relatif à cette situation spécifique.

M. le président Arthur Delaporte. Pourriez-vous développer cet exemple ?

M. Donatien Le Vaillant. Un gendarme nous a récemment sollicités à propos d’une tentative de suicide impliquant une enfant de treize ans, décrite comme « addicte » à une influenceuse. Toutes les relations de cette jeune fille s’articulaient autour de la communauté animée par cette figure numérique, qu’elle percevait comme une véritable « grande sœur virtuelle », et qui semblait avoir exercé sur elle une forme d’endoctrinement.

Nous avons également identifié d’autres situations dans lesquelles l’évocation du passage à l’acte suicidaire, bien qu’indirecte, suscite une vive inquiétude. Ainsi, une jeune fille exprimait sa détresse en l’absence prolongée de l’influenceuse, déclarant : « Je pense ne plus rester. Je n’aurai pas la force. Elle m’a aidée. J’espère qu’elle reviendra en bonne forme. Je suis en pleurs depuis ce matin. Je ne vais pas bien en ce moment ».

D’autres cas illustrent l’intensité émotionnelle propre à ces dynamiques communautaires, comme cette adolescente qui a affirmé ne plus vouloir s’alimenter après que l’influenceuse a désactivé son compte, allant jusqu’à évoquer l’hypothèse de son suicide. Une autre a écrit : « Si elle le fait, je le fais ».

Ces situations, bien qu’elles n’entrent pas dans le champ du droit pénal, témoignent d’un phénomène de désarroi pouvant frôler la panique et affectant profondément l’équilibre psychologique des jeunes concernés. Ces sentiments sont probablement amplifiés par les interactions au sein même de la communauté, qui alimentent une forme de surenchère émotionnelle, particulièrement marquée chez de très jeunes filles.

Il convient de rappeler que si la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne, récemment adoptée par l’Assemblée, était pleinement appliquée, nous ne serions probablement pas confrontés à de telles situations. Nous devons désormais approfondir notre travail de prévention face à ces phénomènes car le recours au droit pénal n’apparaît pas, en l’état, comme l’outil le plus pertinent.

S’agissant de la réglementation, il est fondamental de veiller, en premier lieu, à l’application rigoureuse des dispositions existantes avant d’envisager leur évolution. Le DSA, qui nous permet, en France, de nous adresser à l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), impose une définition précise et une documentation rigoureuse des risques systémiques. Il apparaît cependant que les agents de l’État, y compris au sein de notre propre service, ne disposent pas encore de la formation nécessaire pour mettre pleinement en œuvre cette réglementation. Bien que nous soyons en mesure d’identifier des risques systémiques manifestes pour la population, nous devons encore perfectionner la méthodologie permettant de les qualifier et de les étayer de manière formelle. L’outil Pharos s’avère aujourd’hui particulièrement bien adapté pour traiter les questions relevant de la sécurité des personnes et du droit pénal dans le cadre des risques systémiques. Toutefois, l’application du DSA exige l’adoption de nouvelles approches analytiques. Avant toute réforme, il est donc indispensable de garantir une mise en œuvre efficace et exigeante de ce cadre réglementaire récent.

Nous avons, de notre côté, mis en place une adresse électronique dédiée (numerique-miviludes@interieur.gouv.fr) dont la diffusion reste volontairement restreinte, compte tenu de la taille réduite de notre service, qui ne regroupe que quinze personnes. Il nous faut en effet assurer le traitement d’un nombre croissant de signalements et de demandes d’information, tout en évitant un engorgement de nos capacités.

Il nous semble impératif d’améliorer notre capacité à analyser les risques systémiques, car ce sont précisément ces éléments qui, s’ils sont négligés, peuvent conduire à des sanctions pour absence de réponse adaptée. Une telle amélioration constitue sans doute la voie la plus prometteuse pour optimiser l’application du règlement.

Par ailleurs, des avancées notables peuvent être accomplies en matière de prévention et d’information du public, sans qu’il soit nécessaire d’adopter de nouveaux textes législatifs. L’étude récemment publiée par la Fondation Descartes sur l’information en santé souligne l’existence d’un lien entre le niveau de connaissance médicale des usagers et leur recours aux réseaux sociaux pour obtenir des conseils. Face à cette tendance croissante, il est essentiel de renforcer la vulgarisation scientifique et médicale afin de rendre accessibles, sur ces plateformes, des contenus fiables et pédagogiques, y compris sur TikTok.

Bien que nous ne soyons pas une autorité sanitaire, nous pourrions jouer un rôle de facilitateur dans les échanges avec des institutions telles que l’Institut national de la santé et de la recherche médicale (Inserm) ou la Haute Autorité de santé (HAS) et contribuer à la production de contenus adaptés, sous la forme de fiches synthétiques relatives à certaines pratiques médicales. L’exemple du jeûne, qui s’est développé parfois au détriment de la santé des individus, y compris des mineurs, illustre avec acuité ce besoin accru d’information claire et rigoureuse. La mise en œuvre de ces initiatives visant la diffusion d’informations ne nécessite pas l’édiction de nouvelles normes, mais plutôt une meilleure coordination entre les différents acteurs concernés que sont les institutions scientifiques, les grands réseaux sociaux et les associations spécialisées. Cela implique toutefois de disposer de ressources humaines adaptées et d’identifier un service dédié pour assurer cette fonction d’interface. Le ministre de la santé a formulé plusieurs annonces à la suite des assises de lutte contre la désinformation médicale. C’est précisément ce type de mesures qu’il conviendrait de renforcer.

Quant à l’avenir de TikTok en Europe, je n’émets pas de position tranchée sur ce point, cette décision relevant de la représentation nationale. Il est toutefois intéressant d’observer que certains États, comme l’Espagne, mobilisent efficacement cette plateforme à des fins de communication policière.

Dans le champ de l’information et de la prévention, nous pourrions sans doute mieux tirer parti de ces outils, tout en demeurant attentifs à leurs usages. Une réflexion approfondie s’impose, car il serait incohérent de dénoncer les effets négatifs de ces plateformes sans chercher à exploiter leur potentiel positif. Il nous faut dès lors opérer des choix stratégiques clairs et valoriser davantage les actions de vulgarisation scientifique menées par des professionnels de santé sur ces réseaux.

Mme Laure Miller, rapporteure. Face à la prolifération de fake news et d’informations médicalement dangereuses, particulièrement accessibles aux mineurs qui ne devraient pas être présents sur ces réseaux sociaux, la stratégie actuelle semble insuffisante. Nous avons l’impression de devoir constamment lutter pour rétablir un équilibre face à un flux massif de désinformation, en envisageant la création de comptes officiels pour contrecarrer ces fausses informations. Il est légitime de s’interroger sur la responsabilité des plateformes comme TikTok, qui adoptent une attitude attentiste et n’assument pas les conséquences de leur algorithme.

Dans ce contexte, pourriez-vous nous en dire plus sur le cas de l’influenceuse Ophenya, pour lequel vous avez saisi le procureur de la République ?

M. Donatien Le Vaillant. Je précise tout d’abord que la Miviludes ne communique en principe pas publiquement sur les signalements transmis à la justice, afin de ne pas compromettre le bon déroulement des enquêtes. Dans le cas présent, c’est le parquet de Paris qui a choisi de rendre cette information publique, ce qui m’autorise aujourd’hui à en évoquer les contours.

Nous avons été alertés par le collectif Meer (Mineurs, éthique et réseaux) de l’existence d’un volume important d’informations relatives à l’influenceuse Ophenya. L’exploitation de ces données, qui se présentaient principalement sous la forme de captures d’écran, s’est révélée complexe. Il convient de rappeler que les captures d’écran ne constituent pas des preuves recevables en justice, contrairement aux liens internet, à condition que leur mise en ligne effective puisse être démontrée. À cet égard, la plateforme Pharos joue un rôle déterminant puisqu’elle enregistre systématiquement les liens qui lui sont signalés, évitant ainsi le recours à un constat de commissaire de justice.

À l’issue d’une analyse approfondie des informations recueillies, j’ai signé un signalement adressé à la procureure de Paris, dans lequel plusieurs faits préoccupants ont été exposés. Certains d’entre eux ont d’ailleurs déjà été évoqués, notamment les idées suicidaires exprimées par de jeunes internautes, ainsi que l’affaire signalée par un gendarme dans le cadre d’une tentative de suicide.

J’ai, en premier lieu, signalé les propos à caractère suicidaire tenus par plusieurs jeunes internautes. La communauté désignée par Ophenya sous le nom de « BGnya » semble en effet majoritairement composée d’adolescentes, dont certaines sont manifestement très jeunes. Bien que la majorité des comptes TikTok ne mentionnent pas l’âge de leurs utilisateurs, l’analyse de plusieurs profils a permis d’identifier des mineures de moins de quinze ans, information d’ailleurs relayée par certains médias.

L’examen des comptes TikTok et Instagram d’Ophenya met en lumière une activité numérique soutenue, accompagnée de nombreuses interactions directes avec sa communauté. Celles-ci prennent la forme de commentaires, de likes, de diffusions en direct ou encore de notifications ciblées. Si ces pratiques restent, à ce stade, parfaitement légales, elles soulèvent néanmoins des interrogations dès lors qu’elles impliquent des mineurs.

Les échanges électroniques témoignent d’une forte adhésion émotionnelle aux états d’âme de l’influenceuse. Ce phénomène d’amplification interne au groupe est particulièrement inquiétant, certains membres allant jusqu’à proférer des insultes, voire des menaces de mort à l’encontre des personnes critiques à son égard. Bien que nous n’ayons pas procédé à une analyse exhaustive de ces interactions, nous avons pu recenser plusieurs occurrences de ce type de comportements.

Certains éléments isolés, mais significatifs, ont également retenu notre attention. Il s’agit notamment de la promotion présumée d’activités illicites, telles que l’usage d’un taser ou le fait de se filmer au volant d’un véhicule roulant à grande vitesse sans ceinture de sécurité. Nous avons également relevé des allégations de cyberharcèlement, de violences, ainsi que des propos à connotation sexuelle. Ces éléments demeurent juridiquement sensibles à qualifier, la notion de corruption de mineur supposant la démonstration d’éléments intentionnels.

Le comportement mimétique, parfois empreint de ferveur quasi fanatique, observé chez certaines jeunes filles, constitue un motif supplémentaire de préoccupation. En réaction aux contrariétés exprimées par Ophenya, certaines ont publié des photographies montrant des cicatrices de scarification ou des blessures, tandis que d’autres annonçaient entamer une grève de la faim ou évoquaient un projet de suicide.

Compte tenu de la gravité des faits relatés et de leur dépassement manifeste du champ de compétences de la Miviludes, j’ai transmis un signalement au procureur de la République sur le fondement de l’article 40 du code de procédure pénale, qui oblige tout fonctionnaire à transmettre des faits de nature délictuelle au procureur. Ce signalement couvre l’ensemble des éléments mentionnés, bien que, n’étant pas habilités à diligenter des enquêtes judiciaires, nous n’ayons pu ni vérifier ces allégations ni approfondir les investigations relatives au compte de l’influenceuse Ophenya.

M. Antoine Vermorel-Marques (DR). Bien que cela puisse dépasser le strict cadre de cette commission d’enquête, j’aimerais aborder un point qui me semble néanmoins pertinent. Pouvez-vous nous indiquer si l’impact de TikTok en termes d’addictions est plus prononcé chez les mineurs que chez les majeurs ? En d’autres termes, d’après les signalements que vous recevez ou les enquêtes que vous menez, les mineurs sont-ils spécifiquement ciblés par l’application, ou s’agit-il d’un phénomène généralisé touchant l’ensemble de la population ?

M. Donatien Le Vaillant. La Miviludes a reçu à ce jour 135 signalements relatifs à la plateforme TikTok, dont 17 concernaient expressément des mineurs, principalement en lien avec l’influenceuse mentionnée précédemment. Dans les autres dossiers, la présence de mineurs ne peut être exclue, bien qu’elle n’ait pas été identifiée de manière explicite.

Nous ne disposons donc pas, à ce stade, d’éléments d’analyse permettant d’établir un ciblage intentionnel et spécifique des mineurs. Toutefois, l’usage des technologies numériques telles que TikTok, conjugué à la forte proportion de mineurs parmi les audiences concernées, suscite de réelles préoccupations. Celles‑ci portent en particulier sur la facilité de prise de contact et les effets de groupe que j’ai précédemment décrits. Le phénomène d’homophilie, c’est-à-dire la propension des individus à se regrouper au sein de communautés homogènes et à adopter les comportements majoritaires, représente un risque accru pour les mineurs. Des fillettes âgées de dix ou douze ans peuvent ainsi être conduites à imiter le comportement de leurs pairs, parfois dans une logique de surenchère, notamment lorsqu’il est question de thèmes sensibles tels que le harcèlement, la mort ou les blessures intimes.

Il est donc indispensable de renforcer les actions de prévention, tout en rendant accessibles aux familles des outils réellement efficaces leur permettant de contrôler l’accès à ces plateformes. En Chine, par exemple, le recours à la reconnaissance faciale a été instauré à cette fin. Une telle approche pourrait cependant soulever, dans le contexte français, des objections légitimes au regard de la protection des libertés publiques. Il appartient dès lors au Parlement de déterminer le juste équilibre entre l’impératif de protection des mineurs et le respect des droits fondamentaux.

L’usage de technologies comme TikTok soulève des problématiques qui excèdent le champ d’analyse classique du droit pénal. Nous sommes confrontés à un phénomène collectif, rapide et difficilement maîtrisable, au sein duquel les mineurs peuvent évoluer sans encadrement parental. Ce constat invite à une réflexion approfondie sur les formes de régulation les plus adaptées à cette nouvelle réalité.

M. Stéphane Vojetta (EPR). Je souhaite rebondir sur votre mention des cryptomonnaies et leur présence sur les réseaux sociaux, notamment TikTok. Nous constatons parfois une certaine dérive, avec la formation de communautés autour des cryptomonnaies, présentées comme un moyen d’accéder facilement à la richesse. Ce phénomène se limite-t-il aux cryptomonnaies ou avez-vous identifié d’autres sujets financiers, potentiellement assimilables à des structures pyramidales, qui se développent grâce aux réseaux sociaux ?

Pensez-vous par ailleurs que le rôle joué par les réseaux sociaux dans la promotion de ces prétendus chemins vers la richesse puisse influencer la société au sens large, notamment en termes de valeurs, opposant le sens de l’effort à la quête d’argent facile ? Je m’interroge particulièrement au vu de l’actualité récente, qui met en lumière une recrudescence d’incidents violents, s’apparentant au grand banditisme, ciblant des personnalités connues du monde des cryptomonnaies. Pensez-vous qu’il puisse exister un lien entre ces phénomènes ?

M. Donatien Le Vaillant. Je reconnais ne pas avoir suffisamment développé la question du coaching et les menaces qu’il peut représenter, en particulier à l’égard des adolescents sur les réseaux sociaux. Vous avez eu raison de souligner cet angle, d’autant que, si j’avais effectivement évoqué les cryptoactifs, je n’avais pas mis en évidence la manière dont les dérives sectaires peuvent se manifester dans le domaine du coaching. Or ce phénomène s’y retrouve de manière saisissante.

Le risque principal tient à la rupture avec l’environnement familial, qui constitue bien souvent le premier signe d’une emprise sectaire. Dans la majorité des cas, ce sont les familles elles-mêmes qui nous saisissent, inquiètes d’avoir perdu tout contact avec un proche ayant rejoint un mouvement perçu comme suspect. Le culte de l’argent facile exerce un attrait puissant, en particulier sur les adolescents et les jeunes adultes. Certaines structures imposent une pression importante à leurs membres afin qu’ils atteignent des objectifs commerciaux ambitieux et qu’ils recrutent de nouveaux clients. Les systèmes de vente pyramidale, que vous avez mentionnés, se retrouvent effectivement dans ce contexte, de manière très explicite. La dynamique de groupe renforce encore cette pression, les objectifs imposés aux nouveaux arrivants étant systématiquement revus à la hausse.

Nous avons identifié ces pratiques et, pour certains cas, procédé à des signalements auprès de la justice. Il faut toutefois reconnaître que l’attrait pour une richesse immédiate, véhiculée par certains influenceurs installés à Dubaï ou ailleurs, conjuguée à une représentation valorisante d’un mode de vie fondé sur l’image et le paraître, exerce une influence pesante sur l’état d’esprit général. Tous les jeunes n’ont pas les ressources nécessaires pour prendre du recul face à ces injonctions.

Les menaces dans ce domaine sont donc bien réelles. Nous observons d’ailleurs un brouillage des repères, dans lequel le coaching se mêle parfois à des références spirituelles ou à des conseils en matière de santé et de bien-être. Cette hybridation séduit car elle repose sur une logique d’expérience personnelle, souvent perçue comme plus légitime que les qualifications académiques ou les garanties institutionnelles traditionnelles.

M. le président Arthur Delaporte. Avez-vous déjà reçu des témoignages concernant des jeunes qui dépensent de l’argent sur TikTok ?

M. Donatien Le Vaillant. Nous avons effectivement reçu des signalements à ce sujet.

M. le président Arthur Delaporte. Avez-vous eu connaissance de jeunes qui gagnent de l’argent sur TikTok ?

M. Donatien Le Vaillant. Ce type de cas n’a pas été porté à ma connaissance.

M. le président Arthur Delaporte. Avez-vous mené des investigations approfondies sur les mécanismes liés au commerce ou aux pratiques de dépenses des jeunes ?

M. Donatien Le Vaillant. Nous n’avons pas encore pu approfondir ces aspects, faute de temps. Notre priorité demeure la réponse aux signalements et aux demandes d’information qui nous sont adressés, conformément aux missions qui nous sont fixées par décret. Nous aimerions toutefois pouvoir élargir notre champ de compétences afin d’explorer plus en profondeur ces problématiques émergentes.

M. le président Arthur Delaporte. Quels sont aujourd’hui les effectifs de la Miviludes ?

M. Donatien Le Vaillant. Notre service se compose actuellement de quatre agents recrutés sous contrat et de dix agents mis à disposition par d’autres ministères, auquel s’ajoute un alternant, ce qui représente un total de quinze personnes.

M. le président Arthur Delaporte. Estimez-vous disposer des moyens suffisants pour mener à bien votre mission ?

M. Donatien Le Vaillant. La réponse à cette question dépend étroitement de ce qui nous est demandé. Il convient néanmoins de souligner que le volume des signalements a doublé depuis 2015 et que, selon les membres de mon équipe, leur gravité s’est notablement intensifiée.

M. le président Arthur Delaporte. Comment ont évolué les effectifs de la Miviludes depuis 2015 ?

M. Donatien Le Vaillant. Ils sont restés stables.

M. le président Arthur Delaporte. Rencontrez-vous parfois des difficultés à saisir la justice dans des délais courts en cas d’urgence, ou êtes-vous en mesure de traiter ces situations rapidement ?

M. Donatien Le Vaillant. Bien que nous traitions toujours les urgences en priorité, les phénomènes de manipulation mentale nécessitent souvent un travail approfondi et prolongé pour être démontrés. Nous devons également maintenir notre capacité à mener des actions de prévention, notamment à travers notre rapport d’activité. Notre défi consiste à concilier ces différentes contraintes.

M. le président Arthur Delaporte. Je tiens à vous remercier pour votre participation et, plus largement, pour votre engagement au service de l’intérêt général.

15.   Audition de M. Elie Andraos, psychologue clinicien et coordonnateur du projet Addict IEJ (Intoxication Ethylique Jeunes) au CHU Amiens-Picardie, Mme Sabine Duflo, psychologue clinicienne, Mme Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie à l’Université de Rennes 2, et Mme Vanessa Lalo, psychologue clinicienne (mardi 6 mai 2025)

Puis, la commission auditionne conjointement M. Elie Andraos, psychologue clinicien et coordonnateur du projet Addict IEJ (Intoxication Ethylique Jeunes) au CHU Amiens-Picardie, Mme Sabine Duflo, psychologue clinicienne, Mme Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie à l’Université de Rennes 2, et Mme Vanessa Lalo, psychologue clinicienne ([15]).

M. le président Arthur Delaporte. Je vous remercie d’avoir répondu favorablement à notre invitation. Je vous prie, avant votre intervention, de déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Elie Andraos, Mme Séverine Erhel, Mme Vanessa Lalo et Mme Sabine Duflo prêtent successivement serment.)

M. Elie Andraos, psychologue clinicien et coordonnateur du projet Addict IEJ (Intoxication éthylique jeunes) au centre hospitalier universitaire (CHU) Amiens-Picardie. Je suis psychologue clinicien ; depuis un an et demi, je coordonne un projet relatif à l’intoxication éthylique aiguë chez les jeunes. Plus exactement, puisque le terme « jeunes » ne veut rien dire, nous nous occupons de personnes âgées de 15 à 24 ans qui arrivent aux urgences en souffrant d’une intoxication à l’alcool. Certains souffrent de troubles de l’usage ou d’addiction aux réseaux sociaux.

Au cours de mon master, j’ai effectué deux recherches sur la peur de passer à côté, le fear of missing out (Fomo), respectivement dans le cadre des jeux vidéo et dans celui des réseaux sociaux, notamment TikTok. La seconde tendait à valider en français une échelle élaborée en 2013 par Andrew M. Przybylski, professeur à Oxford, ensuite développée dans plusieurs autres langues. M. Pierluigi Graziani, M. Jonathan Del Monte et moi avons publié la validation dans L’Encéphale en mars 2025.

La peur de passer à côté se manifeste par la sensation que les autres personnes, comme les amis et l’entourage, vivent des expériences plus enrichissantes que nous, ce qui nous donne l’envie de faire plus de choses et, parfois, d’être davantage sur les réseaux sociaux. Le questionnaire pour la mesurer contient des items comme : « Je crains que mes amis vivent des expériences plus enrichissantes que moi. » ; « Ça m’embête de rater une rencontre avec les amis. » ; « Je deviens anxieux quand je ne sais pas ce que font mes amis. » Nous avons déterminé, avec une bonne validité convergente, une corrélation positive – qui s’exerce dans les deux sens – entre la peur de passer à côté et l’usage problématique des réseaux sociaux, évalué avec l’IAT-RS, le test de dépendance à internet adapté aux réseaux sociaux, ou l’addiction au smartphone, mesurée avec le SAS-SV, l’échelle de dépendance au smartphone, version courte. Autrement dit, les personnes qui ressentent le plus fortement la peur de passer à côté utilisent davantage leur écran, plus spécifiquement les réseaux sociaux. Les résultats que nous avons obtenus sont presque identiques à ceux des autres pays, notamment ceux de la littérature de langue anglaise. En étudiant la médiation, nous avons montré que chez des sujets présentant des vulnérabilités spécifiques, comme l’anxiété et la dépression, la peur de passer à côté influence l’usage des smartphones et des réseaux sociaux. Cette donnée, importante, confirme les résultats d’études menées dans plusieurs langues. Les personnes que vous avez auditionnées ont longuement parlé des réseaux sociaux mais ont rarement soulevé la question de savoir qui était plus susceptible de développer des usages problématiques. Nos patients le confirment : lorsque des personnes sont vulnérables, le risque est plus élevé. L’anxiété et la dépression sont des facteurs de vulnérabilité, comme le trauma, l’impulsivité, la recherche de sensation et l’adolescence. Lors d’une audition, un intervenant a souligné que les profils des adolescents étaient hétérogènes ; j’ajoute que tous ne sont pas aussi vulnérables.

Les données doivent être considérées avec prudence. Celles que je vous présente sont issues d’une seule recherche : ce n’est pas rien mais, en science, c’est peu. Nous disposons en français d’un faible nombre de recherches sur la peur de passer à côté – peut-être une seule – et de quelques autres sur les addictions et les réseaux sociaux. Or certains discours laissent penser qu’on en sait beaucoup plus. Par exemple, on entend souvent dire que nous sommes capables de 8 secondes d’attention, contre 9 pour un poisson rouge, et que Microsoft a mené une étude montrant que dans les années 2000, notre attention pouvait durer 12 secondes, mais qu’en 2013, elle avait chuté à 8. M. Pete Etchells, professeur de psychologie et de science de la communication à l’université de Bath Spa en Angleterre, explique que cette donnée ne repose sur rien de vrai : il n’y a pas d’étude menée par Microsoft, il n’a pas été démontré que notre capacité d’attention était de 12 secondes en 2000, ni de 8 secondes en 2013 ; quant aux 9 secondes d’attention des poissons rouges, c’est une donnée falsifiée. On voit ainsi citer de nombreuses données chiffrées – nous n’utilisons que 10 % de notre cerveau, par exemple –, qui ne sont que des statistiques zombies : leur existence persiste dans nos croyances et dans les discours populaires, alors qu’elles ne reposent sur aucune donnée scientifique. Je vais donc vous parler de ce que nous savons vraiment.

Au cours de vos auditions, vous avez entendu parler de dépendance, d’addiction, de troubles d’usage et de comportements boulimiques ; on vous a dit que les jeunes étaient dépendants. Je vous encourage à lire un article du professeur Joël Billieux de l’université de Lausanne, publié en 2015, sur la surpathologisation des activités quotidiennes. Il donne l’exemple de l’addiction au tango argentin : quand on applique les critères de définition des troubles d’usage ou d’addiction comportementale aux activités de tous les jours, on conclut à une dépendance, alors qu’il ne s’agit pas vraiment d’addiction. Les items du questionnaire chargé d’évaluer la dépendance au smartphone permettent de comprendre comment on aboutit à des faux positifs : « J’utilise mon smartphone de telle manière que cela a un impact négatif sur ma productivité ou mon travail. » ; « Je ne supporte pas le fait de ne pas avoir mon smartphone. » ; « J’ai du mal à me concentrer en classe, durant mes devoirs ou durant le travail, à cause du smartphone. » ; « Mes proches me disent que j’utilise trop mon smartphone. » ; « Je ressens des douleurs aux poignets ou dans le cou quand j’utilise mon smartphone. » Selon ces critères, plus de la moitié d’entre nous seraient sans doute concernés par l’addiction. En effet, dans le domaine des addictions comportementales, on peut être confronté à des biais de construction : ici, on crée une échelle relative à une addiction présumée alors que cette dernière n’est encore entrée ni dans le DSM, le Manuel diagnostique et statistique des troubles mentaux, ni dans la CIM, la classification internationale des maladies. C’est le cas de l’addiction aux réseaux sociaux.

Que savons-nous de TikTok ? Nos connaissances pour le comprendre datent des modèles de conditionnement opérant et de psychologie comportementale que Burrhus Frederic Skinner a développés au XXe siècle. Quand on va sur l’application, toutes les vidéos ne nous intéressant pas, on les fait défiler – on scrolle –, jusqu’à tomber sur la bonne, comme celle qui nous fait rire ou nous émeut : le plaisir va renforcer notre comportement. Or le renforcement à intervalle variable est le plus puissant des systèmes : c’est celui des machines à sous. Le casino veut notre argent ; TikTok veut notre temps. Comme on tire sur le bras de la machine, on fait glisser notre doigt jusqu’à trouver la bonne vidéo, ce qui renforce notre comportement. Le système existe depuis des décennies.

On parle beaucoup de l’algorithme mais son rôle n’est pas non plus inédit. Quand vous entrez dans un magasin, un employé vient vous poser des questions pour personnaliser votre expérience. Mais le vendeur, à un moment donné, s’éloignera pour vous laisser choisir tranquillement ou, s’il est trop insistant, sera congédié. L’algorithme, lui, est un vendeur 2.0 : toujours présent, il vous observe en permanence, sait combien de fois vous cliquez, likez, regardez. Il personnalise votre expérience à tel point qu’on peut parler de focalisation par répétition. Quand on télécharge TikTok, il nous propose différents contenus ; si je clique à plusieurs reprises sur des vidéos associées à un même thème, par exemple SkinnyTok parce que j’ai des problèmes d’alimentation, j’en aurai de plus en plus, comme celles d’influenceuses expliquant que si mon ventre gargouille quand j’ai faim, c’est pour m’applaudir parce que je vais maigrir, ou de personnes plus directes qui disent : « Tu n’es pas moche, tu es juste grosse » – des vidéos pro-ana, qui favorisent l’anorexie. C’est vrai aussi de la misogynie. La dernière étape, ce sont les wormholes : pour nous encourager à utiliser davantage l’application, TikTok favorise la répétition jusqu’à offrir non une navigation libre, mais des contenus tous de même nature – je suis presque matrixé.

La misogynie et la culture de la minceur ne datent pas de TikTok. Mme Rayna Stamboliyska a évoqué devant vous les sites web pro-ana : ils existent depuis plus de vingt ans. Les réseaux sociaux sont un miroir ; s’ils montrent des vidéos promouvant la minceur ou la misogynie, c’est parce qu’ils représentent notre culture. Nos jeunes sont influencés : ce peut être par un ami de l’école, par un adulte ou par TikTok. Il faut anticiper. Au lieu d’attendre qu’un homme accusé de trafic d’êtres humains leur parle des rapports entre les hommes et les femmes ou qu’ils apprennent la sexualité avec la pornographie, nous pouvons créer des contenus positifs. Il en existe sur TikTok : Santé publique France a publié des vidéos incitant à réduire la consommation d’alcool. Nous devons les encourager et les promouvoir, et mieux contrôler les contenus malsains, comme SkinnyTok et les vidéos misogynes.

Mme Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie à l’université de Rennes 2. Je parlerai de la santé mentale, de l’éducation aux médias et de la régulation numérique, en particulier concernant la vulnérabilité des adolescents : en plein développement, ceux-ci sont plus exposés à certains risques liés aux réseaux sociaux.

La santé mentale des jeunes est multidimensionnelle : les réseaux sociaux peuvent l’affecter, en particulier en cas de cyberharcèlement, mais d’autres éléments interviennent, comme le montre l’enquête Enclass (enquête nationale en collèges et en lycées chez les adolescents sur la santé et les substances) : si certains individus se sentent en bonne santé, 14 % des collégiens et 15 % des lycéens interrogés déclarent souffrir de symptômes dépressifs. Les liens entre les réseaux sociaux et la santé mentale des jeunes sont complexes ; les recherches sont encore insuffisamment étayées, notamment sur TikTok. Les études existent mais elles sont surtout corrélationnelles, c’est-à-dire qu’elles évaluent des associations ; certaines, longitudinales, parviennent à démontrer des causalités, mais elles sont peu nombreuses. On a plutôt affaire à des analyses bivariées qui examinent les liens entre, par exemple, des symptômes de dépression ou d’anxiété et l’utilisation des réseaux sociaux : des individus ayant des vulnérabilités arrivent sur les réseaux sociaux où les algorithmes, notamment, les exposent à des contenus qui aggravent leurs difficultés et leurs symptômes. S’agissant du cyberharcèlement, on peut commencer à parler de causalité. Subir un cyberharcèlement sur les réseaux sociaux, par exemple sur TikTok, cause une détresse psychologique et des symptômes pouvant aller jusqu’au syndrome de stress post-traumatique (SSPT). De plus, quelques études concluent que la consultation tardive des réseaux sociaux et la lumière émise décalent l’endormissement, nuisant au sommeil. Or d’autres études montrent que la qualité du sommeil des adolescents est un excellent prédicteur de leur santé mentale : un bon sommeil favorise une bonne santé mentale.

Plutôt que d’addiction aux réseaux sociaux, je parlerais d’usage problématique. Ni le DSM ni la CIM ne répertorient de troubles liés aux réseaux sociaux. Il existe une prévalence mais tous les chercheurs ne sont pas d’accord. Les études que j’ai menées montrent que les adolescents qui les utilisent beaucoup sont vulnérables : il est possible que les réseaux servent de refuge en cas de difficultés psychologiques ou intrafamiliales. Pris dans des spirales de contenus qui font écho à leurs symptômes dépressifs, les jeunes concernés tendent à y rester enfermés.

À mon sens, il ne faut pas faire des réseaux sociaux la cause unique des difficultés mais les considérer comme un environnement propice à alimenter ces dernières. Comment résoudre le problème ? En premier lieu, il faut s’occuper des algorithmes. Celui de TikTok continue à promouvoir des contenus qui mettent les individus en difficulté. Ensuite, il faut apprendre aux adolescents à réagir au Fomo, en particulier aux notifications qui leur font craindre de manquer des événements importants. Il est donc essentiel de limiter les conceptions fondées sur la captation intentionnelle, c’est-à-dire d’appliquer le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA). Sur les adolescents en difficulté, les algorithmes peuvent avoir un effet de spirale qui aggrave leur situation : il faut encadrer les recommandations personnalisées. Nous devons également favoriser la transparence des plateformes et le contrôle des algorithmes, par le paramétrage. Par ailleurs, le problème dépasse le seul cas de TikTok ; il concerne plus largement les réseaux sociaux – très visuels, leur fil est infini. Instagram par exemple met à disposition une intelligence artificielle qui propose des reels, sans le consentement des adultes ni celui des adolescents. À quoi servira-t-elle ? Comment protégerons-nous les mineurs ? Cela contrevient aux dispositions du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD), qui interdit l’accès aux données des adolescents de moins de 13 ans et soumet celui des plus de 13 ans à l’accord parental.

Une deuxième piste consiste à travailler sur l’éducation aux médias. Les jeunes sont lucides : ils se rendent compte qu’ils passent parfois trop de temps sur les réseaux sociaux – c’est aussi l’image que les adultes leur renvoient souvent. S’ils comprennent très bien le fonctionnement des trends, par exemple, ils n’ont pas toujours connaissance du modèle économique ni des externalités négatives. L’éducation aux médias existe mais elle est noyée : le cycle 4 prévoit qu’on y consacre dix-huit heures par an, mais avec d’autres sujets, comme le développement durable. Or il est essentiel de former les jeunes à ces questions, afin de créer des espaces numériques sécurisés pour tous – les majeurs aussi en ont besoin. Cela nécessite une régulation plus solide, donc des instruments juridiques européens à même de nous permettre d’intervenir auprès des plateformes, par exemple pour repérer les contenus problématiques.

Mme Vanessa Lalo, psychologue clinicienne. Vous nous avez demandé de déclarer d’éventuels liens d’intérêt. J’ai participé à deux tables rondes avec des équipes de TikTok. La première, en 2021, était consacrée à un état des lieux des changements des pratiques numériques liés à la pandémie ; la seconde, à la question de savoir si l’on peut apprendre avec les réseaux sociaux. On ne m’a jamais demandé de tenir des propos spécifiques ; je n’ai jamais abondé dans le sens de TikTok en raison de ces participations ; si la société a offert des cadeaux aux créateurs de contenus, je n’en ai pas reçu.

M. le président Arthur Delaporte. Avez-vous été rémunérée pour vos participations ?

Mme Vanessa Lalo. Oui, j’ai été rémunérée, par leur agence de presse. J’ajoute que je n’avais pas rencontré les agents de TikTok avant les tables rondes. La première ayant été organisée en visioconférence, je ne les ai rencontrés que lors de la seconde. Celle-ci a eu lieu juste après l’attaque du Hamas en octobre 2023 : j’en ai profité pour leur demander comment ils luttaient contre la présence sur leur application d’enfants trop jeunes – de moins de 13 ans. Ils m’ont répondu que ce n’était pas un problème car ils utilisaient des intelligences artificielles très bien faites. J’ai également évoqué les trends relatifs aux attaques et aux violences au Proche-Orient, trop mis en avant : pour eux, ce n’était pas non plus un problème. La question de l’opportunité d’interdire les réseaux sociaux avant 15 ans était alors très présente dans le débat public. Je leur ai demandé ce qu’ils comptaient faire à ce sujet ; ils m’ont répondu qu’ils ne mettraient rien en œuvre tant que la France n’aurait pas établi de cahier des charges et que, de toute façon, l’Europe retoquerait cette décision, qu’ils n’auraient donc rien à faire. Je n’ai eu à leur égard aucune complaisance.

TikTok est l’application la plus téléchargée au monde. En tant que clinicienne, je n’ai pas d’autre choix que d’accompagner les pratiques de ceux qui viennent me consulter, des parents en difficulté avec cet outil et des jeunes, massivement présents sur les réseaux. Trois possibilités s’offrent à nous : faire avec ; lutter contre ; inventer autre chose. Aucune ne me paraît satisfaisante ou envisageable. Peut-être faut-il coconstruire des solutions qui mêlent les trois.

On ne peut se concentrer sur TikTok uniquement : il faut observer les effets de tous les réseaux sociaux et plateformes sur la jeunesse et sur la population en général. La captation des données, celle de l’attention et l’exposition à des contenus anxiogènes ou inadaptés en particulier constituent des aspects critiques. C’est également le cas de l’amplification ou de la révélation des troubles de santé mentale : la recherche ne montre pas que l’usage des réseaux sociaux crée des troubles mais, en cas de vulnérabilité, il faut faire très attention. Finalement, ce qui manque le plus cruellement, c’est l’accompagnement éducatif : on laisse les jeunes et les extrêmes prendre possession des réseaux, parce que la masse des individus ne produit pas de contenus de nature à contrecarrer ceux ainsi proposés. On a l’impression de voir toujours les mêmes publications délétères, alors qu’il en existe de magnifiques, sur TikTok comme ailleurs ; malheureusement, quand on va sur TikTok pour la première fois comme quand on l’utilise depuis longtemps, celles que propose l’onglet « pour vous » ne correspondent ni à nos envies ni à rien de positif, parce que l’algorithme nous teste. C’est bien ce qui est problématique.

Il faut mettre des bibliothèques de ressources numériques à la disposition des utilisateurs. C’est un exemple un peu élitiste, mais si on veut que les enfants lisent Stendhal, ses livres doivent être dans notre bibliothèque. De la même façon – et je le dis aux professionnels comme aux parents –, il faut proposer le Stendhal du numérique pour que les jeunes qui passent du temps en ligne puissent bénéficier de contenus de qualité et en discuter. TikTok peut être une source d’enrichissement : on y trouve toutes sortes de tutoriels et des contenus éducatifs vraiment chouettes. Il faut toutefois bien chercher pour y avoir accès et, souvent, ni les parents ni les enfants ne connaissent leur existence.

Je ne dis pas qu’il faut laisser faire et baisser les bras face au temps excessif passé devant les écrans. Il n’est pas normal d’y passer des heures. Je dis simplement que, puisque les adolescents sont tous sur TikTok, autant essayer d’en faire quelque chose de positif qui serve à la construction des adolescents, d’un point de vue pédagogique, culturel, artistique et citoyen et éviter ainsi d’en faire des espaces qui ne font que renforcer les problèmes.

J’ignore si cette initiative s’est concrétisée, mais Pinterest avait proposé de lutter contre les contenus délétères grâce à des réponses automatiques bienveillantes à des requêtes portant par exemple sur les scarifications et les états suicidaires. Le développement personnel et le coaching sont critiquables, mais ces réponses n’enfoncent pas la personne dans ses problèmes. J’aimerais promouvoir cette idée positive.

Travaillons donc tous ensemble pour voir ce qu’il est possible de faire avec ces algorithmes totalement opaques. Les recommandations de contenus « Pour toi » dans TikTok ne reflètent pas ceux auquel l’usager est abonné. Cela pose un vrai problème.

Les réseaux offrent des leviers éducatifs et de sensibilisation aux compétences psychosociales, notamment à l’école, ainsi qu’y incite le plan France 2030. La méditation est critiquée, mais on peut retenir l’esprit critique, la gestion des émotions, la confiance en soi, la coopération, l’empathie ou encore la résolution de problèmes de façon créative. Les jeunes, parce qu’ils sont très connectés, ont des compétences qui ne sont pas formellement valorisées, ni à l’école ni par les adultes.

La question de l’éducation des parents au numérique n’a pas été beaucoup abordée. Cet enjeu fondamental requiert des financements. Beaucoup de parents sont démunis, soit qu’ils ne maîtrisent pas suffisamment le numérique en général, soit qu’ils ne comprennent pas comment fonctionnent les différents réseaux. Leur usage est tellement différent de celui de leurs enfants qu’ils passent à côté de certains problèmes.

On a trop tendance à voir les influenceurs de façon négative alors que certains créateurs de contenus peuvent apporter des éléments positifs. Quand on demande à des parents quels sont les influenceurs et les stars que leurs enfants suivent, ils répondent qu’ils s’en fichent alors que, en réalité, ils ont peur de se rendre compte qu’ils passent à côté de ce qu’aiment leurs enfants ou ils ont peur du numérique, qu’ils ne comprennent pas. Je constate que certains adolescents regardent des contenus qui ne sont pas du tout en adéquation avec les valeurs politiques ou religieuses de la famille. Ne pas faire attention à ce que consomment les enfants fait courir le risque de passer à côté de certains pans de leur éducation.

Les réseaux sociaux et le numérique en général doivent être intégrés à toutes les phases de l’éducation afin d’éviter les clivages. Quand des parents viennent me demander des réponses en tant qu’experte du numérique, je leur dis qu’ils les ont déjà. Ce sont eux qui connaissent leurs enfants et les valeurs singulières de leur foyer. Je ne peux pas décider à leur place de l’âge à partir duquel ils doivent donner accès aux écrans, du nombre d’heures autorisé ou des contenus suivis. Notre rôle n’est pas de nous ingérer dans la vie des familles. Il est plutôt de les informer sur les besoins psycho-affectifs et neurologiques nécessaires au développement de leurs enfants, afin qu’ils puissent trouver la juste place à donner aux écrans.

On constate une préoccupation croissante autour de la fragilité psychologique et de la santé mentale, qui sont d’abord des révélateurs. Pourquoi n’existe-t-il pas de prévention systématique ? L’intelligence artificielle (IA) permet pourtant de faire remonter des signalements sur des requêtes problématiques à partir desquels des actions pourraient être menées, par exemple avec le service d’écoute du 3018 ou avec le dispositif des Promeneurs du net. Celui-ci s’appuie sur des professionnels de la jeunesse qui accompagnent les jeunes sur les réseaux sociaux pour faire de la veille éducative et de la prévention. Je crois beaucoup à ce genre d’actions, qui permettent de combler les fossés intergénérationnels.

Je me demande souvent si nous nous posons les bonnes questions. La fuite des données personnelles vers la Chine – je rappelle que l’Union européenne a récemment infligé à TikTok une amende d’un montant historique –, les stratégies géopolitiques et les guerres informationnelles ne constitueraient-elles pas les enjeux les plus importants, au-delà de ceux d’éducation et d’accompagnement ?

Mme Sabine Duflo, psychologue clinicienne. J’ai écouté avec attention les trois précédents invités et je suis d’accord avec plusieurs de leurs propos.

M. Andraos a présenté l’adolescence comme une période à risque. L’adolescent est un être en construction, en particulier en ce qui concerne les fonctions exécutives, c’est-à-dire les capacités à planifier, à dire non, à se limiter face à la tentation, à se restreindre. Chez l’adolescent, ces capacités ne sont pas encore matures. Les plateformes, qui connaissent très bien les fragilités des usagers pour mieux capter leur attention avant de vendre leurs données aux annonceurs, représentent donc un risque pour tous les enfants et adolescents.

Mme Ehrel a souligné que TikTok n’était pas le seul réseau en cause : Snapchat et Instagram reposent sur le même modèle. Je constate d’ailleurs dans ma clinique que ces trois réseaux sont ceux qui sont le plus utilisés, surtout par les filles.

Je suis psychologue clinicienne et j’ai été formée à la thérapie familiale systémique. Cette approche considère qu’une personne est le résultat d’une interaction avec son environnement. Il faut donc s’y intéresser pour comprendre l’enfant ou l’adolescent et c’est en agissant dessus qu’on peut modifier des comportements perturbés.

J’ai pu constater dans ma clinique – et le livre formidable de M. Jonathan Haidt paru en français sous le titre Génération anxieuse le confirme – une évolution de l’environnement des enfants et des adolescents à partir du moment où les écrans sont devenus nomades, dans les années 2010. Les temps d’exposition ont alors explosé et leur environnement classique de développement – la famille pour les enfants, les pairs pour les adolescents – a disparu. Le numérique, sous la forme du smartphone, de l’ordinateur portable et de la console, a alors pris le relais.

Aujourd’hui, les adolescents passent six à huit heures par jour devant les écrans et jusqu’à quinze ou vingt heures pour les adolescents en addiction que je reçois. Ce temps grignote celui du sommeil. Depuis que je pratique – cela fait maintenant vingt-six ans –, je commence toujours par demander à l’enfant ou à l’adolescent de me décrire sa journée quotidienne, du matin au soir. Je constate lors de mes consultations, tant dans un centre médico-psychologique en région parisienne que dans le cadre d’une consultation spécialisée un jour par semaine en secteur public dans le Loiret, que les adolescents consacrent entre un tiers et deux tiers de leur journée aux écrans, réseaux sociaux sur smartphone pour les filles, consoles pour les garçons.

Je ne suis pas chercheuse, je suis psychologue et, quand les parents viennent me voir, c’est parce que leur enfant ne va pas bien. Il ne dort pas, il ne va plus au collège depuis plusieurs mois, voire plusieurs années. Les parents ne sont pas idiots : avant de venir me voir, ils ont réfléchi, essayé plusieurs solutions et consulté d’autres spécialistes. Ils attendent de moi que j’aide leur enfant à aller mieux. C’est mon seul objectif et c’est de cela dont je veux vous parler.

Dans le cadre de la consultation ouverte une journée par semaine, j’ai reçu, depuis le début de l’année, vingt-six adolescents – dix-sept garçons et neuf filles –, dont la moyenne d’âge est de 14 ans. Les garçons présentent une addiction aux consoles et les filles aux réseaux sociaux ou aux séries.

La démarche de guérison, quand je réussis à les sortir de là, est toujours la même, pour les garçons comme pour les filles.

L’ensemble de la famille, parents, frères et sœurs, est toujours présente lors de la première séance. Il me faut quatre ou cinq séances pour aider l’adolescent à sortir de son enfermement. On peut l’appeler addiction ou usage problématique. Peu importe : ce que veulent les parents, c’est que leur enfant retourne à l’école et ce que veut l’adolescent, c’est ne plus avoir d’idées noires qui lui donnent envie d’en finir avec la vie.

Lors de la première séance, je demande à l’adolescent de me raconter sa journée du lever au coucher, en semaine et le week-end. J’ai ainsi une première idée de l’usage des écrans dans la famille. Une télévision est-elle présente dans chaque pièce, notamment dans la chambre de l’adolescent ? Est-elle allumée en permanence ? Je rappelle que les télévisions sont aujourd’hui connectées à internet et que les adolescents peuvent y regarder YouTube ou Netflix.

Il faut bien sûr s’intéresser aux contenus et je partage ce qui a été dit à ce sujet, mais il faut aussi prendre en compte le temps passé à les regarder. Quand un adolescent en est à quinze heures, voire dix-sept heures, par jour, son sommeil est affecté et des effets cognitifs concrets peuvent alors être observés. Je pose des questions simples et j’observe le délai de réponse. Comment t’appelles-tu ? La réponse est immédiate. Comment s’appellent tes parents ? J’observe alors un petit délai de réponse, mais celui-ci augmente quand je demande l’âge des parents ou leur travail. J’observe également que, avant qu’ils arrêtent d’aller au collège, ces adolescents avaient de bons résultats. Nous en sommes là ! L’impact sur le sommeil est à la fois qualitatif et quantitatif. La répétition sur plusieurs jours ou plusieurs mois est catastrophique.

Dès la première séance, ma stagiaire et moi-même laissons notre portable et je demande à chacun de faire de même. Après cette séance, j’ai une idée de l’usage moyen par semaine. Il est toujours le même : pour les filles, il est tourné vers les réseaux sociaux, avant le divertissement. La dernière que j’ai reçue avait passé lors de la semaine précédente 53 heures et 52 minutes sur les réseaux sociaux, alors qu’elle n’était pas venue me voir pour des problèmes d’écran. Pour les garçons, le temps d’écran est davantage consacré aux consoles. L’usage du smartphone, si le garçon ne l’utilise pas pour jouer, n’est donc pas le seul paramètre à prendre en considération. De la même façon, les adolescents ne sont pas tous sur TikTok. Un adolescent peut passer 53 heures et 52 minutes à regarder des vidéos courtes sur YouTube ou Instagram.

Il faut bien sûr expliquer ce que donner les deux tiers de sa vie à TikTok ou Snapchat fait au cerveau en plein développement d’un adolescent. Il faut éclairer les parents sur ce qu’il se passe sur les réseaux sociaux. Il faut montrer aux adolescentes – je n’ai jamais vu de garçon dépendant des réseaux sociaux – comment elles se font avoir par le modèle économique de ces applications et comment les algorithmes peuvent les entraîner à voir la scarification comme une solution. Il faut les inciter à se poser des questions sur leur bien-être et leur santé mentale.

Tout cela ne suffit toutefois pas. Il faut arrêter de prendre les gens pour des imbéciles. La prévention des Promeneurs du net et du Centre de liaison de l’enseignement et des médias d’information (Clemi) existe depuis plus de vingt ans, mais leur action n’a rien changé. Les parents ne sont pas idiots : ils lisent, ils se renseignent et ils connaissent TikTok. Le gamin lui-même, la plupart du temps, sait bien que les contenus qu’il consomme ne sont pas les plus intelligents et qu’ils sont particulièrement addictifs.

Pour les filles, l’addiction – ou l’usage problématique, peu importe le terme – commence en général en sixième ou en cinquième. Elles connaissent alors un changement radical dans leur vie, celui de l’acquisition du portable avec un forfait leur permettant d’accéder à internet à l’extérieur de la maison. Ce changement intervient à un moment où elles ont besoin de construire leur moi social, c’est-à-dire de prendre une place au sein d’un groupe de pairs plutôt que dans la famille, qui les intéresse de moins en moins. Aujourd’hui, cette construction se fait uniquement sur les réseaux sociaux au détriment des activités classiques, comme traîner avec des copains en dehors du collège. Le risque est que la construction du moi social ne se fasse plus ou qu’elle soit détricotée.

Les réseaux sociaux peuvent bien sûr apporter un complément à ce processus, mais ils ne pourront jamais remplacer la construction par le face-à-face, l’échange des regards et le partage d’expériences dans un groupe où un adulte peut, au départ, faire médiation. Les adolescents en souffrent profondément.

Prenons l’exemple d’une adolescente. Le même schéma se répète : elle avait des copines et pratiquait des activités en dehors de l’école, mais, à son arrivée en sixième, dans un établissement plus grand dont elle ne maîtrise pas les codes, elle se retrouve rapidement isolée. Elle déprime et développe un énorme besoin de se faire des amis. Elle se tourne alors vers les réseaux sociaux et y trouve rapidement d’autres adolescentes qui, comme elle, se sentent rejetées. Un groupe de pairs se constitue et la rassure, mais ce n’est pas un groupe positif. Elles y partagent les mêmes histoires de rejet et adoptent les mêmes solutions négatives de scarification ou d’automutilation. Une spirale d’enfermement se déclenche alors, puisqu’elle ne peut en parler avec ses parents, qui ne connaissent pas ce nouvel outil.

J’écoute ces adolescentes depuis des années : la seule solution qui émerge après quelques séances étalées sur un mois ou deux, c’est, pour les cas les plus extrêmes de plus de quinze heures d’écran par jour entraînant un long absentéisme scolaire, de supprimer l’usage du téléphone portable. Seule cette suppression permet à l’adolescente de sortir de sa chambre pour retourner au collège. Je n’ai pas trouvé d’autres solutions. L’information ou la régulation ne suffisent pas. J’invite ceux qui proposent d’autres pistes à les tester avec des familles dans mon cabinet.

Il faut bien sûr réfléchir à des contenus éducatifs, à l’information et à la prévention, mais il faut surtout limiter l’accès aux réseaux sociaux aux jeunes ayant déjà un moi social construit, c’est-à-dire aux adolescents âgés d’au moins 15 ans. C’est ce à quoi nous appelons avec le collectif Attention.

Mme Laure Miller, rapporteure. Je vous remercie pour votre présence et pour vos interventions très riches.

Il est difficile, vous l’avez d’ailleurs souligné, d’établir des liens de causalité solides entre l’usage des réseaux sociaux et la dégradation de la santé mentale, mais certains faits sont connus : enregistrement des données, captation de l’attention, impact sur le sommeil. Le manque de sommeil, tout comme certains contenus problématiques, ont bien sûr des conséquences négatives sur la santé mentale.

Le temps passé devant les écrans, peu importe l’usage qui en est fait, est prélevé sur d’autres activités. Existe-t-il des études démontrant que certains besoins physiologiques ou neurologiques d’un enfant ou d’un jeune sont entravés par l’usage des réseaux sociaux ? Celui-ci peut-il empêcher de pratiquer une activité sportive ou, tout simplement, de s’ennuyer ou de rêver ?

Il est prouvé que le visionnage de vidéos déclenche une décharge de dopamine toutes les cinq secondes, chez les jeunes comme chez les adultes. Dans de telles conditions, le monde hors du téléphone apparaît forcément comme moins agréable à vivre. Cela semble démontrer que l’usage des réseaux sociaux a un impact direct sur la santé mentale des jeunes.

Vous avez proposé de développer les contenus positifs. On nous a toutefois expliqué lors de précédentes auditions que les émotions négatives – peur, haine, colère – avaient un impact plus fort que les émotions positives. Face aux vulnérabilités, les réseaux sociaux peuvent apparaître comme un espace sûr aux yeux des adolescents, lesquels peuvent y rencontrer d’autres jeunes partageant les mêmes problèmes, par exemple alimentaires, et se retrouver ainsi dans une spirale nocive. Ne faut-il donc pas fortement relativiser le rôle que pourraient jouer les contenus positifs ? Même si une bibliothèque contient des livres de Stendhal, ceux-ci pourront être cachés par des piles de livres plus attrayants.

Notre société a considéré que l’alcool et le tabac, parmi d’autres « addictions » – j’entoure ce terme de guillemets car il est débattu –, devaient être interdits aux mineurs, ce qui ne nous empêche pas de mener des actions de prévention à destination des adultes. Ne pensez-vous pas que, compte tenu du mode de fonctionnement et du modèle économique des réseaux sociaux, il faudrait interdire purement et simplement leur accès aux jeunes, en dessous d’un âge qui serait à déterminer ? En effet, un jeune n’est pas en mesure de faire face à l’ensemble des contenus que l’on trouve sur les réseaux. De nombreux pays appliquent ce type de mesures. La Nouvelle-Zélande a annoncé vouloir interdire l’accès aux réseaux sociaux avant l’âge de 15 ans. Parallèlement, nous pourrions mener des actions de sensibilisation en direction de l’ensemble de la population.

M. Elie Andraos. Je dresserai un parallèle avec un célèbre débat qui a eu cours en addictologie entre les partisans de l’abstinence, d’une part, et les tenants de la réduction des risques et des dommages, d’autre part. Lorsque des structures comme les alcooliques anonymes ont commencé à développer la prévention et la prise en charge des problèmes liés à l’addiction, elles ont conduit des programmes reposant sur l’abstinence : il fallait cesser toute consommation pour être admis au sein de ces centres. Depuis quelques décennies, on s’efforce plutôt de réduire les risques et les dommages. Autrement dit, au lieu de demander au patient de mettre fin à sa consommation, on va l’interroger sur la relation qu’il entretient avec l’alcool et, sur cette base, réfléchir au travail que l’on peut engager pour diminuer les risques et les dommages. Cette méthode peut être transposée à l’addiction aux écrans.

À l’heure actuelle, on parle beaucoup des patients et des parents mais pas suffisamment des réseaux eux-mêmes. On ne demande pas aux développeurs de jeux vidéo et des réseaux sociaux, aux personnes qui nous vendent des applications de réduire la dangerosité et le caractère addictif des systèmes. J’ai écouté les propos tenus par deux psychiatres et un pédiatre lors d’une audition, il y a quelques jours : ils ont évoqué la nécessité de responsabiliser les structures et ont relevé que, parfois, celles-ci ne jouaient pas le jeu. C’est très bien de développer des mesures de prévention, des psychothérapies adaptées aux troubles liés à l’usage des écrans mais il faut aussi responsabiliser les acteurs qui développent ces outils. Les algorithmes sont parfois insistants : ils persistent à nous proposer des contenus qui peuvent être, par exemple, de nature suicidaire, sans nous demander notre consentement. Il me semble que l’on ne parle pas assez de TikTok, des réseaux, des jeux vidéo eux‑mêmes. De la même façon que l’on peut consommer de l’alcool moins fort, on peut réduire les dangers et les dommages liés aux réseaux sociaux sans aller jusqu’à les bannir.

Mme Laure Miller, rapporteure. Les travaux de notre commission d’enquête sont centrés sur les mineurs. Or vous prenez l’exemple de l’alcool. Ne faut-il pas établir une distinction en fonction de l’âge ?

M. Elie Andraos. Personnellement, dans le cadre de la psychothérapie, je travaille de manière très similaire avec les mineurs et les adultes sur des addictions telles que l’alcool, la drogue, etc.

On trouve, sur TikTok, des contenus positifs ; de même, des études attestent l’existence d’effets positifs des jeux vidéo sur les jeunes, ce dont on ne parle pas assez. Il faut séparer le bon grain de l’ivraie, autrement dit valoriser les bons contenus et mieux contrôler les contenus dangereux. Au sein du CHU d’Amiens, dans le cadre du projet Addict IEJ, nous sommes en train de développer des vidéos – bien que le budget dédié aux vidéos soit très réduit, alors que les jeunes ne regardent que cela – pour accompagner et motiver les jeunes, travailler sur leur monde intérieur et les aider à mieux gérer leurs relations avec les différents types de consommation, qu’il s’agisse d’alcool, d’écrans, etc. Il est possible de proposer des contenus positifs. Ceux-ci ne sont pas nécessairement joyeux. Ils peuvent être percutants voire effrayants, mais ils délivrent un message sain ; ils font réfléchir le jeune à sa consommation et, de cette manière, peuvent l’aider.

Mme Séverine Erhel. J’irai dans le sens de mon collègue. Quelques études se sont efforcées d’estimer un temps d’écran idéal, notamment pour les enfants et les adolescents. L’idée n’est pas tant de formuler une recommandation que de voir à partir de quel moment la socialisation est affectée par l’utilisation du numérique. Les études montrent qu’il existe un temps idéal – c’est la théorie
« Boucle d’or » –, de l’ordre d’une à deux heures par jour, qui correspond à un usage raisonné. Au-delà de deux heures, on constate une inflexion des compétences émotionnelles et sociales des enfants et des adolescents. Au-delà de quatre à cinq heures, on observe des effets délétères sur les compétences psycho-sociales. Ces études corrélationnelles impliquent le jugement des parents, à qui on demande à partir de quel moment ils voient les compétences de leurs enfants se dégrader.

Il est donc possible de regarder les écrans pendant un temps raisonné, d’autant qu’on peut faire un usage bénéfique des réseaux sociaux, ce que l’on a tendance à oublier. Ces réseaux sont en effet des outils de socialisation, de pratique informationnelle et des endroits où des adolescents en détresse psychologique, par exemple, peuvent obtenir du soutien. Plusieurs études, parmi lesquelles celles de l’islandais Ingibjorg Thorisdottir, montrent que, lorsqu’on est atteint d’un symptôme dépressif, on peut retirer des bénéfices de l’usage actif des réseaux sociaux : on peut en effet y chercher de l’aide et se trouver engagé dans des interactions qui apportent un soutien. Tout n’est donc pas forcément à bannir sur les réseaux. Néanmoins, il faut parvenir à ramener les individus à un usage raisonné dans des environnements sécurisés – ce dernier point étant essentiel.

L’inconvénient d’interdire les réseaux sociaux en dessous d’un certain âge, par exemple, 15 ans, est que cela ne résout pas les problèmes de ceux qui en ont 16 ou 17 : la question est de savoir ce que l’on fait pour eux.

On regarde beaucoup les adolescents à travers le prisme des réseaux sociaux et on considère parfois ce qu’ils y font avec mépris. Or, en la matière, tout n’est pas nul : les BookToks, par exemple, sont très intéressants. Cela étant, je suis d’accord sur le fait que l’on doit en faire un usage raisonné.

La vraie question est de savoir quel type d’activités on propose aux adolescents comme alternative aux écrans. Si vous décidiez de leur interdire l’accès aux réseaux sociaux, les parents renonceraient-ils à leur donner des portables ? On peut se le demander car ces derniers sont un outil de contrôle parental permettant de savoir où se trouve son enfant et, en cas de besoin, de l’appeler. Lorsque l’adolescent se trouve dans sa chambre, on se dit qu’il est en sécurité, parfois à tort.

Dans le cadre des politiques territoriales, des mesures sont-elles prises pour favoriser les lieux de rencontre entre adolescents ? Propose-t-on suffisamment d’activités sportives à l’ensemble d’entre eux ? Ce sont des questions essentielles, qu’il faut traiter. On s’en sortira à partir du moment où l’on ne s’intéressera plus exclusivement aux écrans et aux réseaux sociaux, et que l’on accordera de l’importance à la dimension éducative incombant aux parents – qui doivent comprendre que l’adolescent n’est pas nécessairement en sécurité dans sa chambre – et à la politique territoriale, qui doit favoriser la création d’espaces sécurisés pour les adolescents et leur proposer des activités sportives, avec le soutien du tissu associatif.

Très peu d’études ont évalué le lien entre vidéo et dopamine. Je suis assez partagée sur cette question. Rappelons que nous sécrétons tous cette molécule quotidiennement. Au-delà de la dopamine, l’enjeu de la vidéo réside essentiellement dans la régulation des algorithmes. Contrairement à ce qui a été dit, les algorithmes de recommandation participent aussi à la construction du moi adolescent. En effet, ils proposent des recommandations personnalisées, liées aux centres d’intérêt de la personne. Ils comportent toutefois un effet pervers car, si vous vous sentez mal et que vous vous attardez sur une vidéo problématique pour la santé mentale, l’algorithme va pousser ce type de contenus.

C’est pourquoi il est essentiel de mener une action de régulation. Un algorithme ne devrait pas pousser des adolescents à consulter des contenus problématiques. En outre, on devrait les préserver de la captation et de l’exploitation de leurs données, comme le prévoit une disposition du DSA qui n’est absolument pas appliquée. Cela constitue un véritable problème.

La régulation pratiquée en Australie me paraît intéressante, quoiqu’on puisse évidemment en discuter. Elle présente l’avantage de mettre véritablement sur la table la question des données. L’idée de l’Australie n’est pas d’interdire les réseaux sociaux pour des questions liées à la santé mentale mais de faire en sorte que les réseaux soient adaptés aux jeunes, autrement dit qu’ils les protègent, mais aussi qu’ils préservent leurs données.

On peut créer des espaces sécurisés pour les adolescents, concernant, en particulier, l’exploitation de leurs données et de leur vulnérabilité, mais on peut également faire en sorte que chacun, quel que soit son âge, soit préservé des contenus violents. Même si l’on a 45 ans, le fait de voir des agressions sexuelles, des viols, des meurtres sur les réseaux sociaux constitue un véritable problème, qui appelle un réel effort de modération.

Mme Vanessa Lalo. On a tendance à tout mélanger lorsqu’on parle de la dopamine. Par exemple, lorsqu’on va prendre un carré de chocolat, on la sécrète en avance, mais la production de cette molécule n’est pas liée au fait de manger le chocolat. De même, ce n’est pas parce qu’on regarde une vidéo que l’on va forcément sécréter de la dopamine à ce moment-là : tout dépend de l’expérience passée. Un adolescent cyber-harcelé ne sécrétera pas de dopamine dans la mesure où il a une expérience négative des réseaux. Il faut faire preuve d’un peu de nuance : tous nos cerveaux ne sont pas faits exactement de la même façon. Si la nicotine et l’alcool agissent chez tout le monde de manière identique, ce n’est pas le cas de la dopamine, qui est une hormone liée à la motivation et non pas seulement un circuit de la récompense, comme on le dit trop souvent.

Une recherche récente a montré que le fait de fonder la prise en charge des difficultés liées aux jeux vidéo sur le temps passé rend tout le travail caduc : il faut plutôt prendre en compte les vulnérabilités, les pratiques réelles des personnes. Le temps passé à jouer peut avoir des vertus, comme celle de sortir quelqu’un de l’isolement : ainsi, un gamin en fauteuil roulant peut avoir besoin de ne pas se sentir jugé en fonction de son identité de personne handicapée et passer pour un utilisateur comme un autre. On peut aussi prendre l’exemple d’un élève qui a raté l’unique bus de ramassage scolaire et qui bénéficie, grâce au jeu, d’un espace de socialisation extérieure.

Comme l’a dit Mme Séverine Erhel, la question est de savoir ce que l’on peut faire pour que ce soit profitable, pour développer l’imaginaire et pour que les enfants se trouvent en des lieux sûrs et non en des endroits où ils peuvent tomber sur tout et n’importe quoi.

On a tendance à considérer que de nombreuses pratiques relèvent de l’addiction sans analyser les causes des comportements. Je constate que beaucoup de gamins souffrent d’anxiété, de troubles dépressifs et de phobies sociales : depuis le covid, on ne voit plus que cela, en tant que clinicien. On me dit parfois qu’un gamin a décroché de l’école à cause des jeux vidéo ou des réseaux sociaux. Or cela se révèle toujours faux. Un gamin harcelé à l’école va, par exemple, faire en sorte de jouer toute la nuit pour ne pas aller en classe. Un autre jeune, qui n’arrive pas à dormir du fait de son anxiété, va passer la nuit sur les réseaux sociaux ; la lumière bleue n’est pas en cause, c’est l’anxiété qui crée l’insomnie. Et peut-être, finalement, que cela l’arrangerait de ne pas aller à l’école le lendemain. Je pourrais multiplier les exemples en ce sens.

Si l’on mélange tout, que l’on ne voit dans ces problèmes que l’effet de l’addiction et que l’on cherche une espèce de pilule magique pour faire disparaître le mal-être des jeunes, on est sûrs de se tromper. Il faut entrer à chaque fois dans le détail, préciser la nature des troubles : s’agit-il d’anxiété, de dépression, de bipolarité ou d’autre chose ? Cela concerne moins les mineurs mais les bipolaires vont passer un temps considérable sur les écrans. Il est important, à chaque fois, d’identifier le mal-être initial qui est mis au jour par l’usage des écrans – l’écran n’étant en effet qu’un révélateur.

J’entends dire les parents, très souvent, que les enfants ne vont pas assez dehors, qu’ils sont rivés à leurs écrans. Or, dans le même temps, ils ne veulent pas que leurs enfants sortent. Les chiffres sont très significatifs, qui nous montrent qu’en 1919, alors qu’on sortait de la grippe espagnole et de la première guerre mondiale, les enfants avaient une autonomie de 10 kilomètres, laquelle n’était plus que de 300 mètres en 2007 – soit avant même BFM et les réseaux sociaux. Au sortir de la première guerre, les enfants pouvaient partir trois semaines, ce qui réjouissait presque les parents, qui avaient une bouche en moins à nourrir. Aujourd’hui, envoyer son enfant ne serait-ce qu’à la boulangerie fait peur, face à la succession de faits divers atroces. Au moins 60 % des parents géolocalisent leurs enfants. Ils leur achètent un portable pour les surveiller.

On aboutit à une injonction paradoxale. D’un côté, les parents craignent tout ce qui peut arriver à leurs enfants s’ils vont dehors, comme être victimes d’un prédateur, d’un kidnapping, d’actes de terrorisme, etc. D’un autre côté, s’ils restent à la maison, ils pourraient rencontrer sur internet d’autres prédateurs, tomber sur de mauvais contenus et devenir débiles. Faut-il alors placer les mineurs dans un bunker jusqu’à leur majorité ? Il faut faire au mieux, bien sûr, mais on ne peut pas protéger les enfants de tout, sous peine de les empêcher de vivre.

On a tendance à faire de la prévention négative, qui fait peur ; on ne la retient pas parce que notre cerveau n’a pas envie de mémoriser l’information. Pendant quarante ans, on a mené des études pour mesurer l’impact de la prévention ; on a constaté que la prévention négative était inopérante. Le temps est peut-être venu de réfléchir au déploiement d’une prévention positive, qui s’appuie sur les réalités des familles, des pratiques et éventuellement des réseaux, et qui a pour objet de compenser quelque chose. Rien ne sert, en effet, de dire aux jeunes de ne pas aller sur les réseaux. Si on leur interdit, demain, l’accès à TikTok, ils iront sur d’autres réseaux que l’on maîtrise encore moins et qui se révéleront peut-être plus nocifs. En effet, on sait ce qu’il en est de TikTok, même s’il règne une certaine opacité sur les algorithmes, mais si les jeunes se retrouvaient sur des réseaux comme Telegram, qui est assez obscur pour nous, il nous serait difficile de les accompagner ; nous ne verrions pas les contenus qu’ils partagent et nous ne pourrions pas discuter avec eux.

La prévention positive peut prendre la forme de la body positivity, qui met en avant l’acceptation de son corps et est susceptible de jouer un rôle de compensation pour des adolescentes qui souffrent de troubles du comportement alimentaire. On peut leur proposer des contenus de ce type en leur disant qu’elles trouveront toujours quelqu’un à qui s’identifier. De fait, contrairement à ma génération, où les mannequins étaient toutes des femmes anorexiques de 1 mètre 80, on trouve aujourd’hui toutes les formes corporelles et toutes les couleurs de peau : on peut donc toujours s’identifier à quelqu’un.

Nous avons des possibilités d’agir pour lever des tabous dans le domaine de la santé mentale et répondre à certaines problématiques. Nous pouvons accroître notre pouvoir d’agir, qui est essentiel car il permet de reprendre la main. J’ai fait des expériences sur TikTok : si je passe deux heures à regarder des lapins qui mangent des fraises, des pandas qui font de la luge et des défilés de chats, on ne me propose plus que cela ; en revanche, si je passe cinq heures – car il faut y consacrer nettement plus de temps – à regarder des contenus purement éducatifs, on ne me propose plus que cela également sur mon fil. C’est très chronophage, personne n’a envie de faire cela, mais on a des leviers à notre disposition si on veut vraiment lutter.

Mme Sabine Duflo. Il ne faut pas tout mélanger. Pour reprendre le parallèle avec l’alcool, personne ne se met à boire par goût de l’alcool : le déclencheur se trouve, par exemple, dans la perte d’un emploi ou le départ du conjoint. Toutefois, si le thérapeute se concentre uniquement sur les causes et que, par ailleurs, le patient continue à boire chaque jour trois litres de vodka, ce dernier ne pourra jamais retrouver un travail ni une compagne. C’est exactement la même chose avec les adolescents que je reçois, qui sont accros aux réseaux sociaux ou aux jeux vidéo.

Je ne néglige pas, bien entendu, ce qui vient de l’extérieur, je sais pertinemment qu’ils se sont retrouvés sur les écrans non pas parce qu’ils sont particulièrement accros mais parce qu’un événement, dans le monde réel, a joué un rôle de bascule. Mais si je me concentre uniquement sur leur histoire de vie, je ne vais pas pouvoir les aider. Il faut, à un moment donné, accomplir deux choses. D’abord, il convient de penser à des activités alternatives. Je soigne des adolescents en les réunissant, non pas dans des groupes de parole mais dans des groupes où l’on fabrique des choses, où l’on réalise des activités, où l’on rit ensemble, sans écran. C’est une manière de les socialiser. Ensuite, il faut évidemment interdire pour rendre les choses possibles. En matière de santé publique, aucune politique reposant uniquement sur la prévention n’a fonctionné, en particulier concernant les mineurs : il faut donc également légiférer. Pour l’alcool, c’est la même chose : la prévention est importante, mais ce qui a le plus protégé les mineurs, c’est l’interdiction de leur vendre de l’alcool. Je n’ai jamais rencontré, dans ma patientèle, d’adolescents alcooliques, ce qui montre l’effet des lois adoptées en la matière.

M. le président Arthur Delaporte. Quel est votre point de vue sur la prohibition, qui est au cœur des réflexions de la commission ?

M. Elie Andraos. Les parents sont intelligents, mais leurs enfants aussi. En Chine, il a été décidé que les mineurs devaient présenter leur carte d’identité pour pouvoir jouer aux jeux vidéo, pendant une durée maximale de deux heures par semaine. Les jeunes ont alors emprunté les papiers de leurs parents et de leurs grands-parents pour pouvoir jouer davantage. L’interdiction, la répression ne marchent pas. Je vois beaucoup de mineurs boire de l’alcool ; ils sont nombreux à arriver aux urgences en ayant de l’alcool dans le sang. L’interdiction n’est donc pas suffisante. Il est nécessaire de travailler sur la relation des jeunes à l’alcool et aux écrans. Au lieu de les laisser apprendre la vie sur les réseaux ou en regardant, par exemple, de la pornographie, il nous faut les aider à comprendre le monde. Parallèlement, nous devons responsabiliser les acteurs de Tiktok, des jeux vidéo et de la pornographie pour qu’ils proposent des contenus plus sains.

Mme Séverine Erhel. En Floride, il a été décidé d’interdire aux adolescents de moins de 16 ans l’accès aux réseaux sociaux. À la suite de cette mesure, on a constaté une augmentation de 1 150 % de l’achat de VPN (réseaux privés virtuels), qui permettent de contourner la règle.

Mme Sabine Duflo. C’est la preuve du caractère éminemment addictif des écrans. Je le vois tous les jours : lorsqu’on pose une interdiction, les jeunes n’ont qu’une idée en tête, celle de contourner la règle. Mais il faut tenir. En France, certains collèges ont totalement proscrit l’utilisation des portables pendant la journée. Les directeurs d’établissement me disent que cela a apaisé le climat durant les cours et les récréations. Cela permet aux élèves de se resociabiliser. Je ne suis pas contre les réseaux sociaux, mais il faut les rendre accessibles au bon moment.

Mme Vanessa Lalo. On constate, depuis quelque temps, que les jeunes ne vont pas très bien. Les problèmes de santé mentale ont augmenté dans des proportions inédites depuis la pandémie. De nombreux jeunes ruminent au moment d’aller se coucher. Ils se demandent dans quel état ils vont trouver notre société lorsqu’ils seront en âge de travailler. On les angoisse avec Parcoursup. On leur dit que les écrans, c’est terrible ; on ne leur en expose que les risques et les dangers. On nie complètement leurs capacités créatives et leurs autres compétences, psycho‑sociales et techniques. Beaucoup de jeunes ont besoin d’un peu de réenchantement. Je m’interroge sur les moyens que l’on pourrait employer pour travailler sur leur mal-être et les aider à se projeter dans un avenir un peu positif.

Il est indispensable de réguler TikTok et les réseaux sociaux et, surtout, d’appliquer le DSA, qui nous échappe un peu. La solution, pour améliorer la santé mentale de la jeunesse, ne résidera pas dans l’interdiction des réseaux sociaux : les jeunes y passent beaucoup de temps car ils s’ennuient, ils y compensent des vides, ils y trouvent un refuge qui leur permet de ne pas penser. Ils préfèrent regarder 1 000 vidéos avant de finir par s’endormir que de songer à un avenir que le changement climatique, les nombreuses guerres et la pandémie, entre autres, rendent très angoissant. On ne peut pas décorréler cela du reste : autrement dit, leurs pratiques numériques sont aussi liées à leur réalité quotidienne, à leurs difficultés d’adolescent dans un monde qui ne les comprend pas et ne les accepte peu, y compris au travail. Le fossé générationnel risque de nous coûter très cher.

M. Thierry Perez (RN). Il me semble que l’on assiste à une hausse considérable du narcissisme chez les adolescents. Vous n’avez pas évoqué le fait que les jeunes créent des contenus et qu’ils sont ensuite scotchés à leurs écrans pour savoir combien ils ont obtenu de likes, de vues, etc. Par ailleurs, le visionnage passif de vidéos qui n’emploient pas toujours un langage très académique engendre-t-il une perte dans le domaine de la langue, orale comme écrite ?

M. Elie Andraos. Je n’ai pas connaissance de recherches montrant une corrélation positive entre le trouble de personnalité narcissique et l’usage des réseaux sociaux, des jeux vidéo, etc. Cela pourrait toutefois constituer une piste de recherche intéressante.

Mme Séverine Erhel. L’adolescence se caractérise par des spécificités développementales. Lors de la phase de maturation du cortex préfrontal, l’inhibition peut se révéler difficile. Parallèlement, la maturation du système limbique rend les jeunes très sensibles aux émotions et aux stimuli sociaux. Je ne crois pas avoir vu d’études mettant en évidence un surcroît de narcissisme chez les jeunes, mais, à ce stade de leur développement, la validation sociale par les pairs est essentielle, ce qui peut expliquer l’appétence pour les likes et le fait que certaines plateformes mettent en avant les outils de mesure de la popularité.

Mme Vanessa Lalo. Je suis d’accord avec ce qui a été dit. Je parle, pour ma part, de reconnaissance entre pairs. L’adolescence implique nécessairement l’appartenance à un groupe et la reconnaissance qu’il apporte. C’est surtout cela qui se joue sur les réseaux, où les jeunes se retrouvent beaucoup au sein de groupes. Ils s’envoient des petits cœurs dès qu’une photo, même moche, ou un propos est publié, en vertu d’un principe de validation quasi obligatoire. Si l’on n’envoie pas de cœur, on risque fort de ne pas en recevoir lorsque l’on ajoutera une photo. Ce sont des jeux de validation sociale qui ne mettent pas en péril la jeunesse.

J’appelle votre attention sur le fait que ChatGPT est l’application qui collecte le plus de données personnelles auprès de la jeunesse. Les jeunes ne viennent plus nous consulter car ils ont un psy gratuit, disponible vingt-quatre heures sur vingt-quatre. Si on continue à établir des séparations générationnelles et à ne pas les écouter, j’ai peur qu’ils finissent par ne plus parler qu’à leurs intelligences artificielles et à ne plus s’adresser aux adultes.

Mme Sabine Duflo. Dans ma pratique, je vois essentiellement du scrolling sur des vidéos courtes ; le réseau social proprement dit est très peu utilisé. Il faut absolument recréer des espaces de socialisation, comme les maisons ou les groupes de jeunes. Je constate que, lorsqu’on coupe les jeunes de la socialisation factice par les réseaux sociaux – socialisation qui pourra intervenir plus tard – et qu’on les réunit, ils manifestent spontanément une aptitude à être ensemble de manière positive, ce qui les rend heureux.

M. le président Arthur Delaporte. Je vous remercie pour vos interventions complémentaires et pour l’intérêt que vous avez porté aux travaux de notre commission. Vous pouvez nous adresser tous les éléments additionnels que vous jugerez nécessaires.

16.   Audition de Mmes Charlyne Buigues, infirmière et auteure de la pétition « #StopSkinnyTok », Carole Copti, diététicienne-nutritionniste, et Nathalie Godart, professeure des Universités en psychiatrie de l’enfant et de l’adolescent (mardi 6 mai 2025)

Enfin, la commission auditionne conjointement Mme Charlyne Buigues, infirmière et auteure de la pétition « #StopSkinnyTok », Mme Carole Copti, diététicienne-nutritionniste, et Mme Nathalie Godart, professeure des Universités en psychiatrie de l’enfant et de l’adolescent ([16]).

M. le président Arthur Delaporte. Nous recevons Mme Carole Copti, diététicienne-nutritionniste, Mme Nathalie Godart, professeure des universités en psychiatrie de l’enfant et de l’adolescent à l’unité de formation et de recherche (UFR) des sciences de la santé Simone Veil de l’université de Versailles-Saint‑Quentin-en-Yvelines (UVSQ), et Mme Charlyne Buigues, infirmière et auteur de la pétition #StopSkinnyTok. Je vous remercie d’avoir pris le temps de répondre à notre invitation.

En préambule à vos interventions liminaires, je vous remercie de déclarer tout intérêt public ou privé de nature à influencer vos déclarations. Avant de vous donner la parole, je rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(Mmes Carole Copti, Nathalie Godart et Charlyne Buigues prêtent successivement serment.)

Mme Carole Copti, diététicienne-nutritionniste. Diététicienne-nutritionniste formée aux troubles du comportement alimentaire (TCA), je souhaite partager avec vous une inquiétude croissante ancrée dans ma pratique quotidienne : les effets de TikTok sur la santé mentale et physique des jeunes. Je ressens cette inquiétude en tant que professionnelle de santé, mais aussi en tant que mère de famille.

Depuis la crise du covid, les consultations pour TCA, en particulier pour anorexie mentale, ont littéralement explosé : elles ont doublé en 2024 et triplé depuis le début de l’année 2025. Elles concernent des patients de plus en plus jeunes. Et TikTok n’est pas étranger à ce phénomène, loin de là. Ce réseau social capte une énorme part de l’attention des adolescents, ce qui lui confère un pouvoir d’influence considérable. Ce que je vous rapporte ici ne relève pas d’une théorie abstraite, mais se fonde sur un constat clinique quotidien dans mon cabinet.

L’adolescence est une période charnière, marquée par des bouleversements corporels, une quête d’identité, une construction fragile de l’estime de soi. C’est une période où l’on se cherche, où l’on s’inspire et se compare. Comme une cour de récréation, TikTok devient alors un lieu d’identification et de comparaison envahissant. On ne parle plus d’un cercle de quelques camarades, mais de milliers – voire de millions – de profils, souvent retouchés, mis en scène, idéalisés.

La plateforme expose ces jeunes à une quantité massive de contenus, souvent centrés sur l’apparence, la minceur et les habitudes alimentaires. TikTok installe une norme inaccessible et irréelle, créant un décalage qui agit directement sur la construction de l’image corporelle et de l’estime de soi. Je pense notamment au hashtag #SkinnyTok où la minceur extrême est glorifiée, à ces challenges qui promettent bonheur et réussite en mangeant moins de 1 000 calories par jour ou en ne consommant que de l’eau pendant plusieurs jours, ou encore à ces citations au ton faussement bienveillant mais aux effets ravageurs, telles que « Si tu ressens la faim, c’est que tu es sur la bonne voie » ou « Ce que tu manges en privé, tu le portes en public ». L’une de mes patientes, désormais consciente de l’effet destructeur de ces messages sur sa santé, m’a transmis ce genre de messages reçus sur son fil d’actualité. C’est d’une violence inouïe.

Ces photos ne correspondent pas à la réalité : elles sont filtrées, scénarisées et retouchées. Elles façonnent pourtant l’image que ces adolescents ont d’eux‑mêmes. L’une des conséquences majeures est le développement de TCA, comportements durables souvent à base de restrictions, qui entraînent de graves effets sur la santé physique et mentale : 7 à 10 % des personnes touchées en meurent. Certains de mes patients voient le vomissement – acte de plus en plus banalisé – comme un levier tout à fait justifié et efficace pour contrôler leur poids sans en percevoir la gravité et les risques immédiats et à long terme.

Ce que j’observe chez ces jeunes, c’est un véritable endoctrinement – le mot est fort, mais juste. Ils sont persuadés qu’ils peuvent vivre avec la moitié de leurs besoins énergétiques, que la souffrance est un passage nécessaire. Et surtout, ils ont perdu leur esprit critique. Quand je tente de les ramener à la réalité, on me répond : « Pourquoi est-ce que cela marcherait pour elle et pas pour moi ? » Je reçois en consultation des jeunes filles qui souffrent de dysmorphophobie, une altération profonde de la perception de leur corps : elles se voient grosses alors qu’il leur manque parfois 10 à 15 kilogrammes pour retrouver un état de santé viable.

Face à tout cela, mon inquiétude est immense. Chaque accompagnement que je propose intègre désormais systématiquement une discussion à propos des réseaux sociaux car on ne peut plus traiter un TCA sans parler de TikTok. Ce réseau est devenu un facteur déclencheur, un amplificateur, un obstacle à la guérison. On ne peut pas laisser cette influence agir sans régulation : les jeunes ne sont pas équipés pour prendre le recul nécessaire ; les familles sont souvent démunies ; TikTok, malgré ses apparences ludiques, alimente un climat toxique et parfois mortifère. Il est temps d’agir, d’encadrer, de réguler et d’informer. Il est temps de redonner une place à la diversité corporelle, à la nuance et à la bienveillance. Il est surtout temps de redonner aux jeunes la possibilité de se construire sans être dévorés par des injonctions impossibles à tenir.

M. le président Arthur Delaporte. Madame Buigues, je précise que vous avez lancé la semaine dernière une pétition sur le site change.org pour dénoncer le hashtag #SkinnyTok ; elle a déjà recueilli plus de 30 000 signatures. Vous avez demandé à être reçue par cette commission et par Clara Chappaz, ministre déléguée chargée de l’intelligence artificielle et du numérique.

Mme Charlyne Buigues, infirmière et auteure de la pétition #StopSkinnyTok. Je suis infirmière à la Fondation santé des étudiants de France (FSEF) de Grenoble et, depuis 2021, je prends soin de jeunes qui souffrent de TCA. Dans notre service, nous accueillons des jeunes mineures et majeures, le plus souvent âgées de 13 à 18 ans. La majorité d’entre elles sont sur TikTok dont elles se déclarent souvent dépendantes – c’est-à-dire qu’elles passent plus de six heures par jour sur ce réseau. Informée de l’existence de la tendance #SkinnyTok par l’une de mes patientes, je suis en effet allée voir de quoi il retournait. Le 8 avril, j’ai lancé une pétition, qui est remontée jusqu’à l’État, pour dénoncer les contenus circulant sur cette plateforme.

TikTok est omniprésent dans le quotidien des jeunes adolescentes à un moment où elles sont vulnérables car elles sont dans une phase de recherche d’identité et de construction de soi. À cette période où elles se comparent, se cherchent et s’éduquent, elles sont influencées par toutes ces images, sans avoir conscience de la dangerosité et des conséquences de la dénutrition sévère. J’ai été peinée par le cas d’une jeune patiente atteinte d’anorexie mentale, tout juste âgée de 14 ans, qui m’a montré tous ces contenus néfastes qui la poussaient même à se faire vomir. Les jeunes souffrent, n’ont plus confiance en eux, et sont de plus en plus fragilisés par ce qu’ils regardent sur tous ces réseaux sociaux. Ma pétition est destinée à alerter et à provoquer une prise de conscience générale.

Mme Nathalie Godart, professeure des universités en psychiatrie de l’enfant et de l’adolescent. Pédopsychiatre spécialisée sur les adolescents et les TCA depuis une trentaine d’années, j’ai été présidente de la Fédération française anorexie boulimie (FFAB), je suis vice-présidente du réseau TCA francilien et je participe à des recherches dans ce domaine dans le cadre de l’Institut national de la santé et de la recherche médicale (Inserm) et de l’UVSQ.

La tendance #SkinnyTok fait revenir dans l’actualité un phénomène très ancien, la promotion de la maigreur, mais sous une forme amplifiée, accélérée et très accessible sur les réseaux sociaux. Il en va de même pour d’autres thèmes dangereux tels que les produits toxiques, les tentatives de suicide ou la prostitution.

Par le passé, des actions ont été entreprises pour lutter contre ce phénomène, et il est regrettable qu’elles aient été un peu oubliées. En 2008, une proposition de loi visant à lutter contre les incitations à la recherche d’une maigreur extrême ou à l’anorexie avait été adoptée, et elle avait donné lieu à un très intéressant rapport du Sénat. Une charte d’engagement volontaire sur l’image du corps avait été publiée à la même époque. La loi n° 2016-41 du 26 janvier 2016 de modernisation de notre système de santé prévoyait la pénalisation des sites « pro-ana », faisant l’apologie de l’anorexie, ainsi que des mesures concernant les retouches de photographies et les indices de masse corporelle (IMC) des mannequins.

À mon grand regret, la maigreur est le seul angle qui nous permette de nous faire entendre sur les TCA. C’est un marronnier dans la presse, le petit bout de la lorgnette par lequel le monde politique s’intéresse aux TCA, dans un contexte où la filière de soins n’est pas suffisamment développée. En général, on ne s’intéresse qu’à l’anorexie mentale, le TCA le moins fréquent – qui est, certes, très sévère. Il faudrait parler aussi des troubles plus complexes que sont la boulimie et l’hyperphagie boulimique. Il faudrait dire aussi que les réseaux ne provoquent pas directement les TCA.

Comment définir ces troubles ? Ils se manifestent par l’alimentation mais ils sont aussi associés à des perturbations de l’image corporelle, un retentissement sur la santé somatique, psychique et l’insertion sociale. Ils durent des années et n’ont pas d’étiologie. Ils sont de deux types, l’un centré sur la restriction – l’anorexie mentale et les troubles de restriction ou d’évitement de l’ingestion d’aliments –, l’autre sur l’excès – la boulimie et l’hyperphagie boulimique qui, dans les trois quarts des cas, commence avant 22 ans. Quand on souffre de l’un de ces troubles à l’adolescence, on risque d’être atteint d’un autre au cours de sa vie. Il existe un lien entre les différents TCA.

On constate une comorbidité très fréquente avec les autres troubles psychiatriques. Mais, en l’état actuel des connaissances, on ne peut pas dire que le développement des réseaux sociaux ait un effet sur la prévalence des TCA. L’étiopathogénie – l’ensemble des causes de ces troubles – est complexe. Il y a un gradient de gravité depuis le centre – l’anorexie mentale – jusqu’aux perturbations du comportement alimentaire qui sont beaucoup plus fréquentes, de quelque chose qui va du normal au pathologique au cours de la vie. Les réseaux ont un effet très important sur les 20 % de formes moins sévères puisqu’ils peuvent engendrer des perturbations du comportement alimentaire. La difficulté est que la majorité des gens qui souffrent d’un TCA n’accède pas aux soins en France.

L’expression clinique des TCA concerne tous les organes. Elle se manifeste sur le plan somatique par de la dénutrition ou des problèmes de surpoids et d’obésité affectant tous les organes, et par des manifestations de symptômes et de syndromes psychiatriques.

Le rapport du Sénat concluait en 2008 qu’il y avait un modèle étiopathogénique par praticien et que l’on n’y comprenait rien. Depuis une vingtaine d’années, il existe un consensus international parmi les chercheurs : les TCA, comme l’ensemble des troubles psychiatriques, résultent de phénomènes biopsychosociaux qui mêlent hérédité, expérience de vie et interactions sociales – qui, de nos jours, passent notamment par les réseaux.

Les TCA se développent pendant toute la vie, selon une trajectoire de vulnérabilité qui comporte des éléments biopsychosociaux. La puberté agit comme un facteur déclenchant, auquel s’ajoutent des événements de vie ou des facteurs psychiques. Dans une dernière phase, les TCA sont pérennisés dans un cercle vicieux. Les réseaux sociaux peuvent intervenir à différents stades et accentuer les facteurs prédisposants ou déclenchants. Dans l’équilibre précaire qui s’installe entre la vulnérabilité et la protection, ils peuvent même parfois jouer en faveur de la seconde. Quoi qu’il en soit, il ressort des témoignages recueillis lors des Journées mondiales des TCA que les réseaux sociaux ne sont pas la cause directe de ces troubles mais qu’ils interagissent avec eux.

Peu d’études ont été consacrées aux effets de TikTok sur les TCA. Moins d’une dizaine d’articles concluent à des effets négatifs du réseau sur l’apparition des perturbations de l’alimentation et de l’image de soi avec une internalisation de la maigreur, ce qui peut favoriser le développement de troubles psychiques, notamment des TCA. Plus nombreuses sont celles qui concluent à un effet aggravant de TikTok sur les personnes qui souffrent de TCA. D’autres études, contestées, estiment que le réseau peut avoir des effets positifs sur les personnes en rémission de TCA, qui trouvent sur le réseau une communauté qui les soutient. Certaines publications portent sur les moyens de lutter contre l’effet négatif des réseaux par des actions, des groupes, de la parole et de la prise en charge.

En conclusion, les réseaux tels que TikTok promeuvent des messages autour de la maigreur qui amplifient les effets des médias classiques et accélèrent les phénomènes négatifs par leur capacité de diffusion. On peut établir une comparaison avec le cannabis qui favorise le développement de la schizophrénie sans en être la cause : c’est la goutte d’eau qui fait déborder le vase. Or ce sont les plus vulnérables qui sont les plus attirés par ces réseaux.

Comment nos sociétés peuvent-elles réagir, intervenir sur la place des réseaux, leur contenu et leur fonctionnement, sachant que les adolescents, en particulier les plus vulnérables, sont très exposés à un usage problématique potentiel ? La minceur et même la maigreur sont promues dans notre société par de multiples supports, depuis des générations : mannequins, poupées Barbie, divers dessins animés. On en parle beaucoup. Il faudrait parler aussi du marketing alimentaire, des aliments ultratransformés et de toutes les interactions qui jouent un rôle dans le développement des TCA.

Mme Laure Miller, rapporteure. À la lumière de vos interventions, on comprend que TikTok n’est pas forcément l’élément déclencheur mais qu’il amplifie largement le phénomène. Le réseau semble servir de boîte à outils pour ces jeunes femmes qui y trouvent des réponses très concrètes en termes de pratiques alimentaires pour devenir plus maigres, conseils qu’elles ne trouveraient peut-être pas ailleurs. Pourriez-vous développer l’aspect d’endoctrinement donc vous avez parlé, madame Copti ?

Parmi les personnes que nous avons auditionnées avant vous, certaines estiment que les réseaux peuvent aussi jouer un rôle positif en promouvant une diversité des corps, ce qui n’existait pas à l’époque où les jeunes filles n’avaient comme modèle que les mannequins, toutes d’une extrême minceur, mises en exergue par les magazines et la télévision. De plus en plus d’influenceuses, d’influenceurs et de personnalités s’exposent désormais sur les réseaux en assumant un physique différent, un corps qui n’est pas maigre. Êtes-vous d’accord avec ce constat ? Pensez-vous que ce plaidoyer pour la diversité pourrait contrebalancer les effets des tendances comme #SkinnyTok et autres instruments de promotion de l’extrême minceur ?

Est-il possible de déterminer un âge à partir duquel on est moins sensible à ces influences et plus robuste pour résister aux TCA ? La question se pose à un moment ou certains prônent une interdiction des réseaux sociaux pour les plus jeunes qui seraient moins armés pour résister à ces influences et dont la consommation de réseaux serait difficile à réguler. Pensez-vous que le phénomène touche essentiellement les adolescents ou que nous pouvons tous être vulnérables aux TCA ?

Mme Carole Copti. L’adolescent est une cible hautement vulnérable car il traverse une période de construction de lui-même, où l’image corporelle joue un rôle majeur dans sa manière de s’ancrer en tant que personne. Souvenez-vous de l’époque de la cour d’école où nous étions tous en train de nous comparer, peu armés et peu confiants. À l’époque, c’était déjà assez compliqué. Que dire de la situation des adolescents actuels qui, à cette phase de grande vulnérabilité, sont soumis à tous ces contenus !

Les TCA affectent des personnes de tous les âges, notamment de jeunes adultes comme ceux que je reçois en consultation, en raison des facteurs favorisants précédemment évoqués. Mais les réseaux sociaux, qui agissent comme un facteur aggravant, touchent moins les jeunes adultes ou les adultes que les adolescents. Or les jeunes passent énormément de temps sur les réseaux sociaux, à l’instar de certains de mes patients qui font défiler les contenus jusqu’à 2 ou 3 heures du matin avant de s’endormir, sans aucun encadrement de l’usage de leur téléphone à ce moment-là. Les réseaux prennent vraiment beaucoup de place dans leur vie.

Pourquoi ai-je parlé d’endoctrinement ? Précisons tout d’abord que l’algorithme n’est pas le seul responsable : selon une récente étude, une exposition de 8 minutes à des contenus prominceur sur TikTok suffit à ternir l’image corporelle. Or nombre d’adolescents passent des heures et des heures à visionner de tels contenus, au point que l’on puisse parler d’addiction.

J’en suis aussi venue à utiliser le terme d’endoctrinement après avoir constaté que le confinement marquait une rupture : il y a vraiment un avant et un après covid, lié au développement des réseaux sociaux. Nombre de mes patientes remettent en cause ce que je peux leur dire. Elles m’expliquent que, sur les réseaux, elles voient beaucoup de personnes qui présentent les mêmes symptômes qu’elles, tout en s’en sortant très bien. Pourtant, elles ressentent des souffrances physiques et mentales. J’ai l’impression que je ne fais pas le poids : je les vois en général une fois par semaine, alors qu’elles passent tous les jours des heures sur les réseaux sociaux. Cette exposition intensive est un frein à la prise en charge. Ces jeunes perdent toute lucidité sur le sujet et sont persuadés que l’on peut tenir avec 1 000 calories par jour, ce qui ne représente même pas la moitié de leurs besoins. Dans ce genre de cas, j’ai beaucoup plus de mal à en revenir aux schémas fonctionnels, utilisés de manière classique dans les prises en charge. Je sens leur réticence. Ils ont l’air de penser : « C’est bien ce qu’elle raconte, mais moi je sais. »

Mme Nathalie Godart. À l’adolescence, période durant laquelle on est gouverné par le plaisir et non par la rationalité, on recherche la satisfaction immédiate. Or les réseaux donnent précisément dans l’immédiateté et l’intensité. Tout ce qui est rationnel passe alors au second plan. Les réseaux redéfinissent aussi la notion de sachant, de personne apte à fournir de l’information. Les influenceurs et influenceuses, qui ont une forte personnalité à laquelle s’identifient beaucoup de jeunes, véhiculent des valeurs et des choix de mode de vie. Dans ce contexte, notre voix de professionnel, d’adulte, de parent n’est pas très audible. D’où la bascule vers la désinformation concernant les comportements qui peuvent être utiles ou sains, et vers l’imperméabilité à nos messages.

Les réseaux peuvent-ils avoir des effets positifs ? Oui, notamment en ce qui concerne la promotion de la diversité. Il y a deux ans, lors de la Journée mondiale des TCA, nous nous étions appuyés sur des influenceuses qui ont souffert de ce type de troubles et qui ont développé un discours critique très intéressant en la matière. Beaucoup de jeunes les écoutent. Il est important que nous nous appuyions sur ces influenceuses et aussi sur de jeunes professionnelles car, compte tenu de notre âge, nous pouvons être à distance des réseaux et de ces modes de communication – ce qui est aussi le cas de nombre de parents qui n’ont plus de repères concernant ce qui peut être fait ou pas.

Les téléphones – donc les réseaux – sont partout. Ils limitent le sommeil et remplacent les relations sociales. Que pourrait-on mettre à leur place ? Il faut s’interroger sur les moyens de susciter l’intérêt de ces jeunes pour un autre repère que ce repère dématérialisé devenu modèle de fonctionnement.

Mme Laure Miller, rapporteure. Merci pour la formidable initiative que vous avez eue en lançant cette pétition. Existe-t-il encore, au moment où nous parlons, des contenus relevant du #SkinnyTok Challenge sur la plateforme ? Avez‑vous eu des liens avec TikTok lorsque vous avez lancé la pétition et qu’elle a pris cette ampleur ? Si c’est le cas, quelle a été la réaction de la plateforme ?

Mme Charlyne Buigues. Je n’ai pas eu de réponse de la part de TikTok. J’ai consulté l’application hier : on y trouve d’abord un message de prévention et de bienveillance affirmant que le poids ne définit pas une personne, mais toutes les vidéos du #SkinnyTok sont encore présentes sous ce message, alors qu’elles n’y étaient pas voilà une semaine – il n’y avait alors que le message de vigilance. J’ignore pourquoi cela a été modifié.

Je n’ai donc pas obtenu de réponse de la part de TikTok, alors que j’ai bien mentionné cette situation dans la pétition et dans plusieurs de mes publications. De nombreuses personnes l’ont fait aussi, mais sans réponse.

Je souscris aux propos de Mme Copti. La majorité des jeunes que je vois dans mon service de soins ont entre 13 et 18 ans et un grand nombre d’entre elles a vécu du harcèlement scolaire, notamment des moqueries sur la base de critères corporels – « T’es grosse ! T’es moche ! » et ainsi de suite. De nombreux contenus de TikTok valorisent des jeunes filles correspondant aux critères de beauté actuels de la société : un petit nez, des lèvres assez pulpeuses, des cheveux bien lisses et bruns, un corps assez fin avec quelques formes, mais pas trop non plus, un ventre plat. Ces jeunes filles, dont le compte attire des millions de vues, de likes et d’abonnés, sont très valorisées dans les commentaires, mais celles qui se démarquent de ces critères de beauté y font l’objet d’un harcèlement banalisé, ce qui les soumet à une pression constante pour ressembler à cet idéal. C’est difficile pour elles car, dans notre service, nous leur disons de s’accepter comme elles sont et essayons de leur permettre de se développer et de se faire confiance intérieurement, mais lorsqu’elles se connectent sur les réseaux sociaux, elles peuvent y passer de six à huit heures. Nous avons ainsi été obligés de limiter le temps d’écran dans notre service, car l’usage des réseaux perturbe fortement le sommeil : nous récupérons les téléphones à 22 heures et les rendons à 8 heures. Nous, les infirmières, voyons ces jeunes filles scroller toute la journée sur les réseaux et en parlons beaucoup avec elles, en leur demandant ce qu’elles y voient. Or les algorithmes sont centrés sur l’apparence physique et l’alimentation, présentant des régimes restrictifs ou hydriques, voire hypocaloriques. Nous passons notre temps à découdre les informations proposées sur les réseaux sociaux, mais cette prise en charge est difficile, car ces jeunes filles s’éduquent très souvent avec TikTok.

#SkinnyTok est un nom qui a été donné à des contenus dangereux qui existent, en fait, depuis très longtemps. J’en voyais déjà des contenus de cet ordre voilà plusieurs années, en 2020 et même en 2019, mais sans ce hashtag : ils apparaissaient sous #alimentation, #régime, #glowup ou d’autres noms. Ces jeunes subissent une pression constante et il est très difficile pour les professionnels de devoir toujours tout découdre et tout reprendre avec elles. C’est un gros travail, et nous réfléchissons à la création, dans la structure de soins, d’ateliers consacrés à la prévention, à la sensibilisation, à l’éducation aux réseaux sociaux.

M. le président Arthur Delaporte. Vous avez également évoqué le cas de patientes qui gagnaient de l’argent grâce aux contenus incitant à la maigreur excessive qu’elles publiaient, ce qui les poussait à publier de plus en plus de vidéos problématiques, précisément parce qu’elles étaient virales. Pouvez-vous développer ces exemples ou présenter des cas similaires ?

Mme Charlyne Buigues. Des influenceuses comme Assia, Jade ou Onboou sont des jeunes filles qui souffrent de troubles du comportement alimentaire et qui s’exposent énormément sur les réseaux sociaux. Elles y montrent leur quotidien au point que cela en devient un mode de vie. Elles reçoivent un nombre considérable de commentaires, dépassent les 80 millions de « j’aime » et ont des milliers d’abonnés. Onboou expliquait que la rémunération qu’elle tirait de TikTok lui permettait d’acheter de grosses quantités de nourriture pour pouvoir faire ses orgies alimentaires avant de provoquer des vomissements volontaires. Elle expose aussi ses hypokaliémies – je rappelle qu’un taux de potassium très bas fait courir un risque d’arrêt cardiaque – et ses allers-retours aux urgences, qui attirent des millions de vues. Elle filme ses conversations avec les infirmières et infirmiers sans leur accord.

Ces jeunes filles sont très connues parmi les patientes souffrant de troubles du comportement alimentaire, et j’en entends très souvent parler dans mon service. Ces contenus, que j’ai regardés, sont très choquants, car ils valorisent et banalisent les TCA, dont ils masquent la dangerosité et les conséquences en laissant croire qu’on peut vivre heureux avec cela et que tout va bien. Cela complique les choses dans le cerveau des jeunes filles que nous soignons.

Plus ces influenceuses accumulent des millions de vues et d’abonnés, plus elles sont rémunérées, ce qui entretient cette pathologie très grave, de telle sorte que de nombreuses jeunes filles souffrant de TCA se mettent, elles aussi, à ouvrir des comptes TikTok pour gagner de l’argent.

M. le président Arthur Delaporte. Certaines patientes vous ont-elles dit combien elles gagnaient ?

Mme Charlyne Buigues. Non. Elles ne le précisent pas. Les lives aussi rapportent de l’argent.

M. le président Arthur Delaporte. TikTok encourage-t-il des pratiques de live ?

Mme Charlyne Buigues. J’ai vu des vidéos postées par des influenceurs qui tentaient de donner l’alerte quant à la dangerosité de TikTok, indiquant que la plateforme prélevait une commission de 70 % sur les lives. L’attrait des lives, qui repose sur la curiosité humaine face à des corps aussi maigres, est également problématique.

M. le président Arthur Delaporte. Madame Copti, vos patientes évoquent-elles cette boucle de rétroaction, en quelque sorte, qui pousse à publier des contenus valorisant les TCA pour gagner de l’argent jusqu’à en devenir dangereuse ?

Mme Carole Copti. Sans aucun lien avec l’argent, il s’agit plutôt du nombre de likes. Pour une patiente que je suis depuis des années, par exemple, la phrase « Ce que tu manges en privé, tu le portes en public » est très difficile, car les nombreux abonnés de son compte TikTok alimentent une forme d’estime personnelle qui crée presque un besoin, une dépendance. Elle continue donc, malgré des années de prise en charge, à publier du contenu dont elle a besoin, ce qui la pousse à une certaine exigence – elle doit être la plus mince, la plus belle – au point qu’elle a du mal à s’en sortir. La prise en charge de cette patiente est pluridisciplinaire et rodée. Nous avons instauré un climat de confiance – elle me parle et, lorsque je le lui ai demandé en vue de cette audition, elle m’a montré sur son téléphone les contenus qu’elle publie. Cette première phrase, que je viens de citer, est ressortie – j’en ai fait une capture d’écran que je pourrais vous montrer. La deuxième était : « Si tu ressens la faim, c’est que tu es sur la bonne voie ». C’est très violent. Elle en est consciente, avec un certain discernement dont témoigne le fait qu’elle m’invite à regarder, mais le besoin d’alimenter les likes demeure, plus important que la conscience, car c’est une question d’estime de soi. Cette connexion est une forme de dépendance. De fait, dans les schémas fonctionnels – il s’agit, dans son cas, d’anorexie mentale –, il y a une insatisfaction corporelle réelle et une faible estime de soi, certains facteurs venant entretenir et aggraver ce mécanisme, comme l’environnement dans lequel on a grandi et dans lequel on continue d’évoluer, les réseaux sociaux ou la comparaison avec les autres, qui a toujours existé. La situation reste très difficile.

Pour continuer avec cet exemple, la réponse à l’insatisfaction corporelle est une restriction alimentaire, qui est, en outre, valorisée sur les réseaux. Cette restriction est donc très forte et crée un état de dénutrition – c’est-à-dire qu’il n’y a pas assez de calories dans la machine –, qui est une porte d’entrée vers les TCA.

L’étude d’Ancel Keys, réalisée en 1944-1945 dans un cadre totalement différent pour montrer les effets directs de la dénutrition sur le corps, est à cet égard très importante. Il n’était pas question, à cette époque, d’image corporelle, mais il s’agissait de savoir comment réalimenter les populations. Les conséquences directes de la dénutrition figurent notamment la dépression, l’anxiété et l’obsession pour la nourriture, qui alimente le besoin de consommer encore plus de contenus – plus on y pense, et plus on a besoin de voir des gens manger ou de se sentir soutenu, car c’est difficile. Plus étrange encore, une autre conséquence est la boulimie, qui est un trouble du comportement alimentaire marqué par des épisodes de suralimentation incontrôlée – le corps ayant besoin de ressources, c’est presque instinctif : on a besoin de manger pour vivre. L’étude en dit long sur les conséquences potentielles de cette forme de restriction très forte qui est valorisée sur les réseaux sociaux. De fait, ce qui est souvent vu comme un facteur est aussi une conséquence. Cette boucle complique beaucoup les choses, mais le fait de comprendre les conséquences de la dénutrition permet d’éveiller le patient à certaines questions.

Mme Nathalie Godart. Bien que les algorithmes de TikTok soient particulièrement puissants et posent un problème particulier, ce phénomène a existé aussi sur Instagram, Facebook ou Snapchat à d’autres époques et touche l’ensemble des réseaux sociaux, en fonction des gammes d’âge, car les générations passent d’un réseau à l’autre à mesure qu’ils apparaissent.

M. Arthur Delaporte, président. Madame Buigues, il a été fait état de comptes suspendus à la suite d’un signalement puis recréés. Pouvez-vous me confirmer que ces cas existent et si vos patients suivent des comptes perpétuellement recréés après avoir été dénoncés ou suspendus ?

Mme Charlyne Buigues. En 2022, une jeune fille de 13 ans, la plus jeune patiente du service, qui souffrait d’anorexie mentale depuis l’âge de 10 ans et avait un compte TikTok sur lequel chacune de ses vidéos recevait plus de 3 millions de « j’aime », avec de très nombreux messages de soutien et de curiosité ainsi que de très nombreuses questions, est venue me demander, en plein tour de médicaments, si elle pouvait photographier mon visage pour débloquer son compte TikTok. Je lui ai répondu que c’était hors de question et lui ai demandé ce qui arrivait à son compte. Elle m’a expliqué qu’elle avait été bannie de TikTok et qu’elle avait besoin d’une personne majeure pour débloquer son compte. Je l’ai engagée à demander à ses parents, en ajoutant qu’il y avait peut-être des raisons à ce bannissement et qu’il faudrait qu’elle parvienne à en prendre conscience. Mes collègues et moi voyions ce qu’elle publiait sur TikTok, où elle exposait sa maigreur extrême et son alimentation entérale, se prenant en vidéo en petit short et débardeur. C’est très dangereux d’exposer son corps entier sur TikTok à ce jeune âge – c’était catastrophique. Quelques jours plus tard, lorsque je lui ai demandé si elle avait pu régler le problème avec ses parents, elle m’a répondu qu’elle avait réussi à débloquer son compte. J’ai en effet constaté que son compte était encore actif, qu’elle avait récupéré ses abonnés, ses « j’aime » et ses commentaires, et que toutes ses publications étaient encore disponibles.

J’ai également été contactée sur mon compte de prévention Au cœur des TCA, sur Instagram, par un papa qui a perdu sa fille à cause d’un trouble du comportement alimentaire et qui a eu connaissance du #SkinnyTok. Il a voulu rester anonyme, mais il m’a expliqué que sa femme et lui avaient finalement regardé dans le téléphone de leur fille pour savoir ce qu’elle voyait sur les réseaux, et avaient constaté que son algorithme TikTok était rempli d’astuces pour maigrir, et même d’autres choses encore plus graves. Il a essayé de signaler plusieurs publications que sa fille avait aimées ou qui restent visibles, mais il a reçu des retours négatifs de TikTok, selon qui ces contenus n’étaient pas problématiques. Il m’a envoyé les captures d’écran de toute sa démarche, disant qu’il ne comprenait pas pourquoi, alors que, sur une vidéo clairement identifiée comme relevant du #SkinnyTok, une fille exposait sa maigreur extrême, on ne faisait rien malgré les signalements. De très nombreuses jeunes filles me contactent sur mon compte, m’envoyant de nombreuses références de comptes d’influenceuses, parfois des mannequins, qui s’exposent avec une maigreur extrême, en me disant qu’elles essaient de signaler ces comptes et qu’elles ne veulent pas les voir, mais qu’ils reviennent pourtant dans leur algorithme.

L’audition, suspendue à dix-huit heures trente-cinq, est reprise à dix-huit heures cinquante.

M. Stéphane Vojetta (EPR). Les mécanismes d’incitation à produire du contenu posent problème, car si ce contenu n’était pas produit, personne ne le regarderait et on se poserait moins la question de savoir s’il est nocif ou non. Or on sait qu’il l’est, et ce n’est pas propre à TikTok, puisqu’Instagram l’avait reconnu et que des fuites avaient révélé, en 2021 ou 2022, une étude interne selon laquelle un tiers des utilisatrices d’Instagram âgées de 14 à 16 ans avait connu une altération négative de la vision qu’elles avaient de leur propre corps.

Vous faites un lien entre l’augmentation de l’utilisation des réseaux et le covid, et établissez une relation de causalité entre cette augmentation et celle des troubles alimentaires. Il y a donc sans doute un problème avec certains contenus. Pour nous, législateur, il s’agit de savoir comment réguler tout cela, car il n’existe pas de bouton permettant d’interdire les réseaux sociaux ni les discours sur la beauté physique, la minceur, la maigreur ou les régimes.

Peut-être devons-nous agir sur les mécanismes qui incitent à produire ces contenus. C’est, dans une certaine mesure, ce que nous avons fait avec le président Arthur Delaporte en décidant, dans la loi n° 2023-451 du 9 juin 2023 visant à encadrer l'influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, d’interdire à ces derniers la promotion de procédures ou de produits relevant de la chirurgie esthétique. Certaines de ces promotions concernent en effet des produits interdits ou mal régulés, ou des praticiens non encadrés, et l’interdiction supprime l’incitation à produire des contenus sur ce sujet. De fait, les influenceurs et créateurs de contenus veulent obtenir soit de l’argent, versé par la plateforme en fonction du nombre de likes ou par un annonceur, soit des likes, des commentaires et des followers. Il est plus difficile d’agir dans ce dernier cas que lorsqu’il s’agit de promotion et de marketing d’influence car, si l’incitation que représentent les revenus publicitaires disparaît, les influenceurs commerciaux qui veulent gagner de l’argent devront parler d’autre chose, par exemple de tourisme, de voyages ou de sport. Telle est, du moins, la théorie. Peut-être faudrait-il donc qu’à défaut de pouvoir interdire certains contenus du fait de la liberté d’expression, nous puissions au moins empêcher qu’ils soient récompensés économiquement. Avez-vous des éléments à opposer à cette réflexion ?

Par ailleurs, madame Godart, vous avez évoqué les troubles alimentaires graves touchant les jeunes filles à partir de 12 ans, mais j’ai la sensation intuitive que ces troubles touchent aussi un nombre croissant de moins de 12 ans. Est-ce vérifié et, si tel est le cas, cela pourrait-il être lié à la consommation de réseaux sociaux ?

Mme Nathalie Godart. Sur ce dernier point, on sait que la demande de soins pour les plus jeunes augmente à l’échelle internationale, mais la compréhension de ce mécanisme est difficile, car il n’y a pas d’études épidémiologiques montrant une augmentation de ce phénomène dans la population générale, qui peut s’expliquer simplement par une meilleure information et une détection plus précoce, ou par le fait que, dans la compréhension qu’en ont les praticiens, ces troubles peuvent se rencontrer beaucoup plus précocement que chez les adolescents. Il faut donc être très prudents en la matière.

Par ailleurs, et pour préciser le résumé que vous avez fait à ce propos, l’explosion des troubles des conduites alimentaires pendant et après la période du covid tient majoritairement au stress et aux problèmes qui ont augmenté l’anxiété et la dépression, lesquelles font le lit de ces troubles. La diminution des relations sociales, qui sont très importantes pour les adolescents et qui sont un facteur de stress majeur, a certes pu être la goutte d’eau qui les a conduits à utiliser beaucoup plus les réseaux, mais il est très imprudent de dire que c’est ce qui a créé cette vague de troubles des comportements alimentaires.

Quant à la rémunération, elle peut être intéressante pour certains, mais la majorité des patients que je vois agissent par besoin de reconnaissance quelque peu narcissique, par besoin d’exister, en fonction d’une jauge qui leur fait dire qu’ils « valent » un certain nombre de likes et de followers. C’est pour eux un mécanisme très important et je ne sais donc pas si la mesure que vous envisagez suffira.

Mme Carole Copti. Il est bon d’utiliser tous les leviers et il reste très intéressant de travailler sur l’aspect pécuniaire. Toutefois, et même si je ne sais pas comment cela se passe ailleurs, les jeunes que je reçois dans mon cabinet recherchent surtout la gloire. Leur valeur dépend du nombre de likes qu’ils obtiennent, ce qui rend les choses plus difficiles. Cependant, ce n’est pas parce que la gloire est le levier plus important qu’on ne peut pas exploiter les autres et il me semble tout à fait pertinent de le faire.

Pour ce qui est du covid, dont j’ai indiqué qu’il avait donné lieu à une explosion du nombre de consultations, l’isolement a probablement contribué à une forme d’anxiété et de dépression, car on se construit aussi à travers les autres. Il y a eu un vrai changement, un vrai impact en la matière à ce moment-là.

Mme Charlyne Buigues. Lorsque j’ai commencé à travailler, les patientes que nous prenions en soin avaient de 18 à 25 ans, et elles sont arrivées de plus en plus jeunes dans notre service. En plein covid, juste avant l’été du confinement, elles nous ont confié que c’était très difficile pour elles à la maison, parce qu’elles étaient enfermées dans leur chambre sur les réseaux sociaux, notamment sur TikTok, et un très grand nombre d’entre elles nous ont dit qu’elles étaient bombardées d’informations sur les régimes minceur et les sports permettant de brûler le plus de calories, ainsi que d’incitations à avoir obtenu, selon le terme utilisé sur les réseaux, un glow up à la fin du confinement.

J’ai 25 ans et j’ai été moi aussi victime des contenus véhiculés sur les réseaux. Une pression s’exerçait pour répondre à ces attentes – j’ai d’ailleurs consacré mon mémoire d’études d’infirmière à cette question. La crise du covid a donc été marquée non seulement par l’isolement, mais aussi par l’impact des réseaux sociaux chez les jeunes filles.

Mme Nathalie Godart. Je voudrais que l’on n’oublie pas les parents. On parle beaucoup des jeunes et de leurs souffrances, mais les parents manquent d’outils. Or ils occupent une place très importante. On peut les responsabiliser, leur demander de poser des règles à la maison et de faire des choses pour protéger leur enfant.

Je suis moi-même mère d’un enfant de quinze ans et c’est très difficile car, actuellement, interdire n’est pas un comportement parental courant. Beaucoup de parents se retrouvent en difficulté et les adolescents ne rencontrent en fait pas de limites.

Mme Laure Miller, rapporteure. Vous avez raison, c’est un point que nous n’avons pas examiné.

Vous avez dit précédemment que vous ne luttiez pas à armes égales. Les jeunes remettent facilement en question les propos des adultes et des professionnels, et ce d’autant plus qu’ils sont bombardés de vidéos qui disent exactement le contraire et les incitent à agir autrement. Lorsqu’elles rentrent chez elles, les jeunes filles peuvent très facilement oublier ce que vous leur avez dit.

Lors des consultations, posez-vous parfois aux parents la question de l’interdiction du téléphone, outil d’accès aux réseaux sociaux, en leur expliquant qu’il expose leur enfant à un risque pour la santé ? Cette suggestion rencontre-t-elle un écho ?

Mme Carole Copti. La question est posée. Mais comme cette interdiction est une source de frustration pour l’enfant, cela rompt la communication. Or celle‑ci constitue la base de la prise en charge. Plus l’enfant évolue dans un environnement où la parole se libère, en créant un temps d’échange et de communication avec les parents, mieux ça se passe. La prise en charge ne doit pas être cantonnée au temps des consultations, car celui-ci ne représente pas grand-chose.

C’est la raison pour laquelle je demande à recevoir les parents en consultation pour les sensibiliser à certains sujets et leur donner des outils. L’interdiction n’est pas une solution. Au contraire, c’est contre-productif car l’enfant risque de se rebeller et de se fermer.

Il faut plutôt encadrer, éduquer, échanger et trouver des solutions ensemble – par exemple en proscrivant l’usage du téléphone dans la chambre ou en imposant qu’il soit utilisé dans des espaces communs et en parlant ensemble des contenus.

Il faut aussi essayer de se remettre en question en tant que parent. Des enfants me disent parfois que leurs parents ne leur accordent pas d’attention parce qu’ils rentrent tard – nous avons tous des agendas très chargés. En outre, les repas ne se font plus du tout en famille. L’isolement n’est pas seulement une conséquence du covid. Il résulte aussi du fait qu’il n’y a plus du tout d’échanges à la maison. On ne va donc pas parler de ce que l’on a ressenti pendant la journée et l’on va garder pour soi ses émotions.

C’est une aubaine pour TikTok, car cela permet d’avoir encore plus d’influence sur les jeunes.

Il faut donc créer un espace de discussion tout en encadrant. Outre le fait qu’il est utopique de vouloir interdire, ce n’est en rien une solution.

Mme Charlyne Buigues. Quand des jeunes viennent consulter – en particulier lors de la préadmission dans le service –, on échange avec les parents et on leur demande si leurs enfants vont sur les réseaux sociaux et s’ils s’y exposent. Cela permet d’aborder un peu le sujet.

À la suite de ma pétition, beaucoup de parents sont venus me parler des réseaux sociaux et de leurs tentatives pour limiter le temps qu’y consacrent leurs enfants. J’ai pu constater les conséquences très malsaines de l’algorithme de TikTok sur l’une de mes patientes. Elle passait six heures par jour sur ce réseau. Elle essaie de se limiter à une heure et demi, ses parents ayant imposé un temps d’écran plus réduit.

Mme Carole Copti. Il faudrait aussi donner la parole sur les réseaux sociaux aux patients experts. Ils ont souffert de troubles du comportement alimentaire et en parlent librement, ce qui permet de faire comprendre à certaines personnes comment il est possible d’essayer de s’en sortir grâce à une prise en charge adaptée.

Créer une espèce d’alliance thérapeutique et former les patients experts permettrait qu’ils aient un impact beaucoup plus important sur les réseaux. Certains comptes existent déjà. Je suis le compte lucie.musy sur Instagram depuis des années. Il est tenu par une jeune qui a souffert d’anorexie, qui en parle, qui explique pourquoi et qui décrit les symptômes. Je recommande à mes patientes de suivre ce compte. Même si son impact n’est pas énorme, cela permet quand même d’éveiller les consciences. La patiente se dit qu’elle est comprise, même si c’est d’une manière différente.

Il faudrait donc former ces personnes pour qu’elles relaient des messages de prévention, ce qui permettrait d’avoir un effet par un autre biais.

M. le président Arthur Delaporte. Merci de nous avoir permis de sortir du débat binaire pour ou contre l’interdiction en essayant d’être un peu plus nuancées – le sujet dont nous discutons le mérite.

N’hésitez pas à nous transmettre des éléments complémentaires.

Je vous annonce que la consultation lancée sur le site de l’Assemblée nationale a reçu 15 000 réponses en deux semaines, ce qui traduit un intérêt certain du public. Environ 80 témoignages nous ont été également adressés. Tout cela permet d’enrichir nos travaux et je remercie les citoyens qui considèrent, comme nous, que la régulation des réseaux sociaux et de leurs effets est un enjeu de société majeur.

17.   Audition de Mmes Marie-Christine Cazaux, et Catherine Martin, éducatrices spécialisées, membres du collectif Mineurs, éthique et réseaux (Meer) (mardi 13 mai 2025)

La commission auditionne Mmes Marie-Christine Cazaux, et Catherine Martin, éducatrices spécialisées, membres du collectif Mineurs, éthique et réseaux (Meer) ([17]).

M. le président Arthur Delaporte. Mmes Marie-Christine Cazaux et Catherine Martin exercent une vigilance particulière sur certains influenceurs et ont signalé des pratiques préoccupantes, notamment auprès de la mission interministérielle de vigilance et de lutte contre les dérives sectaires (Miviludes).

Je vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mmes Marie-Christine Cazaux et Catherine Martin prêtent serment.)

Mme Marie-Christine Cazaux, éducatrice spécialisée, membre du collectif Mineurs, éthique et réseaux (Meer). Notre collectif s’est constitué en 2023 à la suite de la promotion, par l’influenceuse Ophenya, d’une application de rencontre destinée aux jeunes âgés de dix à vingt-et-un ans, jugée dangereuse pour les mineurs et largement médiatisée à l’époque. Cet événement est venu soulever une question fondamentale : au-delà des problématiques liées à l’algorithme de TikTok, les créateurs de contenu ont-ils une responsabilité directe sur la santé mentale des mineurs ?

Afin d’y répondre, nous observons depuis près de deux ans plusieurs influenceurs, en portant une attention particulière à Ophenya, Il nous paraît essentiel d’expliquer ce choix, en rappelant que notre objectif n’est nullement de lui faire un procès. Toutefois, lorsque la presse, des professionnels dont nous faisons partie, ainsi que des collectifs ont dénoncé à juste titre l’application Crush, nous avons vu émerger des milliers de commentaires de « BGnya », nom donné à sa communauté. Beaucoup de mineurs défendaient alors cette application en affirmant qu’elle n’avait rien de problématique, que la presse mentait et que les critiques étaient motivées par la jalousie. Ce sont précisément ces réactions passionnelles, dénuées d’objectivité et profondément défiantes à l’égard de la presse et des institutions, qui ont commencé à nous alerter.

Ce choix s’est également imposé à nous car, à l’époque, Ophenya était la plus grande influenceuse jeunesse avec cinq millions d’abonnés, était engagée dans des causes telles que la santé mentale et le harcèlement scolaire et avait été légitimée dans son combat par le Gouvernement. Ophenya est ainsi devenue une sorte de maître étalon nous permettant d’observer les conséquences d’une interaction poussée à son extrême avec des mineurs âgés de huit à dix-sept ans.

En parallèle, nous observons l’ensemble de la plateforme TikTok depuis deux ans. Quatre thématiques principales se sont dégagées de notre travail : la responsabilité des influenceurs sur la santé mentale des mineurs, les phénomènes d’emprise, la présence de contenus violents et inadaptés ainsi que l’algorithme et la modération.

S’agissant des créateurs de contenu, nous avons relevé des échanges privés à l’initiative de l’influenceur ou de l’influenceuse, comprenant des appels, des vidéos ou des messages comportant parfois un vocabulaire discutable. Nous avons observé la promotion de produits douteux, des lives organisés en semaine jusqu’à une heure du matin, parfois lancés au beau milieu de la nuit, ou encore des diffusions pouvant durer cinq à six heures pendant les week-ends.

Nous avons également relevé un vocabulaire inadapté, des propos sexualisés, anxiogènes, voire ésotériques, ainsi que des interactions se déroulant à toute heure du jour et de la nuit. Certaines publications incitent à contourner les conditions générales d’utilisation (CGU) des plateformes, notamment celles de TikTok. Des propos banalisent également la violence, parfois la cruauté animale ou encore la délinquance, et nous avons constaté la diffusion de conseils inadaptés ou le traitement de thématiques mal maîtrisées, en particulier concernant les violences sexuelles. Enfin, nous avons observé un dénigrement des institutions, en particulier de l’éducation nationale, ainsi qu’un rejet manifeste de la presse et de l’information en général. Nous avons également identifié la mise en avant de pratiques portées par des personnes ou entités douteuses.

Du côté des mineurs, nous avons relevé une hyperconnexion, des jeunes à l’affût de chaque publication, y compris en cours ou durant la nuit, ainsi qu’une agressivité dirigée contre toute forme de critique à l’égard de leurs influenceurs préférés, certains allant jusqu’à proférer des menaces de mort à l’encontre de leurs contradicteurs. Nous avons observé une incapacité à distinguer les bonnes et mauvaises pratiques des influenceurs, en raison de l’absence d’esprit critique. Si ce constat est compréhensible eu égard à l’âge de ces jeunes, il interroge quant aux conséquences si, par exemple, un influenceur venait à adhérer à des théories complotistes.

Nous avons vu des mineurs devenir une véritable armée au service de leur influenceur, mobilisés pour signaler massivement les comptes de leurs détracteurs, rechercher des informations personnelles à leur sujet ou encore identifier d’éventuelles collaborations commerciales. Nous avons également observé un rythme de publication frénétique au sein de ces communautés, avec certains comptes diffusant en moyenne une publication toutes les six minutes.

Cette volonté de se démarquer et d’attirer l’attention des influenceurs pousse certains mineurs à adopter des comportements excessifs tels que des publications à outrance, l’envoi de cadeaux, la livraison de nourriture et parfois le passage à des actes d’automutilation ou l’annonce de leur suicide. D’autres vont jusqu’à se rendre physiquement sur les lieux de vie des influenceurs.

Nous avons également repéré des mécanismes de violence au sein même des communautés de mineurs, accompagnés d’une altération manifeste de leur qualité de vie. Nombre d’entre eux souffrent ainsi de troubles du sommeil, traversent des crises de désespoir, pratiquent l’automutilation et tiennent des propos suicidaires. Ils sont par ailleurs fortement exposés à la pédocriminalité et semblent plongés dans une confusion affective profonde. Nous faisons face à des jeunes qui souhaitent épouser leurs influenceurs ou leur « donner leur vie », des formulations révélatrices d’un attachement démesuré.

Un phénomène particulièrement préoccupant est celui du copycat, à travers lequel de nombreux mineurs reprennent les mimiques et les gestuelles caractéristiques des influenceurs adultes pour bâtir leur propre communauté. Cela crée une forme de mise en abyme, puisque nous nous retrouvons aujourd’hui avec de nombreux comptes tenus par des mineurs de moins de quinze ans, majoritairement des jeunes filles, suivis par des milliers d’adultes. Ce phénomène nous a profondément inquiétés tout au long de notre travail.

S’agissant plus précisément des phénomènes d’emprise, M. Le Vaillant, chef de la Miviludes, s’est exprimé la semaine dernière, exposant ce qu’il convenait d’en dire, et nous vous avons également fait parvenir des documents sur cette thématique.

Pour conclure, à ce jour, le collectif a effectué plus d’une centaine de signalements à la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (Pharos), une quinzaine d’informations préoccupantes, et j’ai personnellement effectué un signalement au titre de l’article 40, puisque mon statut de fonctionnaire m’y oblige. Enfin, comme vous le savez désormais, nous avons également saisi la Miviludes.

Mme Marie-Christine Cazaux. La question centrale qui se pose est celle de la responsabilité de TikTok dans cette situation, responsabilité que nous estimons engagée aux trois niveaux que sont l’algorithme, la monétisation et la modération.

L’algorithme de TikTok tend à enfermer les utilisateurs dans des bulles de contenu, puisqu’il privilégie les publications suscitant des émotions fortes, notamment négatives, car ces dernières génèrent davantage d’interactions. Celles‑ci se traduisent par un flux d’activité accru, dont les retombées financières profitent tant à la plateforme qu’aux créateurs de contenu. Ce mécanisme incite certains d’entre eux à produire délibérément des vidéos ou des lives provocants ou controversés dans le but de promouvoir leurs produits. L’exemple d’Ophenya, qui a eu recours à la manipulation émotionnelle pour promouvoir son single Error 404, illustre parfaitement ce phénomène.

Les créateurs de contenu ont pleinement saisi le fonctionnement de l’algorithme et s’y adaptent, parfois en recourant à des stratégies peu éthiques. Bien que TikTok puisse prétendre, en s’appuyant sur son statut d’hébergeur, se dégager de toute responsabilité, il apparaît toutefois clairement que la plateforme choisit en toute conscience de mettre en œuvre ce mécanisme algorithmique, engageant ainsi sa responsabilité.

La question de la rémunération se pose également, y compris pour les mineurs, puisque TikTok a instauré un système de monnaie virtuelle accessible dès mille abonnés, permettant aux utilisateurs de recevoir de l’argent virtuel lors de leurs diffusions en direct. Nous assistons ainsi à la multiplication de lives animés par des mineurs, qui contournent délibérément les conditions générales d’utilisation de la plateforme. Plus ces jeunes passent de temps en direct, plus ils engrangent de minuscules sommes qui, cumulées, deviennent incitatives. Ce système les encourage à multiplier les diffusions puisqu’il leur permet, ensuite, de reverser ces gains à leurs influenceurs favoris, en achetant des cadeaux virtuels qui sont remis en direct, ce qui favorise une interaction immédiate et souvent ludique. Ce mécanisme explique également, selon nous, pourquoi certains créateurs passent des heures en live, sachant que ces cadeaux virtuels, en apparence anodins, participent de leur modèle économique. Ils encouragent ainsi, de manière explicite ou implicite, leur envoi, en particulier de la part d’un public mineur, sensible à la dimension visuelle et réactive de ces éléments.

Il s’agit là d’un véritable système de gratification virtuelle, à la fois stimulant et structurant, qui agit comme un levier de motivation et de reproduction des comportements, puisque l’adolescent qui voit un pair réaliser un live est tenté de l’imiter, même s’il a pleinement conscience que cette pratique est interdite aux moins de dix-huit ans. Le phénomène est encore aggravé lorsque des influenceurs expliquent eux-mêmes comment contourner les règles, et c’est précisément à ce stade que la question de la responsabilité de la modération se pose.

Nous avons effectué de nombreux signalements à TikTok, lesquels ont été rejetés dans plus de 90 % des cas, au motif que les contenus en question ne violaient pas les règles de la plateforme. Bien qu’il ne soit pas toujours aisé de détecter qu’un mineur est en live, d’autant que certains masquent leur visage ou utilisent des filtres, cet obstacle technique ne saurait justifier une telle inertie dans la modération.

Au regard de tous ces éléments, il ne fait pour nous aucun doute que l’utilisation de TikTok par des mineurs représente un risque réel pour leur sécurité comme pour leur santé. Elle favorise également l’adoption de comportements éthiquement contestables, voire illégaux.

Nous souhaitons ainsi formuler plusieurs recommandations. Il convient tout d’abord de revoir les modalités d’accès aux diffusions en direct, en rendant obligatoire la justification de l’âge dès lors qu’un utilisateur atteint le seuil d’abonnés permettant d’héberger ou d’être invité dans un live.

Il nous semble également indispensable d’améliorer en profondeur le système de modération, de rendre plus lisibles et accessibles les mécanismes de signalement et d’envisager, par exemple, l’intégration d’un lien direct vers la plateforme Pharos au sein de l’application. Plusieurs utilisateurs nous ont en effet fait part de leur découragement car, après avoir signalé un contenu à TikTok sans obtenir de réponse satisfaisante, ils ne savent plus à qui s’adresser ni quelles suites donner à leur alerte. Il est donc nécessaire de mieux communiquer sur ces dispositifs et d’allouer des ressources humaines suffisantes pour traiter les signalements, en particulier ceux concernant des mineurs, pour lesquels une vérification humaine systématique devrait être mise en place.

Il conviendrait par ailleurs, lorsqu’un utilisateur est repéré par l’algorithme comme relevant du champ de la santé, du développement personnel ou du coaching, qu’une démarche préventive soit automatiquement associée à la diffusion de ses contenus. Entre deux ou trois vidéos, des messages d’information devraient apparaître. Par exemple, pour un contenu traitant du harcèlement scolaire, il serait pertinent d’intégrer des informations sur l’association e‑Enfance et le numéro 3018. Le financement de ces insertions devrait naturellement être assuré par la plateforme, compte tenu du caractère non lucratif des associations concernées.

Nous recommandons enfin de renforcer les vérifications imposées aux créateurs monétisés, afin de s’assurer qu’ils ont effectivement pris connaissance des conditions générales d’utilisation, car nous constatons que la plupart les ignorent. Il serait également pertinent de prévoir une intervention humaine dans les cas où un créateur fait l’objet de signalements répétés ou massifs. Cette mesure permettrait de lutter plus efficacement contre le cyberharcèlement, qui existe sur TikTok sous une forme déguisée. Dans le cas d’Ophenya, nous avons notamment observé comment une communauté peut être subtilement incitée à signaler en masse des vidéos, conduisant à leur suppression ou, dans certains cas, à la fermeture du compte ciblé.

Nous tenons, pour conclure, à rappeler que la responsabilité est partagée. Elle incombe aux plateformes, aux agences, aux créateurs de contenu, et il est donc impératif que chacun agisse à son niveau afin d’améliorer durablement la situation.

M. le président Arthur Delaporte. Votre travail de veille quotidien est d’une grande valeur. Je suis conscient que votre présentation succincte synthétise de longues heures d’observations et d’analyses et que derrière ce résumé se cachent des dizaines d’exemples concrets.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Ma première question porte sur vos missions de veille et de surveillance des plateformes. Avez-vous constaté une réelle différence entre TikTok et les autres réseaux sociaux ? Le cas échéant, pourriez-vous nous expliciter ces différences ?

Par ailleurs, outre Ophenya, avez-vous identifié d’autres profils d’influenceurs sur TikTok qui seraient problématiques et dont vous demanderiez le bannissement ? Pourriez-vous nous donner quelques exemples détaillés ?

Enfin, le débat public s’intensifie sur ce sujet, avec diverses propositions émergentes. La question d’une interdiction d’accès aux réseaux sociaux, et particulièrement à TikTok, avant un certain âge, est notamment évoquée. Quel est votre point de vue sur une telle proposition ?

Mme Marie-Christine Cazaux. Concernant la différence entre TikTok et les autres réseaux sociaux, nous constatons une concentration plus marquée des contenus problématiques sur cette plateforme. Si les comportements préoccupants tels que l’hypersexualisation, la violence verbale ou physique se retrouvent sur l’ensemble des réseaux, TikTok présente la particularité de les agréger rapidement dans le fil d’actualité personnalisé de l’utilisateur.

Par ailleurs, le processus de signalement sur TikTok s’avère particulièrement complexe. Nous considérons que des améliorations sont non seulement possibles mais nécessaires, puisque d’autres plateformes, telles que YouTube, ont su réduire la prévalence de ces contenus et faire preuve d’une réactivité accrue. Rien ne justifie, par conséquent, que TikTok ne puisse atteindre à terme un niveau comparable d’efficacité.

Mme Catherine Martin. J’ai découvert TikTok par l’intermédiaire des jeunes de onze à dix-sept ans avec lesquels je travaillais à l’époque, lorsqu’ils m’ont montré la vidéo particulièrement choquante d’un homme tuant un canard à coups de pied. Cette expérience a été le point de départ de notre intérêt pour cette plateforme, nous incitant à approfondir notre compréhension de son fonctionnement et à mener des actions de sensibilisation auprès des jeunes, à la fois sur l’utilisation de TikTok et sur l’importance du signalement, y compris via la plateforme Pharos.

L’individu responsable de cette vidéo virale est aujourd’hui incarcéré pour d’autres actes de violence. Son père, quant à lui, tenait des propos pédophiles explicites tandis que sa femme se vantait de maltraiter son enfant. C’est ainsi que j’ai fait la connaissance de TikTok, en découvrant ces trois individus qui, aujourd’hui, sont nettement moins actifs sur la plateforme. À l’époque, leur comportement avait suscité suffisamment d’inquiétude pour que nous participions à une enquête judiciaire les concernant.

Il existe tellement de contenus de cette nature qu’il m’est impossible de tous les énumérer. Je peux citer l’exemple d’une influenceuse qui se filme en pleine crise de boulimie ou lors de ses passages aux urgences, ou du compte Laprofdesréseaux, dont la spécialité est de sexualiser ses élèves et qui, pourtant, rassemble une communauté extrêmement vaste.

Il faut également mentionner la grande diversité des communautés présentes sur la plateforme. Si TikTok apparaît, de prime abord, comme une vaste application, elle fonctionne en fait comme un petit village numérique, où des groupes se livrent à des règlements de comptes par lives interposés ou se menacent mutuellement de manière très explicite. Certaines de ces pratiques relèvent du doxing, puisqu’il s’agit de diffuser des informations personnelles telles que des adresses ou des noms de famille. Ces menaces peuvent aller jusqu’à des menaces de mort, y compris à l’encontre d’enfants.

Mme Laure Miller, rapporteure. J’aimerais connaître votre opinion sur la proposition d’interdire l’accès aux réseaux sociaux, et plus particulièrement à TikTok, aux mineurs de moins de quinze ou seize ans.

Mme Marie-Christine Cazaux. Nous avons longuement débattu de cette question, notamment à la suite de la décision de l’Australie d’appliquer cette mesure. Bien que nous soyons conscients que cela n’empêchera pas totalement la transgression, nous pensons qu’établir une règle claire serait bénéfique. Certains parents et enfants respectent déjà la limite d’âge de treize ans mais, au vu du contenu actuel sur TikTok, fixer la limite à seize ans nous semble être un minimum nécessaire.

M. le président Arthur Delaporte. Vous avez indiqué que plus de 90 % des signalements ne sont pas pris en compte. Pourriez-vous nous donner des exemples concrets de contenus que vous avez signalés et qui n’ont pas été retirés malgré leur caractère problématique ? Disposez-vous de données chiffrées plus précises à nous communiquer ? Quels sont les types de signalements les plus fréquents ?

Par ailleurs, concernant les signalements que vous effectuez auprès de la plateforme Pharos, estimez-vous que le niveau de réponse des pouvoirs publics et des services de police soit actuellement satisfaisant ? Pourriez-vous nous faire part de votre ressenti quant à l’efficacité de ces signalements auprès des autorités ?

Mme Marie-Christine Cazaux. Les signalements sont particulièrement complexes à effectuer lorsqu’ils concernent des événements qui surviennent au cours d’une diffusion en direct. Nous avons notamment rencontré des difficultés majeures pour signaler des contenus manifestement inappropriés impliquant des mineurs. De même, les commentaires menaçants, à caractère sexuel ou pédophile dans les chats de ces lives n’ont pas été considérés comme des infractions par la plateforme. La grande majorité de nos signalements ont ainsi été rejetés par TikTok, ce qui est extrêmement préoccupant. Notre surveillance s’est étendue au-delà de TikTok, englobant également Instagram, Snapchat et divers canaux privés.

En revanche, nos interactions avec Pharos ont été globalement positives et constructives.

Mme Catherine Martin. L’efficacité de notre collaboration avec Pharos s’est considérablement améliorée une fois que notre rôle et nos objectifs ont été clairement identifiés par leurs services. Nous avons ainsi pu bénéficier d’échanges rapides et productifs par l’intermédiaire de leur plateforme de signalement.

Une amélioration potentielle pour Pharos serait l’intégration d’un outil similaire à celui développé par Point de Contact, permettant l’enregistrement et le partage instantané d’extraits de lives. Cette fonctionnalité faciliterait grandement la collecte de preuves, élément crucial dans le processus de signalement. De manière générale, nous avons constaté une réactivité et une communication efficaces non seulement avec Pharos, mais également avec les cellules de recueil des informations préoccupantes (Crip).

M. le président Arthur Delaporte. Pourriez-vous partager un exemple concret de contenu particulièrement choquant que vous auriez signalé à TikTok et qui n’a pas été retiré ?

Une vidéo est projetée en séance.

Mme Catherine Martin. Je vais vous présenter une vidéo représentative des contenus problématiques que nous avons identifiés sur TikTok et qui, bien qu’apparemment conçus pour rester dans une zone grise, sont en réalité très explicites. Malgré nos signalements répétés, ces vidéos n’ont pas été supprimées et les comptes qui les diffusent restent actifs. Ce type de contenu est malheureusement récurrent sur la plateforme.

Il s’agit de contenus à caractère sexuel, voire pédophile. Ces vidéos sont malheureusement facilement accessibles, y compris pour les utilisateurs mineurs. Nous avons mené des tests en créant des comptes fictifs de mineurs de quatorze ans et avons constaté que ces contenus apparaissaient régulièrement dans leur fil.

Le fonctionnement de l’algorithme de TikTok est particulièrement problématique puisque, lorsqu’un utilisateur tombe sur un contenu choquant, le temps passé à regarder la vidéo, souvent dû à un état de sidération, est interprété par l’algorithme comme un intérêt pour ce type de contenu. Cela entraîne par la suite une prolifération de vidéos similaires dans le fil d’actualité de l’utilisateur, qui se remplit de contenus à caractère pédopornographique. Cette dérive algorithmique s’étend ensuite à d’autres types de contenus inappropriés, comme des vidéos mettant en scène des comportements discutables de soignants envers des personnes handicapées. Il devient alors extrêmement difficile de nettoyer le fil d’actualité une fois qu’il a été corrompu par l’algorithme.

M. le président Arthur Delaporte. Avez-vous tenté de modifier les paramètres de l’algorithme pour remédier à cette situation ?

Mme Marie-Christine Cazaux. Cela a été, pour ma part, une expérience complexe. J’ai notamment été confrontée à de nombreux contenus à portée militante ou politique, adaptés au format TikTok, où le militantisme prend une forme très particulière. Il s’agit d’une logique de confrontation permanente, marquée par la publication de vidéos-réponses en cascade, certains jeunes suivant de près ces créateurs engagés. Il pouvait, par exemple, s’agir de call out, c’est-à-dire de dénonciations publiques de comportements jugés problématiques, avec des créateurs se réclamant de diverses sensibilités militantes. Cependant, adaptés au format TikTok, ces contenus prennent la forme d’une véritable guerre de contenus. C’est également dans ce contexte que peuvent apparaître des pratiques telles que le doxing. Il ne s’agit certainement pas, pour les mineurs, de l’exemple le plus sain d’un débat politique constructif.

Mon propre fil s’est ainsi progressivement retrouvé saturé de ce type de publications. Il m’a alors fallu alors rééquilibrer volontairement mon algorithme en manifestant mon intérêt pour des vidéos plus légères ou pour des contenus humoristiques. Il existe en effet des productions de qualité, y compris éducatives, mais il faut reconnaître qu’elles n’émergent pas naturellement dans le fil et sont reléguées très loin dans les priorités de l’algorithme.

J’ai ensuite créé un nouveau compte, sans renseigner la moindre préférence, afin d’observer les premières suggestions proposées par TikTok. Très rapidement, parmi les comptes mis en avant, figurait celui de Nasdas, un streamer initialement actif sur d’autres plateformes mais désormais très présent sur TikTok. Il m’a été proposé presque immédiatement, simplement parce qu’il est populaire, ce qui illustre bien le fonctionnement de l’algorithme. Même sans fournir d’indications personnelles, TikTok continue de privilégier les contenus qui génèrent du flux, de la visibilité et de l’interaction, sans considération de leur nature. Il s’agit d’un algorithme centré sur la performance et non sur la qualité ou l’éthique, que les phénomènes humains de sidération ou de curiosité malsaine viennent amplifier.

M. le président Arthur Delaporte. Concernant les contenus à caractère pédopornographique que vous avez mentionnés, pouvez-vous préciser la nature exacte de ces vidéos et la réponse de TikTok à vos signalements ?

Mme Marie-Christine Cazaux. TikTok a systématiquement répondu qu’aucune infraction n’était constatée.

M. le président Arthur Delaporte. Au-delà de ces cas extrêmes, avez-vous identifié des influenceurs qui exposent leurs enfants de manière problématique dans leur contenu quotidien ?

Mme Marie-Christine Cazaux. Nous avons en effet observé plusieurs cas préoccupants. Un exemple notable est celui du compte ArrêteLouloute, une créatrice de contenu qui a gagné en popularité en mettant en scène sa fille mineure dans des situations potentiellement embarrassantes ou problématiques. La jeune fille a elle-même exprimé des difficultés liées à cette exposition, notamment des moqueries au collège.

Ce phénomène s’inscrit dans une problématique plus large liée à la monétisation rapide sur TikTok, puisque la plateforme permet aux créateurs d’atteindre rapidement un grand nombre d’abonnés, parfois en les achetant, et de générer des revenus, ce qui peut inciter à l’exposition excessive des enfants. Les créateurs constatent que les vidéos mettant en scène leurs enfants, qu’elles soient mignonnes ou légèrement choquantes, génèrent de nombreuses vues. Cette dynamique encourage la poursuite de ce type de contenu, d’autant plus que le seuil de dix mille abonnés, nécessaire pour la monétisation, est relativement facile à atteindre.

M. le président Arthur Delaporte. Avez-vous reçu des témoignages de personnes ayant acheté des abonnés ?

Mme Marie-Christine Cazaux. Je ne dispose pas de témoignages directs, mais j’ai personnellement observé et participé à ces pratiques à des fins d’investigation. Il ne s’agit pas d’un achat au sens strict, mais plutôt d’une participation à des lives où les utilisateurs s’abonnent les uns aux autres. Ces sessions peuvent rassembler des centaines de milliers de participants, permettant d’atteindre rapidement le nombre d’abonnés nécessaire pour accéder aux fonctionnalités de diffusion en direct et de monétisation.

M. le président Arthur Delaporte. Ces pratiques impliquent-elles un investissement financier ?

Mme Marie-Christine Cazaux. Il est effectivement possible d’offrir des cadeaux virtuels, permettant ainsi à l’animateur du live d’épingler le pseudonyme du donateur. Je n’ai, personnellement, pas eu recours à cette pratique, et me suis contentée d’inviter les spectateurs intéressés à s’abonner. Lors de mon expérimentation, qui a duré dix minutes, j’ai constaté un gain de cinquante abonnés.

M. le président Arthur Delaporte. Vous avez mentionné des exemples de jeunes ayant effectué des dons financiers ou offert des cadeaux et expliqué les mécanismes liés aux vues et à la monnaie virtuelle qui en découle. Pourriez-vous approfondir l’explication de ce système ?

Mme Marie-Christine Cazaux. Plus on consacre de temps à créer du contenu et à interagir en direct, plus on génère de revenus. Il est également possible d’acheter directement cette monnaie virtuelle. Il pourrait être opportun de suggérer à TikTok de complexifier le processus d’achat, actuellement trop accessible. Bien que les cartes bancaires des adolescents soient généralement plafonnées, nous avons notamment constaté des cas où de jeunes adultes protégés ont dépensé l’intégralité de leur allocation pour leur influenceur favori. Ce phénomène peut rapidement prendre de l’ampleur, d’autant plus que les live-matchs encouragent ce type de comportement.

M. Thierry Sother (SOC). Je souhaiterais tout d’abord confirmer ma bonne compréhension du terme doxing. S’agit-il bien de la divulgation de données personnelles ou confidentielles concernant un tiers sur une plateforme ?

Mme Marie-Christine Cazaux. En effet.

M. Thierry Sother (SOC). Ma première question porte sur la distinction entre les vidéos classiques diffusées sur TikTok et les lives. Pourriez-vous expliciter les différences d’impact entre ces deux formats ?

Vous avez également évoqué le contrôle exercé par certains influenceurs sur leurs communautés. Pourriez-vous illustrer concrètement comment ces influenceurs incitent leurs abonnés à agir, que ce soit par des signalements ou des actions de monétisation ?

J’aimerais, enfin, comprendre l’utilité de collecter une forme de monnaie virtuelle pour la partager avec d’autres. Cette monnaie virtuelle peut-elle être convertie en biens tangibles ou en monnaie fiduciaire, ou reste-t-elle confinée à l’application ?

Mme Marie-Christine Cazaux. La principale différence entre les lives et les vidéos réside dans leur impact immédiat. Lors d’un live, l’interaction est directe et instantanée avec le public. Cette immédiateté peut rendre difficile la protection contre d’éventuels propos inappropriés ou violents, contrairement aux vidéos classiques où l’utilisateur peut simplement faire défiler le contenu.

Concernant la notion de temps, bien que les deux formats puissent être tout aussi chronophages, les lives peuvent s’avérer plus problématiques car l’interaction en temps réel peut amener les utilisateurs à rester connectés pendant de très longues périodes, parfois même toute une nuit, sans s’en rendre compte.

Quant à la monnaie virtuelle, elle peut effectivement être convertie en euros une fois que le créateur a atteint le seuil de monétisation, généralement fixé à dix mille abonnés. À ce stade, les créateurs peuvent percevoir un revenu basé sur leur activité. Les dons reçus lors des lives, sous forme d’animations ou d’emojis achetés par les spectateurs, peuvent ainsi être transformés en argent réel et transférés sur le compte bancaire du créateur.

M. Thierry Sother (SOC). Quel est précisément le seuil d’abonnés permettant la monétisation ?

Mme Marie-Christine Cazaux. Le seuil est fixé à dix mille abonnés.

M. Thierry Perez (RN). Je souhaiterais vous interroger sur un aspect que vous n’avez que peu abordé, qui est celui le rôle des parents. Étant donné que nous nous intéressons aux mineurs, qui par définition ne vivent pas seuls, j’aimerais savoir si vos travaux ont permis d’établir une typologie des comportements parentaux face à cette problématique. Avez-vous identifié des parents fiers de voir leurs jeunes enfants imiter ces pratiques, et d’autres au contraire désemparés, cherchant à les en éloigner ? Pourriez-vous nous dresser un panorama des attitudes parentales observées sur ce sujet ?

Mme Catherine Martin. Permettez-moi d’abord de revenir brièvement sur la question de l’emprise. Notre méthodologie, notamment dans le cas d’Ophenya, a consisté à utiliser les critères officiels de la Miviludes et à les documenter un par un. Cette approche nous a permis d’identifier les mécanismes sectaires imposés par un leader. Nous avons produit un document détaillé illustrant chaque critère de la Miviludes, que nous pouvons mettre à disposition de la commission pour une meilleure compréhension de ces mécanismes d’emprise, confirmés par Monsieur Le Vaillant lors de son audition.

Concernant la question des parents, la situation est complexe. Certains d’entre eux sont fiers de l’appartenance de leurs enfants à des communautés en ligne, sans nécessairement être conscients de ce qui s’y passe réellement, car leur opacité est réelle. Pour comprendre ce qui s’y déroule, il faut y consacrer beaucoup de temps, d’autant plus que les jeunes sont aujourd’hui hyperconnectés et utilisent simultanément différentes plateformes telles qu’Instagram ou Snapchat de manière distincte. Nous avons constaté que certains enfants possèdent un deuxième téléphone, acheté discrètement et connecté au Wi-Fi domestique, échappant ainsi au contrôle parental mis en place sur leur appareil principal. Cette situation permet aux jeunes d’accéder aux réseaux sociaux à l’insu de leurs parents. Il est donc essentiel de sensibiliser les parents à ces risques et de les encourager à s’impliquer davantage dans la supervision des activités en ligne de leurs enfants.

Certains parents sont par ailleurs touchés par la fracture numérique, certains ne possédant pas les compétences nécessaires pour maîtriser les outils digitaux. Il faut également prendre en compte les parents en situation de handicap, qui peuvent rencontrer des difficultés supplémentaires pour appréhender ces technologies.

Concernant l’implication parentale, notre travail a révélé une certaine mise à distance, caractéristique de l’adolescence, qui se manifeste tant dans la vie réelle que dans l’espace numérique. L’accès aux communications privées des adolescents reste particulièrement problématique. Même un parent vigilant, surveillant les réseaux sociaux de son enfant, n’aura qu’une vision partielle de son activité en ligne, car les échanges les plus sensibles se déroulent souvent sur des canaux de discussion privés ou des applications facilement dissimulables. Pour disposer d’une vision complète, un parent devrait s’immiscer profondément dans l’intimité de son enfant, en consultant ses messages privés ou ses groupes cachés. Il est donc déraisonnable d’attendre des parents qu’ils assurent seuls cette surveillance exhaustive.

M. Thierry Perez (RN). Vous soulignez à juste titre le désarroi des parents face aux défis du numérique. L’interdiction de TikTok aux mineurs semble dès lors représenter la solution la plus efficace, compte tenu de la difficulté à influencer les algorithmes de la plateforme et des enjeux financiers colossaux en présence. Cependant, cette interdiction soulève une question cruciale : comment gérer concrètement les millions de mineurs qui utilisent quotidiennement TikTok ? Il est évident qu’une surveillance individuelle systématique est irréaliste. Bien que cette problématique relève davantage du domaine législatif, votre expertise sur le terrain pourrait éclairer la mise en application d’une telle loi. Dans l’hypothèse d’une interdiction, quelles mesures concrètes envisagez-vous pour assurer son efficacité ?

Mme Marie-Christine Cazaux. La mise en œuvre d’une interdiction de TikTok aux mineurs nécessiterait une approche progressive, similaire à celle adoptée pour l’interdiction du tabac dans les lieux publics. Son application effective requiert des moyens technologiques qui ne sont pas encore pleinement développés. Néanmoins, des mesures de contrôle peuvent déjà être mises en place dès l’inscription, avec une vérification rigoureuse de l’âge.

Actuellement, nos signalements concernant des comptes de mineurs sont souvent rejetés, probablement par manque de ressources humaines. Si la législation française contraint TikTok à allouer des moyens humains conséquents pour la vérification, en accord avec les lois de protection de l’enfance, cela pourrait changer la donne. L’État pourrait alors envisager des sanctions financières, voire l’interdiction de TikTok en France, comme l’ont fait certains pays comme le Canada, si la plateforme ne démontre pas d’efforts suffisants.

M. le président Arthur Delaporte. Pour enrichir notre compréhension, pourriez-vous partager un autre exemple concret qui vous a particulièrement marqué ou choqué dans vos observations ?

Mme Catherine Martin. Dans le cadre de nos tests avec des comptes mineurs, nous avons mené une expérience révélatrice sur TikTok, désormais considéré comme un moteur de recherche à part entière. En recherchant le terme « papillomavirus », nous avons initialement obtenu des résultats pertinents, incluant des vidéos de professionnels et d’une association de prévention. Cependant, au fil du défilement, nous avons constaté une dégradation alarmante de la qualité de l’information. Après quelques vidéos informatives, l’algorithme a commencé à proposer des contenus de désinformation, suggérant par exemple des remèdes naturels inefficaces à base de citron et de safran pour traiter le papillomavirus. Cette détérioration s’est accentuée avec le temps de visionnage, menant à des contenus de plus en plus problématiques. Nous sommes ainsi passés de la désinformation médicale à des vidéos utilisant l’intelligence artificielle, incluant des montages trompeurs, des contenus religieux inappropriés et même des deep fakes. Ce qui avait commencé comme une simple recherche d’information sur le papillomavirus s’est ainsi transformé en une spirale de désinformation et de contenu anxiogène, allant jusqu’à montrer des images de personnes mourantes dans leur lit d’hôpital. Cette expérience souligne le danger de TikTok comme vecteur de désinformation, particulièrement préoccupant pour les jeunes utilisateurs dont l’esprit critique est encore en développement. La plateforme, loin d’encourager la pensée critique, semble au contraire favoriser la propagation de fausses informations.

M. le président Arthur Delaporte. Avez-vous signalé ces contenus problématiques à la plateforme ?

Mme Catherine Martin. Oui, nous l’avons fait.

M. le président Arthur Delaporte. Ces contenus ont-ils été retirés à la suite de vos signalements ?

Mme Catherine Martin. Malheureusement, aucune violation des conditions générales d’utilisation n’a été reconnue.

Mme Marie-Christine Cazaux. Je souhaite aborder un dernier point concernant l’éthique des influenceurs sur TikTok. Il est nécessaire de ne pas se fier uniquement au nombre d’abonnés ou à l’apparence des contenus. Prenons l’exemple d’Ophenya, qui semblait initialement promouvoir un message positif contre le harcèlement, attirant l’attention du Gouvernement pour des campagnes anti‑harcèlement, et pour qui une analyse plus approfondie de son contenu a révélé des aspects problématiques. Il est donc impératif que les agences, les marques et les organismes publics et privés effectuent des vérifications approfondies avant de collaborer avec des influenceurs. L’apparence trompeuse d’un combat légitime peut masquer des réalités bien différentes. Cette vigilance est essentielle pour éviter de promouvoir involontairement des personnalités ou des messages inadéquats.

M. le président Arthur Delaporte. Disposez-vous d’exemples concrets ou de témoignages de jeunes dont la santé a été réellement mise en danger en suivant ces préconisations ?

Mme Catherine Martin. Les signalements que j’ai évoqués concernent exclusivement des propos suicidaires et des actes d’automutilation. Nous avons effectué plus de cent signalements à Pharos, chacun concernant un mineur différent, pour des contenus publiés sur les réseaux sociaux évoquant ce type de comportements. Ces témoignages sont bien réels et présents sur ces plateformes. Nous avons, par ailleurs, transmis une quinzaine d’informations préoccupantes aux autorités compétentes, portant sur ces mêmes thématiques ainsi que sur des phénomènes d’emprise.

Nous avons également échangé avec des responsables de Crip, confrontés à ces problématiques d’emprise et de mal-être chez les mineurs, liées aux influenceurs en ligne. Cette situation nécessite une concertation entre tous les acteurs concernés, à commencer par la Haute Autorité de santé (HAS) qui établit les recommandations en matière de signalements, car la question de la santé mentale des mineurs en ligne commence à être prise en compte dans le cadre de la protection de l’enfance.

M. le président Arthur Delaporte. Nous allons nous efforcer d’organiser l’audition de la HAS.

Mme Catherine Martin. Pour l’heure, les réponses obtenues relèvent davantage du volontarisme que d’un cadre formalisé, puisque ces situations ne s’inscrivent pas dans le cadre des préconisations officielles. Certains chefs de service de Crip ont néanmoins pris l’initiative de déclencher des enquêtes sociales et plusieurs d’entre eux nous ont fait part de leurs inquiétudes croissantes face à la montée des phénomènes d’emprise numérique, dont les conséquences sur les mineurs peuvent être extrêmement graves. Ils nous ont également confié qu’il leur semblait nécessaire que la HAS se saisisse pleinement de ces enjeux et réexamine ses recommandations, bien que cela représente un travail de grande ampleur.

Il est particulièrement préoccupant de constater que des mineurs, en situation de souffrance aiguë, exprimant des idées suicidaires ou ayant recours à l’automutilation, ne fassent pas systématiquement l’objet d’un signalement sur la plateforme Pharos, surtout lorsque ces troubles sont directement liés à une relation d’emprise avec une personne identifiée. Ce constat renforce, selon nous, l’intérêt de réunir les principaux acteurs de la protection de l’enfance autour de la problématique spécifique de l’emprise numérique et de ses effets sur la santé mentale des mineurs en ligne.

M. le président Arthur Delaporte. Combien de signalements auprès de Pharos pour des cas de scarification, d’automutilation ou d’intentions suicidaires, avez-vous effectué au total ?

Mme Catherine Martin. Nous avons effectué plus d’une centaine de signalements.

M. le président Arthur Delaporte. Avez-vous également comptabilisé les signalements effectués directement auprès de TikTok ?

Mme Catherine Martin. Nous en avons effectué plusieurs centaines.

Mme Marie-Christine Cazaux. Nous avons fini par ne plus comptabiliser précisément les signalements, car cela devenait décourageant et nous empêchait de poursuivre nos investigations. L’échange constant de captures d’écran et la constatation répétée de l’absence de résultats sont particulièrement démotivants. Nous bénéficions en outre du soutien de personnes extérieures au collectif qui nous ont aidés dans cette démarche et qui ont également fait l’expérience de l’inefficacité des signalements. Bien que nous n’ayons pas de chiffres précis, je vous invite à tenter l’expérience par vous-même, une ou deux heures étant suffisantes pour constater l’ampleur du problème.

M. Thierry Perez (RN). Il semblerait que certains jeunes utilisateurs de TikTok développent des sentiments amoureux ou tombent sous l’emprise totale de personnages entièrement fictifs créés par l’intelligence artificielle. Avez-vous eu connaissance de tels cas ?

Mme Catherine Martin. Nous n’avons pas directement observé le phénomène que vous décrivez mais nous avons constaté des situations similaires impliquant de vrais influenceurs. Nous avons notamment été récemment témoins d’un montage réalisé par intelligence artificielle montrant une mineure se mariant avec son influenceuse préférée, incluant une scène de baiser prolongé.

Comme je l’ai mentionné précédemment, nous observons une confusion émotionnelle préoccupante. Bien que nous n’ayons pas rencontré de cas impliquant des entités entièrement fictives, nous avons documenté des situations dans lesquelles des mineurs expriment des sentiments amoureux envers des influenceurs réels. Plus inquiétant encore, nous avons constaté que certains influenceurs encouragent ces sentiments, allant jusqu’à utiliser un langage à connotation amoureuse dans leurs messages privés adressés à des mineurs.

M. le président Arthur Delaporte. Je vous remercie pour votre engagement et vous invite à compléter nos échanges en transmettant à notre secrétariat tout complément d’information que vous jugeriez pertinent pour les travaux de cette commission d’enquête.

18.   Audition de Mme Emmanuelle Piquet, thérapeute et maître de conférences à l’Université de Liège (Belgique), spécialiste des enjeux de souffrances en milieu scolaire (mardi 13 mai 2025)

Puis, la commission auditionne Mme Emmanuelle Piquet, thérapeute et maître de conférences à l’Université de Liège (Belgique), spécialiste des enjeux de souffrances en milieu scolaire ([18]).

M. le président Arthur Delaporte. Je vous souhaite la bienvenue et vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mme Emmanuelle Piquet prête serment.)

Mme Emmanuelle Piquet, thérapeute et maître de conférences à l’Université de Liège. En préambule, je souhaite vous présenter les différents terrains sur lesquels s'appuie mon expertise.

Le premier est celui de la clinique, puisque j'exerce comme thérapeute depuis dix-huit ans au sein d'un regroupement d'une quarantaine de praticiens répartis sur tout le territoire français ainsi qu'en Suisse et en Belgique. Notre approche généraliste, basée sur l'école de Palo Alto, nous permet d'intervenir sur diverses problématiques, avec une spécialisation dans les souffrances en milieu scolaire. Celles-ci englobent les difficultés d'apprentissage, le mal-être des enseignants et les conflits relationnels entre pairs, dont le harcèlement.

Concernant spécifiquement le harcèlement, nous réalisons environ 2 000 consultations annuelles avec des enfants, des adolescents et leurs parents. Cette collaboration étroite avec les familles nous a permis de constituer une base de données unique, offrant un aperçu quantitatif précieux sur le vécu des jeunes harcelés. Nous avons eu la chance d’être soutenus, il y a maintenant sept ans, par la Fondation pour l’enfance, ce qui nous a permis d’ouvrir un dispensaire. Concrètement, cela signifie que nous proposons des séances à deux euros aux familles qui n’ont pas les moyens financiers de consulter en ville. Depuis cette date, tous les thérapeutes de l’équipe consacrent, chaque mois, deux séances de leur temps personnel pour faire vivre ce dispositif. Ce dispensaire nous permet également de couvrir un large spectre de catégories socioprofessionnelles, ce qui constitue un enrichissement de notre pratique.

La singularité de notre pratique réside dans le fait que les enfants et les adolescents victimes de harcèlement nous confient, dans l’intimité de nos cabinets, ce qu’ils n’osent pas dire à leurs parents. Cela s’explique tout d’abord par la volonté qu’ont ces jeunes de ne pas peiner leurs parents. Il s’agit d’une génération singulière, très soucieuse du bien-être parental, consciente que tout ce qui touche aux relations sociales et à la souffrance qu’elles peuvent engendrer constitue une source d’inquiétude majeure pour les adultes. Pour cette raison, ils choisissent souvent de taire leur détresse afin de ne pas ajouter de préoccupations à celles de leurs proches. La seconde raison tient à la crainte de ce que les adultes, qu’il s’agisse des parents ou des équipes éducatives, pourraient faire de cette information. Ils redoutent que les interventions des adultes ne viennent aggraver une situation déjà extrêmement douloureuse.

En ce qui nous concerne, ils ne craignent ni de nous inquiéter ni de nous blesser, ce qui libère considérablement leur parole. Nous exerçons en outre en dehors de l’enceinte scolaire, ce qui réduit leur appréhension quant à de possibles répercussions au sein de l’établissement. C’est précisément ce qui confère à leur parole une authenticité bien plus importante.

Mon deuxième terrain est universitaire, puisque je suis maîtresse de conférences à l’Université de Liège, où je coordonne deux diplômes universitaires centrés sur l’apaisement des souffrances en milieu scolaire à travers l’approche de l’école de Palo Alto. Le premier s’adresse aux équipes éducatives et le second aux médecins et aux psychologues. Ce second terrain, plus pédagogique, nous permet de formaliser un ensemble de données issues du terrain, dans l’objectif de les transmettre le plus efficacement possible.

Mon troisième terrain est né d’une collaboration avec le service de pédopsychiatrie du centre hospitalier universitaire (CHU) de Montpellier. Nous avons eu l’opportunité d’être sollicités par cet établissement pour former l’ensemble du service durant un an et nous assurons désormais leur supervision sur toutes les questions liées au harcèlement en milieu scolaire. Ce partenariat a été particulièrement enrichissant car il nous a permis de découvrir la médecine critique, un champ qui diffère de notre clinique habituelle, tout en observant la manière dont la pédopsychiatrie, de façon plus générale, aborde les souffrances liées au milieu scolaire.

Notre quatrième terrain est celui des interventions en milieu scolaire. Nous intervenons tant dans des établissements publics que privés, notamment dans les académies de Créteil et de Versailles, où nous sommes régulièrement sollicités pour accompagner les équipes éducatives en leur fournissant des outils pour les aider à apaiser les souffrances qu’elles rencontrent chez les élèves harcelés. Nous les accompagnons également dans un travail de supervision afin que les pratiques mises en place puissent s’enraciner durablement.

Ma présentation s’appuiera également sur les retours des équipes éducatives de l’éducation nationale. Il nous semble en effet fondamental de comprendre leurs contraintes, leurs difficultés, parfois même leur désarroi, afin de réfléchir aux réponses que nous pouvons leur apporter.

Enfin, je fonde également mon propos sur le corpus scientifique faisant consensus dans le domaine de la recherche, car je constate qu’il existe encore trop peu de passerelles entre cliniciens et chercheurs. Cette absence de dialogue crée des incompréhensions et empêche parfois une mise en commun pourtant précieuse. Je m’appuierai notamment sur les travaux de M. Benoît Galland, de Mme Anne Cordier, de Mme Margot Déage et du professeur Grégoire Borst.

Comme je vous l’indiquais, notre travail s’appuie sur l’école de Palo Alto, dont le corpus scientifique est abondamment documenté depuis près d’un siècle. Il s’agit d’une approche systémique, qui se distingue fondamentalement des approches psychanalytiques ou psychodynamiques. Concrètement, l’approche systémique se concentre sur le « ici et maintenant », s’attachant à observer ce qui se joue dans le présent, ce qui alimente la souffrance chez les enfants et les adolescents et surtout, de manière résolutoire, à identifier comment mettre fin à cette souffrance.

Cette école repose sur un certain nombre de prémices, parmi lesquelles celle de l’ « escalade complémentaire », qui constitue un outil d’observation et de décodage précieux lorsqu’il s’agit d’analyser des relations dysfonctionnelles. Or le harcèlement, quel que soit le milieu dans lequel il se manifeste, constitue précisément une relation dysfonctionnelle. Il existe toujours, dans un groupe, une personne désignée comme bouc émissaire.

L’escalade complémentaire décrit une dynamique dans laquelle, d’un côté, une personne adopte une posture de plus en plus basse et de souffrance intense, tandis que de l’autre côté se trouve un leader, souvent à la tête d’un groupe, qui adopte une position de toute-puissance. Ce déséquilibre ne cesse de croître et constitue la mécanique tragique du harcèlement, s’installant dans la répétition, gagnant progressivement en intensité et aggravant la douleur de la victime.

À partir du moment où cette réalité est observée sous un prisme systémique et interactionnel, notre proposition consiste à ramener chacun à une position médiane et à rétablir une forme d’équilibre relationnel. Pour y parvenir, notre posture est de nous accroupir auprès des enfants et des adolescents harcelés, afin de les aider à retrouver cette position médiane et à reprendre le contrôle de la relation, qu’ils ont entièrement perdu lorsqu’ils viennent nous consulter.

C’est sur ce principe que repose l’essentiel de notre travail. Comme nous sommes très largement prescrits, aussi bien par les pédopsychiatres, les pédiatres et les médecins généralistes que par les équipes éducatives dans les établissements scolaires, nous nous retrouvons, depuis plusieurs années, dans une situation de débordement. Or il nous est particulièrement douloureux de devoir maintenir une liste d’attente pour des enfants et des adolescents en situation de harcèlement, car ces situations sont souvent très urgentes. Toutefois, notre équipe ne peut être démultipliée, ce qui constitue notre première difficulté.

Notre seconde difficulté tient au fait que cette méthode, pourtant documentée dans plusieurs articles scientifiques, n’est pas encore portée institutionnellement par les services publics. Elle demeure encore trop méconnue du grand public, ce qui constitue un obstacle important, notamment pour les familles les plus modestes, qui n’ont pas la possibilité de consulter dans le secteur libéral et qui ne peuvent donc bénéficier de cette approche.

M. le président Arthur Delaporte. Nous souhaiterions que vous vous concentriez sur la question du cyberharcèlement et, plus particulièrement, de TikTok.

Mme Emmanuelle Piquet. Il convient tout d’abord de souligner l'absence de consensus sur la définition du cyberharcèlement, un terme principalement utilisé par les adultes mais jamais par les enfants ou les adolescents. Il existe, à mon sens, une confusion entre cyberharcèlement et cyberviolence, qui néglige généralement les caractéristiques fondamentales du harcèlement telles que le déséquilibre de pouvoir, la fréquence des actes et la configuration typique impliquant un groupe face à un individu ou, plus rarement, un individu face à un autre.

Cette confusion conceptuelle se reflète dans les études, où les estimations de prévalence du cyberharcèlement chez les enfants varient de 3 % à plus de 70 %, rendant ces chiffres peu significatifs. Notre expérience clinique apporte toutefois un éclairage intéressant puisque, sur les cinq dernières années, nous n'avons recensé aucun cas de cyberharcèlement isolé. Nous observons en revanche que dans environ 7 à 8 % des cas de notre échantillon, représentatif de notre patientèle, le harcèlement en face-à-face se prolonge par du cyberharcèlement, agissant comme une caisse de résonance du harcèlement initial.

Il est donc nécessaire de nuancer la perception médiatique du cyberharcèlement, car les études démontrent en réalité un chevauchement entre le harcèlement traditionnel et le cyberharcèlement. Par conséquent, la stratégie la plus efficace pour combattre le cyberharcèlement consiste à éradiquer le harcèlement en face à face.

Il convient néanmoins de souligner une exception notable, qui est celle des cas de revenge porn ou de pornodivulgation, qui représentent environ 7 à 8 % des situations de cyberharcèlement. Ces incidents, particulièrement genrés, impliquent généralement des jeunes hommes diffusant des contenus intimes de leurs anciennes partenaires ou d'autres jeunes femmes. Bien que ces cas relèvent spécifiquement du cyberharcèlement, ils trouvent souvent leur origine dans des conflits interpersonnels préexistants.

Concernant les modalités du cyberharcèlement, qui reste minoritaire, nous constatons une prédominance des messageries, notamment les groupes WhatsApp de classe, qui deviennent des extensions numériques de l'environnement scolaire. Snapchat est également fréquemment utilisé à des fins de harcèlement. Les cas impliquant des vidéos moqueuses sur TikTok demeurent exceptionnels et ne constituent pas la majorité des situations que nous traitons.

M. le président Arthur Delaporte. Pouvez-vous nous éclairer davantage sur les spécificités liées à TikTok ?

Mme Emmanuelle Piquet. Je dois admettre que nos observations en matière de harcèlement concernant TikTok sont limitées, ce réseau n’étant pas le principal vecteur de cyberharcèlement ou de harcèlement scolaire se prolongeant en ligne.

TikTok présente en revanche d'autres risques significatifs, particulièrement pour les adolescents vulnérables. Par exemple, une jeune fille qui se livre à des pratiques d’automutilation peut rapidement se retrouver exposée à des contenus encourageant des pratiques plus dangereuses ou des méthodes pour dissimuler ces comportements. Cette dynamique, extrêmement problématique, souligne la nécessité d'un encadrement accru pour les adolescents fragiles sur ces plateformes.

Nous constatons avec inquiétude l'augmentation spectaculaire des hospitalisations pour gestes auto-infligés chez les jeunes filles, avec une hausse de 246 % pour les 10-14 ans, de 163 % pour les 15-19 ans et de 106 % pour les 20‑24 ans en 2022. Ces statistiques ne concernent que la population féminine, ce qui soulève des questions importantes sur les défis spécifiques auxquels sont confrontées les jeunes filles aujourd'hui.

Nous avons tenté de confronter les chiffres à des hypothèses cliniques issues de ce que nous observons actuellement en consultation. Il est frappant de constater que, depuis quelque temps, nous recevons un nombre croissant de jeunes filles, ce qui n’était pas le cas il y a cinq ans, ou du moins avant la crise sanitaire. Ces adolescentes sont en grande souffrance, à la fois sur le plan identitaire et sur le plan social, et peinent à trouver leur place, que ce soit dans l’identité qu’elles cherchent à construire ou dans les interactions sociales qu’elles expérimentent.

Mme Margot Déage, dont je recommande l’ouvrage À l’école des mauvaises réputations, explique avec justesse qu’au collège, lorsqu’un élève dit d’un autre qu’il ou elle a « une réputation », cela signifie systématiquement « une mauvaise réputation ». Or, pour les jeunes filles, une bonne réputation passe par une forme de conformité absolue. Il leur est demandé d’être soumises, rangées, discrètes, sans quoi elles s’exposent à des insultes d’une extrême violence. Il est évident que dans un tel écosystème, il devient extrêmement complexe pour ces jeunes filles de construire une identité stable et sereine. Les garçons, pour leur part, sont également soumis à des stéréotypes rigides, puisque leur mauvaise réputation est souvent associée à un manque de virilité.

Il est donc compréhensible, dans ce contexte, que certaines adolescentes en viennent à penser que le seul lieu où elles peuvent être authentiques est une communauté TikTok dans laquelle elles peuvent se reconnaître. Cette recherche d’authenticité peut toutefois, malheureusement, les entraîner vers des contenus et des dynamiques profondément problématiques.

Nous observons par ailleurs un phénomène que nous ne parvenons pas encore à expliquer entièrement. Un certain nombre d’adolescentes trouvent aujourd’hui dans l’auto-psychiatrisation une manière de se construire une identité sociale. Il s’agit d’une psychiatrisation teintée de romantisme, dans laquelle TikTok joue un rôle non négligeable. Il devient, dans certains groupes de collégiens et de lycéens, valorisé de souffrir de troubles du comportement alimentaire, de se dire borderline, bipolaire, ou d’évoquer des diagnostics psychiatriques lourds. Ces adolescentes n’affichent pas leur mal-être par goût de l’exhibition, mais parce qu’elles pensent qu’ainsi, elles pourront interagir, susciter une forme d’attention et obtenir ce plaisir relationnel que recherchent tous les adolescents.

Je reçois actuellement en consultation des collégiennes qui appartiennent à des groupes dans lesquels se développe une véritable compétition autour de la tentative de suicide la plus spectaculaire. De ce point de vue, TikTok contribue indéniablement à amplifier cette tendance qui est, à mes yeux, d’une extrême dangerosité.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Notre commission s'efforce d'explorer le lien entre l'utilisation des réseaux sociaux et la détérioration de la santé mentale des mineurs en France. Bien qu'il n'y ait pas de consensus sur la nature exacte de ce lien, il semble y avoir un accord sur le rôle amplificateur des réseaux sociaux dans l'exacerbation du mal-être préexistant chez les jeunes.

Vous avez souligné que le harcèlement en ligne est souvent une extension d'un harcèlement préexistant dans le monde réel. Nos échanges avec les jeunes dans les établissements scolaires révèlent que, contrairement à notre époque où le harcèlement s'arrêtait aux portes de l'école, le cyberharcèlement ne connaît aujourd'hui aucune limite temporelle ou spatiale. Les jeunes sont aujourd’hui constamment exposés aux réseaux sociaux, contrairement à l'époque où nous pouvions nous réfugier dans un environnement protégé une fois rentrés chez nous. J'aimerais connaître votre opinion sur l'effet amplificateur des réseaux sociaux, en particulier concernant les jeunes filles. Pensez-vous qu'elles appréhendent différemment TikTok et les autres plateformes par rapport aux garçons ?

Quel est, ensuite, votre avis sur les propositions actuellement débattues, notamment la généralisation de l'interdiction des téléphones portables dans tous les collèges à la prochaine rentrée, mesure décidée par le Gouvernement ? Par ailleurs, que pensez-vous de l'éventuelle interdiction des réseaux sociaux pour les mineurs de moins de quinze ou seize ans ? Comment percevez-vous ces débats qui animent actuellement la société et la sphère politique ?

Mme Emmanuelle Piquet. Je partage l'opinion selon laquelle certains usages des réseaux sociaux peuvent exacerber un mal-être préexistant, particulièrement via TikTok et son effet « terrier de lapin ». Je tiens cependant à souligner avec insistance que le cyberharcèlement n'est pas le problème majeur auquel notre jeunesse est confrontée. Cette erreur d'analyse, particulièrement dommageable, détourne notre attention des véritables problèmes et des solutions appropriées pour les résoudre. J'insiste pour dire que si nous parvenons à lutter efficacement contre le harcèlement, ce qui n'est pas le cas actuellement d'un point de vue institutionnel, nous résoudrons automatiquement une grande partie du problème du cyberharcèlement.

Concernant notre perception, les adolescents ont parfaitement intégré le mépris que nous, adultes, portons souvent à leurs activités sur les réseaux sociaux. Or cette attitude a un effet pervers car, face à des contenus troublants ou inquiétants, les jeunes ne se confieront pas à une communauté adulte qui dédaigne leurs usages ou diabolise les plateformes. Il est, au contraire, essentiel d'essayer de comprendre ce qu'ils recherchent sur ces réseaux et, plutôt que de laisser un adolescent en souffrance seul face à son écran, nous devrions nous asseoir à ses côtés pour observer ce qu'il y cherche et y trouve, afin d'engager un dialogue sur ce qui le fait souffrir.

De ce point de vue, je constate un manque criant de soutien à la parentalité. Les parents d'aujourd'hui, que je côtoie quotidiennement et pour lesquels j'éprouve une grande empathie, se trouvent dans une position ambivalente. D'un côté, ils ont permis l'accès aux écrans à leurs enfants et, d’un autre côté, ils sont conscients que les interactions en ligne, bien que souvent taxées d'inauthenticité, constituent néanmoins de véritables relations.

Il est d’ailleurs important de souligner que les réseaux sociaux peuvent également être salvateurs pour certains jeunes, notamment ceux de la communauté LGBTQIA+ qui, rejetés de façon traumatique par leur famille, y trouvent des espaces d'expression et d'acceptation. Nous ne devons donc pas tout rejeter en bloc, car des choses remarquables et importantes se produisent également sur les réseaux.

Les parents oscillent donc entre l'autorisation d'accès à ces réseaux et une inquiétude profonde quant à leur utilisation. Cette attitude, que je qualifie de « mollesse énervée », se caractérise par une alternance entre un laxisme excessif et des crises de colère où les adultes décrètent soudainement une interdiction totale ou accusent leurs enfants d'addiction. Cette approche n'est absolument pas structurante car elle allie mollesse et emportement, ce qui dégrade la relation sans poser de cadre clair.

Lorsque j'accompagne des parents dans leur lutte contre ce qu'ils perçoivent comme une consommation excessive des réseaux sociaux, je les encourage à établir des règles claires comme limiter l'utilisation à une ou deux heures par jour et interdire les portables après 22 heures et, surtout, à s'y tenir. Il est essentiel qu'ils soient exemplaires dans leur propre usage, ce qui n'est pas aisé, et qu’ils sachent faire preuve de constance malgré les protestations ou la colère de leurs adolescents.

La génération actuelle de parents se trouve dans une situation inédite, cherchant à être validée par ses enfants, contrairement aux générations précédentes où la dynamique était inverse. Cette quête d'une relation harmonieuse avec leurs adolescents engendre une certaine ambivalence. Un véritable soutien à la parentalité, étayé par des bases scientifiques, produit néanmoins des résultats remarquables.

Concernant l'interdiction des appareils dans les établissements scolaires, je soutiens cette mesure. Je suis, en revanche, extrêmement sceptique quant à une interdiction plus large. Les jeunes, souvent plus habiles techniquement que nous, trouveront inévitablement des moyens de contourner ces restrictions ou d’investir d’autres espaces. Il est donc préférable de miser sur la responsabilisation, bien que cela soit complexe et nécessite l'accompagnement de professionnels pour soutenir les adultes dans leur rôle parental.

J'ai suivi avec grand intérêt les travaux du professeur Grégoire Borst sur l'ouverture à l'esprit critique. Ses résultats, qui sont édifiants, nous apprennent que se contenter d’apprendre aux jeunes à vérifier leurs sources et à remettre en question ce qu'ils voient, que ce soit sur internet ou ailleurs, tend paradoxalement à les rendre excessivement sceptiques, voire conspirationnistes. La solution, avec laquelle je suis en parfait accord, consiste à les former véritablement à l'esprit critique, ce qui implique de travailler sur les biais cognitifs, tant généraux que spécifiques au cerveau adolescent.

Dans le domaine du harcèlement, développer l'esprit critique revient à démontrer l'effet d'escalade complémentaire et l'impact que chacun peut avoir sur une relation. Face à des comportements problématiques, nous devons déconstruire l'idée selon laquelle on serait fort ou faible toute sa vie. Nous devons leur apprendre à gérer ces situations, car elles ne se limitent pas au cadre scolaire mais perdurent dans la vie de couple, en entreprise et au-delà. En tant que référente souffrance au travail dans mon département, je constate que la plupart de mes patients commencent invariablement leur récit par l’expression « depuis toujours ». Cela souligne l'importance des apprentissages relationnels dès le plus jeune âge, car leurs impacts se répercutent tout au long de la vie.

Je suis convaincue que les élèves ne viennent pas à l'école uniquement pour acquérir des connaissances académiques. Ils y cherchent également des réponses sur les relations humaines et sur la manière de faire respecter leur intégrité dans divers environnements. Actuellement, je considère que nous ne sommes pas en mesure de répondre adéquatement à ces attentes.

M. le président Arthur Delaporte. Je vous remercie et vous invite à compléter nos échanges en transmettant à notre secrétariat tout complément d’information que vous jugeriez pertinent pour les travaux de cette commission d'enquête.

19.   Audition des associations familiales et de parents d’élèves, réunissant Mme Alixe Rivière, administratrice nationale de la Fédération des conseils de parents d’élèves de l’enseignement public (FCPE), M. Laurent Zameckwovski, porte‑parole de la Fédération des parents d’élèves de l’enseignement public (PEEP), M. Patrick Salaün, président, et Mme Virginie Gervaise, administratrice, de l’Union nationale des associations autonomes de parents d’élèves (UNAAPE), et Mme Karima Rochdi, administratrice en charge du numérique, et M. Olivier Andrieu‑Gerard, coordonnateur du pôle Médias et usages numériques, de l’Union nationale des associations familiales (UNAF) (jeudi 15 mai 2025)

La commission auditionne conjointement des associations familiales et de parents d’élèves, réunissant Mme Alixe Rivière, administratrice nationale de la Fédération des conseils de parents d’élèves de l’enseignement public (FCPE), M. Laurent Zameckwovski, porte-parole de la Fédération des parents d’élèves de l’enseignement public (PEEP), M. Patrick Salaün, président, et Mme Virginie Gervaise, administratrice, de l’Union nationale des associations autonomes de parents d’élèves (UNAAPE), et Mme Karima Rochdi, administratrice en charge du numérique, et M. Olivier Andrieu-Gerard, coordonnateur du pôle Médias et usages numériques, de l’Union nationale des associations familiales (UNAF) ([19]).

M. le président Arthur Delaporte. Chers collègues, nous reprenons nos auditions par une table-ronde consacrée aux associations familiales et de parents d’élèves. Je souhaite la bienvenue à :

– M. Laurent Zameczkowski, porte-parole de la Fédération des parents d’élèves de l’enseignement public (Peep),

– M. Patrick Salaün, président, et Mme Virginie Gervaise, administratrice de l’Union nationale des associations autonomes des parents d’élèves (Unaape),

– Mme Karima Rochdi, administratrice chargée du numérique, et M. Olivier Andrieu-Gerard, coordonnateur du pôle Médias et usages numériques de l’Union nationale des associations familiales (Unaf),

– Mme Alix Rivière, administratrice nationale de la Fédération des conseils de parents d’élèves de l’enseignement public (FCPE).

Je précise que l’Union nationale des associations de parents d’élèves de l’enseignement libre (Unapel) n’a pas donné suite à notre invitation.

Avant de débuter, je vous rappelle l’obligation de déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

De plus, l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Laurent Zameczkowski, Mme Virginie Gervaise, Mme Karima Rochdi, M. Olivier Andrieu-Gerard et M. Patrick Salaün prêtent serment.)

M. le président Arthur Delaporte. Je vous cède la parole pour des propos liminaires.

M. Laurent Zameczkowski, porte-parole de la Peep. La Peep, créée il y a plus d’un siècle, est une fédération laïque et apolitique.

Les questions relatives à TikTok sont centrales pour nous, notamment concernant la santé mentale des jeunes. Cette problématique, malheureusement d’actualité, n’est pas nouvelle, mais s’est amplifiée depuis la crise du covid-19.

Nous sommes également préoccupés par les questions liées au harcèlement.

De plus, l’extension de l’éducation aux médias et à l’information dès la classe de CP est un sujet central pour nous, bien qu’elle ne constitue pas une solution miracle. Nous préconisons une approche graduée pour préparer les élèves à mieux traiter l’information, utiliser les réseaux sociaux et faire face aux problématiques, telles que le cyberharcèlement. Cette éducation doit être adaptée à l’âge des enfants, à l’instar de ce qui a été fait pour les espaces vie affective, relationnelle et sexuelle (Evars). Cette sensibilisation pourrait permettre que les élèves ne soient pas désemparés lorsqu’ils se trouvent en possession d’un téléphone mobile en classe de sixième, car de nombreux enfants accèdent aux réseaux sociaux très tôt, sans y être préparés.

Notre rôle, en tant que parents, et en collaboration avec l’école, est de préparer les élèves à ces enjeux en leur expliquant l’impact potentiel de leur image, notamment dans les contextes de harcèlement.

C’est pourquoi, face à ces défis liés aux écrans et à TikTok en particulier, nous insistons essentiellement sur l’importance de l’éducation aux médias et à l’information comme outil de prévention pour préparer nos enfants au monde de demain.

Mme Karima Rochdi, administratrice en charge du numérique de l’Unaf. Notre expertise se fonde sur l’accompagnement de terrain, réalisé par notre réseau associatif, des parents et des enfants sur les questions numériques.

L’utilisation de TikTok a connu un essor massif depuis son lancement. En France, selon la ministre Clara Chappaz, trois enfants sur quatre possèdent un compte sur les réseaux sociaux avant l’âge de 13 ans, et ce chiffre atteint même 67 % pour les 6-10 ans.

Les parents que nous rencontrons expriment fréquemment leurs questionnements concernant les réseaux sociaux, notamment TikTok. Les réseaux sociaux constituent d’ailleurs la principale thématique traitée dans les actions à destination des parents, au même titre que les écrans chez les jeunes enfants, ce qui montre une vraie demande des parents de mieux comprendre les enjeux.

Il est à noter que 49 % des Français perçoivent l’impact de TikTok comme négatif, contre seulement 14 % qui y voient un impact positif, ce qui en fait le réseau social le plus mal perçu, devant X.

L’attrait des jeunes pour les réseaux sociaux, notamment TikTok, s’explique en partie par les besoins propres à l’adolescence, relatifs à la construction de l’identité, l’autonomie et la socialisation. Les réseaux sociaux favorisent et entretiennent cette quête d’identité et ce besoin de « faire groupe », où tout peut se faire en ligne. Elles constituent également, pour de nombreux jeunes, le premier accès à l’information et à la culture.

Cependant, les algorithmes des réseaux sociaux sont souvent optimisés pour maximiser le temps passé sur la plateforme, en proposant des contenus personnalisés, un défilement infini et des notifications incessantes. La comparaison constante avec les autres, la pression pour maintenir une image idéale et l’exposition à des contenus anxiogènes peuvent engendrer du stress et de l’anxiété, voire de la dépression.

Concernant spécifiquement TikTok, nous sommes particulièrement vigilants quant au mécanisme de recommandation de vidéos sur lequel l’utilisateur n’a aucun contrôle. Les vidéos proposées sont téléguidées par l’algorithme et peuvent entraîner les jeunes dans des spirales toxiques particulièrement préoccupantes.

Néanmoins, l’ensemble des difficultés rencontrées par les jeunes, notamment en matière de santé mentale, ne peut pas être attribué uniquement à l’utilisation des écrans et des réseaux sociaux. Hélas, de nombreux jeunes ressentent un mal-être, mais les causes de ce dernier, multiples et profondes, ne peuvent se réduire uniquement à l’influence des réseaux sociaux, bien que ces derniers puissent parfois amplifier ce ressenti et enfermer le jeune dans ses difficultés. Les réseaux sociaux peuvent également jouer un rôle de révélateur de situations problématiques et offrir, pour certains, un espace de respiration face à une réalité insupportable.

Concernant la régulation, l’interdiction actuelle des réseaux sociaux aux moins de 13 ans s’avère inefficace dans la pratique. Il est donc urgent que les plateformes mettent en place un véritable contrôle de l’âge afin de rendre ces mesures effectives, notamment afin de protéger les plus jeunes d’un accès via leur propre compte.

Le débat s’oriente actuellement vers un possible relèvement de cette limite à 15 ans, une proposition qui semble recueillir l’adhésion d’une majorité de parents. Il est à noter que les adolescents eux-mêmes sont généralement demandeurs d’un soutien et d’un cadre fixé par les adultes.

Pour l’Unaf, le constat est assez clair : la majorité des réseaux sociaux ne constituent pas des espaces sécurisés pour les mineurs, que ce soit en termes de captation d’attention, de manipulation, de propos haineux, de harcèlement ou de contenus problématiques.

Nous devons collectivement agir afin de créer des espaces numériques sûrs pour les mineurs, mais aussi pour l’ensemble de la population, en particulier les personnes les plus vulnérables.

Le renforcement des dispositifs de régulation ainsi que la fixation de règles communes et d’un cadre clair et exigeant pour les plateformes constituent un premier levier nécessaire. Il convient de poursuivre dans la lignée du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services act (DSA) et de maintenir un haut niveau d’exigence quant à la responsabilité des plateformes. Cela concerne notamment les mécanismes de captation d’attention, la transparence des algorithmes toxiques, la modération des contenus, le scrolling infini ainsi que le signalement des contenus inadaptés et des interactions.

Sur le terrain, nous constatons que de nombreux parents sont conscients de leur rôle dans l’accompagnement de leurs enfants. Ils se montrent souvent volontaires, actifs et soucieux de bien faire, n’hésitant pas à mobiliser leur réseau, notamment leur entourage proche, même si des inégalités sociales et culturelles persistent.

Cependant, ces parents se trouvent également en difficulté pour gérer les pratiques numériques de leurs enfants et aborder la question sous un angle éducatif, au-delà de la simple gestion des risques. Nous sommes fréquemment confrontés à des parents fatigués, épuisés par la gestion quotidienne des écrans et les conflits familiaux qui en découlent, et qui sont en demande d’aide et de soutien.

Pour l’Unaf, l’accompagnement des parents et l’éducation numérique des jeunes constituent des leviers prioritaires. Les parents ont besoin d’être rassurés, soutenus et de retrouver la confiance, plutôt que de rester isolés et de porter seuls le poids de la responsabilité. Il s’agit de leur permettre de mieux comprendre ce que sont réellement les réseaux sociaux et leur fonctionnement, d’échanger sur leurs doutes et leurs questionnements, mais aussi de partager les bonnes pratiques afin que chaque famille puisse élaborer un cadre éducatif efficace.

Cette démarche est d’autant plus nécessaire que l’impact des réseaux sociaux, notamment celui de TikTok, dépend non seulement de la vulnérabilité ou de la fragilité de l’utilisateur, de la qualité des expériences et des interactions au sein de son réseau, mais aussi de son environnement social et familial ainsi que du contexte d’utilisation.

Les parents ont besoin de repères, de messages cohérents et fiables, de conseils simples, réalistes et applicables, ainsi que d’alternatives pertinentes sur lesquelles ils peuvent s’appuyer pour agir en toute confiance. Il est donc essentiel de soutenir une politique publique permettant de déployer des actions de proximité en s’appuyant sur les ressources locales et les acteurs à l’échelle territoriale.

Quel que soit l’âge d’accès aux réseaux sociaux et à TikTok, il est essentiel de s’assurer que tous les jeunes bénéficient d’une éducation aux médias prenant en compte leurs préoccupations et leurs pratiques, dans l’écoute et la confiance.

M. Patrick Salaün, président de l’Unaape. La première question que s’est posée l’Unaape est : qu’est-ce que TikTok et comment l’utilise-t-on ? Il s’agit d’un outil de communication accessible qui passe par le téléphone portable. Dans cette optique, la première interrogation qui se pose est : qui achète le téléphone et dans quel but ?

Une des propositions de l’Unaape serait d’exiger, pour tout mineur s’inscrivant sur TikTok, une contre-signature parentale ou de la personne détenant l’autorité parentale. Cette signature pourrait être automatiquement validée par un numéro de téléphone connu et reconnu.

Il serait également envisageable d’étendre la surveillance du réseau en instaurant un retour en temps réel sur le téléphone parental concernant le temps d’exposition à l’écran. Cette mesure permettrait potentiellement de mieux réguler le temps passé sur TikTok.

Mme Virginie Gervaise, administratrice de l’Unaape. Nous avons constaté que, sur TikTok, les contenus ne sont pas toujours appropriés. Actuellement, il n’existe pas de possibilité de gérer les contenus diffusés, étant donné le fonctionnement algorithmique de la plateforme. Les enfants, en naviguant sur TikTok, passent d’un lien à l’autre.

TikTok se caractérise principalement par des vidéos, parfois réalisées à l’insu des utilisateurs ou avec leur participation, dans le but de projeter une certaine image ou d’affirmer son appartenance à un groupe. Malheureusement, certains sujets qui ne devraient pas avoir leur place sur les réseaux sociaux, et particulièrement sur TikTok, y prolifèrent.

C’est pourquoi le rôle des parents est aujourd’hui primordial concernant l’ensemble des réseaux sociaux, qu’il s’agisse de TikTok, Snapchat ou d’autres plateformes.

Nous estimons que même la limite d’âge de 13 ans est trop basse, car il s’agit d’une période charnière de l’adolescence, propice à de nombreuses dérives.

En termes de propositions, nous insistons sur l’importance cruciale du rôle parental. En outre, la sensibilisation dans les établissements scolaires est également essentielle. Il est nécessaire de commencer cette sensibilisation dès l’école primaire et de la poursuivre de manière régulière au collège, comme cela se pratique déjà dans certains établissements.

Mme Laure Miller, rapporteure. J’ai bien noté vos observations concernant le rôle des parents et des adultes dans la gestion des réseaux sociaux, ainsi que le sentiment d’isolement et de désarroi qu’ils peuvent ressentir face à l’usage qu’en font leurs enfants.

Concernant la sensibilisation des enfants et les cours d’éducation aux médias, je note votre proposition de les initier dès le CP, en adaptant bien sûr le contenu à leur âge. Vous soulignez également que les parents ont besoin de messages clairs.

Quel regard portez-vous sur le comportement des enfants vis-à-vis des espaces numériques de travail (ENT), notamment Pronote ? Pensez-vous que l’utilisation de ces outils numériques dans le cadre scolaire est appropriée ? L’usage actuel vous semble-t-il adapté ?

Quelle est votre opinion sur les récentes annonces de la ministre de l’éducation nationale, de l’enseignement supérieur et de la recherche concernant les ENT, notamment le droit à la déconnexion pour les élèves entre 20 heures et 7 heures ?

Vous avez également soulevé le fait que TikTok est théoriquement interdit aux moins de 13 ans, mais que cette interdiction est loin d’être respectée dans la pratique, notamment en raison de l’absence de contrôle efficace de la part de la plateforme. Dans le débat actuel, et particulièrement ces derniers jours, l’idée d’interdire l’accès aux réseaux sociaux pour les jeunes est fréquemment évoquée. Quel est votre point de vue sur cette proposition ? Vous avez mentionné la nécessité pour les parents de recevoir des messages clairs. Pensez-vous qu’une interdiction légale claire pourrait aider les parents à mieux contrôler l’accès de leurs enfants aux réseaux sociaux ?

Le président de la République a évoqué une interdiction avant l’âge de 15 ans. Estimez-vous nécessaire d’adapter cet âge ? Certains parents et sociologues notent que l’entrée au lycée marque souvent un changement de maturité chez les jeunes, avec une prise de conscience critique sur leur utilisation passée des réseaux sociaux, notamment au collège. L’entrée au lycée pourrait-elle représenter le moment pertinent pour autoriser un usage plus autonome des réseaux sociaux ?

M. Patrick Salaün. Nous pensons que fixer un âge minimum pour l’utilisation des réseaux sociaux est un peu dépassé. Une interdiction stricte avant 13 ans semble peu réaliste, car les jeunes peuvent facilement contourner cette règle en utilisant le téléphone d’un grand frère ou d’un ami, par exemple.

Concernant la communication dématérialisée entre les établissements scolaires, les familles et les élèves, il n’est pas acceptable qu’un enseignant envoie, le dimanche soir à 22 heures, un exercice à effectuer pour le lundi matin. Le droit à la déconnexion devrait être logique pour les enseignants. Un professeur peut oublier de mettre un exercice sur l’ENT, ce qui peut se comprendre au cas par cas, mais ne doit pas devenir une habitude. Or, l’envoi de devoir à une heure inadaptée est entré dans les habitudes professionnelles de certains enseignants. Ces derniers oublient de transmettre les notes et de signaler les horaires des réunions. Il existe donc toute une complexité autour de ces outils, auxquels toutes les familles n’ont pas accès en raison du coût. Nous demandons donc que des frais informels soient prévus en amont dans les frais de scolarité. Une solution serait peut-être le maintien du cahier et de l’écrit.

Mme Virginie Gervaise. Il est effectivement difficile de fixer un âge limite pour l’utilisation des réseaux sociaux, étant donné la facilité avec laquelle les jeunes peuvent échanger leurs téléphones.

Mettre l’accent sur la sensibilisation est primordial, notamment face à l’existence de déserts numériques et de parents désemparés. Un travail de fond est nécessaire, impliquant l’éducation nationale, les établissements scolaires et les fédérations. La répétition des messages de prévention, en commençant dès le plus jeune âge, est essentielle.

Concernant les lycéens, leur maturité croissante leur permet effectivement de porter un regard plus critique sur les réseaux sociaux et les contenus qui y sont diffusés.

Les actions menées doivent être poursuivies. Je ne sais pas comment cela peut se matérialiser, mais je note que, dans de nombreux établissements, notamment les collèges et certaines écoles primaires, des séances de sensibilisation sont réalisées dès le début de l’année scolaire.

(Mme Alix Rivière rejoint la séance et prête serment).

Mme Alix Rivière, administratrice nationale de la FCPE. Je vous prie d’excuser mon retard, indépendant de ma volonté.

Je vous remercie de vous être emparés de ce sujet, qui préoccupe beaucoup les parents, sans que nous ayons nécessairement de solution, hormis celle de toujours garder un esprit critique et de vérifier systématiquement les informations. Nous prônons le fact-checking, par le biais de projets pédagogiques et dans nos interactions entre adhérents.

En préparant cette audition, j’ai réalisé que les réseaux sociaux peuvent, par leur caractère addictif, être comparés à différentes formes de drogues. TikTok s’apparente à du crack, tandis que Telegram s’apparente à de l’héroïne, Instagram à de la cocaïne et Facebook à du cannabis.

J’ai moi-même expérimenté durant 48 heures ce phénomène en visionnant les vidéos « shorts » de YouTube, similaires à celles trouvables sur TikTok, et j’ai été surprise par leur pouvoir hypnotique. Le défi majeur consiste à enseigner à nos enfants comment ne pas se laisser happer et, quand cela arrive, comment parvenir à en sortir. En effet, le contenu devient totalement hypnotisant pour les élèves.

Mme Laure Miller, rapporteure. L’interdiction des réseaux sociaux aux enfants en deçà d’un certain âge – même s’il semble impossible de la faire respecter à 100 % – permettrait de répondre au désarroi de nombreux parents en donnant un outil supplémentaire. Cette règle permettrait de poser un message clair : en dessous d’un certain âge, l’accès aux réseaux sociaux, particulièrement TikTok, est nocif pour un enfant. Il est crucial de rappeler que, malgré la sensibilisation, un enfant de dix ans n’a pas nécessairement la capacité de ne pas cliquer sur des contenus toxiques, violents ou sexuels qu’il peut rencontrer sur ces plateformes ni d’échapper à l’emprise des algorithmes qui peuvent rapidement l’enfermer dans une bulle de contenu inadapté. Ainsi, l’instauration d’une telle règle pourrait contribuer à sensibiliser plus efficacement la population aux dangers que représentent ces réseaux sociaux en dessous d’un certain âge.

M. Olivier Andrieu-Gérard, coordonnateur du pôle Médias et usages numériques de l’Unaf. Vous avez soulevé un point crucial, à savoir le besoin de repères pour les parents. Depuis quelques années, nous nous efforçons de mettre en avant les repères existants. Il est important de rappeler que l’accès aux réseaux sociaux est déjà théoriquement interdit avant l’âge de 13 ans, que ce soit par les conditions générales d’utilisation ou par d’autres réglementations, notamment le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit RGPD (règlement général sur la protection des données).

Nous notons une ambivalence. Bien que les parents soient généralement conscients de ces interdictions et des risques, ce sont eux qui équipent leurs enfants, parfois en cédant à la pression, parfois de leur propre initiative, notamment pour des raisons de sécurité concernant les téléphones portables.

Nous ne sommes pas opposés à la perspective d’une interdiction avant 15 ans, ce qui répondrait à un véritable enjeu. L’important est de fournir un message fiable, scientifiquement fondé et de déterminer l’âge approprié pour l’accès aux réseaux sociaux. L’âge de 15 ans semble effectivement adapté pour certains réseaux sociaux.

Il est crucial de préciser de quoi nous parlons exactement : s’agit-il d’une interdiction générale des réseaux sociaux ou spécifiquement des réseaux tels qu’ils existent aujourd’hui ? Cette distinction est importante, car il ne faut pas négliger les aspects positifs que peuvent apporter les réseaux sociaux en termes de mise en réseau, de construction de l’identité, d’accès à la culture et à l’information. Une interdiction totale risquerait d’occulter ces bénéfices potentiels, même pour les enfants de moins de 15 ans, à condition que leur utilisation soit bien encadrée et comprise. La question est différente si nous évoquons les réseaux sociaux tels qu’ils sont devenus, parmi lesquels TikTok.

Quant à la question du droit à la déconnexion et les pauses dans l’utilisation des ENT, nous avons effectivement constaté, lors de nos échanges avec l’inspection générale de l’éducation, du sport et de la recherche (IGESR), que certains usages de ces outils nécessitent une réflexion collective plus approfondie. Plutôt que d’imposer une règle uniforme, comme une interdiction entre 20 heures et 7 heures, nous suggérons que chaque établissement scolaire organise, en début d’année, une réflexion collective impliquant toute la communauté éducative – parents, enseignants et élèves – pour établir de bonnes pratiques adaptées à leur contexte spécifique.

Cette démarche pourrait permettre de lutter contre les ambivalences que nous observons, non seulement chez les parents, mais aussi chez les jeunes et au sein des institutions. Les élèves sont à la fois en quête de lien social et d’autonomie, tout en évoquant des risques et en demandant d’être accompagnés. L’école elle‑même présente des contradictions, promouvant l’éducation aux médias et l’esprit critique tout en utilisant des outils numériques qui incitent à une utilisation constante des écrans. Nous pensons que le traitement de cette question serait l’occasion d’organiser un temps d’échange collectif pour construire un cadre plus acceptable et susceptible de lever ces incohérences.

Mme Karima Rochdi. Il est crucial d’établir un cadre commun sur cette question, qui concerne l’ensemble de la société, à tous les niveaux. Nous devons concevoir collectivement une approche permettant d’accompagner les parents et les enfants.

Il est impératif de sensibiliser très tôt les enfants sur ces sujets, notamment au sein de l’école. En effet, les jeunes sont particulièrement réceptifs aux messages transmis dans le cadre scolaire. L’éducation nationale a donc un rôle à jouer. Elle doit s’investir en mettant en place des programmes de sensibilisation dans les établissements et en formant les enseignants aux enjeux des réseaux sociaux. Cette sensibilisation doit porter sur l’utilisation des réseaux sociaux, leurs avantages et leurs risques.

Notre approche doit être constructive, en mettant en avant les aspects positifs des outils numériques. Il serait en effet illusoire et contre-productif d’interdire totalement l’usage des réseaux sociaux. L’objectif est d’accompagner les nouvelles générations pour qu’elles sachent, très tôt, faire la part des choses.

Dans nos propres environnements familiaux, nous constatons que certains enfants développent naturellement un regard plus critique sur leur utilisation des réseaux sociaux, tandis que d’autres ont tendance à en être davantage consommateurs. C’est précisément pour cette raison qu’il est essentiel de mettre en place un dispositif de sensibilisation au sein des écoles, axé sur l’utilisation responsable des réseaux sociaux et du numérique en général.

Par ailleurs, il est nécessaire d’envisager l’instauration de restrictions sur les plateformes elles-mêmes. Comme vous l’avez mentionné, certains pays, tels que la Chine, ont réussi à imposer un cadre. Il est urgent et important que nous imposions également un cadre, permettant aux plateformes d’adapter leur contenu en fonction de nos exigences spécifiques sur le territoire français.

M. Laurent Zameczkowski. Nous ne sommes pas favorables à l’interdiction des outils numériques, tels que Pronote, car il faut vivre avec son temps. En revanche, il est trop simpliste de faire porter la responsabilité à l’outil plutôt qu’à son utilisateur. Certes, nous constatons parfois des abus, notamment concernant l’envoi tardif de devoirs pour les élèves. Il est regrettable que nous en arrivions à devoir imposer une « pause numérique ». Bien que cette mesure ne soit pas nécessairement négative, elle révèle néanmoins un échec dans notre capacité à promouvoir un usage raisonné du numérique.

C’est pourquoi nous souhaitons, particulièrement du côté de nos jeunes, développer davantage l’éducation aux médias et à l’information et les préparer à l’utilisation des outils numériques, y compris l’intelligence artificielle. Il ne s’agit pas d’adopter la politique de l’autruche, mais il ne faut pas non plus exposer les enfants aux écrans dès leur plus jeune âge. Nous devons viser une construction progressive, afin que les enfants arrivent en sixième avec des bases solides. Le décalage que vous avez évoqué, notamment lorsque les élèves atteignent le lycée et développent un regard plus critique quant à leur usage numérique au collège, pourrait être atténué si nous les préparons plus tôt. L’accompagnement est donc primordial.

L’attitude des parents est parfois décriée, mais la société n’est pas toujours facile. Beaucoup se sentent démunis face à ces enjeux. Ils manquent souvent de temps, de connaissances ou de capacités pour suivre et encadrer efficacement leurs enfants dans leur usage du numérique. Plutôt que de les critiquer, nous devons les comprendre et tenter de les accompagner.

La question de la sécurité, évoquée précédemment, est également cruciale. La possibilité de localiser un enfant via son téléphone répond à une réelle préoccupation, notamment durant la période entre l’école et le retour à la maison. Ce problème est particulièrement aigu pour les élèves de sixième, dont les emplois du temps peuvent comporter des « trous » importants. Il n’est pas rare que ces élèves terminent leurs cours à 14 heures alors que leurs parents ne rentrent qu’à 19 ou 20 heures. Ce décalage constitue un véritable problème.

Nous mettons en place certaines solutions, comme le contrôle parental, mais celles-ci s’avèrent parfois insuffisantes. Par exemple, lorsque nous limitons la connexion en wifi à certaines plages horaires, les jeunes contournent fréquemment ces restrictions en utilisant le partage de connexion. Il serait souhaitable que les opérateurs téléphoniques proposent des forfaits paramétrables par les parents concernant le volume de datas et les plages horaires d’utilisation. Actuellement, aucun des grands opérateurs ne propose un forfait paramétrable par les parents en temps réel, ce qui constituerait une véritable évolution, notamment pour les élèves dépendants aux jeux vidéo.

Concernant les restrictions d’âge sur les réseaux sociaux, force est de constater que l’interdiction en dessous de 13 ans n’est pas respectée. La meilleure approche reste d’éduquer les enfants au maximum.

Il faut reconnaître que ces plateformes peuvent aussi avoir des aspects positifs. Par exemple, j’utilise personnellement un groupe WhatsApp pour communiquer avec mes enfants. Il s’agit donc de trouver un juste équilibre.

Certains réseaux sociaux, comme Instagram et TikTok, ont mis en place des comptes spécifiques pour les enfants, mais nous savons pertinemment que beaucoup d’entre eux créent plusieurs comptes : un pour les parents, un pour eux-mêmes et souvent un troisième, dédié au stalking. Sans compter les différents réseaux sociaux qu’ils utilisent. La meilleure approche reste de les suivre autant que possible.

C’est également pour cette raison que nous demandons l’augmentation du nombre d’assistants d’éducation, afin que l’école soit à même de détecter précocement les situations problématiques. En effet, il ne faut pas oublier que tous ces éléments ne sont pas totalement décorrélés du réel.

M. le président Arthur Delaporte. Il est vrai qu’actuellement, du côté des décideurs publics et notamment du gouvernement, la fixation de l’âge minimal à 15 ans semble être la solution pour lutter contre les dérives. Cependant, comme vous l’avez souligné, il convient de se garder de toute solution prétendument magique, qui risque de créer des déceptions.

Il est important de rappeler que la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne fixe un âge minimal de 13 ans et une majorité numérique à 15 ans, avec une validation par les parents entre 13 et 15 ans. Or cette loi, promulguée il y a un an et demi, n’est toujours pas appliquée. Faire respecter le droit existant est donc un premier sujet.

Vous avez mentionné la nécessité d’avoir une approche nuancée de ces sujets. La définition même d’un réseau social soulève des questions. Si nous excluons des applications comme WhatsApp et Telegram de cette catégorie, ne risquons-nous pas de voir un déport vers ces plateformes, où le contrôle serait encore plus compliqué ?

Le cœur du problème réside effectivement dans la diffusion et les modes de contrôle parental, mais aussi potentiellement dans le rôle des opérateurs et, éventuellement, des constructeurs de téléphones mobiles. Avez-vous eu l’occasion d’échanger avec ces différents acteurs sur les difficultés que vous rencontrez ?

M. Olivier Andrieu-Gerard. Nous avons effectivement eu quelques échanges avec les opérateurs, notamment lors de la mise en place de la loi n° 2022‑300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet. Les opérateurs ont exprimé une volonté de répondre aux demandes et aux dispositions prévues par le décret. Or, le décret final est peu contraignant, avec des fonctionnalités obligatoires réduites par rapport aux propositions initiales. Je ne prétends pas que les opérateurs ciblent spécifiquement les jeunes, mais il est évident que le modèle économique sous-jacent rend difficile, pour eux, d’aller au-delà de ce qui leur est demandé sans une pression politique. C’est pourquoi je tiens à souligner l’importance cruciale de l’action politique, particulièrement auprès des acteurs économiques.

Nous avons évoqué l’éducation des parents et des jeunes et nous sommes les premiers à nous efforcer de leur fournir des repères, de travailler sur les bonnes pratiques et de les aider à trouver des réponses adaptées sur la base de données fiables et scientifiques, car il n’existe pas de solution magique universelle. Chaque famille est unique, avec son propre environnement social et familial. C’est pourquoi nous privilégions un accompagnement de proximité. Nous poursuivrons cette démarche, mais nous demandons également un soutien et des moyens adéquats.

Un rapport, remis au président de la République l’année dernière, indiquait que : « la commission a été marquée par le fait qu’aucun acteur de la chaîne ne se sent en responsabilité première des hauts standards de protection des enfants, renvoyant systématiquement à d’autres cette responsabilité, au nom de contraintes technologiques présentées comme difficilement dépassables, et s’accordant pour faire porter aux parents la charge de gérer la complexité et les externalités négatives générées par des modèles économiques captifs de l’attention des enfants ». Nous observons actuellement ce phénomène avec des acteurs économiques qui acceptent le principe du contrôle d’âge à 15 ans, mais qui refusent d’en assumer la mise en œuvre, renvoyant cette responsabilité à d’autres acteurs. Depuis quelques années, nous constatons que les acteurs économiques se contentent du minimum requis et tendent, dans une forme d’entente probablement implicite, à repousser vers les parents la responsabilité de gérer cette complexité. Il est impératif de replacer le curseur vers le centre. Nous continuerons certes nos efforts d’éducation. L’interdiction à 15 ans peut effectivement constituer un repère pour les parents, à condition que des solutions techniques soient mises en œuvre. Actuellement, comme nous l’avons mentionné, la limite de 13 ans est peu respectée, car un faible nombre de dispositifs de vérification d’âge ont été déployés. S’est-on véritablement donné les moyens de faire respecter cette limite ?

Même si l’éducation est importante, il existe des enjeux cruciaux concernant la transparence des algorithmes, les phénomènes toxiques d’enfermement, les mécanismes de captation de l’attention ou encore le scrolling. Ces aspects sont traités dans le cadre du DSA et il est essentiel de continuer à les aborder. Nous ne pouvons pas faire porter la responsabilité uniquement sur les utilisateurs et les parents. Il s’agit d’un effort collectif à mettre en œuvre, où chacun doit assumer sa part de responsabilité.

M. le président Arthur Delaporte. Je cède la parole à Mme Anne Genetet.

Mme Anne Genetet (EPR). Vos propos soulignent à quel point il est difficile d’élever des enfants aujourd’hui.

Ayant occupé le poste de ministre de l’éducation nationale durant quelques mois, je suis consciente que l’utilisation de ces espaces numériques de travail (ENT) implique des risques d’intrusion à des moments inopportuns, notamment l’utilisation nocturne par les jeunes ou les parents. Cependant, réglementer l’accès par plages horaires me semble être une intrusion dans la vie privée des enseignants, qui doivent pouvoir gérer leur temps de travail selon leurs contraintes personnelles. En tant que mère d’une famille nombreuse, je travaillais moi-même tous les soirs de 20 heures à 23 heures. Plutôt que de restreindre les horaires de saisie pour les enseignants, pourrait-on paramétrer l’outil de manière à ce qu’un message déposé tardivement ne soit envoyé qu’en différé ? Ainsi, les parents et les enfants n’y auraient accès qu’à partir d’une heure raisonnable, par exemple 7 heures du matin. Les plages horaires d’accès pour les parents et les enfants pourraient être limitées, par exemple de 7 heures à 19 heures ou 20 heures pour les parents qui travaillent, et étendues jusqu’au samedi à 20 heures pour ceux qui ne peuvent consulter ces espaces que le week-end.

Par ailleurs, il est essentiel de souligner que l’éducation doit être multidimensionnelle, impliquant non seulement l’école, mais aussi le monde associatif et, bien évidemment, les parents. En réalité, c’est l’ensemble de la société qui doit assumer un rôle éducatif. Je m’interroge particulièrement sur le rôle potentiel de la santé scolaire dans ce contexte, malgré sa situation actuellement très délicate. La médecine scolaire, nous le savons, fait face à d’énormes difficultés. Cependant, quelle pourrait être sa contribution, notamment dans le repérage des signaux d’addiction ? En tant que médecin, je suis convaincue que la détection la plus précoce possible des signes d’addiction devrait être une compétence partagée par tous les acteurs (enseignants, monde associatif et parents d’élèves). Dans cette optique, quel rôle spécifique la santé scolaire pourrait-elle jouer pour former à l’identification de ces signes d’addiction ?

M. Laurent Zameczkowski. Effectivement, la possibilité de différer l’envoi des messages constitue une option. D’ailleurs, cette fonctionnalité existe déjà et les établissements peuvent paramétrer les ENT en ce sens. Le vrai problème que nous rencontrons est surtout lié à la messagerie et aux devoirs arrivant tardivement. Il serait également possible de prévoir une procédure d’urgence en cas de circonstances particulières. Je note que les élèves utilisent souvent l’excuse d’être sur l’ENT lorsqu’ils sont sur d’autres applications. C’est précisément pour cette raison que la question d’une déconnexion complète a été soulevée, afin de mettre fin à ce prétexte.

Concernant la santé scolaire, lorsqu’une cité scolaire de 2 500 élèves ne dispose pas d’une infirmière, l’efficacité du système est compromise. De nombreux élèves éprouvent des difficultés à s’adresser au conseiller principal d’éducation (CPE) ou au principal, rendant la situation complexe. Ils peuvent évidemment parler à l’infirmière, quand l’établissement en compte une. C’est également pour cette raison que nous plaidons pour une augmentation du nombre d’assistants d’éducation. Leur présence actuelle, environ 1 pour 120 élèves au collège et 1 pour 250 au lycée, est insuffisante pour détecter précocement les situations problématiques, telles que le harcèlement ou ce qu’il se passe dans les toilettes, qui constituent des zones de non-droit. Dans certaines villes, des médiateurs sont déployés autour des établissements. Il est crucial d’augmenter la présence d’adultes pour mieux détecter les situations à risque, comme l’a tristement illustré le drame de Nantes. Bien que ces personnels nécessitent une formation plus approfondie, leur présence accrue serait déjà bénéfique.

Nous proposons donc, d’une part, l’introduction de l’éducation aux médias et à l’information dès le primaire, de manière progressive et sans nécessairement recourir aux écrans, et, d’autre part, le renforcement significatif du nombre d’assistants d’éducation dès le collège, pour permettre une détection précoce des situations problématiques, y compris les défis dangereux sur les réseaux sociaux comme TikTok. Ces mesures sont essentielles pour lutter contre le harcèlement, le cyberharcèlement et d’autres situations préoccupantes liées à l’usage des réseaux sociaux.

Mme Alix Rivière. Nous sommes confrontés à une problématique qui s’inscrit dans la continuité de l’économie de l’attention, concept déjà évoqué dans les années 1990 par le président de TF1 lorsqu’il parlait de « temps de cerveau disponible ». Cette réalité n’a pas changé. Paradoxalement, bien que la connaissance n’ait jamais été aussi accessible à tous, nous constatons aujourd’hui un glissement de la recherche de connaissance vers une quête de l’information.

Je ferais un parallèle avec le déploiement de l’Evars, qui s’étend de la maternelle au lycée. Il apparaît malheureusement désormais inévitable de mettre en place un programme similaire, adapté à chaque niveau scolaire, pour sensibiliser sur les dangers d’Internet tout en soulignant ses immenses possibilités. À moins d’un effondrement total de nos infrastructures énergétiques, nous devons apprendre à gérer cette réalité numérique.

Le DSA a certes permis des avancées, mais rappelons-nous l’affaire de Christchurch, où Facebook a pu interrompre en direct la diffusion d’un acte terroriste. Les plateformes ont donc la capacité de gérer ces situations. Cependant, le coût humain est considérable. Facebook a reculé sur l’emploi de fact-checkers, ces personnes constamment exposées à des contenus traumatisants et sujettes à un stress intense et au burn-out. Pour réguler efficacement ces plateformes, il serait idéal de constituer des sociétés savantes par sujet, capables de restituer de l’information sourcée. Bien que leurs conclusions puissent être contestées, elles offriraient au moins une base disponible et accessible à tous.

L’apprentissage des réseaux sociaux constitue une étape de la parentalité, au même titre que l’apprentissage de la propreté ou des bonnes manières. La difficulté réside dans le fait que nous ne sommes pas tous armés de la même façon.

Par ailleurs, j’entends la proposition de Mme Anne Genetet au sujet de la possibilité – reposant d’ailleurs souvent sur les femmes – de s’organiser librement pour avoir le temps d’effectuer le travail supplémentaire à la maison. Bloquer une plage horaire sur l’ENT ne sera pas suffisant pour résoudre le problème des devoirs arrivant tardivement. Au sein de la FCPE, nous appelons à une concertation au sein des conseils d’administration des collèges et lycées en début d’année, afin d’établir une charte d’utilisation des ENT, éventuellement à partir d’une charte cadre. Nous sommes favorables à l’autonomie des établissements, qui peuvent s’organiser en fonction de leurs paramètres locaux.

Nous dénonçons, notamment en Seine–Saint-Denis, la problématique des adultes manquants auprès de nos élèves. La situation relative aux assistants d’éducation en est l’illustration. Nous constatons un problème majeur concernant la formation initiale de ces personnels, se limitant à quelques heures, ce qui est manifestement insuffisant pour aborder la question des écrans et leur gestion en milieu scolaire.

De plus, je souhaite souligner notre propre incohérence en tant qu’adulte. Lors de nos réunions sur l’usage des écrans chez les mineurs, nous avons tendance à consulter nos téléphones, compromettant ainsi notre crédibilité en tant que modèles.

Enfin, il me semble crucial de développer un programme, de la maternelle au lycée, pour décrypter et démystifier les difficultés rencontrées par les parents et les élèves face aux écrans. J’ai personnellement expérimenté la sensation d’être ensevelie en scrollant. Nous ne ferons pas l’économie d’un apprentissage spécifique sur ce sujet. La FCPE se tient à la disposition de l’éducation nationale pour travailler sur cette question.

M. Patrick Salaün. Il existe effectivement la possibilité de paramétrer les ENT. Le véritable problème réside dans la gestion des devoirs déposés tardivement pour le lendemain. Une restriction trop stricte des horaires de consultation pourrait engendrer un stress supplémentaire chez les élèves, craignant de manquer une information importante. Il serait judicieux de laisser la gestion de ces paramètres à la discrétion de chaque établissement, potentiellement en l’intégrant au règlement intérieur.

Par ailleurs, en France, la majorité légale est fixée à 18 ans, tandis qu’elle peut être fixée à 17 ans pour le permis de conduire. En outre, nos enfants peuvent participer à des conseils dans les établissements à partir de 16 ans. Il existe également une majorité relative à l’acceptation d’une relation intime, avec des curseurs. Or, nous sommes en train de donner une majorité d’accès sur des réseaux sociaux complètement libres à des enfants de 13 à 15 ans. La majorité est pourtant à 18 ans, âge avant lequel les responsables sont les parents. Il va être difficile pour certains parents de se retrouver au milieu de tous ces éléments. Ne devrions-nous pas envisager un âge moyen, peut-être 16 ou 17 ans, comme seuil uniforme pour l’ensemble de ces responsabilités ?

Enfin, l’utilisation des ENT est une véritable problématique. Les élèves se sentent obligés de les consulter régulièrement et reçoivent des notifications, même tardivement, lorsqu’un document a été déposé. Il serait pertinent de discuter de ces questions lors du dernier conseil d’administration de l’année scolaire, en juin, pour préparer la rentrée suivante. Les décisions concernant l’utilisation de l’ENT devraient être prises en amont.

Mme Karima Rochdi. Nous nous focalisons sur l’envoi de message ou le dépôt tardif de travaux par les enseignants, mais je doute que ce phénomène soit répandu. Il me semble que le problème est ailleurs.

M. le président Arthur Delaporte. Il convient de rappeler que les ENT ne sont pas l’objet central de notre commission, à savoir TikTok.

Mme Karima Rochdi. En effet, l’utilisation des ENT diffère fondamentalement de celle des réseaux sociaux. L’ENT est un outil important qui établit un lien entre l’enfant, la famille et le corps enseignant. Il est crucial que les parents s’approprient cet outil pour rester en contact avec la vie scolaire de leur enfant. Le véritable risque, pour nos enfants, se trouve plutôt sur les réseaux sociaux, où ils passent beaucoup de temps sans contrôle ni accompagnement.

S’il est nécessaire de sensibiliser les parents, il est essentiel de sensibiliser les enfants eux-mêmes. Cette sensibilisation peut être réalisée par des acteurs locaux, notamment des associations qui proposent des accompagnements adaptés à tout âge. De plus, il est impératif de former et d’accompagner les enseignants et les professionnels qui peuvent, grâce à leur proximité avec les enfants au quotidien, identifier les risques d’addiction et les dangers potentiels auxquels sont exposés les enfants.

Comme cela a été mentionné, la médecine scolaire est actuellement défaillante. Elle pourrait pourtant jouer un rôle crucial dans l’identification de divers problèmes, qu’ils soient liés à l’impact du numérique ou à d’autres aspects de la santé de l’enfant. Il y a certainement des améliorations à apporter dans ce domaine.

M. Thierry Perez (RN). Nous avons évoqué la notion d’interdiction, qui peut certes être une solution, mais qui reste facilement contournable. Cependant, l’interdiction peut engendrer ce que j’appellerais une forme de réprobation sociale. Aujourd’hui, il est socialement inacceptable qu’un enfant de 11 ans se serve de l’alcool fort ou qu’un enfant de 12 ans regarde un film pornographique sur la télévision familiale à minuit. L’interdiction ne pourrait-elle pas aboutir à une réprobation sociale similaire concernant l’utilisation de plateformes comme TikTok par les jeunes enfants ?

M. Patrick Salaün. Je note que la frustration est essentielle pour la construction personnelle. Il nous est certes difficile de nous opposer à nos enfants, d’autant plus qu’ils ont souvent une décennie d’avance sur nous en termes de maîtrise des outils numériques et de compréhension de leurs usages. TikTok est une plateforme qui met en avant la représentation du corps, que l’on soit homme, femme ou autre. Comme Mme Rivière, j’ai moi-même expérimenté le visionnage de vidéos courtes et constaté son caractère hypnotique. Comment réguler ce phénomène ? TikTok essaie de mettre des limites, qui peuvent être contournées facilement. Face à ces défis, l’autorité parentale doit s’exercer avec fermeté, notamment en imposant des limites d’utilisation du téléphone et des réseaux sociaux. Une approche, à construire ensemble, est nécessaire. De nombreux parents se sentent démunis, manquant de moyens pour communiquer avec leurs enfants sur ces sujets en utilisant les bons mots.

Mme Virginie Gervaise. En tant que parent de deux adolescents, je confirme la complexité de la gestion de TikTok, pour laquelle j’impose des règles et des limites. Je ne suis pas personnellement utilisatrice de cette application.

Concernant la pause numérique, l’essentiel, à mon sens, est que les enfants comprennent les enjeux. Dès le plus jeune âge, nous leur enseignons des règles et leur expliquons les dangers potentiels. Il en va de même pour l’utilisation du numérique : il faut expliquer les règles et les raisons de leur mise en place. La répétition est la clé dans ce processus. Il est vrai que certains parents se sentent démunis et que les enfants peuvent être terribles sur ce sujet, particulièrement lors de l’entrée au collège où la pression du groupe et le besoin d’appartenance s’intensifient. Il est crucial d’anticiper ces changements en expliquant en amont les dangers et les avantages des réseaux sociaux.

Quant à la santé mentale, les réseaux sociaux peuvent effectivement avoir des effets toxiques. La détection des comportements addictifs nécessite des moyens accrus dans les établissements scolaires. L’équipe éducative a un rôle à jouer dans le repérage de certains signaux, comme un enfant qui s’endort en classe. La médecine scolaire pourrait contribuer aux signalements, mais le nombre de personnels est insuffisant. S’adresser à une infirmière est souvent compliqué. Nous manquons aujourd’hui de moyens.

Les parents doivent assumer leur rôle, et, s’ils se sentent dépassés, il est important qu’ils n’hésitent pas à demander de l’aide. Nos associations disposent du personnel pour les accompagner.

Quant à la pause numérique, l’introduction de pochettes pour ranger les téléphones dans les collèges à partir de 2025 soulève des questions. Il est regrettable d’en arriver à de telles mesures, mais des cas de harcèlement envers des professeurs ont été évoqués. Je note qu’il est essentiel que le coût de ces dispositifs ne soit pas répercuté sur les parents.

Mme Alix Rivière. Nos adolescents ont la crainte de ne pas être aimés, mais il ne faut pas oublier qu’ils auront la crainte d’être détestés via les réseaux sociaux.

La situation de la médecine scolaire, notamment en Seine–Saint-Denis, est totalement sinistrée. Les infirmières scolaires constituent aujourd’hui des « denrées » rares.

Concernant l’économie de l’attention, un mémo édité par Bayard Jeunesse sur les écrans souligne que les vidéos courtes entravent la construction du raisonnement. C’est là que réside, à mon sens, le danger le plus important pour nos enfants. De plus, le visionnage de ces contenus dès le réveil affecte considérablement les capacités cognitives pour le reste de la journée.

Avec mon mari, nous avons choisi de ne donner des téléphones portables à nos deux derniers enfants qu’en classe de quatrième. Maintenir cette décision a engendré une lutte de tous les instants, bien que ce choix ne soit pas du tout un traumatisme aujourd’hui. Nous avions coordonné cette approche avec les familles des meilleurs amis de nos enfants pour éviter un sentiment de solitude. Toutefois, dans les faits, ils étaient les seuls de leur classe de 25 élèves à ne pas posséder de téléphone portable. Leur premier appareil était un téléphone à neuf touches, qu’ils ont accueilli avec un certain dédain. La gestion de ce sujet n’est donc pas simple.

L’éducation est effectivement l’art de la répétition à l’infini. Je ne sais pas si, en connaissant ce paramètre en amont, nous deviendrions tous parents.

M. Laurent Zameczkowski. Concernant la réprobation de la société quant à la consommation d’alcool et au visionnage de vidéos pornographiques par les enfants, nous avons récemment eu connaissance d’un conseil de discipline impliquant des élèves de sixième ayant regardé du contenu pornographique sur leurs téléphones portables en cours de musique. Je note également que la réprobation sociale n’est pas unanime sur l’alcool, certains jeunes ayant le droit d’en consommer lors des fêtes de famille.

Très tôt, les jeunes obtiennent souvent de vieux téléphones portables et se connectent en wifi. Ils sont particulièrement habiles dans la manipulation de ces appareils, souvent à l’insu de leurs parents, qui peuvent parfois être démunis face à cette situation. J’ai personnellement été confronté à un parent qui ignorait totalement l’activité en ligne de sa fille.

Enfin, concernant la pause numérique, il est crucial de proposer des activités alternatives aux écrans.

M. Olivier Andrieu-Gerard. Pour accompagner efficacement tout en initiant une réflexion collective et sociale sur la question des écrans, il est impératif de proposer des alternatives. Par exemple, dans les zones rurales, les espaces où les élèves attendent les bus n’offrent aucune activité. Des collectivités ont commencé à réfléchir et à proposer des petits jeux adaptés au design urbain, afin d’encourager l’interaction sociale plutôt que l’isolement de chacun face à son téléphone portable.

Ensuite, concernant la réprobation sociale, il est nécessaire d’inverser la tendance actuelle. Lorsque vous attendez dans la salle d’attente d’un médecin avec votre enfant, vous êtes souvent anxieux à l’idée que votre enfant fasse du bruit ou s’agite. Par conséquent, il peut être tentant de lui donner un téléphone portable pour l’occuper. Nous devons collectivement préférer que les enfants fassent du bruit et jouent dans les espaces collectifs, plutôt que de les voir isolés derrière un écran. Si nous savions bien communiquer auprès des parents, nous pourrions sans doute aller vers ce changement dogmatique et culturel extrêmement fort, qui constitue un enjeu collectif. Il existe en effet un enjeu d’acceptation sociale sur ce point.

Enfin, si le discours se résume à l’interdiction des réseaux sociaux, cela ne fonctionnera pas. Les interdictions existantes n’étant pas respectées, les parents ont déjà perdu confiance en l’efficacité de ces méthodes. Notre approche doit donc aller au-delà de l’interdit et de la gestion des risques pour se concentrer sur l’accompagnement des parents, en leur fournissant des moyens d’agir.

M. Patrick Salaün. Aux arrêts de bus, on voit fréquemment des lycéens qui communiquent entre eux par téléphone alors qu’ils sont côte à côte. Cette pratique contraste avec les interactions directes que nous avions à notre époque.

M. Olivier Andrieu-Gerard. J’ai récemment évoqué ce sujet avec des adolescents. Leur comportement s’explique principalement par une logique de groupe. J’ai récemment accompagné quatre jeunes dans le métro qui communiquaient tous par le biais de leur téléphone. Lorsque je les ai interrogés sur cette pratique, ils m’ont expliqué qu’ils faisaient partie d’un groupe de cinq et que communiquer verbalement aurait exclu le cinquième membre. L’utilisation de la messagerie s’explique donc par une logique de groupe. Cette dynamique est cruciale à comprendre. En tant que parents, notre approche ne peut se limiter à encourager la communication directe, car cela négligerait cet aspect de la construction sociale des adolescents. Les outils numériques actuels permettent au groupe d’être constamment connecté, indépendamment de la présence physique. En tant que parents, nous devons comprendre comment se construisent nos enfants.

M. le président Arthur Delaporte. Je vous remercie pour ces éclairages qui permettent d’aller au-delà du simplisme souvent en vogue à l’ère numérique.

Mme Alix Rivière. Je voudrais ajouter que la technocratie du parti communiste chinois, qui vole l’outil à son fondateur, admiratif du parcours de M. Mark Zuckerberg, est aussi un bon moyen d’expliquer la démocratie à nos élèves.

M. le président Arthur Delaporte. Je vous remercie.

20.   Audition de MM. X et Y, et Mme Z (jeudi 15 mai 2025)

La commission auditionne, à huis clos, MM. X et Y, et Mme Z.

M. le président Arthur Delaporte. Je souhaite la bienvenue aux personnes mineures qui ont bien voulu venir témoigner pour enrichir notre démarche d’une parole qui, sans conteste, sera très précieuse pour nos travaux. Nous avons lancé cette commission d’enquête pour les jeunes, pour essayer d’agir pour eux. C’est pourquoi leur participation est indispensable. Merci d’avoir accepté de parler et d’avoir pris le temps de venir ici. Mme la rapporteure et moi-même sommes très intéressés par ce que vous pourrez nous dire. Je sais que ce lieu peut être intimidant, mais vous êtes ici chez vous, dans la maison du peuple, où doivent se faire entendre vos paroles et vos préoccupations.

Au vu de l’âge des personnes venues témoigner, il nous a semblé préférable, pour leur offrir le cadre le plus serein possible et protéger leur parole, que cette audition se tienne à huis clos. Un compte rendu sera établi, mais il préservera l’anonymat des personnes entendues.

Mme Laure Miller, rapporteure. Avec plusieurs collègues parlementaires, nous avons estimé que nous devions agir et qu’une commission d’enquête nous permettrait de prendre le temps de réfléchir et de vous rencontrer, vous et tous les acteurs concernés de près ou de loin par ces questions.

Cette audition sera donc fondamentale, en ce qu’elle nous permettra de vous laisser nous faire part de votre expérience, et peut-être de vos souhaits. Votre parole est très précieuse pour nous. Merci infiniment pour votre courage.

Maître Laure Boutron-Marmion, avocate au barreau de Paris, fondatrice du collectif Algos victima. Les enfants témoigneront de manière spontanée, mais, si vous m’y autorisez, peut-être les ferai-je rebondir sur un ou deux points qu’ils ont pu évoquer avec moi et qu’il me semble important de porter à votre connaissance.

M. le président Arthur Delaporte. Dans ce cas, je me dois de rappeler que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(Maître Laure Boutron-Marmion prête serment.)

Mme X. J’ai été victime de TikTok. J’ai reçu un téléphone pour noël. J’étais alors en quatrième, ce qui est assez tard par rapport à la moyenne des gens de mon âge. J’ai installé TikTok sur le conseil d’une amie qui m’a dit : « tu verras, c’est super ».

Au début, je voyais beaucoup de contenus qui me ressemblaient – de musique, d’art, de crochet, de cinéma –, mais, de fil en aiguille, ces contenus se sont obscurcis. On m’a proposé des musiques plus tristes, qui parlent de sujets plus sensibles, comme le mal-être ou la dépression, des vidéos d’artistes parlant de leur santé mentale. Je suis assez vite tombée dans une sphère mortifère, parce que j’ai « liké » certaines de ces musiques, qui me parlaient : j’allais déjà un peu mal avant d’aller sur TikTok, mais cela s’est aggravé avec ces contenus.

Jusqu’en avril 2024, je me suis beaucoup renfermée sur la plateforme. Cela a été un peu comme un refuge, même si, en même temps, je savais que c’était malsain.

J’ai fait plusieurs tentatives de suicide. Je me suis aussi beaucoup scarifiée, parce que j’ai vu des gens qui ont banalisé le fait de se faire du mal, d’avoir des comportements autodommageables. J’ai été hospitalisée plusieurs fois ; en tout, pendant vingt-cinq semaines sur une période de deux ans et demi.

Je continue à aller sur TikTok, mais avec un contrôle parental qui limite l’usage à trente minutes par jour. Certains mots sont aussi censurés par ma mère, si bien que je ne tombe plus vraiment sur certains contenus. Quand je vois tout de même des contenus qui peuvent être nocifs, je les signale, mais ils ne sont pas toujours – et même jamais – censurés : on me dit que « la vidéo n’enfreint aucune règle de la communauté ». Je ne suis pas allée regarder ce que sont exactement les règles de la communauté, mais je sais que ces vidéos peuvent être nocives et aggraver la santé mentale des jeunes, comme elles ont aggravé la mienne.

Je me suis aussi rendu compte, à l’occasion d’une visioconférence avec le collectif Algos victima, que lorsque je tombais sur une vidéo de quelqu’un qui allait mal, je « likais » ce contenu, parce que je trouvais une communauté. Je me disais : « cette personne me comprend ». J’avais en quelque sorte envie de devenir amie avec elle, pas dans le sens où nous aurions pu devenir meilleurs amis, mais dans le sens où elle me comprendrait mieux que ceux qui m’entourent. Je « likais » des contenus pour dire aux personnes qui les postaient : « ça va aller, tu vas y arriver, on y croit, on est ensemble », mais elles les interprétaient sûrement comme un signe qu’elles avaient raison d’aller mal, comme un encouragement à continuer.

Ce qui est très nocif sur TikTok, ce sont les tutos qui expliquent comment se faire du mal, comment faire un nœud pour se pendre, plein de choses de ce genre. Ces images sont imprégnées dans ma rétine, je ne peux plus les enlever : même si je ne vais plus sur TikTok, j’ai toujours ces vidéos qui me viennent en tête.

M. Y. J’ai 17 ans et ma grande sœur a été victime des réseaux sociaux ; j’ai réussi à sauver ma petite sœur de 14 ans et moi-même de ces derniers.

Ma grande sœur s’est pendue en février 2024. Avant cela, elle avait effectué quatre tentatives de suicide avec des médicaments. C’est pour ça que je dis qu’elle a été victime des réseaux sociaux : cette idée de se pendre ne lui est pas venue toute seule.

En plus de cela, avant de passer à l’acte, elle avait le corps détruit par les mutilations, les scarifications et les cicatrices – sur toutes les parties du corps, visibles ou non. Je sais, parce que je l’ai vu sur son fil TikTok, qu’elle regardait des vidéos qui lui disaient que c’était en quelque sorte positif de se mutiler, parce que cela pouvait signifier qu’elle allait s’en sortir, tout en ayant traversé une épreuve : ce serait marqué sur son corps, mais elle s’en serait sortie. Au final, elle ne s’en est pas sortie et elle s’est juste abîmé le corps.

C’est pour cette raison que je m’adresse à vous aujourd’hui : je trouve qu’il y a un gros problème dans la censure des vidéos sur TikTok. Il ne servirait à rien de supprimer les réseaux sociaux, parce qu’ils peuvent être très positifs et instructifs. Cependant, sur les sujets aussi sensibles, la limite est très fine entre les vidéos qui sont là pour dire aux jeunes souffrant de dépression ou ayant des problèmes de santé mentale qu’ils ne sont pas seuls, qu’ils peuvent se faire aider et s’en sortir, et les vidéos qui les confortent dans ces maladies ou ces situations. Vous savez sans doute tous que TikTok fonctionne avec un système d’algorithme, si bien que quand on like une publication, des publications du même genre reviennent très fréquemment dans notre fil « Pour toi ». Si jamais on like une publication triste, où sont exprimées des tendances dépressives ou autres, elle risque de revenir.

Malheureusement, je m’y suis pris trop tard : je n’ai pas eu la chance de trier le fil TikTok de ma grande sœur quand j’aurais pu le faire, parce que je n’avais pas encore conscience de ce qu’il se passait. C’est lorsqu’elle est partie et que j’ai dû m’occuper de ma petite sœur que j’ai compris que je ne pouvais pas la perdre aussi. Je suis donc allé sur son fil. J’ai compris que comme elle venait de perdre sa sœur et qu’elle éprouvait une grande tristesse, et même du désespoir, si elle allait voir des publications contenant des propos comme « j’ai perdu une personne qui m’est chère, je me sens incomprise », elle risquait de les « liker », précisément parce qu’elle se sentait incomprise et qu’elle devait se sentir terriblement seule à ce moment-là. On ne peut pas lui en vouloir : ce n’est pas de sa faute, d’autant qu’en plus de ça, elle n’avait que 14 ans.

J’ai donc décidé, après la mort de ma grande sœur, de prendre le téléphone de ma petite sœur et de passer chaque soir une heure ou une heure et demie à regarder toutes les vidéos qui étaient proposées, d’avoir le courage de cliquer encore et encore sur « Pas intéressée », jusqu’à ce que son fil redevienne normal et que je puisse, le matin, me réveiller en me disant que ma sœur aurait un téléphone propre, qui lui permette de se divertir ou de s’instruire, plutôt que de la tirer vers le bas.

J’espère que mon témoignage fera une différence et qu’il débouchera sur une vraie éducation pour les jeunes qui utilisent ces applications et une vraie gestion des vidéos qui tournent sur ces plateformes.

M. Z. J’aurai 17 ans le 19 mai et j’ai été déclaré en dépression en décembre 2023. J’ai reçu mon premier téléphone en sixième. J’ai dû le changer en cinquième parce qu’il était cassé ; c’est alors que j’ai installé l’application Instagram. Au moment de mon passage de la troisième à la seconde, mon frère est parti à Paris pour réviser, alors que nous habitons dans le Sud : j’étais un peu triste, parce que ça faisait comme un manque dans la famille. Je suis tombé sur une vidéo qui prônait l’automutilation. Étant naïf, jeune, un peu triste, j’ai décidé de franchir le pas et d’essayer.

Je tombe alors dans cette spirale qui me tire toujours plus vers le bas : je regarde de plus en plus de vidéos de ce genre – je les cherche, parce que je me sens compris. À l’école, j’étais seul, je voyais tous mes amis qui étaient heureux, et moi j’étais le seul à être triste et à vouloir quitter ce monde. Trouver des vidéos de ce genre me permettait de me sentir bien. Un jour, un de mes amis voit mes marques sur les bras et décide d’appeler mes parents. L’annonce a été compliquée, parce que mon père – on a tous un père ; souvent, ils ne sont pas très affectueux – m’a en quelque sorte dit que je leur gâchais la vie, que ce que je faisais n’était pas bien, que c’était quelque chose de mauvais. Je l’ai très mal pris et j’ai fait ma première tentative de suicide. Heureusement que ma mère est passée dans ma chambre ce soir-là et lui a dit que j’avais fait une bêtise.

J’ai donc été hospitalisé pour la première fois. J’étais un peu triste, parce que j’étais éloigné de tout le monde, mais, en même temps, j’ai pu me reconcentrer sur moi-même : je n’avais plus trop mon téléphone à disposition et je ne tombais plus sur ce genre de vidéos. Je suis ensuite passé en pédiatrie. J’étais suivi : après la déclaration de mon ami, j’ai vu une psychologue et un psychiatre. Dès le premier rendez-vous chez le psychiatre, on m’a prescrit des antidépresseurs, parce que j’étais diagnostiqué comme souffrant de dépression et qu’il fallait passer par là. J’avais aussi un rendez-vous tous les mercredis avec ma psychologue : je venais la voir, je lui racontais ce qu’il se passait et elle m’écoutait. Ce personnel médical m’a aidé, mais ces vidéos nocives m’ont tiré vers le bas et j’ai développé une sorte d’addiction : à mesure que je tombais sur plus de vidéos, c’était de pire en pire.

Après ma deuxième tentative de suicide, on a décidé de m’hospitaliser au sein du CEOA, le centre d’évaluation et d’observation de l’adolescent. J’ai rencontré des gens comme moi et je me sentais compris, mais, dans le même temps, je voyais leur mal-être et c’est là que j’ai eu un déclic. Je me suis dit : « Je ne veux plus être comme ça, ça ne me correspond pas, je suis un garçon joyeux. Je ne peux pas être aussi mal, avoir un moral aussi bas, je dois m’en sortir. » Du coup, nous avons mis en place des thérapies familiales.

J’ai essayé de quitter ce genre de vidéos, de dire que je n’étais pas intéressé et que je ne voulais plus les voir. Je me suis aussi désabonné des comptes qui me correspondaient avant. Progressivement, je tombais sur des vidéos plus joyeuses. C’est grâce à cela que je suis ici aujourd’hui, debout, face à vous, pour expliquer que la censure est absente des réseaux et qu’il faut la mettre en place.

M. le président Arthur Delaporte. Merci à tous les trois pour vos témoignages empreints de sincérité et très éclairants pour notre commission.

Maître Laure Boutron-Marmion. Pour donner un exemple précis, pourriez-vous, monsieur Z., nous parler de la story d’une de vos amis, qui n’a jamais été censurée ?

M. Z. À l’hôpital psychiatrique, je me suis fait des amis, dont l’une était en grande dépression. Étant resté en contact avec elle après être rentré chez moi, je suis tombé sur une de ses stories Instagram où on voyait son cou mutilé, avec des points de suture, presque le sang qui coulait. La deuxième photo montrait un sol avec des taches de sang partout. Il y avait aussi des stories d’elle à l’hôpital avec des points de suture. Ces images sont gravées dans ma rétine. C’est à ce moment-là que je me suis dit qu’il y avait un problème et qu’il fallait censurer ces contenus.

Maître Laure Boutron-Marmion. Pouvez-vous aussi confirmer que les vidéos TikTok sont partagées sur Instagram ?

M. Z. Toutes les vidéos Instagram que je voyais, on pouvait les retrouver sur TikTok : c’étaient des utilisateurs de TikTok qui les postaient sur Instagram. Tout est lié.

Mme Laure Boutron-Marmion. Monsieur Y., pouvez-vous décrire une vidéo ou un contenu de votre sœur que vous avez pu voir à l’époque et qui vous a interpellé ?

M. Y. Ma grande sœur, même si elle n’avait plus le recul nécessaire pour distinguer entre les vidéos bonnes ou mauvaises, restait intelligente et avait compris, il y a un an, je crois, qu’il y avait un manque de censure sur la plateforme. D’après ce que j’ai vu, les vidéos qu’elle publiait portaient surtout sur la mutilation. Je pense qu’elle parlait aux gens de sa « communauté » en leur disant : « Ne voyez pas ça comme quelque chose de négatif, mais comme quelque chose de positif. N’arrêtez pas forcément, car ce sera une marque de ce que vous avez réussi à vous en sortir. »

Une autre vidéo sur laquelle j’étais tombé datait d’un jour, peu avant Noël, où elle s’était mutilée le poignet – je pense que c’était une de ses mutilations les plus profondes. On voyait les photos des plaies ouvertes et du sang. Je ne trouve pas normal qu’elle ait pu l’insérer sur la plateforme, sans qu’il y ait d’avertissement, de censure ou de conséquences.

Maître Laure Boutron-Marmion. Même question pour vous, madame X. : vous expliquiez que toutes ces images étaient restées gravées dans votre mémoire, malgré vos efforts pour vous en sortir. Pourriez-vous nous en décrire une ?

Mme. X. Beaucoup de trends sont consacrés à la santé mentale et au mal‑être. Je pense notamment à une vidéo où la première image dit : « la nuit porte conseil », et la deuxième : « moi, elle m’a dit de prendre une corde et un tabouret ». Sous-entendu : « elle m’a dit que je devais mourir ». Cette vidéo a été relayée par plein de personnes.

Il y avait aussi des vidéos expliquant quels médicaments prendre pour en finir, comment cacher ses cicatrices à ses parents, comment se fournir en médicaments, etc. Il y a énormément de vidéos de ce genre, même si toutes ne me reviennent pas à l’esprit à cet instant. Il faut une régulation de ces contenus.

Mme Laure Miller, rapporteure. Merci pour vos témoignages précieux, qui font écho aux auditions des professionnels, qui nous expliquaient qu’on peut en effet, en consultant ces contenus, se sentir appartenir à une communauté et se sentir rassuré, voire protégé, même si l’on sait, au fond de soi, que c’est malsain.

Je voulais vous interroger sur ce que vous attendez de nous. J’entends que vous ne souhaitez pas qu’on interdise les réseaux sociaux, mais qu’on les régule et qu’ils censurent ce qui doit l’être. C’est néanmoins très difficile, car on se heurte à des plateformes qui n’ont aucun intérêt économique ou commercial à cette régulation, puisque ces contenus leur permettent de prospérer. Une solution pourrait consister à les tenir pour responsables de ce qu’elles diffusent – elles sont actuellement considérées comme de simples hébergeurs de contenus et se retranchent derrière une prétendue neutralité, dont on voit bien qu’elle n’est pas réelle –, mais on a surtout le sentiment qu’on tâtonne sans que, pour l’instant, rien de très concret se passe pour protéger les jeunes.

Vous paraîtrait-il envisageable que les enfants n’aient pas accès aux réseaux sociaux en deçà d’un certain âge, par exemple avant l’entrée au lycée, en attendant qu’ils soient peut-être plus mûrs ? Verriez-vous une telle interdiction d’un mauvais œil, sachant qu’elle permettrait de mettre l’accent sur le problème de santé mentale que vous décrivez, et même si toute règle est susceptible d’être transgressée ?

M. Y. De nombreux sites ou applications ne sont accessibles qu’à partir d’un certain âge – pour TikTok, c’est 13 ans. Certains sites exigent une pièce d’identité ou imposent un contrôle par reconnaissance faciale, ce qui permet de vraiment vérifier l’âge des utilisateurs, alors que, pour aller sur TikTok, il suffit de cocher une case. Je trouve ça absolument ridicule : ça ne sert à rien, autant ne pas mettre de limite d’âge.

À 13 ans, on peut être plus mature que certaines personnes de 15 ans. Je ne vois pas pourquoi on fixerait une limite d’âge plus haute : 13 ans, c’est bien.

Mme X. Il serait déjà important que les réseaux comme TikTok se rendent compte de ce qu’ils font. C’est ce que j’attends de la commission d’enquête. S’il pouvait y avoir des réglementations en ce sens, ce serait l’idéal.

Les enfants reçoivent des téléphones de plus en plus jeunes et beaucoup vont sur les réseaux sociaux, dont TikTok. C’est effectivement assez ridicule : ils n’ont qu’à renseigner une fausse date de naissance. Il faudrait donc qu’il y ait une vraie réglementation sur l’âge.

Je ne pense pas qu’il faille interdire les réseaux, parce qu’il y a aussi de bonnes choses à prendre : on peut apprendre, découvrir des choses, on peut faire partie d’une communauté bienveillante, on peut être créateur de contenus – c’est maintenant un métier à part entière dans notre société. Il ne faut pas tout jeter, il y a des choses à garder, mais il faut vraiment faire un tri, en écartant notamment les contenus mortifères.

M. Y. Demander la carte d’identité permettrait de décourager ceux qui n’ont pas l’âge. Si l’enfant arrivait à en faire passer une, ce serait sûrement celle de l’un de ses parents : celui-ci serait au courant, donc responsable. Je pense que ça devrait être la seule réglementation. Je ne devrais même pas avoir à trier le fil de ma petite sœur. Il faut que TikTok redevienne une source de divertissement et d’instruction et non pas d’inquiétude.

M. Z. Ce n’est surtout pas à nous de faire ce tri. En tant qu’enfant, on n’a pas le recul. Ce sont des robots qui devraient détecter ces contenus sensibles et les supprimer directement au lieu de les laisser se balader dans les centres de données.

Mme Anne Genetet (EPR). Je suis médecin de formation et je me suis occupée pendant plusieurs années de patients en situation d’addiction – à des substances plutôt qu’aux réseaux sociaux, qui n’étaient pas très fréquents il y a vingt ans. Je voudrais d’abord vous remercier. Ce que vous venez de faire est absolument formidable. Je mesure combien c’est lourd pour vous, combien c’est difficile de vous exprimer. Je veux vous remercier du fond du cœur, parce que vous nous apportez un éclairage et vous me faites mesurer à quel point il y a parfois un sacré abîme entre le monde des adultes et celui des plus jeunes. Nous avons beau être des parents super ouverts et très accessibles, nous ne le sommes sans doute pas complètement. Nous pouvons passer à côté de choses très graves, peut-être très belles aussi. Il est normal que vous ayez votre jardin secret, car c’est aussi comme ça qu’on grandit, mais quand le jardin secret conduit à des drames tels que ceux que vous avez évoqués, les parents se sentent très démunis. J’ai été très sensible, monsieur Z., à votre remarque sur votre père. Je mesure bien sa réaction première, parce que je pense qu’en tant que parents nous ressentons un sentiment d’échec, nous nous disons que nous n’avons pas été capables de voir, alors que nous avons tellement envie que nos enfants soient parfaits, soient heureux et que tout aille bien. Quand nous sommes, en tant que parents, mis en échec, c’est super dur à encaisser. Je ne veux pas l’excuser mais j’entends ce qu’il dit. Je vous remercie encore pour vos témoignages, qui vont nourrir notre réflexion et nous éclairer.

Madame X., je suis très sensible au contrôle que vous avez instauré avec votre maman. J’imagine qu’il faut une sacrée relation de confiance pour réussir à bâtir cela. Vous avez parlé de trente minutes d’accès par jour, mais j’entends aussi, grâce à ce qu’a dit M. Y, que, même en une demi-heure, on peut déjà se faire embarquer dans des trucs qu’on n’a pas forcément demandés. J’entends votre demande de régulation de la part des plateformes ainsi que l’importance du rôle des parents. En fait, vous devez vous autocontrôler et faire preuve de recul pour vous rendre compte que vous êtes face à quelque chose de potentiellement très nocif : c’est très difficile. Quels conseils avez-vous pour sensibiliser les parents ? Pour ma part, je suis incapable de me servir de TikTok.

Monsieur Y., vous nettoyez le soir le téléphone de votre petite sœur pendant une heure trente. Devez-vous passer autant de temps chaque soir ou, à force de nettoyage, le fil finit-il par être plus propre, en quelque sorte ?

M. Y. Encore aujourd’hui, je fais très attention au fil TikTok de ma sœur. Quand on est allé sur un tel terrain, avec un sujet aussi sensible, ça ne s’effacera pas – surtout que les réseaux n’oublient rien.

Pour ce qui est des parents, le sujet n’est pas directement lié à la maîtrise de TikTok. Quand on voit une vidéo au caractère suicidaire ou dépressif, on en a tous la même perception. C’est aux parents de parler à leurs enfants et de leur dire que TikTok est un outil qui peut être très dangereux. Comme la majorité des parents n’ont pas conscience de la dangerosité des réseaux sociaux et qu’ils n’y vont pas beaucoup, c’est compliqué pour eux d’en parler à leurs enfants. Il suffit en vérité que les parents disent à leurs enfants que, si quelque chose ne leur semble pas normal, il faut venir leur en parler.

Mme X. Les parents sont responsables de donner un téléphone, mais ils ne sont pas coupables des contenus. Lorsque nous faisons la démarche de signaler un contenu, il faut que TikTok nous croie. Beaucoup de vidéos sont remises en circulation et peuvent faire d’autres victimes.

M. Kévin Mauvieux (RN). Je vous remercie pour tout ce que vous nous avez expliqué et pour le courage dont vous faites et avez fait preuve. Nous avons parlé de la limite d’âge : à quel âge vous êtes-vous inscrits sur TikTok ? Il ne s’agit évidemment pas de faire votre procès mais de mieux comprendre comment TikTok fonctionne et de savoir si vous avez pu vous inscrire facilement. Et si vous aviez moins de 13 ans, comment avez-vous fait ?

Mme X. J’ai installé TikTok en janvier 2021 : j’allais avoir 14 ans quelques mois plus tard.

M. Y. J’ai installé TikTok quand j’étais en sixième. Je devais donc avoir 11 ans. Il faut aussi prendre en compte que ce qui tournait sur les réseaux sociaux avant, ce n’était pas du tout la même chose que maintenant. Je ne me souviens plus de la façon dont je me suis inscrit.

M. Z. J’ai installé Instagram quand j’étais en cinquième, aux alentours de 12 ou 13 ans, et TikTok récemment.

M. Kévin Mauvieux (RN). Quel type de contenus cherchiez-vous ? À quelle vitesse les « mauvais » contenus ont-ils pris le pas sur les « bons » ? Y a-t-il, à votre sens, un lien entre les contenus que vous auriez appréciés et ceux sur lesquels vous avez atterri ?

M. Z. Quand j’ai installé Instagram, je cherchais des contenus sur l’art, la mode, des musiques qui me plaisaient, des sujets qui me correspondaient. Je pense que ça a dû venir petit à petit par les musiques, surtout les musiques tristes.

M. Y. Quand on s’inscrit sur TikTok, on nous demande nos centres d’intérêt. Jusqu’à la mort de ma sœur, ça a toujours été très propre et ça m’a toujours intéressé. Un ou deux jours après la mort de ma sœur, l’application a tout de suite commencé à me proposer des vidéos un peu limites, mais j’ai toujours fait en sorte de les trier pour m’éviter de tomber là-dedans.

Mme X. Il y a d’abord les centres d’intérêt : des musiques, des vidéos satisfaisantes, des vidéos bêtes, avec des pandas par exemple – ce n’est pas très intelligent un panda. L’engrenage a commencé avec des musiques tristes, qui étaient réutilisées par des personnes pour parler de leur mal-être. Comme je « likais » un contenu de mal-être, on me proposait d’autres contenus de mal-être. C’était un cercle vicieux, encore et encore.

M. le président Arthur Delaporte. Vous souvenez-vous d’une musique triste en particulier ?

Mme X. Le morceau « Mr/Mme » de Loïc Nottet, par exemple. Il parle de son mal‑être. C’est une musique très intéressante et les paroles sont très profondes, mais elle a été utilisée à mauvais escient.

M. le président Arthur Delaporte. Vous recherchiez cette musique ? Elle apparaissait directement dans votre fil ?

Mme X. Je suis tombée sur cette musique parce qu’elle venait de sortir, je pense. Elle a un peu fait l’effet d’une bombe sur les réseaux. Ensuite, je n’ai pas particulièrement cherché à voir d’autres contenus dessus mais comme je « likais » des gens qui en faisaient des reprises, on me proposait d’autres vidéos avec cette musique ou ce son.

M. le président Arthur Delaporte. Y a-t-il eu un effet de mode ? Certains ont-ils utilisé cette musique pour véhiculer un message ? Voulaient-ils s’inscrire dans une tendance triste ?

Mme X. Il y avait un peu de tout. Certaines personnes disaient que, si l’on ressentait les mêmes sentiments que ceux exprimés dans la chanson, il fallait se tourner vers un professionnel – un psychologue, un psychiatre, un médecin. D’autres s’en sont servis sur le trend de « La nuit porte conseil », par exemple. C’est un contenu qui est beaucoup revenu.

M. le président Arthur Delaporte. Y avait-il un hashtag ?

Mme X. Je pense qu’il y avait des hashtags qui jouaient avec l’algorithme. Il faut savoir que certains émojis sont utilisés pour détourner les contenus, comme le drapeau suisse pour parler du suicide, le zèbre des scarifications. Il y a plein d’émojis qui ont des connotations relatives au mal-être et qui sont utilisés comme hashtags. L’algorithme les utilise pour nous proposer des vidéos similaires.

M. le président Arthur Delaporte. De manière générale, vous laissez‑vous guider par l’algorithme ou allez-vous rechercher des hashtags ?

Mme X. Non, même si ça m’est déjà arrivé de chercher une vidéo en particulier, soit parce que je l’avais déjà vue et que je voulais la revoir soit parce que je cherchais un créateur de contenus qui m’avait plu. Je n’ai jamais vraiment cherché ce genre de contenus.

M. Z. Je cherchais #ts pour « tentative de suicide » ou #$h pour « self‑harm », « automutilation ». Je tombais sur certaines vidéos, mais aussi sur des vidéos de Taylor Swift dont « ts » est le diminutif…

M. Kévin Mauvieux (RN). TikTok vous a fait, à vous ou à votre entourage, du mal voire beaucoup de mal. Pourtant, on a l’impression qu’il est impensable pour vous de l’interdire aux mineurs ou aux enfants de moins de 15 ans. Comment expliquez-vous que vous, qui avez vécu le côté très noir de TikTok, souhaitiez conserver son accès aux enfants à partir de 13 ans et ayez du mal à imaginer être heureux sans l’application ? Dans l’hypothèse d’une interdiction complète de TikTok aux moins de 15 ans, de 16 ans ou de 18 ans, il n’y aurait plus de crainte d’une déconnexion sociale : pensez-vous que vous auriez encore du mal à vivre sans TikTok ? Si oui, comment l’expliquez-vous ?

Mme X. J’arrive à vivre sans TikTok. Il y a certaines semaines où je ne vais pas sur l’application. Cependant, je continue à y aller pour ne pas être en décalage complet avec les gens de mon âge, pour rester à la page. C’est un outil qui fait désormais partie de notre société et de ma génération. Je ne suis pas forcément pour la limite d’âge à 13 ans, qui me semble très basse. L’élever serait une bonne chose, parce qu’à 13 ans, on n’a pas encore les armes pour affronter ce monstre qu’est TikTok.

M. Y. Supprimer les réseaux sociaux, ce serait vraiment génial. J’ai déjà essayé, comme beaucoup d’amis. Mais si on se détache de TikTok une semaine, on est vraiment en décalage avec le reste de notre groupe d’amis. Je pense qu’il y a aussi beaucoup de positif. Moi qui m’intéresse beaucoup à la mode, je trouve mes informations en majorité sur TikTok. Je ne regarde pas trop les journaux, mais je peux suivre l’actualité grâce à HugoDécrypte.

Pour la limite d’âge, comme je vous l’ai déjà dit, je n’y vois pas trop d’intérêt.

M. le président Arthur Delaporte. À supposer que l’on interdise TikTok aux moins de 15 ans, faut-il interdire tous les réseaux sociaux à cette population ? Est-ce que l’on interdit YouTube, WhatsApp et Telegram ?

M. Z. Il faudrait interdire TikTok, Instagram et Telegram. Ce sont des réseaux sociaux nocifs si l’on est trop jeunes. On peut tomber sur des horreurs sur Telegram, notamment des canaux pour vendre de la drogue, des médicaments, des armes.

M. le président Arthur Delaporte. Cela vous est déjà arrivé ?

M. Z. Non, mais des amis de l’hôpital étaient sur ces sites pour trouver de la cocaïne ou du shit.

Je continue à regarder TikTok, parce que maintenant j’ai du recul. On y trouve des contenus plaisants. Mettre une limite d’âge, c’est une bonne idée, mais l’important, c’est de supprimer les contenus trop violents.

M. le président Arthur Delaporte. Qui suivez-vous sur TikTok ? Suiviez‑vous des influenceurs mal-être ?

Mme X. Je ne connais plus les noms. Je ne sais pas si on peut qualifier d’influenceurs certaines personnes que je suivais, mais elles m’ont influencée dans des décisions que j’ai prises. Il y a des influenceurs santé mentale bienveillants et d’autres qui sont un peu entre les deux. Je pense à Miel Abitbol, qui peut faire des contenus suscitant des émotions négatives – trigger comme on dit sur les réseaux – ; ils partent d’un bon sentiment mais ils peuvent mettre mal à l’aise certaines personnes.

M. Y. Je pense qu’il y a trois grands réseaux sociaux à supprimer : TikTok, à cause des contenus suicidaires et dépressifs, Instagram, pour la même raison, et Snapchat à cause de la nudité et de la pornographie.

Mme Anne Genetet (EPR). Je connais bien Miel Abitbol. Je ne partage pas du tout sa façon de faire, qui est indirectement toxique, à mon avis.

On voit sur ces réseaux des enseignants qui ont envie de donner des cours ou de faire du soutien scolaire. Vous ou vos camarades regardez-vous de tels contenus ? Y voyez-vous quelque chose de potentiellement dangereux ?

Mme X. Je suis aussi tombée sur ces contenus de soutien scolaire. Ils m’ont déjà aidée quand j’avais un contrôle de maths. Je tapais mon chapitre et j’avais des réponses à certaines questions. Je ne vois rien de problématique là-dedans. Quant aux contenus de santé mentale bienveillants, j’en publie. Je pense que ça me permet aussi d’aller de l’avant. Je ne pense pas qu’il y ait de contenus délétères et je fais très attention aux mots que j’emploie pour ne blesser personne.

Mme Laure Miller, rapporteure. Lorsqu’il vous est arrivé de voir des contenus problématiques, en avez-vous parlé avec vos amis ou votre famille ?

M. Y. J’en avais parlé avec ma grande sœur. Encore aujourd’hui, j’en parle beaucoup avec mes amis.

Mme X. Je n’en parlais pas à l’époque parce que j’en avais honte, mais je suis maintenant en mode « combat » et j’en parle à tout le monde autour de moi pour lever ces tabous. J’ai relayé mes interventions dans les médias sur mes propres réseaux. Quand des gens me félicitaient, je leur demandais s’ils avaient aussi été victimes de ces contenus : 99 % d’entre eux me répondaient qu’eux aussi avaient été victimes de TikTok. Tout le monde n’est pas touché avec la même violence, mais tous les jeunes sont concernés.

M. Z. Je partageais ces contenus avec mes amis pour leur montrer mon mal‑être. Sinon, je n’en ai pas vraiment parlé. Une fois, avec ma mère, nous avions parlé de la nocivité des réseaux avec des amis, mais ils n’avaient pas dit qu’ils recevaient des contenus nocifs.

M. Emmanuel Fouquart (RN). Madame X., vous avez signalé certaines vidéos. Quelle a été la proportion de retraits opérés par TikTok ?

Mme X. Sur une vingtaine de contenus signalés dans les trois derniers mois, un ou deux ont été supprimés définitivement. Je n’en ai pas signalé beaucoup mais, quand je le faisais, c’est que ces vidéos étaient vraiment dangereuses.

M. le président Arthur Delaporte. Merci pour votre courage, pour vos mots. Merci aussi d’avoir dit qu’il n’y avait pas à avoir honte, qu’il fallait lever les tabous et en parler. Venir en parler avec nous a été essentiel.

21.   Audition de Maître Laure Boutron-Marmion, avocat au barreau de Paris, fondatrice du collectif Algos victima, et de plusieurs familles (jeudi 15 mai 2025)

Puis la commission auditionne maître Laure Boutron-Marmion, avocat au barreau de Paris, fondatrice du collectif Algos victima, et de plusieurs familles ([20]).

M. le président Arthur Delaporte. Cette audition sera consacrée au recueil de témoignage de familles victimes de l’algorithme de TikTok. Je tiens notamment à remercier maître Boutron-Marmion d’avoir accepté d’être accompagnée de familles – beaucoup d’entre elles appartenant au collectif Algos Victima – pour témoigner auprès de la représentation nationale. Nous vous remercions de vous être déplacés et d’avoir répondu à nos questions sur les effets psychologiques de TikTok sur les mineurs. Vous faites preuve de courage, alors que vous avez été confrontés à un deuil ou à des difficultés extrêmement lourdes : vos témoignages seront précieux et utiles à nos travaux.

Cette commission d’enquête, destinée à apporter un écho à vos préoccupations, est aussi un moyen de reconnaître la souffrance et les victimes. Elle n’est pas un tribunal – nous n’avons pas vocation à nous substituer aux affaires judiciaires en cours –, mais elle cherche à faire évoluer le droit et la capacité d’action des pouvoirs publics, et plus largement à sensibiliser la société aux dangers des réseaux sociaux. Nos travaux sont empreints de gravité, de solennité et d’une certaine émotion. Leur objectif est de répondre à la demande sociale que vous incarnez, de faire la lumière et d’apporter des solutions pour l’avenir. Si l’on peut considérer que l’Assemblée nationale s’est saisie tardivement de ce sujet, il n’est jamais trop tard pour lutter contre les effets pervers des réseaux sociaux.

Cette audition obéit au régime de celles d’une commission d’enquête, tel que prévu par l’article 6 de l’ordonnance n° 58-1100 relative au fonctionnement des assemblées parlementaires. Cet article impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Par ailleurs, je vous remercie de déclarer, préalablement à votre intervention, tout conflit d’intérêts – par exemple, la perception d’une rémunération – de nature à influencer vos déclarations.

(Maître Laure Boutron-Marmion, Mme Gaëlle Berbonde, Mme Delphine Dapui, M. Arnaud Ducoin, Mme Géraldine Fur-Ducoin, Mme Christina Goncalves da Cunha, Mme Virginie Guguen, Mme Géraldine Denis, Mme Stéphanie Mistre, M. Jérémy Parkiet et Mme Morgane Jaehn prêtent successivement serment.)

Maître Laure Boutron-Marmion. Dans quel monde voulons-nous vivre, mesdames et messieurs les députés ? Cette question s’impose à tous. Le travail d’investigation courageux que vous avez choisi d’entamer est une étape majeure pour notre pays, pour que nos jeunes et leurs parents cessent de souffrir en silence, en raison d’un diktat numérique selon lequel la vie ne vaudrait d’être vécue en dehors des réseaux sociaux lorsque l’on est adolescent.

Oui, ayons le courage de reconnaître que les réseaux sociaux, tels qu’ils sont conçus aujourd’hui, tuent nos jeunes. Plutôt que de les unir, ils les isolent. Plutôt que de les faire grandir, ils les abîment irrémédiablement. La première raison est celle de l’addiction extrême à l’outil lui-même. Comment résister à ce flot continu d’images et de vidéos qui ne s’arrête jamais ?

La deuxième est celle de l’emprise algorithmique. Je vais vous confier mon quotidien, depuis 2021, aux côtés des familles abîmées qui ont rejoint Algos Victima. Je vis dans un monde où les parents se lèvent quatre fois par nuit pour vérifier que leur progéniture respire toujours dans leur chambre, mettent sous clé tous leurs médicaments et les comptent à la pilule près, le soir, en rentrant du travail ; ils répètent cette opération inlassablement, jour après jour. Je vis dans un monde où des papas, émus et désemparés, me parlent de leur enfant de 11 ans, déjà insomniaque, où des mères se créent des faux comptes TikTok pour vérifier l’activité de leurs ados, et consacrent leur pause déjeuner à signaler des contenus, toujours plus sanguinolents, faisant l’apologie du suicide, en vain. Je vis dans un monde où des parents emmènent leur fille de 10 ans et demi aux urgences, pour une tentative de suicide par absorption de Doliprane. Je vis dans un monde où des parents doivent retirer le corps sans vie de leur enfant, suspendu à la porte d’une armoire de chambre ou d’une salle de bains. Je vis dans un monde où des parents doivent enterrer leur enfant de 12 ans : à cause de l’algorithme de TikTok et des réseaux sociaux, il a choisi de ne plus aimer la vie, à l’âge où il ne la connaît pas encore.

Les foyers sont au bord de l’implosion. Il est temps d’ouvrir les yeux. Je vous remercie pour votre invitation : de nombreux parents y ont répondu favorablement. Ils sont là pour témoigner. Ils vont vous raconter, avec leurs mots, leur calvaire et celui de leurs enfants. Certains parents du collectif n’ont pas pu venir – restés au chevet de leur enfant hospitalisé ou en raison de contraintes professionnelles ; nous portons leur voix aujourd’hui. D’autres parents encore ne peuvent être là, bien malgré eux.

Marie est née le 21 octobre 2005. Son bijou porte-bonheur est la main en corail que lui a offerte sa grand-mère, qui vit en Corse et qu’elle adore plus que tout. Elle aime tellement jouer avec ses chiens, les laver, faire des chorégraphies et des figures de gymnastique avec sa petite sœur. Elle veut devenir avocate. Elle dit que personne n’aurait d’arguments plus solides qu’elle. Elle n’est pas devenue avocate. Elle s’est pendue dans sa chambre le 16 septembre 2021. Elle n’est pas là aujourd’hui.

Emma est née le 24 août 2004. Résolument tournée vers les autres, sa passion est la mode. Elle donne des conseils vestimentaires à qui veut bien les entendre, surtout à sa maman, dont la tenue quotidienne doit être validée par son œil affûté. En véritable petit dauphin, elle nage toutes les semaines avec son père. Amoureuse de la Bretagne, elle y retrouve ses cousins à toutes les vacances. Les vacances de noël 2020, dans le berceau de son enfance, ont été les dernières. Elle s’est suicidée le 12 janvier et est décédée le 16 janvier 2021. Elle n’est pas là aujourd’hui.

Charlize est née le 12 octobre 2008. Très sportive, elle préfère la natation artistique au judo, car elle serait peinée de faire mal à son adversaire. Elle est fan de skincare – soins de la peau – et collectionne les produits de beauté, autant que les répliques de Stranger Things et Friends, qui n’ont pas de secret pour elle. Elle veut devenir psychologue, pour aider les autres à comprendre ce qu’elle perçoit souvent d’eux, dès la première seconde. Elle n’est pas devenue psychologue. Elle s’est pendue dans sa chambre le 22 novembre 2023. Elle n’est pas là aujourd’hui.

Pénélope est née le 26 décembre 2005. Elle est tout ce qu’attendaient ses parents, lorsqu’elle arrive en France et chamboule leur vie à jamais. Fan de Taylor Swift et One Direction, elle aime blaguer avec ses amis et sa fratrie. Elle lit de la littérature uniquement dans la langue de Shakespeare. Elle adore le sport et la boxe, mais c’est TikTok qui la mettra KO. Elle s’est suicidée le 29 février 2024. Elle n’est pas là aujourd’hui.

Lilou est douce et calme. Elle peut dessiner pendant des heures. Elle rejoint sa mère dans sa microcrèche tous les mercredis après les cours et y passe ses après-midi. Elle se dit que c’est auprès des bébés qu’elle voudrait travailler. Elle n’a pas passé son certificat d’aptitude professionnelle (CAP) à la petite enfance. Elle s’est pendue le 23 avril 2023. Elle n’est pas là aujourd’hui.

Avant de donner la parole à tous ces parents meurtris, je tiens à vous dire que toutes les histoires que vous allez entendre ne sont pas des cas isolés, ni extrêmes. Ils représentent l’universalité de ce que vit notre jeunesse. Retenez une chose essentielle : tous les parents dont vous allez entendre les témoignages ne sont pas restés sans agir, ni réagir. Ils accompagnaient leurs enfants dans leur usage du numérique. Ils ont mis en place des contrôles parentaux. Il serait vain de réduire tous les drames qui vont être évoqués au résultat d’une prétendue non-gestion des outils numériques de leur enfant. Celui-ci n’est rien face à la dynamique algorithmique : visionner, encore et encore, toujours plus de contenus mortifères, jusqu’à l’étouffement, atteint la psyché en moins de temps qu’il n’en faut pour le dire. Le cynisme de l’outil TikTok est tel que, lorsque vous êtes émotionnellement plus fragile, la plateforme vous propose jusqu’à douze fois plus de contenus mortifères.

En conclusion, si vous êtes bien dans votre peau, la plateforme vous proposera tout de même des contenus morbides, en moins de cinq minutes, sans que vous souhaitiez les voir : le défilé en continu de ces vidéos vous rendra addict et vous fera plonger. Si vous êtes déjà fragilisé par la vie, la plateforme ne vous laissera aucune chance. Dès la première minute d’utilisation, vous serez inondé de ce type de contenus, dont vous ne pourrez plus vous sortir. En tant que parent, vous aurez beau alerter votre enfant, la spirale est telle qu’il se dira – je l’ai entendu maintes fois : « Il n’y a que TikTok qui me comprenne ». C’est un isolement fou et une spirale dont on ne peut sortir sans casse : c’est TikTok et moi contre le reste du monde.

Je finirai par cette phrase tirée du livre de George Orwell, 1984, dont la lecture de certains passages peut donner des frissons, tant ils correspondent à notre malheureuse réalité, sous l’ère des réseaux sociaux non régulés : « Maintenant, comprends-tu quelle sorte de monde nous créons ? […] Le progrès dans notre monde sera le progrès vers plus de douleur. […] Si tu veux une image de l’avenir, imagine une botte, qui écrase un visage humain, indéfiniment. »

Mme Stéphanie Mistre, mère de Marie. Merci de nous accueillir et de nous permettre de vous faire part de ce que nous avons vécu. Marie était une jeune fille solaire, pleine de vie. Elle aimait chanter, danser, s’amuser et profiter de la vie, avec une personnalité imposante. Vers l’âge de 13-14 ans, elle a subi du harcèlement scolaire, traité par le collège. L’évolution de son corps et de ses attributs féminins était compliquée, mais elle se sentait épaulée. À son arrivée en seconde, Marie est tombée sur des harceleurs avérés : ils avaient déjà harcelé beaucoup de personnes et se sont attaqués à elle.

Elle nous en a beaucoup parlé. Nous avons fait notre maximum. Marie a demandé un entretien avec la directrice, mais elle n’est pas retournée à l’école : elle n’y a pas été reprise, tandis que les harceleurs l’ont été. Pour elle, c’était monstrueux – un échec. Elle ne comprenait pas pourquoi elle était mise de côté. Elle le vivait comme un abandon du monde des adultes, qui ne la soutenait pas. Elle avait été victime de cyberharcèlement, sous forme de revenge porn : cela était très compliqué à assumer. Nous n’avons pas trouvé le soutien nécessaire pour que ma fille se sente épaulée par d’autres personnes que son papa et moi.

Nous étions en période de confinement : elle a pu accéder aux réseaux sociaux. Il y a quatre ans, comme beaucoup d’autres, je ne me doutais absolument pas des contenus de TikTok. À la suite du départ de Marie, j’ai réussi à accéder à son téléphone – avant, cela était trop difficile pour moi : les contenus qu’elle regardait étaient mortifères, ils montraient comment se scarifier et faire un nœud pour se pendre, mettant en avant des chansons qui prônent le suicide comme une libération – « suicide-toi et tu iras beaucoup mieux ». Mon enfant, reconnue comme hypersensible et empathique par le test neuropsychologique Wisc – Wechsler Intelligence Scale for Children –, a vécu un enfermement dans une sorte de communauté dépressive : en plus des problèmes de harcèlement et de contenus sur les réseaux, elle a pris sur elle la charge de ce collectif en souffrance.

L’algorithme de TikTok a une grosse part de responsabilité dans le mal-être de ma fille. En effet, la bulle de filtre sélectionne le contenu qui parvient à l’enfant en fonction de ses supposés centres d’intérêt, s’immisçant ainsi dans sa vie privée. Ma fille était harcelée sur son poids : elle a effectué une recherche sur TikTok au sujet des troubles alimentaires et nous en avons parlé. Or cela n’est pas un problème de santé mentale. Pourquoi ne pas lui avoir proposé des contenus positifs – un programme sportif, un régime alimentaire, aller voir ses amis ? Les seules options qui lui ont été présentées sont celles du suicide, de l’automutilation et de la scarification, du fait de se libérer de tout son poids en partant.

Cet algorithme est créé par l’humain – par TikTok – pour avoir le plus de captations possible. Toutes les personnes ayant un centre d’intérêt sont susceptibles de s’y faire enfermer. Nos enfants sont considérés comme des souris de laboratoire : les plateformes font des études sur leur cerveau pour les garder le plus longtemps possible, voire les enfermer dans l’horreur et les contenus délétères qui les ont perdus, jusqu’à l’irréparable. Pour protéger nos enfants, il faut obliger ces plateformes – en l’occurrence, TikTok – à poser des limites et à investir dans des modérateurs, plutôt que dans des recherches pour savoir comment utiliser l’enfant ou le fidéliser au plus tôt. L’enfant a le droit de vivre sa vie, sans intrusion dans sa vie privée. Je suis en colère contre le modèle économique utilisé par TikTok, qui considère nos enfants comme des produits commerciaux : en restant connectés à ce réseau, ils continuent à générer de l’argent pour ce type de plateforme.

Or nous parlons d’enfants, de nos entrailles, de nos futurs citoyens. Nous voulons tous que le monde change et que nos enfants soient davantage considérés. Quels adultes deviendront-ils ? Quelle société allons-nous créer ? Nous constatons l’émergence de la violence chez les plus jeunes et l’isolement des adolescents, qui passent leur temps dans leur chambre et ne discutent plus avec leurs parents : leurs réseaux sont devenus leurs référents. Les jeunes souffrent d’isolement, de dépression et ont des problèmes cognitifs, de concentration et d’attention : ils n’arrivent plus à apprendre, ni à regarder de film long. Le flux de dopamine généré par cet algorithme agit comme une drogue sur eux – à dessein, pour les contraindre sans qu’ils s’en rendent compte. Ce sont des enfants et ils n’ont pas le recul nécessaire pour faire la part entre ce qui est bien et ce qui est mal – le virtuel. La roue qui tourne en permanence et revient toutes les quatre ou cinq secondes ne leur laisse pas l’espace pour réfléchir, leur enlevant toute notion de réflexion, d’analyse, de créativité. Cela s’apparente à un lavage de cerveau, dans un collectif qui nourrit la détresse de chacun.

J’évoquerai également la glamourisation de la dépression. D’après mes recherches, en 2021, TikTok a estimé que son modèle n’était pas bon pour la santé mentale des enfants. La version de l’application utilisée en Chine – Douyin – a donc été totalement modifiée : les enfants sont très contrôlés et ne disposent que de quarante minutes jusqu’à l’âge de 18 ans, avec un couvre-feu de 22 heures à 7 heures du matin ; les contenus sont éducatifs, scientifiques et ludiques. De quels contenus disposons-nous, à part la dépression ? Elle s’installe et nos enfants s’isolent de plus en plus, ont des problèmes pour apprendre à l’école, n’arrivent plus à se concentrer.

Nos enfants ont des droits. Les parents et l’État doivent les protéger dans leur sécurité, leur santé mentale et physique ainsi que leur moralité, assurer leur éducation et leur gestion, permettre leur développement dans le respect dû à leur personne. Nos enfants n’ont pas été respectés. Mon plus grand vœu est que nous montrions l’exemple, à l’instar des autres pays qui sont en train de se rebeller et de poser des limites, pour préserver la santé mentale de leurs enfants, de leurs tripes, de leurs futurs citoyens. Suivons le modèle de l’Australie, de l’Espagne, de l’Albanie, avec des mesures fermes. Prenons des mesures législatives fortes.

J’ai 52 ans et j’ai beaucoup de mal à suivre ma dernière, car le monde numérique ne m’est pas familier. Elle a eu son téléphone à 14 ans, comme Marie. Je me suis rendu compte qu’elle ne me réclamait plus de temps d’écran supplémentaire – je l’admets, je suis aliénée sur ce sujet, qui me rend folle. Elle a en fait trouvé sur les réseaux – YouTube, TikTok – comment supprimer le contrôle parental. Il nous est donc difficile de les protéger, car ils sont plus au courant que nous. Je n’ai plus de ressources : j’ai voulu télécharger une autre application mais je n’y arrive pas, et il semble qu’il soit facile de la débloquer également. De quels moyens disposons-nous, en tant que parents, pour protéger nos enfants ?

J’aimerais qu’un travail soit réalisé en synergie, entre les pouvoirs publics, les plateformes, les opérateurs, les parents et les constructeurs de téléphones. Tous ensemble, faisons en sorte de protéger nos enfants. Mon souhait le plus cher serait que les réseaux soient interdits jusqu’à l’âge de 16 ans au moins, et qu’il leur soit imposé de réglementer et sécuriser leurs plateformes.

M. le président Arthur Delaporte. Merci pour ce témoignage et pour ces positions.

M. Jérémy Parkiet, père de Charlize. Tout d’abord, nous aimerions vous remercier de nous entendre aujourd’hui. Nous sommes ici non pas pour accuser mais pour témoigner, en tant que parents d’une adolescente, Charlize, qui s’est suicidée le 22 novembre 2023, après avoir été harcelée et exposée à du contenu toxique sur TikTok.

Dans un premier temps, j’aimerais vous parler de notre fille et vous dire à quel point elle était parfaite à nos yeux, à quel point elle était heureuse, active, extrêmement intelligente, hypersensible, très empathique, et évoquer tous ces merveilleux moments passés avec elle, toutes les passions que nous avons pu transmettre à nos enfants – le cinéma, le sport –, les voyages que nous avons faits, jusqu’au moment où tout a basculé.

À ce moment-là, il n’était pas très difficile pour nous d’imaginer ce qui avait pu causer ce changement car nous avons traversé une année difficile, au cours de laquelle Charlize a été confrontée au deuil, puisque mon père est décédé d’un cancer assez subitement. Cette même année, nous avons subi les confinements à répétition, puis il y a eu l’entrée dans l’adolescence. Donc, je vous avoue qu’en tant que parents, nous pensions que cela suffisait largement à expliquer le mal-être de notre fille, qui était déjà suivie par une psychologue depuis que mon père avait déclaré son cancer. Ce suivi n’a jamais cessé, jusqu’à son décès.

Mme Delphine Dapui, mère de Charlize. Je vais prendre le relais pour expliquer la spirale dans laquelle est tombée notre fille. La sixième s’est très bien passée, malgré le confinement. Elle est entrée en cinquième et une amie l’a rejointe dans son collège et dans sa classe. Pendant cette année de cinquième, ses résultats scolaires ont baissé. Elle faisait des crises d’angoisse, ne voulait plus aller à l’école : elle développait une phobie scolaire. Elle a commencé à tomber dans l’anorexie et à se scarifier – c’est notre psychologue qui nous a avertis pour les scarifications, et conseillé de prendre rendez-vous avec des psychiatres pour le suivi de l’anorexie. Nous pensions qu’avec l’été, tout allait se remettre en place. À son entrée en quatrième, elle retombe avec sa copine dans la même classe. Les professeurs voient très bien qu’elle ne va pas bien, puisqu’ils nous en parlent et son état se dégrade énormément, jusqu’à sa première tentative de suicide, au mois de janvier qui a suivi.

C’est à ce moment-là qu’elle met des mots sur ce qui s’est passé dans son collège et qu’elle explique qu’elle a été harcelée par sa soi-disant copine, qui était dans sa classe. C’est la première fois qu’elle nous parlait de cela. Le suivi a été intensifié, mais le mal était fait. Son état n’a fait qu’empirer. Elle s’est réfugiée de plus en plus sur son téléphone, qu’elle avait eu tardivement et sur lequel nous avions installé un contrôle parental. Mais, comme à l’école, tout se fait sur le téléphone, y compris le suivi des devoirs via la plateforme ENT (espace numérique de travail) – je ne sais pas comment cela s’appelle dans les autres collèges –, que certains ont même des tablettes et qu’il y a aussi des groupes de classe, elle devait toujours avoir son téléphone avec elle ; nous avons donc dû faire sauter quelques contrôles, alors que nous contrôlions les applications qu’elle voulait télécharger.

C’est en communiquant avec ses copines qu’elle a commencé à tomber et à vouloir TikTok. On ne savait pas ce que c’était. On pensait que c’était juste un moyen de se divertir puisque, malgré son mal-être, on la voyait souvent sur son téléphone en train de sourire. On s’est dit que c’était comme un refuge, qu’elle y trouvait des choses rigolotes pour la changer un peu de ses idées noires.

Son état ne faisait qu’empirer, continuellement. Elle a fait trois autres tentatives de suicide, jusqu’à celle qui fut fatale. C’est lors de la réunion, le lendemain de sa mort, avec ses meilleures copines et leurs parents qu’on nous a annoncé qu’elle avait republié, la veille, un post montrant une jeune fille toute souriante, avec des mots écrits qui disaient ceci : « La nuit porte conseil. Moi, elle m’a conseillé de prendre un tabouret et une corde. » Nous étions sidérés. Nous n’avons pas compris ce qui se passait, en fait. On s’est dit : « C’est quoi, TikTok, en fait ? C’est ça qu’elle regardait ? » Son téléphone a été récupéré par la police pour l’enquête, et c’est par l’intermédiaire de ses copines ainsi que des parents de celles-ci, qui nous ont envoyé les captures d’écran qu’ils avaient faites de ce qu’elle postait, que nous avons compris. Que dire ? C’étaient des contenus dans lesquels on lui proposait, pour se faire du mal sans que cela se voie, de prendre des douches bouillantes, ou encore des moyens pour démonter les taille-crayons. Les enfants, avec nous en tout cas, ne parlent pas de TikTok. Elle ne nous parlait pas beaucoup ; elle ne voulait rien nous dire, comme pour nous protéger. Par contre, elle exprimait sur TikTok tout ce qu’elle pensait, en repostant des publications. Il y en a certaines qui disaient qu’on lui avait proposé de se jeter sous les roues d’une voiture, que la vie ne valait pas d’être vécue, et j’en passe.

Après cela, j’ai voulu voir comment il était possible d’arriver à ce résultat, sur une plateforme censée être consultée par des jeunes. J’ai donc créé un compte. Il faut savoir qu’on ne peut pas y entrer directement. Souvent, on nous a dit qu’elle avait trouvé ce qu’elle cherchait ou, plutôt, que c’est elle qui a voulu se mettre là‑dedans et que, donc, elle l’a bien voulu. En fait, non. Quand on tape les mots « suicide » ou « scarification », par exemple, il y a un message d’alerte qui nous stoppe. Sauf que, en fait, il existe des moyens détournés, comme les émoticônes, pour y accéder : le zèbre pour les scarifications, le drapeau suisse pour le suicide. Moi, mon fil a été de taper simplement « perte de poids » en me mettant dans la tête d’une adolescente. Et très rapidement, en cinq minutes, j’ai commencé à avoir des contenus sur l’anorexie, les scarifications, le suicide.

Encore maintenant, j’ai gardé l’application ; je la regarde pour montrer aux gens ce qu’on peut trouver sur TikTok parce que, souvent, on ne nous croit pas, ou on ne l’imagine pas. Lorsque j’ouvre mon téléphone, je n’ai que des contenus sur l’anorexie, sur les moyens de se donner la mort, sur les doses létales, sur quels médicaments on peut prendre et combien. Je n’ai rien d’autre. En plus, il y a des gens qui laissent des commentaires. Par exemple, quelqu’un écrit : « Moi, j’ai essayé d’en prendre six, cela n’a pas marché ; peut-être qu’il faut que j’en prenne plus ? » « Oui, essaie d’en prendre plus ». Ils s’encouragent entre eux, dans cette communauté ; ils se donnent des conseils l’un à l’autre. Qu’y avait-il encore comme contenus ? Il y a souvent des contenus avec de la musique angoissante, des images sombres, des gens qui pleurent ou qui crient ; c’est vraiment anxiogène de regarder ça. Moi-même, cela m’a mise mal à l’aise. J’imagine, dans le cas d’une enfant fragilisée, comme Charlize, par du harcèlement, ce que cela fait de regarder de tels contenus : son cerveau vrille. Sa réalité à elle, c’est ce qu’elle voit sur les réseaux. Et si c’est ça, la vie, en effet, cela ne sert plus à rien de vivre.

M. Jérémy Parkiet. J’aimerais vous donner aussi le contexte et expliquer pourquoi notre fille a fini par passer un peu plus de temps sur son téléphone. Il se trouve qu’à partir de son changement de collège – parce que, forcément, c’est la victime qui a changé de collège et qu’il ne s’est rien passé pour les harceleuses –, elle a eu un emploi du temps aménagé, c’est-à-dire qu’elle ne passait que des demi-journées au collège. Moi, j’ai cessé de travailler ; ou, plutôt, je travaillais pendant ses horaires de cours.

Au bout d’un moment, il est difficile de savoir s’il faut lui laisser un peu d’intimité, combien de temps et comment on doit la cadrer. Nous avons demandé de l’aide, à plusieurs reprises, au psychiatre, parce que nous avons vu qu’elle passait du temps sur son téléphone et qu’elle était moins ouverte à la discussion avec nous. Nous lui avons expliqué clairement que, dans cette situation, il nous était difficile de remplir notre rôle de parents : comment faire pour être strict si on a peur de retrouver sa fille morte ? Parce que, une fois qu’il y a eu une première tentative de suicide, ça laisse la place à une possibilité que nous n’avions absolument pas envisagée auparavant. La seule réponse que nous avons obtenue, c’est : « Je comprends, mais… ». Et c’est tout. Comment est-il possible que des parents qui s’adressent à un professionnel doivent quémander, à chaque fin de rendez-vous, un petit compte rendu pour savoir comment cela se passe ? Cela se déroule toujours de la même manière : « Comment trouvez-vous votre fille ? » – systématiquement en présence de notre fille. On ne sait pas trop quoi répondre, on a l’impression que ça va à peu près. « Non, non, vous vous trompez, votre fille va mal, elle a des idées noires ; on se revoit dans deux mois ». Comment fait-on pour vivre avec ça quotidiennement, avec cette peur de perdre son enfant ? J’imagine les parents qui ont une activité professionnelle à plein temps et qui ne peuvent pas se libérer : comment font-ils si leur enfant a un emploi du temps aménagé ? Est-ce qu’ils prennent le risque de le laisser seul, quitte à le retrouver mort à leur retour ?

J’en viens à la fin. Il se trouve que, le 21 novembre, Charlize a reposté cette fameuse vidéo – évidemment, nous n’étions pas du tout au courant. Nous n’avons jamais laissé notre fille seule, jamais. Mais il se trouve que, le 22 novembre, il fallait que je m’absente une heure pour sa sœur. Sa sœur que nous avons délaissée, parce que Charlize nous demandait énormément d’attention, forcément ; on culpabilisait énormément parce que ce temps passé avec Charlize, on ne le passait pas avec sa sœur. Il se trouve donc que sa sœur avait besoin qu’on prenne du temps pour elle et qu’on la conduise à un rendez-vous médical. Il aura suffi d’une heure pour que notre fille parte. Et pour que ce soit bien concret pour tout le monde, j’étais avec sa sœur quand on a découvert Charlize pendue dans sa penderie ; sa sœur a dû appeler les secours pendant que j’essayais de la réanimer. Donc, non, cela n’arrive pas qu’aux autres.

Mme Delphine Dapui. En effet, cela n’arrive pas qu’aux autres. Il faudrait que tout le monde en prenne conscience, qu’on en parle, que tout le monde soit au courant de ce qui peut se passer et que les gens arrêtent de fermer les yeux et comprennent que cela n’arrive pas qu’aux autres et qu’il faut vraiment faire attention. C’est pour cela qu’il faut que des mesures concrètes soient prises, comme celles que Stéphanie a citées tout à l’heure : créer un système d’identification qui ne laisse aucun doute sur l’âge de la personne – notamment mineure – qui se connecte à un compte. Stéphanie l’a très bien dit tout à l’heure.

M. Jérémy Parkiet. J’ajoute que la limitation de l’âge n’enlève en aucun cas la responsabilité des hébergeurs sur le contenu qu’ils proposent. Qu’on soit mineur ou majeur, on n’a pas à voir ce genre de contenu, on n’a pas à le subir. Ce sont ces plateformes qui hébergent ça et qui l’autorisent. Mais il n’y a pas d’âge pour ça.

M. le président Arthur Delaporte. Merci pour votre témoignage.

Mme Christina Goncalves da Cunha, mère d’Emma. Merci beaucoup de nous écouter. C’est un très grand, je ne dirai pas soulagement, mais c’est très important pour nous de savoir qu’il commence à y avoir une prise de conscience.

Notre fille Emma est partie en quatre mois. Vous verrez que, dans tous ces témoignages, on en revient toujours aux mêmes choses. Cela commence par des soucis à l’école. Ce que je voudrais vraiment mettre en lumière ici, c’est le problème générationnel. Nous sommes tous adultes. Et quand je dis générationnel, je parle même des gens de 30 ans qui n’ont pas vécu ce que vivent nos ados : mon fils aîné a 34 ans, mon deuxième fils a 30 ans. Emma avait 16 ans lorsqu’elle nous a quittés en 2021. Jamais ses frères n’ont subi cela. Ce sont donc deux générations qui nous séparent.

La violence à l’école a toujours existé. On sait très bien que les enfants et les adolescents sont cruels. On a tous entendu : « T’es grosse », on a tous entendu ce qu’Emma a entendu. Mais la grande différence, aujourd’hui, c’est que tout cela est relayé sur les réseaux sociaux. Cela crée une souffrance, comme c’était déjà le cas à notre époque, si vous traversez un moment de spleen dans votre adolescence. Le spleen de l’adolescence, cela existe depuis des années, voire des générations : on en a entendu parler dans la littérature, ce n’est pas nouveau. Mais ce qui est nouveau, c’est le relais dans les réseaux sociaux et l’utilisation que TikTok fait de ce spleen et de ce mal-être. Tous nos enfants qui sont partis n’étaient pas malades. Par contre, ils ont traversé des difficultés à l’école, ils ont parfois été isolés – mais, encore une fois, cela nous est arrivé, à tous.

Par conséquent, qu’est-ce qui change aujourd’hui ? Ce qui change, c’est qu’ils ont accès à des contenus qui les confortent et les entraînent plus loin. Lorsqu’on n’est pas bien, qu’est-ce qu’on fait ? Nous-mêmes, nous écoutons de la musique pas super, de la musique douce ou autre, qui ne nous rendra pas forcément mieux. Mais je ne sais pas si vous avez écouté les musiques qu’ils entendent sur TikTok : c’est de l’incitation au suicide. Le problème, et j’en reviens au fossé générationnel, c’est que personne de notre génération ne sait ni n’a vu ce qu’ont vu nos enfants. Allez-y ! Même dans ma famille, personne n’en a conscience.

Il y a donc, avant tout, un devoir d’information. Regardez ce qui s’y passe. Est-ce acceptable ? Acceptons-nous que nos enfants regardent ces choses-là ? La deuxième chose, c’est que ces plateformes, TikTok et autres, se déclarent comme des hébergeurs de contenus. Donc, il n’y a pas de poursuites ; tout va bien, ils sont protégés par la loi. Mais ce qui me dérange, c’est qu’ils imposent du contenu à nos enfants qui ne l’ont pas choisi. C’est le problème de l’algorithme. Or ce sont eux qui le mettent en place. Ce sont eux qui le choisissent. Ils sont donc bien plus que de simples hébergeurs. Je suis désolée, ce n’est pas la réalité. Ces algorithmes imposent à nos enfants des choses qu’ils ne devraient pas voir. Est-il normal de trouver des tutos pour se suicider ? Est-ce que vous, en tant que parents, vous donneriez à vos enfants un livre expliquant comment faire un nœud et se pendre à la patère de la salle de bains ? Je ne savais même pas que cela pouvait exister, la façon dont ma fille est partie ! Je ne savais pas que cela existait ! Elle ne l’a pas appris toute seule. On lui a donné l’arme pour se suicider. Qui accepte ça ? Qui, dans cette salle, l’accepterait ?

On va dire : « Il y a de plus en plus d’enfants qui ont un téléphone à 10 ans ». Mais pourquoi ? Parce que les parents n’ont pas conscience de ce qui s’y passe. S’ils le savaient, c’est évident qu’ils ne donneraient pas de téléphone à leur enfant de 10 ans. Je suis donc ici pour dire que nous devons prendre conscience, tous ensemble, de ce qu’on est en train de déverser sur nos enfants, que nous-mêmes n’accepterions jamais de voir. Prenons-en conscience et refusons qu’au nom de leur intérêt économique certaines sociétés, pour s’enrichir, mettent des armes dans les mains de nos enfants. Parce que c’est bien de cela que nous parlons. Est-ce que nos enfants ont le droit d’avoir des armes ? Est-ce que nous-mêmes, en tant qu’adultes, avons le droit d’avoir des armes en France ? Non ! Cependant, on en met dans les mains de nos enfants. On en met dans les mains de nos enfants pour attaquer d’autres enfants. Et on en met dans les mains de nos enfants pour tourner ce téléphone vers eux comme ils tourneraient un pistolet vers leur tempe. Moi, je n’accepte plus cela et je suis ici pour dire qu’il faut en prendre conscience. Arrêtons cela ; nous sommes en train de tuer nos enfants, de tuer une génération, parce qu’on ne sait pas ce qui se passe sur ces plateformes. Mais, croyez-moi, certains le savent : les gens de la Silicon Valley et de TikTok le savent parfaitement. Et, étonnamment, les enfants de ceux qui sont dans ces sociétés, eux, n’ont pas de téléphone. Pouvez-vous m’expliquer pourquoi ?

M. le président Arthur Delaporte. Merci pour votre témoignage.

M. Arnaud Ducoin, père de Pénélope. Nous vous remercions de nous accueillir aujourd’hui et de nous donner cette parole si précieuse pour dénoncer le fléau des réseaux sociaux et, plus précisément, de TikTok, dont le nom revient souvent.

Je suis ici avec ma femme et mon fils pour témoigner en mémoire de notre fille, Pénélope, qui s’est suicidée le 28 février 2024, il y a un peu plus d’un an. Elle s’est pendue dans sa chambre.

Permettez-moi, pour commencer, de parler un peu d’elle et de nous. Nous avons adopté nos trois enfants en Asie et je peux dire que nous avons vécu quinze années assez extraordinaires. Nous étions très loin de nous douter qu’un drame allait nous heurter, nous percuter, comme ce suicide. Pénélope était très brillante. C’était une jolie petite fille, joyeuse. Elle marchait très bien à l’école et, en seconde, elle nous a demandé de faire une année de césure aux États-Unis. Au bout d’un moins, on nous a demandé de la faire rapatrier parce qu’on avait découvert qu’elle se scarifiait. Nous, nous ne l’avions pas vu car elle a commencé à se scarifier au pli de la hanche, caché par le maillot de bain – vous ne le voyez pas. On ne se doutait pas de ça. Elle a été diagnostiquée borderline, un an avant son décès. Elle souffrait aussi de troubles du comportement alimentaire et elle se mutilait. Quand je dis qu’elle se mutilait, c’est qu’elle avait peut-être une centaine de cicatrices sur les bras, les jambes, les hanches. Elle se faisait du mal ; elle s’est fait du mal.

Elle s’est enfermée dans cette souffrance. Elle partageait de moins en moins de choses avec nous et elle se réfugiait dans son téléphone, sur les réseaux sociaux, notamment sur TikTok. TikTok, qui laisse des vidéos de jeunes prônant le suicide avec, on en parlait tout à l’heure avec Christina, un commerce qui se met en place : des chanteurs, des rappeurs postent des chansons qui prônent le suicide. Il y a une chanson d’un rappeur français, dont le titre est « Dernière tentative ». Je ne vous lirai pas toutes les paroles, mais en voici quelques lignes : « Lame de rasoir, première ouverture, deuxième ouverture, troisième ouverture / Fait pleurer mon sang sur la couverture, frérot c’est dur / Mais cette fois c’est sûr… / Que ce soir, j’fais ma dernière tentative / À l’heure où tu m’écoutes, je serai parti / Ouais, c’est ma dernière tentative. » TikTok laisse ce genre de contenus être diffusé. Et nos jeunes savent bien déjouer les pseudo-censures pour pouvoir les lires et eux-mêmes contribuer en publiant leurs propres vidéos de leur détresse.

Tout cela, nous l’avons découvert trop tard. Elle passait des heures à consulter des contenus de scarification, d’anorexie ou de suicide. Jamais, jamais TikTok ne lui a proposé une solution. TikTok lui a simplement offert un miroir sombre, dans lequel sa douleur se reflétait. Voilà ce que la plateforme lui a offert. Elle tombait sur des témoignages de jeunes en souffrance comme elle, et qui banalisaient l’acte de se faire du mal, y compris le suicide. Certains contenus expliquaient comment faire. Nous, nous avons vu un contenu sur le suicide par pendaison qui expliquait, chronologiquement, au bout de combien de secondes on commence à perdre conscience. Voilà ce qu’on trouve sur TikTok : des tutos pour savoir comment se suicider.

Elle est rentrée doucement dans ce mouvement de sadfishing, comme disent les jeunes – c’est un mouvement pour montrer sa tristesse sur les réseaux. Elle a montré elle-même ses scarifications. Elle participait. C’est ce qui est tout de même incroyable. Non seulement une multitude de contenus abreuve nos enfants par le biais du téléphone, mais ils en publient aussi : ils se filment, ils filment leur souffrance. Tout cela alimente cette communauté du mortifère. Voilà ce qu’est TikTok.

Nous l’avons encadrée du mieux possible. Elle a fait deux séjours au centre hospitalier universitaire Saint-Jacques à Nantes, spécialisé dans l’accueil des jeunes. Elle y a été très bien reçue. Nous l’avons bien sûr fait suivre par des psychologues et des psychiatres. Là, nous pourrions aussi discuter de l’accompagnement des parents dans la thérapie de leurs enfants. Parce que même si votre enfant de 16 ans n’est pas majeur, vous ne pouvez pas obtenir le contenu des séances avec le psy. Cela relève du secret médical. Donc, nous sommes tout seuls. Nous n’avons pas d’aide, même de la part du corps médical. Durant son séjour dans cet hôpital, on lui a même permis d’utiliser le téléphone. Jamais la question des effets néfastes du téléphone dans sa thérapie n’a été abordée. Si cela se trouve, elle continuait, lorsqu’elle était à l’hôpital, à visionner ce genre de contenus.

Face à nous, il y a un algorithme et il est bien plus fort que nous, les parents ; il est plus fort que l’accompagnement que l’on peut donner à ses enfants. Cet algorithme la renvoyait jour après jour à sa douleur et il creusait de plus en plus le trou dans lequel elle tombait. Nous, ses parents, nous n’avons jamais pu contrôler les contenus. Parce que, si vous dites à un enfant qui est en souffrance psychologique « Je vais t’enlever le téléphone », vous mettez le feu à la forêt ! Nous vivions dans la peur qu’elle se suicide. Elle a fait quatre tentatives. Elle a ingurgité quinze Doliprane, parce qu’elle avait vu des contenus expliquant qu’il fallait faire comme ça – c’était sa première tentative. Elle est partie avec les pompiers plusieurs fois. Et même dans le camion des pompiers, elle se filmait, un peu comme un trophée, en disant « Je ne suis pas morte », mais voilà, cela alimente les réseaux ; cela alimente TikTok. Car c’est ça, TikTok ; il ne faut pas aller chercher plus loin, vous êtes tous des parents. C’est ça, TikTok.

Je terminerai en faisant part de mon expérience avec TikTok. Un peu avant le décès de Pénélope, j’avais ouvert un compte TikTok mais je n’y étais vraiment jamais allé. Je l’ai fait la semaine dernière pour préparer cette réunion. Je n’avais jamais rien publié ni rien « liké » : mon compte TikTok était vierge. J’ai commencé à taper « suicide » et TikTok alors fait apparaître sur mon téléphone un message de censure disant « Tu n’es pas tout seul. Voici le numéro de SOS Amitié. Ce n’est pas bien. » On voit là l’hypocrisie de TikTok : dans le langage TikTok, c’est l’emoji représentant le drapeau de la Suisse – une croix blanche sur fond rouge – qui est le mot pour parler de suicide : arrivent alors toutes les vidéos de suicide, sans censure, alors que l’algorithme a compris de quoi on parle, car l’intelligence artificielle (IA), aujourd’hui, lit et comprend les vidéos. On n’a jamais vu ça ! Si vous voulez parler de scarification, vous ne tapez pas : « scarification », mais « zèbre », et vous voyez arriver des vidéos. Si voulez parler d’anorexie, vous tapez #SkinnyTok. Vous avez un lexique à votre disposition sur Google. Vous pouvez faire vous-même l’expérience : si vous avez un compte TikTok, ouvrez-le. À midi, j’ai consulté le mien, où j’ai « scrollé » quinze vidéos qui ne parlaient que suicide, avec des messages comme : « J’en ai marre de la vie » et « Je serai mieux quand je serai morte », avec des musiques correspondantes. Il y a tout un environnement pour que l’enfant soit addict à tout cela, qu’il entre dans cette communauté, dans cette spirale néfaste, délétère. Il est pris au piège. C’est une addiction et TikTok est un prédateur. En quelques clics, l’algorithme a compris que je m’intéressais au suicide et ne m’envoie donc que des infos sur le suicide. Voilà ce qu’est TikTok.

Il est un autre point important à souligner devant vous, mesdames et messieurs les députés, vous qui votez les lois. Nous avons en face de nous une force politique chinoise, et peut-être russe, qui est en train d’abrutir nos gamins. Projetezvous à vingt ans : notre jeunesse, qui est aujourd’hui en souffrance – depuis le covid, un jeune sur deux présente des troubles psychologiques plus ou moins importants –, notre jeunesse que nous biberonnons à TikTok et aux vidéos, nous dirigera dans vingt ans. Or c’est la première fois dans l’histoire de l’humanité qu’une génération a un quotient intellectuel (QI) inférieur à celui de ses parents. Ce n’est jamais arrivé –l’humanité a toujours connu une croissance du QI, de l’intelligence. Aujourd’hui, vos enfants font leurs devoirs scolaires avec de l’IA : il n’y a plus de notion de rédaction ou de réflexion. Pourquoi permettons-nous cela ? Voulons-nous faire de nos enfants des crétins ? Il faut nous dire que nous sommes en guerre. Ce TikTok-là est une arme politique pour nous asservir. C’est une question parallèle à celle qui nous occupe aujourd’hui, mais c’est une réalité.

Si ma fille avait eu ces problèmes voilà vingt ans, je ne sais pas si elle serait morte. Je ne dis pas que c’est TikTok qui l’a tuée, mais TikTok y a fortement contribué. Aujourd’hui, elle est morte, et notre vie s’est arrêtée avec elle. Cependant, nous ne sommes pas là uniquement pour raconter notre douleur, mais pour vous demander, puisque nous sommes, avec vous, au cœur du réacteur, d’empêcher que d’autres parents traversent la même douleur que nous. Il faut encadrer ces plates-formes, les contrôler, les interdire peut-être jusqu’à 16 ans –mais 16 ans, c’est encore très jeune, on manque de maturité, ce n’est pas encore l’âge de prendre du recul, et encore moins quand on a un problème psychologique.

Il y a urgence. C’est votre devoir, individuellement et collectivement. C’est vous qui pouvez nous aider. Il faut urgemment faire quelque chose. Il faut légiférer et interdire. Il faut condamner financièrement TikTok si des contenus inappropriés sont envoyés à nos enfants mineurs. Touchez-les au portefeuille et interdisez que des enfants de 13 ans puissent y aller. Faites passer des spots à la télé pour mettre les parents en éveil face à ces dangers et prenez de bons exemples. Il y a urgence.

Il faut aussi que vous nous donniez des outils pour protéger nos enfants. Il faut que TikTok assume ses responsabilités, car ces algorithmes ont plus d’influence sur nos enfants que nous-mêmes, et ce n’est plus acceptable.

M. le président Arthur Delaporte. Aujourd’hui, le législateur vous a, sinon entendus, du moins écoutés.

L’audition est suspendue de seize heures à seize heures quinze.

Mme Morgane Jaehn, mère de Zoé. Je vais vous raconter l’histoire de ma fille adolescente, qui résonne énormément avec celle des enfants dont on a parlé précédemment. En décembre 2020, elle est en quatrième. Elle a son premier téléphone, qu’elle attendait depuis longtemps. Deux mois après, elle installe TikTok. Au cours de l’année, elle voit des contenus, des chansons qui lui plaisent puis, petit à petit, des chansons tristes, puis encore, au fur et à mesure du fonctionnement de l’algorithme, elle tombe dans des contenus morbides, horribles, qui lui donnent des techniques pour se scarifier, pour perdre du poids, pour se suicider. Évidemment, je n’avais absolument pas conscience de tout cela à l’époque.

Son état de santé se dégrade. En septembre 2022, première hospitalisation. Elle vient d’entrer au lycée. Très vite, elle est mise dehors par l’hôpital, où on lui dit que c’est un mal-être fluctuant. Elle enchaîne ensuite les hospitalisations. En un peu plus de deux ans, elle sera hospitalisée à six reprises, pour un total de vingt-six semaines, soit une demi-année. Quand on a 17 ans, c’est énorme.

Je lui ai même dit un jour : « Ça suffit, maintenant ! Tu vas me faire tout le catalogue du mal-être adolescent ? » Elle l’a mal pris, mais, quand on est parent, on veut parfois faire réagir notre enfant.

Je me demandais comment elle apprenait tout cela, et je pensais qu’elle devait aller sur des forums. Mais, les forums, c’est le temps jadis ! J’étais complètement à côté de la plaque. J’aurais dû me douter qu’elle allait trouver des contenus sur les réseaux sociaux, mais mon esprit, plutôt bienveillant et Bisounours, ne pouvait pas imaginer que, sur des réseaux auxquels nos enfants ont accès si facilement, il puisse y avoir de tels contenus. L’année dernière, quand j’ai entendu maître Boutron-Marmion déclarer à la radio qu’elle allait monter un collectif de parents, ma fille était par hasard à côté de moi. Je lui ai dit : « Mais toi, quand même, tu n’as jamais vu ça ! ». J’ai son visage se décomposer et elle m’a dit que si. Là, c’est votre vie qui s’effondre.

En même temps, vous commencez à avoir une clé pour comprendre ce qui ne va pas, pour remonter son histoire. Comme les autres enfants, elle a été victime de harcèlement au collège. Du harcèlement très larvé, pas du tout identifié – nous avons mis deux ans à comprendre que c’était du harcèlement. Elle avait donc, au début, un mal-être, qui s’est vraiment amplifié avec les réseaux sociaux – spécifiquement TikTok. Ce harcèlement a entraîné une sorte de stress post-traumatique. Elle a été diagnostiquée borderline. Or les borderline ont une très faible estime d’eux-mêmes et ont du mal dans les relations interpersonnelles. Il ne faut donc pas s’étonner qu’ils cherchent des communautés sur les réseaux. Ils pensent qu’ils ne méritent pas d’exister, ressentent un grand vide en eux et, souvent, tentent de mettre fin à leurs jours.

Évidemment, ma fille ne m’a jamais parlé de tout cela. D’une part, elle avait honte et elle voulait me protéger – car un enfant, un ado, ça veut protéger ses parents, et c’est difficile de parler de toutes les horreurs. Et puis, elle a aussi reconnu que, d’une certaine manière, elle se confortait dans ce mal-être. Cet algorithme surpuissant est une forme de harcèlement car l’enfant ou la personne qui consulte n’a pas forcément demandé à voir ces contenus qui, à force, banalisent la mort et l’automutilation. Se pendre devient une option comme une autre, comme aller chez le psy ou acheter un paquet de bonbons. Ma fille était devenue addict, non pas aux réseaux sociaux, mais aux contenus mortifères. Il me semble qu’il y a là une petite nuance.

Quand j’ai découvert le pot aux roses, j’ai installé le contrôle parental de TikTok sur l’appli, ce qui supposait que j’installe moi-même l’appli en suivant un parcours très sinueux. J’avais négocié avec ma fille une durée d’utilisation d’une demi-heure. Elle me disait que, de toute façon, si on lui enlevait l’appli, elle trouverait des façons de la remettre. Or, au lieu d’une demi-heure par jour, j’ai constaté en consultant l’appli qu’elle pouvait y passer une heure. Il y a là quelque chose que je n’ai pas compris et que personne n’a su m’expliquer.

Je me suis énormément projetée dans les témoignages des autres parents car, tous les matins, je me lève avec la boule au ventre. Quand je l’appelle, j’ai toujours peur de son silence. J’ai peur qu’elle ne me réponde pas. Je monte les escaliers en tremblant pour voir si elle est là, si elle ouvre les yeux. On devient un peu parano. Si votre enfant ne vous répond plus, c’est qu’il lui est arrivé quelque chose. Et puis, comment faire pour aller travailler la boule au ventre ? Il faut lui faire confiance, mais vous avez toujours tellement peur ! C’est une peur qui ne vous quitte pas.

Nous, parents, sommes responsables du téléphone que nous mettons entre les mains de nos enfants, mais nous ne sommes pas coupables des contenus auxquels ils sont exposés, de ce qu’ils voient.

Il s’agit aussi d’un problème de société beaucoup plus large : celui de la prise en charge de la santé mentale. Si nos enfants, quand ils ont mal, pouvaient trouver plus facilement des interlocuteurs, s’il y avait plus de pédopsychiatres et de structures, peut-être éviterait-on à certains de sombrer dans les algorithmes. Nous avons besoin de places en hospitalisation et de médecins qui soient au courant de ce que vivent nos enfants, de ce qu’ils voient sur les réseaux. Comme je l’ai dit, ma fille a connu vingt-six semaines d’hospitalisation. Lorsqu’elle n’était pas hospitalisée, elle était suivie par des psychologues et des psychiatres, mais jamais personne ne lui a demandé ce qui se passait sur les réseaux. Il ne s’agissait pas du harcèlement, mais de lui demander si elle avait été exposée à des contenus qui lui auraient fait peur ou qui lui auraient donné des idées. Jamais personne ne lui a demandé.

Alors, je mène la croisade et j’en parle à tous ceux que je vois. J’ai vu des soignants et des psychologues ouvrir des grands yeux de hibou en disant que ce n’était pas possible. On dit que nos jeunes vont plus mal en période post-covid, mais peut-être y a-t-il une réponse à trouver de ce côté-là. Quant aux errances médicales dont il a été parlé tout à l’heure, c’est long ! On nous culpabilise, nous parents, en nous disant que nous surprotégeons nos enfants, que nous devons les lâcher et qu’il faut qu’ils vivent leur jeunesse, mais qu’est-ce que c’est que vivre sa jeunesse ? Se scarifier et se pendre dans sa chambre ? Quand vous êtes parents, vous vivez dans l’angoisse la plus totale, vous ramassez toutes les cordes, toutes les ceintures et toutes les ficelles de peignoir qui traînent chez vous. Vous mettez tous les médicaments sous clé et, devant la moindre vitamine C, vous vous dites : « Et si jamais… » Malgré tout, ils arrivent à leurs fins. Il est important que les médecins prennent conscience de ce qui se joue là.

Troisième point : à l’école, personne – ni les profs ni les enseignants d’élémentaire – n’est au courant. Personne ne sait à quoi sont exposés les élèves. Je suis sûre que 95 % des ados qui sont au collège ou au lycée tombent sur ces contenus. Peut-on également parler du fait que certains collèges obligent les enfants, à l’entrée en sixième, à avoir une tablette ou un ordinateur portable pour récupérer les devoirs sur le bureau numérique ? Une collègue me disait : « Tu te rends compte, on a obligé mon fils à avoir une tablette, et maintenant, tous les jours, c’est la guerre, parce qu’il veut sa tablette pour aller sur les réseaux sur Internet. » Il faut nous demander si nous ne pouvons pas revenir au bon vieux cahier de texte ! J’aimerais vraiment parler de tout cela avec le ministère de l’éducation nationale, car nous avons beaucoup de questions à leur poser à ce sujet.

S’ajoutent évidemment à ces mécanismes, comme cela a également été dit, des problèmes de concentration, parce que le système de dopamine lessive le cerveau de nos enfants. Une maman qui me disait que son fils n’avait même pas pu regarder le match de foot jusqu’au bout et à qui je répondais que ce n’était pas très grave, m’a expliqué que c’était parce qu’il n’avait plus assez d’attention pour cela et qu’il ne parvenait plus à regarder un film de Disney en entier. Au-delà des contenus, posons-nous donc aussi la question de savoir ce qu’on fait du cerveau de nos enfants.

Je terminerai avec un petit sondage informel que j’ai effectué autour de moi, de façon anonyme, avec l’aide d’amis et de collègues, auprès d’élèves entre le CP et le CM2 sur leur accès au téléphone. Des chiffres circulent mais, lorsque j’en parle avec les enfants, je constate qu’ils en ont tous. Il faut voir la réalité des choses. Ce sondage est, je le répète, informel et comporte certainement des biais mais il révèle qu’en CM2, 70 % des enfants ont leur propre téléphone. Au total, plus de 80 % des enfants ont accès à un appareil, que ce soit le leur ou celui d’un proche. En CM2, 75 % des enfants déclarent aller sur les réseaux sociaux. Même s’il faut enlever à ces chiffres 10 % à 20 %, vous rendez-vous compte de la proportion ? Le réseau le plus regardé est, de loin, YouTube, puis Snapchat, puis TikTok, avec 25 % : il y a là un petit problème de chiffre car, à l’école élémentaire, les enfants ont moins de 13 ans. Comment est-ce possible ?

On voit aussi de plus en plus de parents mettre leur téléphone entre les mains des plus petits, pour les occuper. Cela m’inquiète, car il s’agit alors du téléphone des parents, qui ne s’imposent pas à eux-mêmes un contrôle parental pour le cas où ils le prêteraient à leurs enfants ! Il y a, là aussi, des questions à se poser. En tant que citoyens, nous devons donner l’alerte autour de nous. Les gens sont plutôt réceptifs à ce que nous disons. Ils ne se rendent pas compte et tombent du cocotier, comme je l’ai fait moi-même un mardi matin.

Même si ma fille semble aller un petit peu mieux aujourd’hui, je pète de trouille à longueur de temps.

Mme Virginie Guguen, mère d’Élisa. Merci de nous écouter, car je me doute qu’au bout de huit heures d’écoute, vous n’en pouvez plus.

M. le président Arthur Delaporte. Permettez-moi de vous interrompre : au contraire, nous sommes là pour vous et nous prenons le temps qu’il faut.

Mme Virginie Guguen. Je comprends bien que c’est long et répétitif, mais c’est à peu près ce que tous nos enfants ont vécu. Pour ma part, je n’ai pas seulement une fille qui en a souffert, mais deux : une qui avait 13 ans et une qui en avait 18.

Cette dernière était venue faire ses études en région parisienne et se sentait seule. Elle s’est mise sur les réseaux sociaux et s’est fait avoir par un pervers qui s’est installé chez elle, qui a récupéré tous ses réseaux et qui avait accès à tous ses comptes. Chaque fois qu’elle venait nous rendre visite en Bretagne, il lui disait qu’il allait se faire passer pour elle, qu’il allait dire à tout le monde des choses horribles et que, comme ça, tout le monde allait la détester. Il avait même accès à son compte bancaire. La dernière fois que ma fille est revenue à son appartement, elle était heureusement accompagnée du meilleur ami de sa sœur, car le pervers en question l’attendait avec un marteau et une masse qu’il avait achetés exprès pour la tuer. (Mme Virginie Guguen montre une photographie.) Ça, c’est ma grande. Heureusement, elle est encore en vie, et je remercie le meilleur ami de sa sœur, qui est vraiment un amour et qui l’a sauvée.

J’ai aussi ma petite puce, qui aura 16 ans au mois d’août. (Mme Virginie Guguen montre une deuxième photographie.) On m’a forcé la main pour qu’elle ait un téléphone et un ordinateur dès l’entrée en sixième, alors que j’étais totalement contre. J’ai cinq enfants, dont des triplées – ma grande, qui s’est fait avoir, est l’une des trois. On me reproche – je l’ai entendu tant et plus – d’être une mauvaise mère ou on me dit que je suis trop mère poule, mais dès que vous demandez de l’aide, on vous dit que c’est la faute de la mère. Merci, Freud ! Les soucis commencent lorsque vous découvrez que vous n’avez pas le choix et que vous êtes obligée de donner un téléphone à votre fille, alors que, pour les grandes, vous avez tenu jusqu’au lycée.

J’ai toujours fait énormément de choses avec mes enfants et les écrans n’apparaissaient que de temps en temps, pour voir un DVD – il n’y avait pas de télévision dans la salle à manger. C’est peut-être extrême mais, ayant grandi moi‑même avec la télévision, je m’étais dit qu’il valait peut-être mieux faire des activités ensemble, sortir, se promener.

Au bout du compte, malheureusement, ce n’est pas tellement mieux. Au collège, les choses ont changé peu de temps après qu’elle ait eu son téléphone. Nous y avions pourtant installé tout ce qu’il fallait, avec un contrôle parental et des règles : un temps d’utilisation convenu et l’interdiction de s’inscrire sur les réseaux sociaux, parce que nous la trouvions trop jeune pour cela. Nous essayions de surveiller un peu son utilisation sans être trop intrusifs – parce qu’on nous demande à la fois de respecter la vie privée de l’adolescent et de surveiller ce qu’il fait, ce qui n’est pas simple. Progressivement, j’ai vu ma fille changer, elle qui était très joyeuse et qui avait un sacré caractère – et il en faut pour se faire sa place avec trois grandes sœurs du même âge. Je ne sais pas si vous avez déjà imaginé ce que c’est que d’avoir des triplées. Ça prend énormément de place, les gens ne font attention qu’à elles. La puce s’est battue pour avoir sa place et a toujours eu le mot, même avec son papa. Combien de fois elle l’a mouché avec des petites phrases comme : « Tu sais, papa, tu devrais mettre une casquette, parce que, là, il n’y a plus beaucoup de cheveux et tu vas prendre un coup de soleil » !

Elle avait un sacré caractère, mais je l’ai vue changer. Elle dévorait des romans, comme Tolkien, Harry Potter ou Héros de l’Olympe, des pavés de 600 pages, et peu de temps après avoir eu son téléphone, c’était fini. Dans notre famille, nous avons toujours dévoré les livres mais, pour ma fille, du jour au lendemain, c’était fini. Je l’ai vue se renfermer. Nous étions pourtant très complices, très proches. Avec les triplées, j’avais l’impression de faire un boulot à la chaîne – j’avais à peine fini avec l’une qu’il fallait que je reprenne avec l’autre. J’ai plus profité de ma petite dernière et nous étions donc très liées mais, du jour au lendemain, c’était fini : plus de conversations, de petits moments ensemble ni d’activités manuelles. Plus de patience pour quoi que ce soit. Elle était toujours sur la défensive, énervée ou triste. Avant, elle pouvait tout me confier et, du jour au lendemain, c’était fini.

J’ai mis cela tout de suite sur le compte du téléphone. J’ai demandé de l’aide. On m’a dit que ce n’était rien, que c’était l’adolescence et que ça allait passer, ou on m’a servi le fameux : « C’est dans votre tête, madame », que j’entends depuis des années.

Le 19 janvier 2023, mon chéri reçoit un message d’un inconnu qui lui dit : « Votre fille se scarifie et, en plus, elle a fait plusieurs tentatives de suicide. » Pour preuve, il envoie des photos de ma fille sur les toilettes, scarifiée du haut en bas. Je peux vous dire que, quand vous recevez ça, votre monde s’écroule. Votre petite puce – même si ce n’est plus un bébé, car elle a grandi –, c’est fini. Vous avez l’impression qu’il s’est passé quelque chose et que vous n’avez rien vu. Nous n’avons quasiment pas fermé l’œil de la nuit. Nous avons essayé de déverrouiller le téléphone, alors qu’elle n’avait en principe pas le droit de le verrouiller ou d’y mettre un code, mais nous n’avons pas pu. Nous nous sommes demandé toute la nuit ce que nous avions fait de mal et pourquoi elle en était arrivée là.

Le lendemain matin, nous l’avons levée comme si c’était l’heure d’aller au collège, et nous lui avons expliqué que nous avions reçu ce message avec des photos. Elle s’est refermée comme une huître, et c’était fini. Nous lui avons dit que c’était trop grave et qu’il fallait que nous fassions quelque chose, parce que nous ne pouvions pas la laisser comme ça. Notre premier réflexe a été de l’emmener en urgence chez notre médecin de famille, qui a essayé de lui parler. Nous lui avons même proposé de sortir et de la laisser seule avec le médecin, mais elle n’a rien voulu dire ni montrer ses cicatrices. Nous étions complètement traumatisés. Le médecin nous a regardés et a regardé notre fille, puis il lui a dit : « Maintenant, regarde comment sont tes parents. Ils ont peur pour toi. On voit qu’ils sont complètement traumatisés. Ils vont t’emmener aux urgences, parce que ce n’est pas normal de se faire du mal comme ça. Il faut qu’on sache pourquoi tu fais ça et qu’on vérifie que tu n’as rien de grave. »

Et c’était parti pour un enchaînement qui m’a paru durer une éternité. Les mesures liées au covid étaient toujours en vigueur et un seul parent était autorisé à rester. Je suis donc restée avec ma fille. Les médecins lui ont dit qu’il fallait qu’ils l’examinent et qu’elle n’avait pas le choix, mais qu’elle pouvait choisir de respirer un gaz pour se détendre. Elle a fini par accepter.

D’après l’inconnu auteur du message, elle avait, en plus, avalé sept comprimés de paracétamol. Les médecins ont vérifié en faisant des prises de sang et autres examens. C’est à ce moment qu’ils ont retroussé ses manches. C’était la première fois que je voyais ses cicatrices. Au collège, j’ai remarqué qu’elle changeait d’attitude dans sa façon de s’habiller, qu’elle était toujours couverte. Elle qui aimait les couleurs ou les paillettes, ne portait plus que du noir et était couverte des pieds à la tête. Je pensais que c’était seulement à cause des réflexions des autres, mais ce n’était pas ça. Quand j’ai vu les cicatrices, mon monde s’est écroulé. Je me suis effondrée. J’étais en larmes. J’ai passé ma journée entière à pleurer. J’avais déjà pleuré quasiment toute la nuit et je n’ai pas arrêté depuis. Je ne pensais pas que c’était à ce point-là.

Quand elle reçoit le gaz, j’en profite pour lui soutirer le code de son téléphone – je sais que ce n’est pas bien mais il fallait que je comprenne pourquoi. Elle m’a donné le code et on a découvert d’où ça venait : de TikTok – toutes ces vidéos dont vous ont parlé les autres parents ; toutes ces horreurs, sans compter les pervers qui avaient contacté ma fille. L’un d’eux, qui était fétichiste des pieds, lui a demandé s’il pouvait venir à la maison en notre absence pour lécher mes chaussures. Un autre lui a fait croire qu’il était amoureux d’elle ; elle l’a cru au point qu’elle lui a envoyé des photos et des vidéos d’elle nue – elle n’avait que 13 ans ! Il lui envoyait tous les jours des messages pour lui demander des photos et des vidéos d’elle nue, usant du chantage affectif : « mais tu sais, je t’aime, on est en couple, toi tu n’y connais rien encore, je vais t’apprendre » ou du chantage pur et simple : « De toute façon si tu ne me donnes pas ça, je vais demander à une autre. J’en ai une autre de 10 ans qui, elle, accepte. » Au secours !

M. le président Arthur Delaporte. Ces échanges se faisaient par le biais de TikTok ?

Mme Virginie Guguen. J’ai 8 kilos de preuves si vous voulez, ce que j’ai pu sauver de son téléphone avant qu’elle efface – il lui a demandé d’effacer leurs conversations. J’ai pris en photo tout ce que j’ai pu.

J’ai aussi trouvé un planning qu’elle s’était fait. Cela disait : premier jour, tant de cachets, pas encore morte ; deuxième jour, tant de cachets, toujours pas morte. C’est horrible. On a l’impression de plonger de plus en plus dans l’horreur. Votre petite fille, votre petite princesse, vous pensez juste qu’elle est en crise d’adolescence ? Et ben non, c’est encore pire.

J’ai passé la nuit du jeudi à fouiller tous les placards, à ramener dans ma chambre tous les médicaments. Je me balade avec un trousseau de clés énorme car je mets tout sous clé. Je suis terrorisée. Après une journée passée à l’hôpital avec ma fille, on m’a dit : « Surveillez-la comme le lait sur le feu ; quand on aura de la place en unité psy – il n’y a que cinq lits pour les adolescents –, on vous rappelle ». Vous rentrez chez vous la boule au ventre, vous êtes mort de trouille. Vous regardez dans le téléphone et vous voyez tous les contenus horribles, tout ce que le pervers a pu lui demander – il lui a demandé de se filmer et de se prendre en photo quand elle avait ses règles, quand elle changeait de serviettes. Des exemples comme celui-là, j’en ai 8 kilos, je l’ai dit. C’est affligeant.

TikTok est censé proposer du contenu ludique et amusant. Moi qui suis handicapée et mère de famille, je peux faire nettement mieux que ce qu’ils proposent. J’en ai fait des activités manuelles avec les enfants. TikTok, c’est juste ce qu’il y a de pire au monde. Et les autres plateformes ne sont pas mieux.

Autre problème, je me suis rendu compte que ce fameux pervers avait accès à ma fille, non pas seulement par le téléphone mais aussi par l’ordinateur, par sa messagerie et par les consoles de jeux, parce que malheureusement tout est connecté désormais. Vous avez beau installer le plus cher des logiciels de contrôle parental, ça ne sert à rien. Les gamins se passent les trucs entre eux pour contourner les contrôles. Donc qu’est-ce que vous voulez qu’on fasse ? Lors de son séjour en unité psy, ils nous ont dit : « On n’a rien pu tirer d’elle », et quand vous leur demandez conseil, ils suggèrent d’essayer la musicothérapie ou l’art-thérapie. J’ai appelé tous les numéros d’aide que j’ai pu trouver pour ce genre de cas. Chaque fois, on m’a répondu : « Qu’est-ce que vous voulez qu’on y fasse, madame ? ». Je suis allée au CMP – centre médico-psychologique –, où on m’a dit « Vous êtes une mère trop possessive, vous êtes trop sur son dos ; c’est rien, c’est l’adolescence, ça va passer. » La psychologue du CDAS – centre départemental d’action sociale – a mis entre les mains de ma fille le contrat suivant : cinq séances, ensuite, si tu n’as plus envie de venir, c’est fini. Ma fille n’a rien dit. La psy m’a dit : « Vous savez, les scarifications, c’est rien, c’est un effet de mode, ça va passer. » Un effet de mode ! Ma fille était scarifiée de la tête aux pieds, elle avait tout le corps lacéré, et, aujourd’hui encore, je pense qu’elle continue.

Je ne suis même pas sûre qu’elle n’est pas encore en contact avec le pervers parce que je ne peux plus contrôler. Elle aura 16 ans au mois d’août, c’est difficile. Quand elle avait 13 ans, je pouvais encore dire : « Je vérifie ce que tu mets parce que je m’inquiète. » Maintenant elle me répond : « J’ai le droit à une vie privée. » On nous demande à la fois de surveiller nos enfants et de leur laisser le champ libre parce qu’ils ont le droit à une vie privée. Je ne sais pas comment faire. Si vous avez des solutions, je suis preneuse. J’ai emmené ma fille à l’art-thérapie, et au final, c’est moi qui ai fini par faire les séances. Malheureusement, elle dessinait ce qu’elle pensait que l’art-thérapeute attendait. L’art-thérapeute est géniale, elle m’aide beaucoup. C’est très lourd à porter quand on a deux enfants qui sont dans cet état-là, sans compter le papa qui se planque derrière son état de choc, et qui est aussi addict que les enfants. Vous avez l’impression de vivre avec des zombies avec l’écran bleu. Et dès que vous dites non, malheureusement on vous rétorque : « Ben papa il est bien sur son écran, lui ! »

On me rappelle à l’ordre, donc je vais laisser ma place mais j’espère que vous changerez les choses.

Mme Gaëlle Berbonde, mère de Juliette. Je vais vous parler de ma fille, qui, jusqu’à la classe de cinquième, était une enfant gaie, sociable, très curieuse, très bonne élève. Elle faisait plein d’activités – de la musique, de la danse, du théâtre – ; elle était invitée à tous les anniversaires ; bref, une vie normale.

Elle était aussi très hardie pour défendre ses droits dans la famille et ceux de son frère, qui a deux ans de plus qu’elle. Elle avait construit un argumentaire extrêmement concret et sans faille pour avoir un téléphone en classe de cinquième. Nous achetons ce téléphone et je crois qu’elle rédige une notice d’usage familial du téléphone énumérant les droits et les engagements des parents et des enfants ; elle nous demande d’installer un contrôle parental. On se dit alors que nous avons des enfants très raisonnables ; on a toujours eu des enfants très raisonnables ; d’ailleurs, on est une famille très raisonnable. On prend un forfait à 2 euros, donc les données numériques ne sont accessibles qu’à la maison. Le wifi s’éteint à 21 heures et mon mari contrôle l’installation de sites.

En début d’année de cinquième – on ne fait pas tout de suite le lien –, l’endormissement commence à être un peu compliqué. Je le rappelle, l’extension des feux a lieu à 21 heures. À la rentrée, la famille connaît des problèmes de santé – cancer chez son grand-père et chez moi, Alzheimer chez ma mère.

Au mois d’avril, la prof de danse classique de ma fille nous m’envoie un message dans lequel elle parle de scarifications sur tous les bras. Effectivement, nous avions constaté les habits qui s’allongent, plus jamais de manches nues, cette humeur qui devient taciturne, beaucoup d’excitation avec les copines et plein d’histoires hypercompliquées. Mon mari et moi nous disons : « C’est ça, l’adolescence. » Je vous avoue que, moi je suis dans la maladie, c’est compliqué. Du fait des scarifications, on commence un suivi psy.

Pendant l’année de cinquième, elle commence à nous parler du DSM – Diagnostic and Statistical Manual of Mental Disorders, ou Manuel diagnostique et statistique des troubles mentaux – et de la théorie du genre – je le rappelle, elle a 12 ans.

En quatrième, au mois de novembre – je me souviens parfaitement de la date puisque c’était la fin de ma chimio et mon mari et moi sortions pour la première fois –, elle était seule à la maison avec son frère, elle fait une tentative de suicide en avalant dix Doliprane. Dans un sursaut, elle appelle elle-même les pompiers et elle est sauvée. Commence alors la peur au ventre, tous ces jours à surveiller les objets contondants et à se demander ce qui va se passer.

Au début de l’année suivante, je constate qu’elle a certainement perdu un tout petit peu de poids. Jusque-là, ses courbes étaient tout à fait normales. Nous allons chez le médecin et effectivement elle a perdu quelques kilos. En l’espace de quatre mois, elle passe à 35 kilos pour 1 mètre 70 environ. Commence une période d’hospitalisation qui va durer un an. Elle est dans un état de dépression profonde ; elle ne s’alimente plus du tout, donc elle est nourrie par sonde. Pendant toute cette période, elle est déscolarisée. À la fin de sa troisième, année qu’elle a faite partiellement dans un établissement soins-études, ça va mieux.

À cette époque, je me dis : « Il y a un truc qui ne va pas. » Je lis des articles sur le procès contre TikTok aux États-Unis et cet enchaînement : scarifications, tentatives de suicide, anorexie. J’en parle à l’époque aux équipes de soins, qui balayent mes interrogations en me disant : « Ça se saurait. »

J’entends parler d’Algos Victima, donc je comprends que je ne suis pas folle en fait. Et là, c’est comme si on refaisait l’histoire à l’envers, notre fille nous dit qu’en cinquième, elle était la seule à ne pas avoir TikTok. Dès qu’elle a eu son téléphone, elle s’est mise sur TikTok et, là, la spirale a commencé – je n’y reviens pas, c’est toujours la même. Nous nous mobilisons au sein du collectif, alors que notre fille va mieux, en pensant à tous les autres enfants.

À l’heure où je vous parle, ma fille a fait une rechute, elle est à nouveau hospitalisée. Elle sort ce soir, et j’ai cette peur au ventre en pensant que demain, potentiellement elle va rester toute seule à la maison.

Je voudrais revenir sur les parents. Dans notre famille, il n’y a pas de tablette. Nous avons un téléphone comme tout le monde pour téléphoner et pour quelques usages professionnels. Nous avons une télé au grenier, donc jamais allumée. Nous ne sommes pas sur les réseaux sociaux, nous ne connaissons pas. Notre fils joue un peu aux jeux vidéo, mais plutôt d’une façon assez raisonnée et raisonnable.

Quand ma fille était à l’hôpital, j’étais morte de peur parce que, il faut le savoir, un enfant déscolarisé, a fortiori à l’hôpital, a beaucoup de temps et selon les établissements, les téléphones sont autorisés ou non. J’ai constaté aussi que certains établissements mettent à disposition du wifi. On m’a expliqué que c’était parfois un critère de notation des établissements hospitaliers et qu’au nom de la liberté du patient, on ne peut pas interdire les téléphones. Dans son lieu d’hospitalisation actuel, les téléphones sont autorisés tous les jours de 16 heures à 23 heures.

Vous avez certainement auditionné le docteur Servane Mouton. Toute la littérature est absolument explicite : au-delà des réseaux sociaux, il y a juste l’écran. Notre posture en tant que parents consistait à dire que les réseaux sociaux, c’est bête, ce sont des contenus stupides – c’était notre a priori. Mes parents disaient la même chose de la télé, alors évidemment j’avais envie de la regarder la télé, donc j’allais chez mes copines et je regardais Dallas et même assez tardivement Hélène et les garçons. C’était stupide mais ce n’était pas létal.

Pourquoi avons-nous accédé à la demande d’un téléphone ? Parce qu’en cinquième, le monde scolaire et social était totalement organisé autour du téléphone. Les devoirs, la vie de classe, les plannings de répétition pour la danse et la musique, toute l’organisation de la vie sociale, les anniversaires, etc. : tout se passait sur mon téléphone et à un moment, ma fille a manifesté une volonté de s’autonomiser.

Je constate, et cela a été le cas très récemment dans son aménagement de scolarité, qu’il n’y a plus de planification. Avant on savait planifier les choses, on savait écrire les choses, on savait se passer un coup de fil pour se mettre d’accord. J’invite à une réflexion sur une réelle décroissance digitale.

Je reviens sur les emplois du temps aménagés de nos enfants. Ma fille a fait une partie de sa classe de seconde en horaires aménagés. Ce qui générait le plus de stress pour elle était de récupérer les cours. Il y a beaucoup de digital et de numérique à l’école, mais il est impossible de récupérer de façon homogène les cours, et potentiellement les devoirs. J’en appelle à la responsabilité de chacun. Comment des adultes responsables peuvent, d’un côté, dépenser l’argent de l’État pour donner des ordinateurs aux enfants, avec l’effet létal que l’on sait, et de l’autre, ne pas utiliser ces supports numériques pour ce à quoi ils devraient servir, c’est-à-dire pour un enfant scolarisé en horaires aménagés, juste récupérer ses cours ? Cela a été impossible à mettre en œuvre dans une école par ailleurs très bien, comme si le devoir de l’enseignant ne comptait pas.

Ensuite, je voudrais vous parler un peu de l’hospitalisation. J’ai longtemps questionné les soignants autour de moi : comment pose-t-on un diagnostic compte tenu de toute la littérature sur le sujet – je pense à Génération anxieuse ? On sait, maintenant. Comment est fait le diagnostic quand un enfant vient consulter son médecin traitant pour un problème de sommeil ou pour des scarifications ?

J’ai constaté que le ministère de la santé et de l’accès aux soins avait publié un document présentant les critères de notation de l’addiction aux écrans. Néanmoins, il n’était connu d’aucune des équipes soignantes des nombreux établissements qui ont diagnostiqué ma fille.

Quel est le protocole de soins ? Les soins psy – par exemple, le psychodrame – sont-ils adaptés à la réalité à laquelle sont confrontés nos enfants ?

Et puis il y a l’accompagnement des parents. J’ai participé avec ma famille à un extraordinaire programme de thérapie multifamiliale. À aucun moment ce sujet, pourtant très clair et documenté scientifiquement, n’a été abordé.

Pour revenir au sujet de la nurse numérique, c’est-à-dire l’éviction du téléphone qui permet de créer un lien social, à l’hôpital, par exemple, les interactions entre les jeunes ont lieu pendant les périodes d’éviction du téléphone et, parfois, lors de la présence d’animateurs. J’en appelle à la responsabilité de tous les adultes responsables pour agir car, là, on a besoin d’agir.

En écoutant nos témoignages, qui sont similaires alors que nous venons d’endroits différents, je me suis rendu compte que le diagnostic du trouble borderline avait été évoqué à de nombreuses reprises. Je remets en question ce type de diagnostic. Il colle en effet avec les critères du DSM. Mais est-ce l’œuf ou bien la poule ?

J’en appelle également à la responsabilité du monde médical qui décide de la médication. Nos enfants qui ont traversé ces épreuves sont aujourd’hui sous drogues dures – ils en ont besoin – ; celles-ci entraînent une addiction. Je suis inquiète pour ma fille, pour son avenir et pour la dépendance à ces médicaments qu’elle pourrait avoir développée.

Pour paraphraser le docteur Servane Mouton, il faut sortir de l’hypnose collective. Les enfants et tous les adultes responsables sont hypnotisés. Il faut se réveiller et agir. Il faut promouvoir résolument l’éviction du téléphone. Dans Génération anxieuse, Comment les réseaux sociaux menacent la santé mentale des jeunes, le professeur Jonathan Haidt propose des mesures très concrètes et simples à mettre en œuvre à l’école et dans les lieux de soins. Sur le reste, il convient de légiférer et d’attaquer en justice les personnes malveillantes, car ce sont des bandits qui agissent de manière très organisée.

C’est un questionnement personnel : je ne vois pas comment on pourra éradiquer ce grand banditisme sans conditionner l’accès au numérique à la vérification de l’identité numérique, afin de savoir qui agit. C’est déjà le cas pour les applications bancaires et celles relevant de l’État. Je suis certaine que, mécaniquement, de nombreux actes commis de manière masquée ne pourraient plus l’être. Je ne vous cache pas que je n’ai pas réussi à créer mon identité numérique.

Du reste, nous avons évoqué la question de la complexité numérique. Mon mari travaille dans la tech, il gère la sécurité des réseaux de l’industrie du médicament. Il a donc une connaissance assez pointue des sujets technologiques. Or l’installation du contrôle parental, qui est d’une complexité innommable, lui a pris de nombreuses heures. J’en étais absolument incapable. Je ne vois pas qui dispose des compétences techniques pour le faire.

Mme Stéphanie Mistre. J’ai essayé d’installer Qustodio ; je ne comprends pas, je n’y arrive pas. Cela nécessite les compétences d’un ingénieur professionnel. Rien, et surtout pas le contrôle parental d’Apple, ne protège nos enfants.

Mme Gaëlle Berbonde. Enfin, ce qui est en jeu, c’est non seulement la santé mentale de nos enfants, leur santé tout court, mais c’est également leur capacité d’apprentissage, leur capacité à vivre en société, dans une société réelle et non virtuelle ; c’est leur sens critique – la démocratie est ici en jeu –, c’est leur sens des réalités et des nécessités vitales, c’est l’économie et l’écologie de demain – je n’entrerai pas dans des considérations d’ordre géopolitique –, c’est notre avenir tout entier. J’en appelle à un réveil national sur ce sujet. Évidemment, nous sommes là pour ça.

M. le président Arthur Delaporte. Je vous remercie pour la force de votre témoignage.

Mme Géraldine Denis, mère d’Édouard. Je tiens également à vous remercier de prendre le temps d’écouter nos témoignages, d’écouter ce que nous avons traversé en tant que parents d’adolescents qui ont été victimes de l’addiction aux réseaux sociaux.

Je suis la maman d’Édouard, qui était un adolescent comme les autres, un enfant joyeux, gai. Il a été victime d’un harceleur au collège car il était multi-dys – il rencontrait des difficultés d’apprentissage liées à la dyslexie. Le collège a écouté d’une oreille ce qu’on avait à dire. Il fait sa rentrée en seconde. Il se retrouve encore dans la même classe que ce jeune garçon, on arrive à le faire changer de classe.

Sur ce, notre fils aîné part étudier à Paris, il y a donc un vide dans la famille. Mon mari et moi ne nous rendons pas véritablement compte qu’Édouard commence à aller un petit peu plus mal. Il est un peu moins gai, un peu plus renfermé et il se coupe davantage de ses amis.

À la fin de l’année, mon mari reçoit le coup de fil d’un papa d’un copain d’Édouard qui lui annonce qu’Édouard va mal et qu’il se scarifie. C’est brutal, c’est le choc, car les parents que nous sommes n’avaient rien vu. Il arrivait à donner le change, à être présent, à avoir une vie de famille normale.

C’est vrai, mon mari réagit plutôt mal. Il a du mal à comprendre le mal-être d’Édouard. Cela dit, on appelle rapidement une psychologue qui nous prend en urgence. En parallèle, j’appelle le centre médico-psychologique (CMP) de la petite ville dans laquelle nous vivons. La secrétaire me dit qu’elle comprend tout à fait notre désarroi mais qu’elle n’a pas de place pour recevoir votre fils car ils sont débordés. Ils établissent une liste et, en fonction des urgences, ils reçoivent les enfants et les parents.

Nous nous rendons chez la psychologue qui me dit qu’Édouard va très mal, qu’il faut le surveiller, qu’il se scarifie. Je lui demande quelle est la solution pour mettre fin aux scarifications. Elle me dit qu’il n’y en a pas, c’est sa soupape, il faut le laisser faire. Très bien. Vous rentrez chez vous avec un enfant qui se scarifie et qui va mal.

La situation ne s’améliore pas. Au contraire, il sombre dans la scarification et dans cet état où il va de plus en plus mal. J’arrive finalement à obtenir un rendez‑vous au CMP. Après l’avoir reçu, le psychiatre me dit que mon fils fait une grave dépression qui s’accompagne d’automutilations et d’une perte de confiance en lui. On met en place un protocole comportant des antidépresseurs, des anxiolytiques, des somnifères, vu qu’il ne dort plus et qu’il est très anxieux.

Il se coupe de ses amis, il ne dort pas davantage. Les nuits sont blanches, il n’arrive plus à aller à l’école. J’arrête de travailler, et je vis dans son ombre. On retire toutes les clés de la maison et tous les couteaux, on met les médicaments au coffre et je vis derrière lui.

Il se lève, je le suis. Il va à la salle de bains, je reste derrière la porte et j’écoute si l’eau coule, s’il parle. Voilà. On vit comme ça dans cette angoisse permanente. Mon mari continue à travailler. Il me dit qu’il n’arrive pas à gérer son activité professionnelle qui réclame une certaine implication de sa part. Il me demande d’être forte pour nous deux, pour accompagner notre fils. Et là, je me dis que je ne peux pas pleurer, que je ne peux pas m’effondrer, que je suis obligée de le porter, de l’accompagner et d’essayer d’être là pour lui sans pour autant l’empêcher, d’essayer de le comprendre, et d’essayer de comprendre pourquoi il se scarifie.

Il y a la première tentative de suicide. Il est admis aux urgences, il reste quelques jours en pédiatrie. Il n’y a pas non plus de place dans l’unité de psychiatrie pour les adolescents. Le psychiatre nous renvoie à la maison en nous disant que la pression est retombée, il nous invite à rentrer chez nous et à gérer au mieux. Édouard rentre à la maison et met en place un emploi du temps aménagé avec l’école parce qu’il n’arrive plus à aller à l’école vu qu’il ne dort plus malgré les somnifères.

Et là, c’est la descente aux enfers car les mutilations sont quasi quotidiennes. Le psychiatre me dit que quoi qu’il en soit, il trouvera la solution pour se scarifier ou pour se donner la mort et que nous n’empêcherons rien. Avec l’accord d’Édouard, je mets en place une forme d’encadrement de ses mutilations. Je récupère ses lames de rasoir, je dors avec et quand ça ne va pas, il me demande ses lames et j’attends derrière la porte de sa chambre. Il se scarifie en écoutant des chansons qui prônent l’automutilation, le suicide. Lorsqu’il a terminé, il m’appelle. Je rentre dans la chambre, je le console et je le désinfecte. C’est une illusion de vie familiale. Voilà, on essayait de continuer.

La situation dégénère. Il ne va vraiment pas bien malgré les traitements. Et il me dit : « Maman, tu ne m’empêcheras pas. Si je veux mourir, je sais comment me couper la carotide, je sais où couper. » Je dis alors à mon mari qu’on ne peut plus le laisser, on va le perdre, on n’y arrivera plus. Il retourne aux urgences. Les médecins n’ont pas non plus de solution mais on arrive malgré tout à avoir une place au centre d’évaluation et d’observation pour adolescents de l’hôpital de Toulon – il y a, pour tout le Var, dix places. Là, le professeur en psychiatrie qui le suit arrive à faire le lien entre les réseaux sociaux et le mal-être de notre fils.

Il est alors hospitalisé. Il n’a plus de téléphone, il n’y a plus de lien avec les parents. On avait la possibilité d’appeler pour prendre de ses nouvelles, mais on ne l’a pas eu en ligne pendant une dizaine de jours, le temps qu’il aille un petit peu mieux et que la pression redescende.

Pendant ce temps, on a pris le téléphone d’Édouard et on a vu les contenus auxquels il était exposé quotidiennement : des chansons qui prônent le suicide ou l’automutilation, et dont les paroles affirment que la vie n’a pas d’importance et que la mort est la seule solution pour alléger les souffrances. Et là, c’est le choc.

Il y a aussi le chantage au suicide. Il menace de faire une bêtise si on ne lui laisse pas son téléphone un minimum de temps pour être connecté, notamment avec ses amis. Nous n’avons plus le rôle de parents, nous n’arrivons plus à exercer une quelconque autorité, nous sommes submergés par ce courant qui nous emporte, par cette vague qui met sa famille en péril.

Nous nous questionnons sur notre rôle en tant que parents : qu’est-ce qu’on a raté ? Qu’est-ce qu’on n’a pas vu ? C’est terrible, y compris pour la fratrie : au départ, mon fils aîné ne comprenait pas ; il pensait que son frère mettait en danger notre famille et nous faisait souffrir. Lors de la thérapie familiale, il a discuté avec le psychiatre et a compris que son frère était malade et avait besoin d’aide. Il m’a dit : « C’est moi qui me suis trompé, je suis dans l’erreur ; c’est Édouard qui souffre, ce n’est pas nous. » Nous, nous sommes là pour l’accompagner, avec le peu d’armes que nous avons ; nous sommes là pour essayer de le faire sortir de la dépression et de cette spirale mortifère dans laquelle il est pris.

Lors de son hospitalisation, Édouard s’est retrouvé avec d’autres adolescents qui partageaient la même souffrance que la sienne ; il a eu un petit sursaut et s’est dit qu’il devait essayer de s’en sortir. Il va nettement mieux, mais je vous avoue que chaque jour, quand je n’arrive pas à le joindre à la sortie du collège, j’ai peur. Quand il ne se lève pas le matin, on a la boule au ventre. On vit dans une anxiété constante parce qu’on a toujours peur d’une rechute. On met dans leurs mains des téléphones avec des réseaux où l’on pense qu’ils peuvent trouver un espace ludique, sans s’imaginer qu’ils seront captés par des contenus qui leur feront perdre pied et qui leur proposeront la mort comme la solution.

Maître Laure Boutron-Marion. L’universalité de ces témoignages est frappante. Je voudrais que vous reteniez que ce n’est pas l’affaire de quelques-uns, mais de tous. Toutes ces familles, réparties partout en France, avec des histoires de vie différentes et des jeunes différents, ont dû faire face à l’horreur. Cela ne peut que vous inciter à creuser dans le bon sens et à imaginer autre chose pour les générations à venir.

M. le président Arthur Delaporte. Je vous remercie pour la clarté, la dignité et la force de vos témoignages, qui nous ont instruits et ont renforcé notre conviction qu’il faut agir.

Mme Laure Miller, rapporteure. Vous nous avez remerciés d’avoir créé cette commission d’enquête, mais c’est à nous qu’il revient de vous remercier : nous l’avons lancée parce que vous êtes mobilisés. Notre responsabilité est d’être à la hauteur et de cheminer, grâce à vos témoignages et aux auditions de professionnels, pour trouver des solutions juridiques et techniques. Il faut bien sûr s’accorder sur le diagnostic ; le premier objectif de la commission d’enquête est de faire la lumière et de susciter une prise de conscience dans la société – car, comme vous l’avez tous dit, beaucoup de gens ignorent ce qu’il y a derrière TikTok et l’addiction que le réseau suscite. Au-delà, il faut agir au plus vite. J’admire votre capacité à prendre du recul par rapport aux drames que vous avez vécus pour formuler des préconisations et parler au nom de la société.

Vos témoignages soulèvent la question fondamentale de la prise en charge de la santé mentale des jeunes, qui n’est pas à la hauteur. Deux de nos collègues, Nicole Dubré-Chirat et Sandrine Rousseau, ont récemment rendu un rapport sur le sujet. Elles bataillent pour se faire entendre et pour faire évoluer les choses avec le gouvernement ; nous sommes nombreux à les soutenir dans ce combat et nous serons prêts à monter au créneau le moment venu.

Vous avez aussi beaucoup parlé de harcèlement. La société commence à s’emparer du problème et le Gouvernement l’a pris en main, mais il reste beaucoup à faire.

Je retiens que vous avez manqué d’accompagnement. De toute évidence, il n’est pas aussi facile de fixer des interdits à un enfant de 3 ou 4 ans qu’à un adolescent. Les professionnels qui s’occupaient de vos enfants n’ont pas su vous donner les clés. Quand on ne sait pas ce qui se passe dans le cabinet d’un psychiatre et qu’il ne vous donne pas des pistes, on est particulièrement démuni. Nous devons réfléchir à l’accompagnement dû aux parents qui traversent des situations comme les vôtres.

Nous nous interrogeons sur l’âge minimal pour accéder aux réseaux sociaux : 15 ans, 16 ans, voire davantage ? Pensez-vous que votre enfant aurait été mieux armé face à TikTok s’il avait été plus âgé ?

Enfin, vos enfants ont-ils parlé avec vous ou avec leurs psys des contenus problématiques qu’ils voyaient sur TikTok ?

M. le président Arthur Delaporte. Je vois sur vos visages un non collectif et unanime.

Mme Laure Miller, rapporteure. Les professionnels de santé et le corps enseignant ne semblent pas savoir ce qu’est TikTok. C’est l’éléphant au milieu de la pièce : votre enfant va mal, vous en parlez avec les professeurs et les médecins, mais à aucun moment ils n’identifient le problème. Ne faudrait-il pas engager une sensibilisation massive des enseignants et des médecins pour qu’ils aient le réflexe d’interroger les jeunes qui vont mal sur leur utilisation des réseaux sociaux ?

M. le président Arthur Delaporte. Peut-être avez-vous d’ailleurs des éléments à apporter sur d’autres réseaux que TikTok.

Maître Laure Boutron-Marion. De la même manière que la société doit comprendre que les réseaux sociaux, tels qu’ils sont conçus aujourd’hui, nuisent à la santé des enfants, le monde de la santé doit faire sa prise de conscience. Je tire un constat de l’expérience de tous les parents que j’accompagne : la prise en charge, les effets et les conséquences – dramatiques ou pas – pour le jeune diffèrent selon le degré de prise conscience du médecin qu’il a face à lui. Il suffit que le psychiatre ou le psychologue soit un tant soit peu conscient du problème et qu’il pose les bonnes questions pour que la donne change : « Est-ce que tu as des réseaux sociaux ? Lesquels ? Qu’est-ce que tu fais dessus ? » Les jeunes ne diront peut-être pas tout, mais ils pourront apporter des bribes de réponses qui permettront de faire germer des solutions. Nous avons des illustrations de la différence radicale de prise en charge selon le degré de connaissance du problème par les professionnels. C’est la première clé ; toute la société française doit savoir ce que sont les réseaux sociaux : on n’y voit pas seulement des petits chats qui tombent des frigos. Si toute la société avance sur ce sujet, on avancera sur le reste.

Par ailleurs, l’expérience des parents que j’accompagne me permet d’affirmer que la spirale mortifère est la même sur pratiquement tous les réseaux sociaux, qu’il s’agisse de X, des bébés de Meta ou de SnapChat. La particularité de TikTok est que la viralité y est plus forte ; le graphisme et la dynamique de l’outil sont tels que le fil « Pour toi » vous impose vos contenus au carré.

Mme Stéphanie Mistre. Quand Marie est partie, je suis allée voir sa psychologue car j’avais envie de parler avec elle – maître Laure Boutron-Marmion est au courant. Je lui ai demandé ce que Marie lui avait dit. Elle m’a répondu que Marie voulait absolument porter plainte. Je suis tombée des nues : pourquoi n’avais-je pas été mise au courant ? « Secret professionnel. » : je vous confie ma fille et je n’ai pas de retour ! Si j’avais pu emmener Marie porter plainte et se défouler en déversant les horreurs que ses harceleurs lui avaient faites, peut-être aurait-elle été allégée de sentir une prise de conscience de l’adulte et de savoir qu’on l’aidait. Ça n’a pas été le cas.

Le nombre de suicides chez les filles a augmenté de 133 %. C’est bien la preuve que les réseaux sociaux sont un désastre psychique pour nos enfants, notamment pour les filles, avec l’hypersexualisation. Cela montre aussi la désinformation des médecins et des parents. Il faut faire le maximum pour informer le public sur les effets des réseaux sociaux sur la santé mentale des enfants, y compris par la publicité.

Enfin, Marie m’avait parlé de l’infirmière à l’école, cette oreille bienveillante à qui on peut se confier, qui est là pour vous écouter, qui ne vous juge pas, qui n’est ni la directrice ni le conseiller principal d'éducation (CPE).

Mme Christina Goncalves da Cunha. On parle de construire des hôpitaux psychiatriques pour prendre en charge les enfants, mais c’est traiter les symptômes, pas la source du problème. Si vous construisez des hôpitaux, ils seront tous remplis ! Tout l’enjeu est d’empêcher la circulation de ce genre de contenu sur les réseaux sociaux.

Mon fils de 34 ans, qui a vu sa sœur mourir, m’a dit : « Tu vas demain à l’Assemblée, mais c’est perdu d’avance. » Je ne suis pas d’accord. Si tout le monde en France savait ce que l’on trouve sur les réseaux sociaux, nous aurions face aux géants du numérique la puissance nécessaire pour changer les choses.

Mme Morgane Jaehn. Ce n’est pas seulement un problème français, c’est un problème européen, et même global, puisque nous avons été contactés par des médias japonais.

Ma fille a arrêté de consulter ces vidéos le jour où je l’ai découvert. Quand on commence à en parler, il y a une prise de conscience. Pourtant, je n’imaginais pas que ce type de contenus existait. Il faut que les soignants soient au courant et abordent la question avec les jeunes. En trente minutes, on peut voir 120 vidéos de 15 secondes. C’est beaucoup ! On a le temps de voir du contenu qui vous terrasse ; il ne faut pas longtemps pour être complètement ratatiné.

Mme Gaëlle Berbonde. Les outils de diagnostic existent : le professeur Benyamina a élaboré une liste de questions qui tient sur une page. J’ai été stupéfaite d’apprendre que ni au collège, ni au lycée, ni dans les cabinets médicaux, ni à l’hôpital, on ne trouve cette grille qui permet d’aborder le sujet avec les parents.

Enfin, il faut certainement définir un âge minimum d’accès aux réseaux sociaux, mais comment le contrôler quand c’est le créateur du compte qui s’attribue lui-même un âge ?

M. le président Arthur Delaporte. C’est toute la question.

Mme Anne Genetet (EPR). Je vous remercie à nouveau d’avoir pris la parole. Vous avez pointé du doigt plusieurs sujets, à commencer par le contenu. C’est la difficulté principale à laquelle nous sommes confrontés depuis le début de la commission d’enquête : comment agir sur les fournisseurs et les diffuseurs de contenu ?

Il y a aussi la question des outils que sont les ordinateurs, les tablettes, les téléphones, et même les montres connectées. La consommation d’écrans est considérable. En ce moment même, il y a un écran de retransmission entre vous et moi, et je me rends compte que j’ai tendance à le regarder plutôt que vous… C’est dire à quel point le circuit de la récompense, qui fonctionne à la dopamine, alimente la dépendance aux écrans.

Enfin, même le sujet est à la marge de la commission d’enquête, vous avez évoqué la difficulté d’être parents et un besoin d’accompagnement. Je pense aux parents qui sont actuellement dans la situation qui était la vôtre il y a quelques mois, quand il se passait des choses, mais vous ne le saviez pas encore. La sensibilisation à cet enjeu est largement insuffisante, comme vous l’avez dit, et ce n’est pas en quelques semaines que nous réglerons la question des contenus. Que peut-on faire dès à présent pour dire à ces parents de rechercher le soutien de professionnels ? On manque terriblement d’infirmières scolaires – il y a 10 000 infirmières pour 10 millions d’élèves –, mais peut-être des éducateurs spécialisés ou des assistants sociaux pourraient-ils être cette oreille attentive dont vous avez parlé. Les jeunes ne se confient pas toujours au moment où on l’attend et pas toujours à la personne que l’on imagine. Jusqu’à l’âge de 8 ans, on peut leur imposer notre agenda, mais ensuite, quand ils nous disent « ça va mal », il faut répondre tout de suite, sans attendre d’avoir terminé sa réunion ou son coup de fil. Cela vaut aussi bien pour les parents que pour le milieu scolaire et associatif.

M. Kévin Mauvieux (RN). Je n’ai pas de question à poser mais je tenais à vous remercier pour vos témoignages poignants, même s’il n’est pas facile de les entendre. Ils nous ouvrent les yeux sur des sujets que nous n’avions pas forcément à l’esprit.

J’ai été frappé par la minimisation de la scarification par les soignants et par les psychologues, alors qu’il s’agit d’un acte particulièrement grave qui indique un mal-être profond, qu’il soit dû aux réseaux sociaux, à la vie sociale ou à autre chose. Je ne sais pas si cette minimisation existe encore ou si elle date d’il y a trois ou quatre ans, quand on commençait tout juste à mettre en lumière ces phénomènes. Il y a un important travail de sensibilisation à mener auprès des familles qui constateraient un recours à la scarification au sein du foyer et auprès des professionnels.

Je constate également que, depuis le début des auditions, nous nous sommes focalisés sur l’interdiction des réseaux sociaux aux mineurs de moins de 15 ou 16 ans, mais nous avons assez peu évoqué d’autres solutions, comme la nécessité d’un système permettant de condamner TikTok ou ses représentants lorsque les contenus sont maintenus sur la plateforme. L’incitation au suicide est interdite par la loi ; manifestement, elle ne l’est pas sur TikTok, puisque les procédures lancées n’aboutissent pas à la suppression des contenus. Il faudrait aussi poursuivre les créateurs de ces contenus.

M. le président Arthur Delaporte. La commission d’enquête se penchera bientôt sur le contrôle des plateformes. Je me rendrai prochainement à Bruxelles avec Mme la rapporteure pour rencontrer les services de la Commission européenne qui enquêtent sur TikTok. Nous recevrons également l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) et les autorités judiciaires pour discuter des moyens de contrôle et de pénalisation.

M. Emmanuel Fouquart (RN). En tant que retraité de la gendarmerie et officier de réserve, je sais que la provocation au suicide est un délit. Le fait que ces contenus circulent librement sur les réseaux sociaux est intolérable. Il faudra entamer des actions judiciaires afin que les signalements soient pris en compte.

J’ai également noté dans vos témoignages que le problème débute souvent hors des réseaux sociaux par le harcèlement que subissent les enfants, lequel les amène à se renfermer sur les réseaux ; le contenu qu’ils y trouvent est la dernière goutte.

Mme Constance Le Grip (EPR). Je ne reviendrai pas sur l’intégralité de vos témoignages, qui sont extrêmement émouvants. On comprend que plusieurs aspects du problème relèvent de la régulation européenne, notamment la possibilité de transférer la responsabilité aux plateformes en passant du statut d’hébergeur au statut d’éditeur. C’est un combat que nous aurons à mener ensemble. Maître Boutron-Marmion, avez-vous connaissance de l’existence de collectifs ou d’initiatives similaires à celle-ci dans d’autres pays européens ? Y a-t-il eu une prise de conscience ailleurs qu’en France ?

Maître Laure Boutron-Marmion. Je ne voudrais pas qu’il y ait de méprise. Vos interventions m’interpellent, madame, messieurs les députés, car il ne faudrait pas que l’on croie, après avoir entendu ces témoignages, que les jeunes concernés par la spirale mortifère que nous avons décrite sont tous fragilisés psychologiquement lorsqu’ils arrivent sur la plateforme : d’autres n’ont absolument aucune difficulté, sont très bien insérés, ont un cercle d’amis… Je ne voudrais pas que l’on puisse dire que les réseaux sociaux nuisent à la santé des seuls jeunes qui sont déjà fragilisés émotionnellement. Autour de la table, il y a des enfants qui sont arrivés sur la plateforme alors qu’ils étaient victimes de harcèlement, mais d’autres ne sont pas du tout dans cette situation.

Partout en Europe, il y a des initiatives populaires ou familiales. En Espagne, un groupe de parents très actif a réussi à faire bouger les choses, notamment en ce qui concerne l’interdiction des téléphones portables en milieu scolaire – les Espagnols étaient moins avancés que nous dans ce domaine. En Angleterre, les chiffres sont beaucoup plus terrifiants qu’en France. L’âge moyen auquel on accède pour la première fois aux réseaux sociaux est inférieur à ce qu’il est dans notre pays, puisqu’il est de 8 ans. Des initiatives sont prises par des familles qui cherchent, comme nous, à conscientiser la population. C’est un élément décisif : si la population est convaincue de ce qui se passe, elle se mettra en ordre de marche. Car il y a des parents parmi les ministres, les médecins, les psychiatres, les directeurs d’établissement …

Pour ce qui est de l’Europe, ce sont les seules initiatives dont j’ai connaissance. Le seul recours judiciaire mettant en cause la responsabilité de TikTok est celui qui a été formé par certaines des familles qui composent Algos Victima. Aux États-Unis, les collectifs sont plus anciens ; des actions en justice sont en cours, dont nous connaîtrons l’issue avant la fin de l’année.

M. le président Arthur Delaporte. Merci pour ces précisions. L’un des objets de notre commission d’enquête est précisément de faire œuvre pédagogique, d’alerter la population et de contribuer à sa conscientisation.

Mme Virginie Guguen. Je souhaite ajouter une chose. Le problème ne se pose pas seulement au niveau médical ou scolaire. Quand j’ai voulu porter plainte pour ma fille, qui n’avait que 13 ans, j’ai produit des preuves. Or les gendarmes m’ont répondu qu’ils ne prendraient pas ma plainte parce que les applications ne sont pas basées en France. Quand j’ai enfin trouvé maître Boutron-Marmion, elle les a court-circuités. Ils n’ont pas apprécié, et se sont vengés en se pointant chez moi un dimanche à 19 heures pour embarquer ma fille de force et la faire parler.

Maître Laure Boutron-Marmion. Dans certains postes de gendarmerie ou commissariats, on ne souhaite pas recevoir les plaintes, considérant qu’il s’agit de méfaits commis par des plateformes dont la responsabilité ne peut pas être mise en cause en France.

Mme Gaëlle Berbonde. J’ai envie de réagir à propos de la difficulté d’être parent et de l’accès de nos enfants à des adultes responsables, notamment à l’école. Effectivement, il n’y a pas d’infirmières scolaires, ou alors elles sont en nombre insuffisant. Je suis presque surprise par votre question : tous les parents souhaiteraient que des adultes responsables – éducateurs spécialisés ou tout autre adulte référent – soient davantage présents. J’ai donc envie de vous retourner la question, car cela relève d’un arbitrage qu’il ne nous appartient pas, à nous, contribuables, de rendre.

M. le président Arthur Delaporte. Je ne ferai pas de commentaires. Il est difficile pour des députés confrontés à l’usage de l’article 49 alinéa 3 de la Constitution de prendre position sur ces questions.

Mme Stéphanie Mistre. Ce qui est important, c’est d’informer le plus grand nombre possible de parents pour leur faire prendre conscience des dégâts commis, par les réseaux sociaux de manière générale, sur la santé mentale. Comme disait Christina, s’il n’y en a plus, il n’y aura peut-être plus de problèmes de santé mentale et on n’aura peut-être plus besoin d’en faire autant. Il faudrait prendre cette mesure forte pour que nos enfants puissent avoir une adolescence et une vie normales, revenir aux choses basiques que nous avons pu vivre nous-mêmes, retourner dans les stades … J’ai entendu cette phrase, criante de vérité : nos parents nous demandaient de rentrer à la maison parce que nous étions trop souvent dehors ; nous, nous demandons à nos enfants de sortir de leur chambre. Il y a un petit souci !

Pour nous aider, nous, parents, face à des ados qui ne sont pas faciles, faisons, s’il vous plaît, quelque chose en matière de contrôle parental. Je vous en supplie ! Je « névrose » complètement pour protéger ma fille. Je ne veux pas qu’il lui arrive quoi que ce soit – maintenant, j’en suis consciente. Mais, à part me disputer toute la journée avec elle et lui arracher le téléphone des mains, je n’ai aucun contrôle.

Ces plateformes ont un but lucratif. Pour les punir, il faut les punir via le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), leur infliger des sanctions économiques, les faire payer, pour qu’elles comprennent. Comme les harceleurs ou les ados violents, tant qu’on ne les punit pas, qu’on ne les met pas au coin, qu’on ne les éduque pas en leur faisant comprendre que ce qu’ils ont fait est mal, ils recommencent. Pourquoi se gêner, s’il n’y a pas de sanction ? Pardon, mais je voulais vous dire ce que j’ai sur le cœur.

M. Jérémy Parkiet. Depuis deux jours, on voit tourner une publicité pour le Festival de Cannes, qui a pour partenaire TikTok. Et, ce matin, on a découvert une autre publicité, pour Instagram celle-là, qui alerte les parents sur le fait que leurs enfants peuvent avoir accès à des applications inappropriées. C’est quand même hallucinant ! Je propose qu’avant que des décisions soient prises, la communication la plus large possible soit faite dans ce sens, mais par les bonnes personnes – ce serait plus logique. Les parents doivent être alertés sur ce qui se passe sur les écrans, sur des situations réelles dont ils ne se doutent pas, mais pas par Instagram, qui n’est pas le gentil de l’histoire. Évidemment, cette plateforme ne parle pas des contenus qui peuvent se trouver sur sa propre application : elle vise d’autres applications « inappropriées ». C’est un peu marrant, quand on sait que la leur n’est pas du tout appropriée à nos enfants.

Mme Christina Goncalves da Cunha. En ce qui concerne la conscientisation, il y a bien des pubs à la télévision qui disent que fumer tue ou que boire au volant est dangereux, avec des images chocs. Je comprends bien qu’il est difficile d’établir une relation de cause à effet entre l’accès aux réseaux sociaux et à leurs contenus mortifères et le suicide d’un jeune. Mais, ce suicide, je refuse totalement qu’on le considère comme une mort choisie. Mince ! On fait de la prévention pour la cigarette, pour l’alcool. Et les réseaux sociaux, qui tuent nos jeunes ? Je sais que ce n’est pas simple et qu’on mettra du temps à interdire tout cela, parce qu’on sait très bien ce qui passe autour, mais alertons – je ne sais pas comment, mais il faut le faire !

Maître Laure Boutron-Marmion. Je conclurai en disant qu’il est urgent de réagir. Cela fait quatre ans que je reçois, chaque semaine, à mon cabinet, des appels de familles qui me demandent de l’aide. Je fais un peu office de vigie sur ces sujets. Or nous sommes passés à une étape supérieure. Puisque rien n’a été fait pour arrêter la spirale mortifère que nous avons décrite et empêcher la publication de ces contenus innombrables qui pullulent sur les réseaux sociaux, on est passé à l’étape supérieure, celle de la marchandisation de ces contenus. Les jeunes se voient désormais offrir de l’argent pour se filmer en train de se scarifier, de vomir, bref : pour se mettre en scène.

M. le président Arthur Delaporte. Pouvez-vous nous en dire un peu plus sur ce que vous entendez par « offrir de l’argent » ?

Maître Laure Boutron-Marmion. Selon les témoignages que j’ai reçus récemment – cette étape a été franchie il y a environ six mois –, des personnes de plus en plus nombreuses – s’agit-il d’influenceurs, de fétichistes ? Je l’ignore – ouvrent des comptes sur ces réseaux sociaux et proposent de l’argent aux jeunes qui se scarifient, par exemple, dont ils repèrent les comptes. Je le sais par des parents qui découvrent cela avec horreur. Par ailleurs, j’invite votre commission d’enquête à se pencher sur la bulle du TikTok live, qui est une boîte noire dans la boîte noire. Il s’y passe des choses absolument ahurissantes, dont nous ne pouvons bien entendu avoir aucune preuve puisqu’il s’agit de captations en direct. Là aussi, on constate une marchandisation de nos jeunes, rémunérés pour toutes sortes d’actes : strip‑tease, corruption de mineur et, toujours, mise en scène de contenus mortifères. Cela, je l’ai vu sur TikTok et sur d’autres réseaux sociaux.

Encore une fois, une nouvelle marche a été franchie : des jeunes se voient proposer par d’autres jeunes ou des adultes qui les contactent par messagerie afin de leur proposer de l’argent pour qu’ils se filment en train de faire telle ou telle chose. Certains jeunes voient l’appât du gain.

M. Arnaud Ducoin. Lorsque notre fille s’est suicidée, on a retrouvé son téléphone portable posé sur un meuble en face d’elle. On peut imaginer qu’elle se soit filmée pendant son acte. Je pensais que, comme dans les séries américaines, il suffirait de dix secondes pour ouvrir son téléphone. Mais cela fait un an que les gendarmes s’y essaient, en vain – c’est un Apple. Il n’est pas impossible qu’elle ait mis en scène sa mort ; je ne le sais pas et je ne le saurai peut-être jamais. Toujours est-il que l’on a passé un cap nauséabond. Il est urgent que l’on réagisse et que l’on fixe enfin des règles.

M. le président Arthur Delaporte. Avez-vous demandé à TikTok que l’on vous communique les contenus qui avaient été mis en ligne ?

M. Arnaud Ducoin. Le problème est que nous n’avions pas accès aux codes TikTok de notre fille car elle avait 18 ans. Elle était donc majeure. Par contre, son compte est toujours actif et on peut voir une cinquantaine de ses vidéos.

On a aussi pu avoir accès à son ordinateur personnel, où elle avait enregistré des choses qui devaient lui servir, et peut-être aussi des vidéos qu’elle a pu diffuser ou qu’elle avait enregistrées.

M. Jérémy Parkiet. Vous allez forcément vous intéresser à l’option live de TikTok, et ce que vous allez découvrir est complètement aberrant. Des enquêtes ont déjà été faites. Une, en particulier, m’a beaucoup intéressé. Des Anglais ont voulu voir quelle commission prenait TikTok sur les dons. Quelqu’un a fait un live, un ami a fait un don et ils se sont rendu compte que TikTok prenait 70 % des dons.

Intéressez-vous à cette option, parce qu’en fait c’est une mine d’or pour TikTok. Ils n’ont absolument aucun intérêt à arrêter ça.

M. le président Arthur Delaporte. Vous-même, avez-vous été confronté à ces lives ? Quelqu’un dans une famille l’a-t-il été ?

M. Jérémy Parkiet. Non.

M. le président Arthur Delaporte. Nous sommes preneurs de la référence de l’enquête que vous avez mentionnée.

M. Jérémy Parkiet. Vous finirez de toute façon par la trouver.

Maître Laure Boutron-Marmion. Je vous mettrai en contact avec les parents dont je vous avais parlé au sujet de TikTok live, si cela vous intéresse de creuser.

M. le président Arthur Delaporte. Nous organiserons une audition spécifique.

Maître Laure Boutron-Marmion. Pour moi, c’est la boîte noire de la boîte noire.

Mme Stéphanie Mistre. Je veux dire quelque chose qui me tient à cœur. Profiter de la fragilité des enfants, ça s’appelle de l’abus de faiblesse. Et pour moi c’est intolérable. L’abus de faiblesse est l’un des points sur lesquels je voulais attaquer TikTok.

Profiter d’un enfant, je trouve ça intolérable. Je voulais simplement terminer là-dessus.

M. le président Arthur Delaporte. C’est ainsi que s’achèvera cette audition.

Nous vous remercions collectivement pour le temps que vous nous avez consacrés et pour les déplacements que vous avez faits, certains d’entre vous étant venus de l’autre bout du pays.

J’en profite pour rappeler que nous avons lancé une grande consultation citoyenne sur le site de l’Assemblée nationale. N’hésitez pas à populariser le lien. Nous avons déjà reçu plus de 25 000 réponses, ce qui témoigne d’un fort engagement. La moitié de ces réponses proviennent de lycéens. La consultation rencontre donc un écho chez les jeunes et beaucoup d’entre eux répondent au questionnaire en ligne.

C’est le signe que nos travaux rencontrent un intérêt dans la société et que les mener à bien est une nécessité publique.

Merci infiniment.

22.   Audition de Mme Shanley Clemot McLaren, cofondatrice et co‑presidente de l’association Stop Fisha, M. Tristan Duverné, doctorant à l’EHESS/ENS, Mme Pauline Ferrari, journaliste indépendante, et M. Pierre Gault, auteur, sur les contenus masculinistes et sexistes sur les réseaux sociaux (vendredi 16 mai 2025)

La commission auditionne conjointement Mme Shanley Clemot McLaren, cofondatrice et co-presidente de l’association Stop Fisha, M. Tristan Duverné, doctorant à l’EHESS/ENS, Mme Pauline Ferrari, journaliste indépendante, et M. Pierre Gault, auteur, sur les contenus masculinistes et sexistes sur les réseaux sociaux ([21]).

M. le président Arthur Delaporte. Je vous souhaite la bienvenue et vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mme Shanley Clemot McLaren, M. Tristan Duverné, Mme Pauline Ferrari et M. Pierre Gault prêtent serment.)

M. Pierre Gault, journaliste, réalisateur du documentaire Mascus (2025). J’ai récemment réalisé un documentaire sur les masculinistes, un phénomène pour lequel mon intérêt remonte à plusieurs années. Pour mener cette enquête, j’ai d’abord consommé une grande quantité de contenu, notamment sur TikTok, qui s’est révélé être une plateforme incontournable pour la diffusion du discours masculiniste.

J’ai également tenté de contacter de nombreux influenceurs pour comprendre leur idéologie, leur discours, leur communauté et les raisons pour lesquelles de jeunes hommes y adhèrent et sont séduits par ce discours. Cependant, j’ai rapidement constaté que la plupart des influenceurs importants refusaient de s’exprimer sur le sujet. Seuls quelques-uns, avec une audience limitée, acceptaient d’échanger, probablement dans l’espoir de bénéficier d’une médiatisation.

Face à cette difficulté, j’ai décidé de m’infiltrer en créant un alias et différents comptes sur les réseaux sociaux, dont TikTok. Cette démarche m’a permis de comprendre le fonctionnement interne de ces communautés et d’observer comment le discours masculiniste s’articule et se propage. J’ai rapidement constaté que ces réseaux sociaux, TikTok en particulier, servent de porte d’entrée vers un discours beaucoup plus radical qui se développe ensuite dans des communautés privées. Les influenceurs utilisent ainsi ces plateformes comme un appât initial pour séduire leur audience, abordant des sujets variés tels que la musculation, la séduction, le style de vie, qui peuvent sembler anodins au premier abord. Ce n’est que dans un second temps que s’entrevoit le lien avec le masculinisme, lorsque le discours s’oriente vers les relations hommes-femmes et le développement personnel. À partir de ce contenu initial, les influenceurs cherchent naturellement à vendre des formations et à attirer leur audience vers des communautés privées beaucoup plus radicales.

Sur TikTok, on peut déjà trouver des contenus problématiques, avec des propos rabaissant les femmes ou suggérant que les hommes sont en danger dans la société actuelle. Les influenceurs sont toutefois suffisamment habiles pour attirer progressivement leur cible vers des communautés payantes, où le discours devient nettement plus inquiétant et extrême.

Mme Shanley Clemot McLaren, cofondatrice et co-présidente de l’association Stop Fisha. Notre organisation, créée en avril 2020 en réponse à la prolifération de comptes « Ficha » sur les réseaux sociaux, lutte contre le cybersexisme et les cyberviolences sexistes et sexuelles. Le terme « Ficha », verlan d’« affiche », possède une connotation fortement genrée puisque ces comptes, créés durant le confinement et organisés par département et par ville, avaient pour but de publier et diffuser sans leur consentement des contenus intimes de jeunes filles et de femmes. Nés sur Snapchat, ils se sont rapidement propagés sur d’autres plateformes telles que TikTok, Instagram et Telegram, où la situation est devenue particulièrement préoccupante.

Malgré nos signalements répétés de ces comptes comptant des milliers d’abonnés, aucune action n’était entreprise. C’est ainsi que, face à l’inaction des plateformes et au manque de modération, nous avons lancé le hashtag #StopFisha afin de créer un mouvement citoyen de contre-offensive. C’est de ce mouvement qu’est née notre association loi 1901, qui lutte désormais contre le cybersexisme et les cyberviolences sexistes et sexuelles dans leur ensemble. Je rappelle en effet que 60 % des femmes déclarent avoir été victimes de violences en ligne et qu’elles sont 27 fois plus susceptibles d’être harcelées en ligne que les hommes. Cela démontre clairement l’aspect genré des cyberviolences qui touchent de manière disproportionnée les femmes et les filles.

Nous nous intéressons également à l’architecture de la misogynie en ligne, qui comprend l’analyse des algorithmes sexistes et discriminatoires, le manque de modération, la sous-représentation des femmes dans le secteur technologique et tous les éléments qui contribuent à la persistance de la misogynie sur internet et à l’émergence de ce type de phénomènes.

Concrètement, notre activité consiste tout d’abord à offrir une aide psychologique et juridique aux victimes. Nous effectuons également des signalements en tant que partenaire de confiance de certaines plateformes, notamment TikTok. Bien que nous n’ayons pas encore de partenariat avec Meta, nous collaborons avec la plupart des principales plateformes en ligne. Notre association bénéficie en effet d’un canal privilégié pour signaler et faire supprimer rapidement des contenus problématiques.

Nous menons également des actions de sensibilisation en France et à l’étranger sur le cybersexisme et les cyberviolences faites aux femmes et aux filles. Notre objectif est d’informer sur les moyens de défense existants et d’encourager les plateformes à renforcer leurs mesures de protection.

Nous menons par ailleurs un travail de plaidoyer à l’échelle nationale, européenne et internationale. Nous avons ainsi contribué à la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique dite SREN en France, en proposant neuf amendements spécifiques au sujet des cyberviolences sexistes et sexuelles. Au niveau européen, où de nombreuses lacunes persistent, nous avons participé aux discussions sur le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services act (DSA) et sur la directive 2024/1385 du Parlement européen et du Conseil du 14 mai 2024 sur la lutte contre la violence à l’égard des femmes et la violence domestique. Nous avons également été entendus aux Nations Unies en novembre dernier.

Force est de constater que cinq ans après l’explosion des comptes « Ficha » sur TikTok, le phénomène persiste puisque, bien que moins viral qu’au moment du confinement, nous observons encore une présence significative de ces comptes. La semaine dernière, nous avons ainsi fait face à une résurgence importante, notamment dans le département 92, nécessitant une forte mobilisation et de nombreux signalements.

Pour l’année 2024, notre association a déjà reçu plus de 400 signalements sur TikTok. L’âge moyen des victimes, qui sont majoritairement des femmes et des filles, est de quinze à seize ans. Ces chiffres ne prennent pas en compte les personnes qui ne connaissent pas notre association ou celles qui demandent une aide juridique ou psychologique sans effectuer de signalement formel.

Sur TikTok, nous constatons tout d’abord une augmentation alarmante des cyberviolences ciblant les femmes et les filles, qui se manifeste par une misogynie omniprésente. Cela va de la diffusion de contenus intimes explicites, difficiles à faire supprimer malgré leur caractère manifestement illégal, à des contenus plus implicites utilisant des symboles comme des tasses de café ou des emojis médailles pour inciter clairement au cyberharcèlement ou à la cyberviolence.

Nous observons également, depuis plusieurs années, l’émergence inquiétante du masculinisme, qui représente une forme d’extrémisme et de radicalisation en ligne. Ces idées sont activement propagées sur TikTok par deux influenceurs français extrêmement problématiques, Bassem et Alex Hitchens. Les données dont nous disposons aujourd’hui sont sans ambiguïté. En Europe, quinze des vingt-sept dernières tentatives d’attentat recensées depuis octobre 2023 impliquent des jeunes radicalisés en ligne, souvent par l’intermédiaire de plateformes telles que TikTok ou Telegram. En France, sur les neuf derniers attentats perpétrés sur le territoire, les auteurs étaient des mineurs ayant connu un processus de radicalisation en ligne, dans lequel TikTok a notamment joué un rôle, en particulier à travers le fonctionnement de ses bulles algorithmiques. Il est donc essentiel de ne pas dissocier la question des discours masculinistes de celle de la radicalisation numérique, car ces deux dynamiques sont fréquemment imbriquées.

Un autre aspect préoccupant est la représentation toxique des femmes et des filles sur la plateforme. Selon le Haut Conseil à l’égalité entre les femmes et les hommes (HCEFH), 44 % des contenus représentant des femmes en ligne sont dégradants. Les standards de beauté promus sont majoritairement blancs et toxiques, reflétant la nature économique de la plateforme où les femmes et les filles deviennent source de profit à travers l’économie de l’attention.

Enfin, l’exploitation des données et les publicités ciblées sont problématiques, comme en témoigne la tendance actuelle du SkinnyTok qui expose les jeunes filles à des publicités potentiellement nocives.

Concernant les signalements, bien que TikTok soit la plateforme la plus réactive avec notre association grâce à notre statut de partenaire de confiance, nous constatons un contraste flagrant avec l’efficacité des signalements effectués par des utilisateurs normaux. Nous rencontrons également des difficultés pour signaler les contenus problématiques diffusés en direct ou dans les messages privés, notamment dans les cas de chantage affectif ou de sextorsion.

Mme Pauline Ferrari, auteure de Formés à la haine des femmes, comment les masculinistes infiltrent les réseaux sociaux (2023). Je suis journaliste indépendante depuis 2018, spécialisée dans les questions de nouvelles technologies, de genre et de culture web. Je m’intéresse particulièrement au masculinisme en ligne et aux mouvements de désinformation de genre et de cyberviolences. Mon livre enquête, publié en 2023, vise à démontrer comment ces mouvements masculinistes organisés étendent leur influence sur les réseaux sociaux, ciblant particulièrement les jeunes hommes.

TikTok joue, selon moi, un rôle de catalyseur dans ce processus de radicalisation. Comme l’a démontré le Wall Street Journal en 2021, l’algorithme de TikTok tend en effet à exposer progressivement les utilisateurs, à des contenus de plus en plus extrêmes et radicaux, quel que soit leur centre d’intérêt initial. À titre d’exemple, l’enquête du Wall Street Journal démontrait comment, à partir d’un simple compte, les utilisateurs pouvaient se retrouver rapidement confrontés à des contenus faisant l’apologie du suicide ou exposés à de la propagande néonazie.

Concernant le masculinisme, une étude de l’Université de Belfast a révélé qu’en moyenne, les jeunes hommes sont exposés à de tels contenus en moins de 20 minutes de navigation, notamment à travers des thématiques telles que le sport, le développement personnel, la santé mentale ou la séduction. Ces contenus masculinistes, qui dénigrent voire appellent à la violence envers les femmes, entraînent des répercussions concrètes dans la vie réelle. En France, nous avons ainsi assisté cette dernière année à plusieurs cas d’attentats déjoués ou d’enquêtes sur des suspicions d’attentats masculinistes. Je pense notamment à un jeune homme qui projetait un attentat lors du passage de la flamme olympique à Bordeaux en juin 2024, à un autre à Annecy qui envisageait d’attaquer des femmes dans la rue avec une arme blanche, ou encore à l’attaque masculiniste contre une soirée en non‑mixité à Paris en octobre dernier.

Il faut comprendre que ces liens entre le masculinisme en ligne et les actions violentes hors ligne s’inscrivent dans une véritable organisation politique. Nous observons, en ligne, que certains influenceurs issus d’une tradition d’extrême-droite exploitent les arguments liés au genre et à la masculinité pour attirer les jeunes hommes vers leurs idéologies, voire vers la violence néonazie. Par ailleurs, l’évolution des outils technologiques accentue la violence envers les femmes et les filles. Les deepfakes, en particulier, sont de plus en plus utilisés pour humilier et réduire au silence les femmes, y compris des mineures, qu’elles soient ou non connues.

Mon travail de recherche démontre donc que, malgré la capacité de TikTok à supprimer les contenus problématiques, la plateforme privilégie souvent la popularité et les revenus générés. Or un contenu masculiniste n’est que rarement neutre et, plus il suscite de réactions, qu’elles soient positives ou négatives, plus il gagne en popularité et génère des revenus pour TikTok et son créateur. Cette dynamique rend la suppression de ces contenus inenvisageable pour la plateforme, bien qu’elle en ait techniquement la capacité. Le manque de transparence concernant ce qui relève de la liberté d’expression ou de la haine des femmes selon TikTok reste ainsi un problème majeur.

M. Tristan Duverné, doctorant à l’EHESS / ENS. Dans le cadre de ma thèse, j’ai mené une étude ponctuelle intitulée Des violences sexistes pour faire le show, les recettes des conversations spectaculaires sur TikTok live sur la construction de la visibilité et de l’engagement sur TikTok live, en me concentrant sur le cas d’AD Laurent.

Je pars du même constat que mes collègues concernant l’augmentation des violences en ligne, particulièrement sous forme de cyberharcèlement et d’humiliation. Cette tendance est particulièrement visible dans le domaine des violences sexistes et sexuelles, bien qu’elle s’étende au-delà, et soulève des questions sur le rôle des plateformes dans la production des interactions. L’anonymat et la nature éphémère des interactions en ligne facilitent des comportements offensants qui seraient probablement inacceptables en face à face. Le « troll » typique des réseaux sociaux, caché derrière un pseudonyme, ne se comporterait probablement pas de la même manière dans sa vie quotidienne hors ligne. Cette dérégulation de la mécanique interactionnelle en ligne a été bien illustrée précédemment.

Ma recherche se concentre sur le rôle de la plateforme dans la production de ces offenses interactionnelles et de ces violences. Je soutiens que le contexte numérique, en particulier l’architecture de TikTok, supprime certains mécanismes de régulation des offenses que nous trouvons dans nos interactions ordinaires. Dans la vie réelle, un comportement offensant ou violent est généralement sanctionné par l’interlocuteur ou les pairs, puis suivi d’une tentative de réparation de l’interaction.

Mon étude repose sur trois mois d’immersion sur TikTok live, avec un focus particulier sur un passage en live d’AD Laurent, un influenceur de téléréalité connu pour ses contenus polémiques. Je précise toutefois qu’AD Laurent n’est pas représentatif de l’ensemble des influenceurs, mais fait partie d’une minorité très visible adoptant notamment une logique de court-termisme.

Ma première observation révèle que ces offenses sont souvent liées à la mise en scène du corps, puisque l’apparence des streamers sur TikTok live offre des ressources visuelles pour générer des discussions et des attaques. Dans le live étudié, le débat porte sur la féminité de la streameuse, avec des accusations infondées sur son identité de genre. Le régime de visibilité unidirectionnel de TikTok live, où l’audience peut voir les streamers sans être vue en retour, facilite la critique de l’apparence des streamers sans risque de réciprocité.

Ma deuxième observation montre que ces offenses servent souvent à augmenter la visibilité. Dans le cas étudié, le débat sur la féminité de la streameuse a entraîné une augmentation de 45 % de l’audience en seulement deux minutes. Cette dynamique peut être observée à travers le compteur d’auditeurs, indicateur de visibilité intégré au live, qui atteste en temps réel de l’audience. Il conviendrait d’ailleurs de s’interroger sur le rôle que joue cet outil dans la structuration des interactions produites en direct, de même que sur l’effet induit par l’affichage instantané de chaque nouvel abonnement. La plateforme TikTok, par son architecture, fait donc du gain de visibilité un moteur central des conversations publiques. Les échanges les plus spectaculaires, souvent conflictuels, offensants ou orientés vers la radicalisation, obtiennent de meilleures évaluations des audiences, comme en témoignent les commentaires encourageant la dispute.

Du côté d’AD Laurent, cela se traduit par un jeu avec les limites normatives pour visibiliser son contenu en direct. Il provoque et joue avec les règles d’interaction, de politesse et de respect, commettant des offenses pour produire du spectacle. L’architecture de la plateforme inverse finalement l’économie des échanges verbaux, puisque le contenu du propos devient un moyen au service de la visibilité plutôt qu’une finalité en soi. La situation prend ainsi la forme d’un combat conversationnel où deux interlocuteurs s’affrontent par une surenchère d’offenses, produisant le clash et la polémique jusqu’à atteindre les limites de respect et de politesse permises par l’ordre interactionnel.

Lorsqu’ils franchissent ces limites, les streamers risquent le bannissement, à l’image d’AD Laurent lorsqu’il a fini, à la fin du live, par aller trop loin et par être exclu du direct en raison de la multiplication des signalements émis par l’audience. Cette situation illustre le fragile équilibre qu’un tel influenceur doit maintenir entre la recherche de visibilité et l’approbation de la communauté. Il lui faut en effet produire une certaine forme de conflit afin de dynamiser et de rendre visible le live, sans pour autant se rendre détestable, car il doit conserver le soutien du public, lequel continue de lui offrir des cadeaux, de valider ses propos et de renforcer son positionnement. Il rend l’échange visible de manière subtile, tout en évitant d’endosser pleinement la responsabilité de la provocation.

D’ailleurs, à un moment du live, il transfère habilement la responsabilité du conflit sur l’influenceuse elle-même, en lui déclarant : « C’est toi la fille qui est dans le clash, tu es une meuf dans le clash, tu es complètement hystérique ». Ce faisant, il réactive des stéréotypes de genre, en particulier ceux associés aux femmes. Il n’en demeure pas moins que ce jeu avec les normes contribue, malgré tout, à les déplacer et à les transformer. Nous assistons à une radicalisation progressive des échanges car, à travers ses pratiques discursives, l’influenceur façonne de nouvelles manières de s’adresser à autrui, susceptibles d’être reprises et reproduites par son audience.

Mon dernier point concerne les recettes monétaires générées par ce type de spectacle. Les phrases chocs (ou punchlines) prononcées au cours du live donnent lieu à des récompenses sous forme de cadeaux, qui prennent la forme d’emojis animés, visibles à l’écran et offertes par les spectateurs en signe d’adhésion aux propos tenus par le streamer ou la streameuse. En l’occurrence, AD Laurent reçoit, dans ce contexte, une casquette, immédiatement après avoir adressé à l’influenceuse, de mémoire, la remarque suivante : « Toi, tu n’es pas une fille qui cherche à te poser », une phrase lourdement chargée d’allusion sexuelle. Ce qu’il exprime en réalité, c’est que l’influenceuse ne chercherait pas à s’engager avec un partenaire mais poursuivrait des relations essentiellement sexuelles. C’est à cet instant précis qu’il est gratifié du cadeau. Il s’agit bien d’une forme de validation symbolique et financière émanant de sa communauté, laquelle l’encourage à produire ce type d’énoncé offensant.

Une fois encore, nous constatons que l’économie propre à cette plateforme incite à la production de contenus rentables, dans la mesure où ceux-ci génèrent un soutien monétisé de l’audience. Cette dernière participe activement à la dynamique interactionnelle puisqu’elle peut soutenir, récompenser, encourager, mais également rejeter ou sanctionner les propos tenus en direct par les influenceurs.

En conclusion, il convient de rappeler que, sur TikTok, le contenu ne constitue plus une finalité en soi, mais devient un instrument au service de la visibilité. Pour capter l’attention et susciter l’engagement de l’audience, la transgression des normes ordinaires de respect et de politesse s’avère redoutablement efficace. Elle alimente ainsi une dynamique de radicalisation des échanges en ligne, à laquelle faisait justement référence tout à l’heure Shanley Clemot McLaren. Ce jeu avec les normes participe, par ailleurs, à leur déplacement, en engageant les individus dans l’élaboration de nouveaux principes de respect, de politesse et de ce qu’ils considèrent comme relevant de ce qu’ils se doivent les uns aux autres.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Cette audition me semble particulièrement importante, car elle nous fait entrer au cœur de l’un des enjeux majeurs qui nous concernent s’agissant de TikTok.

Tout d’abord, s’agissant de l’audience de ces contenus à caractère sexiste et masculiniste, identifiez-vous une singularité propre à cette plateforme ou constatez‑vous des logiques similaires à l’œuvre sur d’autres réseaux sociaux ?

Par ailleurs, êtes-vous en mesure d’identifier la part que représentent les mineurs parmi les publics concernés ? Disposez-vous, à ce titre, d’éléments chiffrés ou d’indications précises issues de vos travaux de recherche ou d’enquête ?

Selon vous, l’algorithme de recommandation de TikTok est-il capable de favoriser la diffusion de ces contenus et d’encourager les comportements qui en découlent et, le cas échéant, de quelle manière ?

En lien avec l’actualité récente, qui met en lumière AD Laurent, je souhaiterais également savoir si vous avez identifié d’autres figures françaises émergeant autour de ce type de contenus problématiques liés au sexisme et au masculinisme. Pourriez-vous nous fournir des exemples concrets de créateurs ou d’influenceurs ?

Par ailleurs, dans le cadre des échanges que vous avez pu avoir avec des jeunes garçons ou des familles touchés par ces contenus, avez-vous relevé l’existence de signes avant-coureurs permettant d’alerter les parents, les éducateurs, les professionnels de santé ou les enseignants ? Existe-t-il des indicateurs tangibles permettant de repérer précocement l’exposition de certains enfants à ces contenus problématiques ?

Enfin, madame Ferrari et monsieur Gault, pourriez-vous nous décrire les échanges que vous avez pu avoir avec la plateforme TikTok lors de la réalisation de votre enquête et de votre documentaire ?

Pour conclure, je formulerai une question plus générale, qui porte sur les recommandations que notre commission d’enquête aura à formuler. Qu’attendez‑vous de la part des institutions en général, et du législateur en particulier, pour renforcer l’efficacité des dispositifs de prévention et de sanction à l’égard des violences numériques à caractère sexiste, en particulier lorsqu’elles visent des mineurs ?

Mme Pauline Ferrari. Pour mes échanges avec TikTok durant mon enquête, j’ai procédé de manière classique en contactant leur service de presse pour solliciter une interview. Initialement, un entretien en personne avec le directeur de TikTok France avait été programmé, mais il a été annulé à la dernière minute pour des raisons officielles d’agenda. J’ai donc dû me contenter d’un échange par courriel. Les réponses fournies par TikTok se sont largement cantonnées à leurs conditions générales d’utilisation (CGU) et à leur politique de modération. Ils affirment notamment que plus de 99 % des contenus enfreignant leurs règles sont supprimés avant même d’être visibles par les utilisateurs, avec une vigilance accrue concernant les mineurs.

J’ai néanmoins soumis à TikTok plusieurs vidéos que je jugeais problématiques, relevant selon moi de discours masculinistes ou misogynes. À la suite de cet échange, ces vidéos ont été rapidement supprimées, alors que mes nombreux signalements antérieurs étaient restés sans effet.

Concernant d’autres influenceurs masculinistes particulièrement actifs sur TikTok, notamment lors de lives, la liste est malheureusement longue. Je peux citer Alex Hitchens, un jeune homme dont le discours est particulièrement dégradant envers les femmes, mais également La Menace, principalement actif sur YouTube mais présent aussi sur TikTok, ou encore des personnalités issues de l’extrême‑droite qui versent dans le masculinisme, comme Mme Thaïs d’Escufon, ancienne porte-parole de Génération Identitaire, ou encore M. Baptiste Marchais et M. Julien Rochedy. Il est important de noter que ces contenus s’interconnectent souvent et forment un écosystème cohérent.

L’audience de TikTok est difficile à cerner avec précision, notamment en raison de l’accès fréquent de mineurs de moins de treize ans à la plateforme, malgré les restrictions officielles. La vérification de l’âge étant aisément contournable, il est complexe d’établir une démographie exacte des utilisateurs. Néanmoins, l’impact des contenus masculinistes sur cette plateforme est significatif et mesurable à plusieurs égards. Les vidéos d’influenceurs tels qu’AD Laurent ou Alex Hitchens génèrent ainsi fréquemment des centaines de milliers de vues et de nombreux commentaires, suggérant une audience considérable et laissant penser, au regard de la façon de s’exprimer, à un public très jeune.

Mon expérience d’intervenante en éducation aux médias dans divers établissements scolaires de la région parisienne corrobore également cette popularité. Lors de mes interventions en classe, il est fréquent que certains élèves s’appellent par le terme « pupuce », une expression popularisée par AD Laurent. À plusieurs reprises, des références explicites aux propos d’Alex Hitchens ont également été formulées. Lorsque j’aborde la question des influenceurs masculinistes auprès de jeunes, je constate qu’ils les connaissent tous, garçons comme filles. Cette familiarité avec les discours masculinistes est observable dans l’ensemble des établissements où j’ai pu intervenir sur les enjeux de genre et de numérique. Dans au moins la moitié des classes, une majorité d’élèves connaissent ces influenceurs et, même s’ils ne les suivent pas activement, sont exposés à leurs contenus dans leur fil d’actualité.

Bien que les données précises soient rares, une étude menée par le chercheur suisse Manoel Horta Ribeiro sur les réseaux masculinistes anglophones de Reddit a identifié un million de comptes distincts. Nous pouvons donc raisonnablement supposer que sur TikTok, plateforme particulièrement prisée des jeunes et propice à la viralité, l’audience de ces contenus se compte en centaines de milliers, voire en millions.

L’influence de ces contenus se manifeste enfin par la diffusion de termes spécifiques dans le langage courant des jeunes. À titre d’exemple, le concept de « body count », initialement utilisé dans les cercles masculinistes pour désigner de manière genrée le nombre de partenaires sexuels, est désormais repris par des influenceurs grand public tels que Squeezie, traçant ainsi leur chemin dans l’esprit et le langage des jeunes.

TikTok, du fait de l’importante viralité de ses contenus, présente en outre un potentiel de radicalisation particulièrement préoccupant, dont la mécanique a été mise en lumière par une enquête du Wall Street Journal. L’algorithme de la plateforme, dont le fonctionnement exact reste opaque, tend ainsi à proposer des contenus de plus en plus spécifiques et potentiellement violents aux utilisateurs qui manifestent un intérêt pour ce type de vidéos.

Je conclurai en vous invitant à consulter le rapport du HCEFH de 2023, qui a analysé les 100 contenus les plus populaires sur Instagram, YouTube et TikTok. Cette étude a révélé que TikTok favorisait particulièrement la diffusion de représentations extrêmement sexistes des femmes, notamment dans le contexte des relations conjugales, mettant en scène des situations d’humiliation et de dégradation.

Mme Shanley Clemot McLaren. L’audience de ces contenus est extrêmement diverse, l’analyse des commentaires révélant une grande variété de profils. Un aspect particulièrement intéressant concerne la question de l’anonymat et du pseudonymat, puisque de nombreux commentaires sont publiés par des utilisateurs s’exprimant à visage découvert.

M. Pierre Gault. Sur la question de l’audience des contenus masculinistes, mes observations, qui vont au-delà des réseaux sociaux grand public, m’ont conduit à explorer des communautés privées pour lesquelles TikTok sert souvent de porte d’entrée. Dans ces espaces, j’ai pu constater que la tranche d’âge des participants s’étend principalement de quinze à trente ans, avec une concentration significative entre quinze et vingt et un ans.

Il est frappant de noter que la quasi-totalité de ces jeunes hommes affirme avoir découvert leurs influenceurs de référence à travers YouTube, les lives TikTok ou les contenus partagés sur cette plateforme. Cette observation souligne le rôle crucial de TikTok comme vecteur de diffusion de ces idéologies auprès d’un public jeune et potentiellement vulnérable.

M. le président Arthur Delaporte. Pourriez-vous préciser quels sont les influenceurs qui servent principalement de porte d’entrée à ces communautés ?

M. Pierre Gault. Actuellement, l’influenceur le plus emblématique et influent dans ce domaine est sans conteste Alex Hitchens, dont la stratégie repose sur l’organisation de débats ou de tables rondes où il se confronte délibérément à des opinions divergentes. Cette approche, axée sur la culture du clash, vise à maximiser sa visibilité et son impact médiatique.

Parallèlement, d’autres influenceurs masculinistes exercent une influence significative, bien que leur présence ne se limite pas à TikTok. Parmi eux, je peux citer M. Killian Sensei, sur lequel je me suis particulièrement penché, M. Jean‑Marie Corda, qui est très actif sur YouTube, BryanForReal ou encore Vinc Wolfenger.

Un phénomène inquiétant, qui se dégage de l’observation de ces influenceurs, est la surenchère constante dans la provocation et la radicalité des propos, l’objectif étant d’obtenir la punchline la plus choquante, garantissant ainsi une visibilité accrue et potentiellement une audience plus large. Cette dynamique m’a été confirmée lors d’un entretien avec Azur, jeune influenceur masculiniste, qui m’a expliqué sa stratégie consistant à élaborer des contenus délibérément provocateurs, comme une vidéo catégorisant les femmes en « chienne », « louve » et « brebis ». Ces comparaisons animales, profondément offensantes, sont soigneusement conçues pour susciter des réactions fortes et ainsi augmenter sa notoriété. D’ailleurs, cette approche lui a effectivement permis de connaître une croissance significative de son audience.

M. Tristan Duverné. Je souhaite poser deux questions essentielles : en quoi l’algorithme ou l’architecture de TikTok favorisent-ils les comportements violents et les violences sexuelles et sexistes (VSS), et quelles options politiques s’offrent à l’institution pour y remédier ?

Contrairement aux interventions précédentes qui se concentraient sur les violences des influenceurs et des créateurs de contenu, je propose de réduire l’importance accordée à la visibilité sur ces plateformes, tant dans l’algorithme que dans l’architecture. Par exemple, nous pourrions envisager de masquer le compteur de likes pendant les diffusions en direct, comme sur d’Instagram, afin que ce chiffre ne devienne pas une fin en soi, mais reste un moyen d’expression.

Je soulignais tout à l’heure que dans la vie ordinaire, une offense est généralement suivie d’une phase de régulation : la personne offensée, ou une figure d’autorité, intervient par un rappel à l’ordre, puis une phase de réparation s’instaure, au cours de laquelle l’auteur de l’offense est amené à présenter des excuses. Sur les réseaux sociaux, cette dynamique régulatrice ne s’applique plus de la même manière. Concernant les facteurs favorisant les violences et les offenses sur TikTok, j’en identifie quatre principaux. Premièrement, la communication anonyme permet aux internautes de ne pas mettre en jeu leur réputation personnelle lorsqu’ils offensent. Deuxièmement, le caractère éphémère des interactions, particulièrement marqué sur TikTok, supprime l’enjeu de maintenir de bonnes relations avec les personnes offensées puisque les « trolls » ou les haters ne courent pas le risque d’être sanctionnés. Troisièmement, l’asymétrie d’exposition, où les streamers exposent leur corps sans que l’audience ne le fasse, rend possible certaines offenses basées sur l’apparence physique, sans possibilité de riposte. Ce régime de visibilité à sens unique confère un pouvoir nettement supérieur à celui qui observe, comparé à celui qui est exposé, dans la mesure où le « troll », dissimulé derrière un compte anonyme ou fictif, échappe à toute possibilité de réponse ou de mise en cause directe de la part de l’influenceur. Enfin, le dernier facteur est l’absence de risque de violence physique due à la distance sociale et physique, qui contribue à une forme de désinhibition.

Pour contrer ces phénomènes, nous pourrions envisager des options visant à rétablir le contrôle social de nos interactions en ligne, non pas nécessairement par un contrôle étatique, mais plutôt par un contrôle entre pairs. Cela impliquerait de réfléchir à des inducteurs dans l’architecture même de la plateforme, qui permettraient de réactiver les mécanismes d’autorégulation et de contrôle social, dans une approche fondée sur la théorie du « nudge ».

Concernant le caractère éphémère des interactions, plusieurs pistes peuvent être explorées. Nous pourrions notamment envisager de forcer TikTok à créer des relations en ligne plus durables, sur le modèle de Facebook, où les utilisateurs interagissent sur le long terme, les incitant ainsi à modérer leurs propos. Nous pourrions également recréer une symétrie d’engagement et de visibilité, où celui qui critique doit pouvoir craindre d’être vu et critiqué en retour. Autrement dit, il faudrait que celui qui attaque puisse redouter une riposte. Une grande partie de nos interactions ordinaires repose sur ce principe de réciprocité, la violence exercée par autrui devant pouvoir susciter une réponse équivalente. C’est cette logique de don et de contre-don, propre à la régulation sociale, qui fait défaut sur TikTok. En somme, les utilisateurs devraient pouvoir craindre les conséquences de leurs offenses.

Enfin, la réintroduction du mécanisme de réputation, moins présent sur TikTok que sur Instagram, consisterait à interroger la levée partielle, voire totale, de l’anonymat en ligne. Alors que, dans le cadre des interactions ordinaires, le fait d’adopter une posture offensante engage la réputation personnelle de l’individu, les internautes peuvent, aujourd’hui, se créer en toute simplicité de nouveaux comptes ou de nouveaux pseudonymes afin de transgresser à nouveau les normes de l’échange, sans jamais subir les effets régulateurs du regard social. C’est comme si, dans l’espace numérique, il devenait possible de changer d’identité à l’infini dès lors qu’une faute d’interaction est commise, précisément pour échapper à toute forme de responsabilité sociale.

À partir de ce constat, deux options mériteraient d’être débattues. Une première option, relativement modérée, consisterait à restreindre la liberté de créer un nouveau compte ou de modifier son pseudonyme à chaque scandale. Cette contrainte inciterait les internautes à modérer leurs propos, grâce à la réintroduction d’une forme de continuité identitaire. Une seconde option, plus radicale mais sans doute plus efficace, viserait à renforcer le lien entre l’identité numérique et l’identité réelle de l’utilisateur. Il s’agirait, par exemple, de contraindre un individu à apparaître sur une plateforme comme TikTok sous son véritable nom, à l’image du système de vérification mis en place sur LinkedIn. Une telle mesure permettrait de réintroduire un contrôle social d’origine hors-ligne susceptible de s’exercer sur les comportements numériques de l’individu. Un utilisateur au comportement déviant ne pourrait ainsi plus se dissimuler derrière un pseudonyme ou un faux compte pour multiplier les comportements abusifs ou malveillants. Il serait, dès lors, identifiable par son entourage personnel, qui aurait la possibilité de le retrouver et de le confronter à ses agissements en ligne.

Un tel mécanisme suppose cependant que l’entourage hors-ligne exerce effectivement une forme de veille sur l’activité numérique des individus, notamment des plus jeunes. Il est donc nécessaire de mener, en parallèle, un travail de sensibilisation auprès des familles, afin qu’elles suivent les comptes de leurs enfants et soient en mesure de les retrouver facilement, ce qui devient possible lorsque ceux-ci n’agissent plus sous pseudonyme.

Ce type de mesure aurait pour effet de réintroduire, d’une part, un contrôle social diffus et, d’autre part, un potentiel contrôle d’ordre étatique. Il soulève toutefois deux enjeux majeurs que sont la question du droit à l’anonymat et celle de la protection des données personnelles. En tant que scientifique, je les présente comme des options à débattre, sans nécessairement les soutenir en tant que citoyen.

Mme Shanley Clemot McLaren. Concernant l’audience des contenus, nous observons une application parfaite de la pyramide de la haine en ligne. L’exposition à des contenus apparemment anodins, ou à des propos légèrement misogynes, suffit à déclencher un mécanisme algorithmique proposant des contenus qui deviennent de plus en plus radicaux et extrémistes. Ainsi, d’un contenu misogyne banal, on passe rapidement à du contenu masculiniste radical ou extrémiste. Plusieurs enquêtes, notamment celle du Wall Street Journal et de Media Matters for America, corroborent ce phénomène. Des chercheurs, créant des comptes fictifs neutres, constatent qu’après seulement quelques centaines de vidéos, l’algorithme propose systématiquement des contenus misogynes, discriminatoires, puis radicaux.

La spécificité de ces contenus réside dans leur impact sur un public très jeune. J’en ai fait l’expérience personnelle avec mon frère de onze ans qui, bien que n’ayant pas de compte sur TikTok, a été exposé sur YouTube à des contenus d’Alex Hitchens, initialement publiés sur TikTok puis repris en format YouTube shorts. Cet exemple illustre la difficulté de sensibiliser à ces questions, même au sein de sa propre famille, malgré mon engagement de longue date contre les cyberviolences sexistes et sexuelles.

TikTok se distingue par son public particulièrement jeune, garçons comme filles, et par son caractère addictif lié à son architecture basée sur les likes, les cadeaux, les lives et les interactions constantes. Nous observons également une romantisation des contenus misogynes et extrémistes, notamment masculinistes, à travers l’utilisation de musiques patriotiques ou guerrières, créant une forme de fictionnalisation attrayante, particulièrement efficace auprès des jeunes garçons.

Concernant le concept de distance facilitant les cyberviolences, souvent appelé « effet cockpit », je souhaite apporter une nuance car nous constatons, chez Stop Fisha, que l’anonymat n’est plus vraiment un enjeu. Nous y préférons désormais le terme de pseudonymat. De nombreux utilisateurs n’hésitent plus, aujourd’hui, à poster des contenus misogynes ou extrémistes à visage découvert, que ce soit sur des plateformes grand public telles que TikTok ou plus confidentielles telles que Telegram. La seule crainte qui subsiste concerne la réputation professionnelle lorsque nous parvenons à identifier leur profil LinkedIn. Cette impunité grandissante remet en question la notion de distance.

Il est également crucial de souligner le continuum entre les violences en ligne et hors ligne. Dans 90 % des cas que nous accompagnons, en effet, les cyberviolences sur TikTok ou d’autres plateformes s’accompagnent de violences physiques dans la vie réelle.

Quant aux figures influentes, outre Alex Hitchens déjà mentionné, Bassem et Nasdas sont particulièrement actifs sur Snapchat. Leurs contenus sont souvent enregistrés et rediffusés sur TikTok par d’autres utilisateurs, générant débats et viralité autour de propos misogynes. Ce phénomène illustre la façon dont la misogynie génère de l’attention, du profit et de la viralité, tant pour les utilisateurs qui augmentent leur base de fans que pour les plateformes qui en tirent des bénéfices économiques.

Enfin, les lives constituent une technique privilégiée par ces influenceurs, car ils sont mal régulés par TikTok. Le processus de signalement d’un live est particulièrement problématique, ne permettant pas un traitement efficace des contenus problématiques diffusés sur plusieurs heures. Premièrement, le processus actuel ne permet pas de spécifier précisément l’heure et le contenu exact d’un incident survenu pendant un live. Cette lacune devrait être comblée pour améliorer l’efficacité des signalements. Deuxièmement, l’architecture de la plateforme ne permet pas de soumettre au service de modération une capture vidéo d’un acte de cyberviolence survenu lors d’un direct. Ces failles dans la gestion des lives sont préoccupantes, d’autant plus que ce format est une source de revenus importante pour TikTok.

Concernant les signes de misogynie, ils sont souvent explicites et facilement détectables, reprenant des propos entendus couramment dans les cours de récréation.

Quant aux possibilités d’action des législateurs, je considère qu’il est extrêmement complexe de modifier l’architecture de TikTok, car elle constitue l’essence même de la plateforme et de son modèle économique. TikTok reste une entreprise multinationale dont nous sommes, en quelque sorte, le produit, puisque nous ne payons pas pour l’utiliser. Toute modification substantielle de son fonctionnement impacterait directement sa raison d’être commerciale.

Néanmoins, les pouvoirs publics disposent de leviers d’action, notamment en matière de prévention, essentielle face à la difficulté de réguler l’espace numérique. Je reste optimiste quant à notre capacité à progresser dans ce domaine puisqu’en comparaison avec la situation d’il y a cinq ans, où la modération était quasi inexistante, des avancées significatives ont été réalisées.

L’un des axes prioritaires devrait être le renforcement de la prévention, notamment à travers une application plus large du programme Phare. J’ai personnellement constaté que ce dispositif n’est que peu mis en œuvre, y compris dans des cas avérés de harcèlement et de cyberharcèlement touchant des enfants de mon entourage. Son déploiement semble actuellement limité aux établissements volontaires et disposant de ressources financières suffisantes, créant ainsi de nouvelles inégalités.

Au niveau national, il est impératif d’augmenter les moyens alloués à la lutte contre la cyberviolence, car les effectifs de la police numérique française sont notoirement insuffisants. La plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (Pharos) ne compte ainsi qu’une quarantaine d’agents pour l’ensemble du territoire. Les équipes de l’Office mineurs (Ofmin) et de la gendarmerie en charge des enquêtes et du retrait de contenus en ligne sont également sous-dimensionnées. Cette pénurie de ressources entrave considérablement notre capacité à traiter efficacement les signalements des citoyens.

La création du parquet numérique à Nanterre, à la suite de la loi n° 2020‑766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, dite loi Avia, est une initiative positive. Cependant, ses moyens restent limités, ce qui se traduit par un traitement insuffisant des affaires. J’ai moi-même déposé des plaintes pour cyberviolence qui n’ont jamais abouti, faute de ressources suffisantes.

Pour réguler efficacement TikTok, nous devons donc impérativement investir dans nos propres capacités de contrôle et d’action. Je recommande vivement d’auditionner les représentants du pôle national de lutte contre la haine en ligne (PNLH), de Pharos, de l’Ofmin et de la cellule de la gendarmerie en charge des enquêtes numériques pour obtenir leur perspective sur ces enjeux.

M. Pierre Gault. Lors de mes entretiens avec des chercheurs, j’ai notamment rencontré Stéphanie Lamy, spécialiste de ces questions, qui qualifie les influenceurs masculinistes de « marchands de misère ». Cette expression me semble particulièrement appropriée car elle met en lumière la capacité de ces personnes à exploiter le mal-être de jeunes hommes, à tirer profit de leur vulnérabilité et à les entraîner vers une radicalité croissante, tout en en faisant fructifier un véritable business.

M. Thierry Perez (RN). Les témoignages que nous avons entendus sont véritablement glaçants. Au regard de l’ampleur du phénomène, et en dépit des nombreuses pistes d’action évoquées, ne courons-nous pas le risque de nous engager dans une démarche dont l’efficacité resterait dérisoire ? N’existe-t-il pas un risque que tout ce que nous parvenons à supprimer soit immédiatement remplacé, en raison de la nature même de ces plateformes et du besoin viscéral d’audience de certains utilisateurs ? La quête d’audience et les motivations financières ne vont‑elles pas constamment dégrader les améliorations que nous tentons d’apporter ? En somme, pensez-vous qu’il soit réellement possible d’obtenir des résultats durables dans ce domaine ?

Mme Pauline Ferrari. Je partage l’avis selon lequel la régulation des multinationales du numérique représente une tâche d’une extrême complexité, dans la mesure où nous faisons face à des systèmes techniques et économiques dont l’ampleur et la structuration dépassent largement les capacités d’action d’une nation, d’un État ou même d’un cadre législatif isolé. Toutefois, cela ne signifie pas que nous sommes impuissants. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a notamment initié des démarches pour obtenir davantage de transparence, ne serait-ce que concernant le nombre de modérateurs francophones capables de traiter les contenus en français. Ces informations restent difficiles à obtenir de la part de TikTok et, malgré la menace de sanctions financières, les multinationales préfèrent souvent s’acquitter de l’amende plutôt que de se conformer à ces obligations. L’Arcom, bien que son rôle soit principalement consultatif, constitue un outil puissant pour notre démocratie et doit s’intéresser à internet, comme vous le faites actuellement.

Comme vous l’avez justement souligné, nous parlons de TikTok, Instagram et Snapchat mais, en matière de radicalisation, plus nous repoussons certains contenus ou groupes hors des plateformes grand public, plus ils se réfugient sur des canaux plus discrets comme Discord ou des messageries cryptées telles que Telegram. L’extrême droite, par exemple, utilise massivement les canaux Telegram. Il est donc nécessaire de nouer des partenariats avec ces plateformes pour devenir des partenaires de confiance, comme c’est le cas pour Stop Fisha et l’association e‑Enfance.

Au-delà des réseaux sociaux, je souligne souvent le fait que les cyberviolences s’inscrivent dans un continuum de violences faites aux femmes et aux minorités de genre. Dans la mesure où ce que nous observons en ligne reflète ce qui se passe hors ligne, la régulation des plateformes numériques est indispensable mais elle doit s’accompagner d’une réduction des remarques misogynes et du sexisme dans la vie réelle.

Dans cette optique, je crois fermement au pouvoir de l’éducation. Or le programme Phare rencontre de nombreuses difficultés dans son application au sein des établissements scolaires. Dans les écoles où j’interviens, je constate que le manque de moyens n’est pas l’unique problème, puisque les enseignants eux‑mêmes sont insuffisamment formés à ces questions et ne savent pas comment réagir. Nous observons également un manque de connaissances du côté des forces de l’ordre concernant les plaintes pour cyberviolences, alors que ces cas offrent souvent le plus de preuves matérielles, comme des captures d’écran, et la possibilité d’identifier les auteurs. Certains policiers et gendarmes ne maîtrisent pas ces outils, tout comme du côté de la magistrature et de la justice. Cette problématique s’inscrit donc dans un cadre plus large de lutte contre les violences faites aux femmes.

Les polémiques et les scandales accumulés par TikTok ne portent pas uniquement sur la question du masculinisme. J’estime que la plateforme a tout intérêt, pour son image et sa stabilité, notamment sur le territoire européen, à se conformer à certaines règles. Des mesures peuvent être mises en place, car personne ne souhaite voir ses enfants devenir d’horribles misogynes, voire des tueurs de masse. Nous parlons ici du masculinisme, mais les véritables conséquences sont les féminicides, les attentats, les meurtres de femmes et de jeunes filles, ou les suicides de jeunes filles à cause de vidéos diffusées sur TikTok sans leur consentement.

Mme Shanley Clemot McLaren. La tâche est, en effet, particulièrement ardue, car nous sommes démunis face à cette déferlante. Le combat contre ces multinationales et leurs architectures peut être comparé à la lutte en faveur de l’écologie, qui implique également la nécessité d’une régulation. Les solutions pertinentes peuvent ainsi devenir des sources d’inspiration pour d’autres luttes.

Je considère la situation avec espoir et optimisme, au regard des évolutions que j’ai pu observer et des actions entreprises au cours des cinq dernières années. L’entrée en vigueur du DSA, adopté en 2022, constitue à la fois la première loi transnationale sur ce sujet et le symbole d’une volonté réelle d’action commune de la part des États contre ces plateformes. Je note toutefois que les sanctions financières prévues par cette directive font actuellement l’objet de négociations de la part des acteurs du numérique, ce qui peut remettre en question l’application concrète du texte. Nous devrons rester attentifs, dans les prochains jours, à l’évolution de la situation.

Toujours dans le cadre du DSA, Meta a récemment publié, dans le cadre des obligations qui lui sont imposées, le nombre de modérateurs humains qu’elle emploie. Pour la langue française, ce chiffre s’élève à 226 modérateurs actifs au sein de l’Union européenne. La France fait ainsi partie des pays disposant du plus grand nombre de modérateurs opérant dans sa langue. En ce qui concerne TikTok, je n’ai, pour l’heure, pas eu connaissance de données chiffrées équivalentes. Il est toutefois possible que ces éléments soient prochainement rendus publics, puisque cette publication figure parmi les obligations prévues par le DSA.

Au-delà des enjeux spécifiques liés à la cyberviolence ou aux discours masculinistes, il est essentiel de comprendre l’architecture d’ensemble instaurée par le DSA. Celui-ci prévoit notamment un dispositif de risk assessment, autrement dit une évaluation des risques que chaque plateforme est tenue de réaliser et de transmettre. Cette évaluation doit prendre en compte la diffusion de contenus illicites, les atteintes potentielles aux droits des utilisateurs, ainsi que les risques systémiques que ces contenus peuvent faire peser sur les sociétés. Il serait donc particulièrement utile d’examiner le contenu de ces évaluations, d’en connaître la date de publication et d’en analyser la teneur, afin de vérifier si TikTok, en particulier, s’acquitte effectivement de ses obligations.

Il me semble qu’il existe, en ce domaine, une dynamique positive, mais qu’elle reste insuffisante au regard des défis posés. Le DSA, tout comme la loi « SREN », peuvent constituer les premiers jalons d’un cadre de régulation plus ambitieux, en tant que fondations d’une action publique plus structurée. Il est également souhaitable d’envisager des mécanismes juridiques ou réglementaires plus innovants, à la hauteur des évolutions constantes que connaît l’espace numérique, et notamment TikTok.

Nous devons, en tant que société, nous interroger sur notre capacité à inventer, de notre côté, des réponses nouvelles. Je n’ai pas, à ce stade, de solution à proposer, mais je plaide pour un travail collectif d’analyse, de réflexion, et de concertation.

M. Tristan Duverné. Concernant ce besoin d’audience, qui sera sans doute remplacé à terme par d’autres formes de reconnaissance, je souhaite rappeler qu’il ne s’agit nullement d’un besoin naturel ou inné. Ce besoin est une construction sociale, historiquement située, façonnée en grande partie par les médias eux-mêmes. En ce sens, agir sur les médias revient également à agir sur le besoin d’audience. Il est important de garder à l’esprit ce caractère construit pour penser des leviers d’action pertinents.

Par ailleurs, en ce qui concerne cette impression d’impuissance, il me semble que certaines mesures récentes démontrent au contraire que l’État dispose d’un pouvoir réel d’intervention. L’hypothèse d’interdire TikTok aux mineurs a bien été évoquée, ce qui témoigne d’une capacité à agir de manière contraignante sur l’accès à la plateforme. Si l’État peut envisager une telle interdiction, il me paraît raisonnable de considérer qu’il pourrait également imposer des modifications plus ciblées, par exemple en exigeant la désactivation du compteur de visibilité ou en exerçant une pression sur TikTok pour qu’une partie de son architecture algorithmique soit revue.

Pour résumer ma proposition, qui s’inscrit dans une perspective sociologique, il s’agirait de rétablir une forme de contrôle social, qui permettrait d’éviter de recourir à un contrôle exclusivement étatique, lourd et peu réaliste, reposant sur une surveillance massive et continue du contenu. Il est en effet peu envisageable, compte tenu du volume ininterrompu de contenus produits chaque jour, de mobiliser une armée de modérateurs ou de policiers du numérique.

L’enjeu consiste donc à s’appuyer sur l’architecture même de TikTok pour restaurer des mécanismes de régulation sociale. Comme je l’évoquais précédemment, la réintroduction de la réputation sur la plateforme pourrait produire un effet tangible sur certaines formes de violence verbale ou symbolique. Une telle orientation permettrait à l’État de limiter son implication directe dans la surveillance tout en renforçant l’efficacité de la modération par des outils structurels moins consommateurs de ressources et d’énergie.

M. le président Arthur Delaporte. Je tiens à vous remercier pour la qualité de vos propos ainsi que pour l’ensemble des propositions formulées au cours de cette discussion. Il me semble qu’un point essentiel qui a clairement émergé est la nécessité de s’interroger sur les mécanismes mêmes de la plateforme et, plus précisément, sur la manière dont son architecture favorise certains comportements masculins, sexistes, et donc pour partie répréhensibles au regard de la loi. En effet, plusieurs de ces comportements tombent sous le coup de dispositions pénales, même si, comme vous l’avez justement souligné, leur prise en charge par le système judiciaire demeure aujourd’hui difficile et limitée dans sa portée.

Vous avez d’ailleurs pointé avec précision l’une des faiblesses de la réponse judiciaire française en la matière, et nous aurons l’occasion d’approfondir ces questions dans le cadre des futures auditions que nous mènerons, y compris avec certains des acteurs évoqués au cours de vos interventions.

Je me permets de partager un retour d’expérience personnel. Lorsque je me rends dans les classes de CM2, il m’arrive régulièrement de demander aux élèves de me citer les tiktokeurs qu’ils connaissent, et les noms d’Alex Hitchens ou La Menace reviennent très fréquemment. Or il suffit de consulter leurs comptes pour constater à quel point il est préoccupant de voir ces figures devenir des références familières pour des enfants aussi jeunes.

Vous avez en outre évoqué les contenus que vous avez signalés comme contrevenant aux règles de la plateforme, sans pour autant qu’ils soient reconnus comme tels. Si vous disposez d’exemples précis de signalements ayant donné lieu à une absence de réponse, ou à une réponse considérée comme insuffisante, cela serait particulièrement utile pour nos travaux.

Mme Pauline Ferrari. Parmi les contenus que j’ai récemment signalés, figure notamment une vidéo d’Alex Hitchens dans laquelle il affirme que « toutes les femmes sont des putes jusqu’à preuve du contraire ». Ce contenu n’a pourtant pas été jugé contraire aux règles d’utilisation de la plateforme.

Une autre vidéo, largement diffusée sur TikTok, a fini par être supprimée, sans doute en raison du tollé qu’elle a suscité. Toutefois, lors de mon premier signalement, aucune mesure n’avait été prise. Il s’agissait d’une séquence publiée par l’influenceur La Menace, désormais installé à Dubaï, qui commence par ces mots : « J’ai décidé de goûter le matcha, cette boisson de pédé servie par une lesbienne de 120 kilos avec un piercing. » Ces propos, que j’ai pourtant signalés, n’ont pas été considérés comme enfreignant les règles d’utilisation de TikTok.

Je précise également que, du fait de mon travail sur le masculinisme et l’extrême droite, j’ai moi-même été victime de cyberharcèlement sur plusieurs plateformes, en particulier sur X. Là encore, les signalements que j’ai effectués n’ont jamais donné lieu à une quelconque réaction de la part des modérateurs.

M. le président Arthur Delaporte. Pourrez-vous nous transmettre par courriel les archives des signalements que vous avez effectués ? Cela nous permettra d’interroger TikTok sur les raisons de la non prise en compte de vos alertes.

Mme Shanley Clemot McLaren. Nous accompagnons actuellement une créatrice de contenu très suivie sur TikTok, connue sous le nom de Ranelle, qui est victime de cyberviolences depuis près d’un an et demi. Malgré cet accompagnement, elle subit un harcèlement en ligne massif, accompagné d’actes de doxing. Lors d’un live qu’elle a animé, l’ensemble de ses données personnelles a été divulgué en temps réel par des internautes présents sur le direct. Ce harcèlement a atteint un degré de gravité extrême, avec des menaces visant directement sa nièce, incluant des appels explicites au viol. Elle a déposé plainte pour ces faits, mais les cyberviolences qu’elle subit sur TikTok ne cessent de croître, en dépit des signalements réguliers effectués.

Un autre cas concerne Aïcha, victime de la diffusion non consentie de contenus anciens, relayés par son ex-compagnon. Ces contenus continuent à circuler sur TikTok, relayés massivement par d’autres utilisateurs. Là encore, bien que de nombreux signalements aient été effectués, seuls certains contenus sont supprimés, tandis que d’autres persistent.

Je souhaite également évoquer un contenu qui m’a particulièrement choquée il y a environ une semaine, au moment de l’explosion des groupes « Ficha » dans les Hauts-de-Seine. Des contenus extrêmement violents ont alors circulé sur TikTok. Nous avons procédé à des signalements, mais aucune réponse ne nous a été adressée dans un premier temps. Ce n’est qu’après être passés par Stop Fisha que les suppressions ont commencé à être effectuées. Ce contraste est révélateur du fait que les contenus signalés par des utilisateurs individuels ne suscitent souvent aucune réaction, tandis que ceux signalés par une association reçoivent une réponse. Il est important de souligner cette inégalité dans le traitement des signalements.

Enfin, je souhaite mentionner un dernier cas, qui ne relève pas du sexisme mais de l’antisémitisme. J’ai récemment observé une trend particulièrement inquiétante sous la forme d’un extrait sonore contenant un discours à la gloire d’Adolf Hitler utilisé comme bande-son sur TikTok. De nombreuses vidéos, publiées tant par des influenceurs que par des utilisateurs lambda, le reprenaient. On y voyait, entre autres, des personnes se filmer à la salle de sport en train de soulever des poids, le tout accompagné de hashtags explicitement antisémites. Ce phénomène ne se limite pas à la France, mais s’étend à d’autres pays également. Là encore, la modération semble totalement défaillante.

M. le président Arthur Delaporte. Quels sont ces hashtags que vous avez pu observer ? Les avez-vous signalés ?

Mme Shanley Clemot McLaren. Il s’agit le plus souvent de chiffres qui font référence à l’Holocauste ou à des codes antisémites. Je pourrai vous transmettre les captures d’écran de ces éléments qui ont, en effet, également fait l’objet de signalement pour apologie de crimes et antisémitisme. Les retours que j’ai reçus indiquaient qu’ils ne contrevenaient pas aux règles d’utilisation de TikTok.

M. le président Arthur Delaporte. Nous aurons l’occasion d’interroger TikTok à ce sujet.

Des liens manifestes semblent se dessiner entre certains contenus masculinistes et des discours relevant de l’extrême droite, voire de l’antisémitisme. Pourriez-vous approfondir cette articulation ?

Mme Pauline Ferrari. Si toutes les personnes qui se réclament du courant masculiniste ne relèvent pas nécessairement de l’extrême droite, tous les influenceurs d’extrême droite véhiculent en revanche, de manière systématique, une vision stéréotypée et profondément masculiniste des rôles genrés. Ce que j’ai pu observer, notamment depuis 2020, avec la montée en popularité des contenus masculinistes en ligne, c’est l’émergence d’un phénomène de recyclage idéologique. Certains influenceurs ou influenceuses historiquement rattachés à la sphère d’extrême droite se réorientent vers des thématiques masculinistes, dans une stratégie visant à capter un public plus jeune et à l’amener progressivement vers ce courant politique.

Un exemple particulièrement révélateur est celui de Thaïs d’Escufon, qui publie aujourd’hui des vidéos centrées sur les relations entre les hommes et les femmes, dans lesquelles elle relaie à la fois de fausses informations présentées comme scientifiques et des propos normatifs à l’égard des femmes. Elle affirme notamment qu’une femme devrait rester à la maison ou encore qu’une femme ayant eu trop de partenaires sexuels ne serait pas digne de confiance.

Ce type de convergence idéologique s’observe également chez d’autres influenceurs issus de la mouvance d’extrême droite. La Menace, que nous avons déjà évoqué, affiche notamment des positions politiques très explicites. On retrouve également des figures plus anciennes, comme Julien Rochedy, ancien cadre du Front national, qui s’est spécialisé depuis plusieurs années dans la diffusion de discours portant précisément sur ces thématiques. D’autres personnalités connues de l’extrême droite, telles que Papacito, véhiculent également une vision profondément masculiniste des rapports sociaux.

Ce constat vaut d’ailleurs au-delà des seules questions liées aux rôles genrés. Il se vérifie également dans la manière dont ces influenceurs abordent la transidentité, ou plus largement les thématiques LGBTQIA+, avec une insistance marquée sur des discours transphobes, souvent d’une grande violence à l’égard des personnes concernées. Il s’agit là d’un axe récurrent dans les contenus masculinistes, qui mobilise fortement ces sphères idéologiques.

Cette dynamique donne parfois lieu à des rapprochements absurdes entre des figures qui relèvent de profils très différents, comme c’est le cas pour Alex Hitchens, un homme racisé, et Thaïs d’Escufon, qui apparaissent ensemble dans certaines vidéos.

M. Tristan Duverné. Un point qui me semble particulièrement intéressant dans l’usage de TikTok est celui du choc culturel. La plateforme engendre en effet des frictions sociales qui résultent de la mise en contact de groupes porteurs de pratiques, de normes et de valeurs très différentes. En cela, la plateforme tend à brouiller certaines frontières sociales et géographiques en exposant les utilisateurs à des réalités qu’ils n’auraient probablement jamais rencontrées dans leur environnement quotidien hors ligne.

TikTok confronte ainsi chaque individu à des contenus et à des univers sociaux dont il aurait autrement été largement éloigné. C’est cette logique qui produit, selon moi, de nombreuses tensions et incompréhensions. Pour illustrer ce phénomène, je peux citer l’exemple des groupes féministes et des groupes masculinistes, qui, sur TikTok, coexistent dans un même espace numérique, alors que ces deux groupes n’auraient que très rarement été amenés à se côtoyer dans la vie réelle. Or cette cohabitation forcée, dans un même environnement algorithmique, fait naître des frictions particulièrement vives.

TikTok nous confronte donc à des systèmes de valeurs et à des modes d’expression qui peuvent nous sembler extrêmement éloignés, voire étrangers, et c’est précisément cette exposition à l’altérité qui alimente, en grande partie, les conflits d’interprétation et les tensions observées sur la plateforme.

M. le président Arthur Delaporte. Ma dernière question porte sur les stratégies de monétisation des contenus. Il me semble essentiel d’interroger la manière dont tout cela devient un modèle économique à part entière. Au-delà des lives, qui permettent de générer des revenus directs, il existe également des dispositifs plus élaborés visant à inciter les utilisateurs à s’abonner ou à accéder à des contenus payants. Sur certaines chaînes, des liens externes renvoient vers des formations, des services ou des produits à acheter.

Si vous disposez d’éléments à ce sujet, nous serions particulièrement intéressés par un retour, y compris ultérieurement par écrit. La question de la monétisation me semble en effet centrale, car elle constitue le socle économique de ces pratiques, aussi bien pour la plateforme elle-même, qui en tire des ressources, que pour les influenceurs.

Mme Pauline Ferrari. Il ne faut pas perdre de vue le fait que les influenceurs masculinistes demeurent, fondamentalement, des influenceurs, et que le principe même de l’influence repose sur une logique de monétisation, c’est-à-dire sur la capacité à vendre. Certains commercialisent des compléments alimentaires, des programmes de coaching en nutrition ou en développement personnel, mais certains opèrent également sur le marché des idées. Ils commercialisent ainsi des livres électroniques, des formations en ligne censées permettre de devenir comme eux, d’apprendre à séduire les femmes ou d’atteindre un idéal de virilité. Dans les formes les plus extrêmes de cette dynamique, certains promeuvent leurs stages de survivalisme ou des retraites autour de la masculinité, parfois teintées d’ésotérisme, de spiritualité, voire de références religieuses. Il s’agit donc d’un véritable modèle économique structuré, dont le cœur repose sur la marchandisation d’une vision du monde.

Ce phénomène s’inscrit, par ailleurs, dans la filiation directe de figures comme Andrew Tate, célèbre influenceur masculiniste anglophone, qui a bâti l’essentiel de son empire financier sur des pratiques de proxénétisme en ligne, à travers une industrie de camgirls. Dans ce contexte, il n’est guère étonnant de constater, y compris sur les réseaux sociaux francophones, l’émergence d’une nouvelle génération d’utilisateurs se présentant comme de futurs « OnlyFans managers », aspirant à reproduire ces modèles d’exploitation du corps féminin à des fins de profit personnel.

Mme Shanley Clemot McLaren. Il est en effet frappant de constater qu’Andrew Tate a pu continuer à exercer ses activités durant plusieurs années, alors même qu’un nombre important d’accusations avaient déjà été portées contre lui. Cette situation interroge directement la responsabilité des plateformes, et en particulier celle de TikTok, dans la diffusion et la valorisation de ce type de contenus.

Pour terminer, les comptes « Ficha » et les cyberviolences ciblent clairement les femmes et les filles, notamment par la diffusion de contenus intimes, ce que je considère être une forme d’exploitation sexuelle facilitée par le numérique. J’ai récemment observé des comptes « Ficha » sur TikTok qui redirigent vers des chaînes Telegram, certaines proposant un accès payant à davantage de contenu. TikTok sert ainsi de vitrine pour promouvoir ces chaînes payantes qui offrent du contenu explicite.

Concernant la monétisation, le lancement prochain du TikTok shop soulève des questions. Cette nouvelle fonctionnalité permettra aux marques et aux créateurs de contenu de faire davantage de publicité. Il faudra donc examiner si les influenceurs masculinistes pourront également bénéficier de TikTok shop et quels types de publicités seront ciblés sur les femmes et les filles.

Je tiens également à mentionner les tendances Tradwife et SkinnyTok qui renforcent la culture de la misogynie en ligne et dont TikTok tire profit.

M. le président Arthur Delaporte. Je vous remercie pour votre engagement et vous invite à compléter nos échanges en transmettant à notre secrétariat tout complément d’information que vous jugeriez pertinent pour les travaux de cette commission d’enquête.

23.   Audition de M. Bruno Gameliel, psychopédagogue, psychothérapeute (vendredi 16 mai 2025)

Puis la commission auditionne M. Bruno Gameliel, psychopédagogue, psychothérapeute ([22]).

M. le président Arthur Delaporte. Je vous souhaite la bienvenue et vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Bruno Gameliel prête serment.)

M. Bruno Gameliel, psychopédagogue, psychothérapeute. En préambule, je souhaite préciser que la psychopédagogie, domaine souvent méconnu, est une branche de la psychologie du développement qui s’intéresse aux problématiques scolaires. Cette discipline s’est développée en France après la seconde guerre mondiale pour traiter les difficultés d’apprentissage liées à des facteurs externes, notamment les traumatismes de guerre.

Mon activité principale se concentre donc sur les problématiques scolaires, y compris celles liées au numérique et aux écrans. Je précise ici que je ne diabolise pas les écrans et le numérique, dont les effets sur le plan cognitif et comportemental peuvent être positifs. La question devient cependant délicate lorsqu’il s’agit des mineurs.

Lors d’une récente conférence, j’ai énoncé le concept de « délégation cognitive », qui illustre le fait que la technologie constitue aujourd’hui un problème sociétal, voire civilisationnel. Les praticiens, tout comme les professionnels de la santé ou des milieux scolaire et universitaire, constatent en effet une dépendance croissante des apprenants aux écrans et à certaines applications, ce qui entraîne des effets négatifs sur la cognition et au-delà. Nous observons la perte de certains principes et valeurs fondamentales, tels que les notions d’effort, de respect, d’autorité et de sens. Cette situation affecte non seulement le développement cérébral des enfants et des adolescents, mais également leur motivation et leur esprit critique. Les écrans, initialement passifs comme la télévision, ont évolué vers des formes davantage interactives avec l’essor d’internet, des jeux vidéo puis des réseaux sociaux et des applications, parfois rattachées à des intérêts économiques. Ces changements ont profondément modifié les comportements des apprenants mineurs, impactant à la fois leur éducation, leurs relations familiales et leur scolarité.

Le défi est d’autant plus grand que la technologie évolue à un rythme extrêmement rapide, nécessitant une vigilance constante et une approche à la fois théorique, empirique et analytique afin de réagir de manière pertinente.

Concernant TikTok spécifiquement, que j’ai récemment découvert, je trouve ironique que son nom soit l’acronyme, en psychologie, des troubles involontaires verbaux et physiques et des troubles obsessionnels compulsifs.

Il me semble ainsi indispensable d’adopter une approche analytique envers nos mineurs face à cette plateforme et aux écrans en général. Comme le soulignait Jean-Jacques Rousseau en 1762 dans la préface de L’Émile : « Commencez donc par mieux étudier vos élèves, car très assurément vous ne les connaissez point. » L’attention des professionnels de santé, des éducateurs et des parents est donc fondamentale.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. J’aimerais que vous approfondissiez l’impact de l’usage de TikTok sur la santé mentale des jeunes, que vous observez. Vous avez évoqué les effets des réseaux sociaux sur l’attention et la capacité de concentration des jeunes. Pouvez-vous développer ce point, notamment concernant l’impact du visionnage prolongé de vidéos très courtes sur leur concentration et leur raisonnement ?

Nous avons, hier, auditionné des familles de victimes, dont certains enfants se sont malheureusement suicidés. Ces témoignages, empreints d’une grande émotion, ont soulevé plusieurs questions cruciales. Certains parents ont notamment indiqué que leurs enfants avaient visionné des images inappropriées qui sont restées « imprégnées dans leur rétine ». Pouvez-vous commenter l’impact de telles images sur le développement et la santé mentale des jeunes ?

Nous avons également perçu la difficulté des parents confrontés à un enfant qui s’enferme dans les réseaux sociaux et dans des communautés centrées sur le mal-être. Bien que ces enfants aient été suivis par des professionnels de santé, les parents avaient le sentiment d’être tenus à l’écart. Tous les parents nous ont confié leur sentiment d’impuissance face à la situation de leurs enfants et fait savoir qu’ils manquaient cruellement d’outils pour les accompagner et les interroger efficacement, se retrouvant ainsi isolés dans cette épreuve. Un autre point essentiel qui est ressorti de nos échanges est cette impression que ni le corps enseignant ni les professionnels de santé ne prenaient pleinement conscience de l’omniprésence des réseaux sociaux, en particulier de TikTok, dans la vie des jeunes. Cette lacune semble découler d’un manque de formation ou de sensibilisation des professionnels eux-mêmes.

En effet, lors des consultations pour mal-être ou problèmes de santé mentale, les questions relatives à l’usage des réseaux sociaux ne sont pas systématiquement posées aux jeunes. Pourtant, bien que ces plateformes ne soient pas nécessairement à l’origine du mal-être, elles jouent indéniablement un rôle d’amplificateur et contribuent à enfermer les jeunes dans leur détresse. Pourriezvous nous faire part de votre réaction face à ces constats ?

M. Bruno Gameliel. Vos observations mettent en lumière la complexité de la situation. TikTok, application relativement récente, a malheureusement des effets délétères et engendre des biais cognitifs évidents, avec parfois des conséquences tragiques pour les mineurs. Cela s’explique en partie par le fait que leur développement cérébral n’est pas achevé, la maturité cérébrale n’étant atteinte qu’entre vingt et vingt-cinq ans.

Votre constat sur le manque d’information et de communication entre les différents acteurs est particulièrement pertinent. Je suis d’ailleurs actuellement en déplacement en Europe pour donner des conférences sur la psychopédagogie et l’importance cruciale des liens entre les différents acteurs de l’apprentissage, à la fois les apprenants eux-mêmes, mais également le corps enseignant et les parents.

Il est important de souligner que la psychologie, discipline pourtant essentielle pour aborder ces problématiques, est souvent mal comprise et parfois rejetée. La psychopédagogie, une branche spécifique de la psychologie, reste largement méconnue du grand public. La psychologie a, en outre, tendance à être peu associée au domaine pathologique, alors qu’elle s’intéresse en réalité à l’étude de l’esprit dans sa globalité et vise l’optimisation globale des capacités de tous les individus.

Ce manque d’information et cette appréhension biaisée de la psychologie constituent donc un véritable obstacle. Dans mes interventions en milieu universitaire et scolaire, je constate parfois une réticence à intégrer l’approche psychologique, alors même que les fondements de l’école moderne reposent sur les travaux de médecins-psychologues tels que Piaget, Wallon et Vygotsky. Ces derniers ont étudié les processus de développement de l’enfant, contribuant ainsi à l’élaboration des courants pédagogiques actuels.

Face à ces défis, nous avons développé un programme de thérapie cognitivo-comportementale complémentaire d’optimisation scolaire et universitaire. Cette approche prend en compte l’apprenant dans sa globalité, contrairement aux approches traditionnelles souvent cloisonnées entre médecine, psychologie et soutien scolaire. Notre méthode vise à créer une synergie entre ces différents aspects pour obtenir des résultats probants.

Concernant les effets cognitifs potentiels de TikTok, vous avez raison de souligner leur importance. Bien que les études sur ce sujet nécessitent encore du temps pour être pleinement évaluées, un consensus se dégage, selon lequel TikTok agit comme un amplificateur des difficultés psychologiques préexistantes, particulièrement chez des personnes déjà vulnérables.

Dans ma pratique, qu’elle soit curative ou préventive, j’interviens auprès de profils variés présentant des singularités ou des problématiques neurologiques. Cela inclut les troubles de l’attention avec ou sans hyperactivité (TDAH), les troubles « dys » (dysphasie, dyslexie, dysorthographie, dyspraxie, etc.), les phobies scolaires et sociales, ainsi que les enfants à haut potentiel. Pour tous ces profils, l’usage intensif des écrans, et particulièrement de TikTok, accentue les difficultés existantes.

Parmi les effets observés, nous notons une diminution de la concentration, une recherche de gratification immédiate et une réduction de la tolérance à l’ennui. Ce dernier point est particulièrement préoccupant car, contrairement à ce que nous laisse penser notre société de consommation du bien-être, l’ennui joue un rôle fondamental dans le développement cognitif. Il permet l’activation du « mode par défaut » du cerveau, une zone neuronale qui s’active lorsque les autres régions du cerveau sont en veille, essentielle à la mémorisation, au développement de certaines émotions telles que la compassion et l’empathie et à la consolidation des apprentissages. Ce mode est particulièrement actif pendant le sommeil, soulignant l’importance d’un repos adéquat. Il est essentiel de comprendre que ces comportements induits chez les mineurs entraînent des répercussions directes sur leur développement cérébral, d’autant plus que la plasticité cérébrale est particulièrement élevée durant l’enfance et la préadolescence.

Le développement exponentiel de certaines hormones, notamment la sérotonine et la dopamine, crée ce que nous appelons les phases sensibles du développement, des périodes marquées par une certaine fragilité dans le processus de maturation cérébrale. Les récepteurs sensoriels, en captant des informations, modulent les connexions neuronales et créent des ancrages mémoriels, influençant ainsi les comportements futurs. Des études démontrent également un impact significatif sur la mémoire de travail, dont l’utilisation de TikTok, avec son défilement rapide de contenus, compromet le fonctionnement optimal. Par conséquent, la mémoire de stockage, qui lui est étroitement liée, se trouve également affectée. Le circuit neuronal se trouve ainsi considérablement simplifié, ne sollicitant qu’une attention visuelle basique. Les fonctions exécutives, telles que les capacités d’inhibition et de réflexion, normalement assurées par le cortex frontal et préfrontal, sont largement absentes lors de l’utilisation de ces applications. La répétition quotidienne de ce comportement crée une habitude et un rythme cérébral spécifique à l’utilisation des écrans, particulièrement de ce type d’application.

Une étude italienne de 2021 met en évidence l’impact de ces pratiques sur différents aspects de la mémoire, notamment en ce qui concerne la gestion des éléments de distraction. Un enfant fréquemment exposé à TikTok développera ainsi une propension accrue à la distraction lorsqu’il devra mobiliser ses capacités cognitives dans d’autres contextes, comme dans le cadre scolaire.

Concernant les effets émotionnels et sociaux de TikTok, cette application peut engendrer de l’anxiété chez les utilisateurs, qui peut parfois évoluer vers des états dépressifs. Elle peut également induire des complexes d’infériorité et une perception déformée de la réalité, particulièrement chez les mineurs. Ces effets sont exacerbés par l’exposition à des contenus inappropriés, hypersexualisés ou empreints de violence verbale et visuelle, susceptibles de perturber profondément les plus jeunes.

La pression sociale exercée est également considérable, notamment en ce qui concerne l’image de soi. À un âge où la construction identitaire est cruciale, cette pression peut entraîner des conséquences délétères sur le développement psychologique des adolescents. Dans certains cas extrêmes, l’application peut même encourager des comportements ou actes dangereux, tels que l’automutilation ou les idées suicidaires. La pratique de la scarification, malheureusement observée chez les préadolescents, est un exemple alarmant de ces dérives.

Paradoxalement, bien que TikTok prétende favoriser les interactions sociales, il tend en réalité à réduire les liens sociaux authentiques, alors que le contact virtuel ne saurait se substituer aux interactions présentielles, fondamentales pour un développement social équilibré.

L’application peut également contribuer au développement de troubles de la perception corporelle, pouvant mener à des désordres alimentaires, comme pourront vous le confirmer pédopsychiatres et nutritionnistes.

TikTok favorise par ailleurs une comparaison constante entre les utilisateurs, exacerbant le narcissisme et la vanité au détriment de valeurs plus profondes. L’importance excessive accordée aux apparences peut engendrer une addiction comportementale, créant un cercle vicieux dont il devient difficile de s’extraire.

Pour terminer, certains défis viraux, tels que le « Blackout challenge » consistant à se priver d’air jusqu’à l’évanouissement, représentent un danger réel pour la vie des jeunes utilisateurs.

En conclusion, les effets délétères de TikTok sont multiples, touchant aussi bien la sphère émotionnelle et sociale que les fonctions cognitives des utilisateurs, avec des conséquences potentiellement graves sur leur développement et leur bienêtre.

Mme Laure Miller, rapporteure. En tant que professionnel, estimezvous qu’il existe un âge consensuel, fondé sur l’analyse des professionnels de santé, en dessous duquel l’accès aux réseaux sociaux devrait être interdit ? Cet âge serait déterminé par la capacité de l’enfant à discerner et à faire face à la nocivité potentielle de ces plateformes.

M. Bruno Gameliel. En m’appuyant sur diverses études, mes recherches personnelles et mon expérience de praticien, je préconise une augmentation significative de l’âge minimal d’accès aux réseaux sociaux, qui prenne en compte les étapes du développement cérébral. Jusqu’à l’âge de six ans, l’enfant est dans ce que nous appelons le « mode marionnette », les régions postérieures et inférieures du cerveau, responsables de la motricité, de la vision et de l’audition, se développant prioritairement. Les fonctionnalités exécutives, liées à la concentration, à l’attention volontaire ou à l’inhibition, ne sont quant à elle pas pleinement opérationnelles avant l’âge de six ou sept ans. Considérant que les applications telles que TikTok tendent à détériorer ces fonctions cognitives déjà fragiles, il est impératif d’attendre une certaine maturité cérébrale avant d’y exposer les enfants.

Mon point de vue s’aligne sur les pratiques de certains pays qui interdisent l’utilisation des réseaux sociaux jusqu’à l’âge de quinze ou seize ans. Cette position s’appuie sur l’observation des effets néfastes de l’utilisation intensive des écrans sur les performances scolaires, particulièrement dans certaines matières. Je recommanderais donc d’interdire totalement les écrans jusqu’à l’âge de six ans, puis de mettre en place une régulation stricte au-delà. Je serais d’ailleurs heureux d’accompagner, sur la base de mes recherches, le travail qui sera mené dans le cadre de votre futur rapport.

Il est important de souligner que l’action doit être multimodale. En tant que législateurs, vous avez un rôle primordial à jouer en définissant un cadre clair pour l’école et les parents. Les professionnels tels que moi peuvent ensuite accompagner la mise en œuvre de ces directives. Les parents, souvent démunis face à ces enjeux, ont besoin d’informations claires et d’un cadre réglementaire précis. Je plaide donc pour l’établissement de règles et d’une réglementation sans ambiguïté. Il est également nécessaire de réguler et de modérer strictement ces applications et les entreprises qui les développent car, sans ces mesures, il sera extrêmement difficile de protéger efficacement nos jeunes.

M. le président Arthur Delaporte. Je vous remercie pour votre engagement et vous invite à compléter nos échanges en transmettant à notre secrétariat tout complément d’information que vous jugeriez pertinent pour les travaux de cette commission d’enquête.

24.   Audition du Professeur Amine Benyamina, addictologue et psychiatre, et du Docteur Servane Mouton, neurologue et neurophysiologiste, co‑présidents de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans (2024) (mardi 20 mai 2025)

La commission auditionne conjointement le Professeur Amine Benyamina, addictologue et psychiatre, et le Docteur Servane Mouton, neurologue et neurophysiologiste, co-présidents de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans (2024) ([23]).

M. le président Arthur Delaporte. Nous recevons à l’occasion de cette nouvelle audition de notre commission d’enquête les coprésidents de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans : le professeur Amine Benyamina, addictologue et psychiatre, et le docteur Servane Mouton, neurologue et neurophysiologiste, qui s’exprimeront l’un et l’autre à distance, et dont les travaux ont abouti à la rédaction d’un rapport remis au président de la République en avril 2024.

Avant de vous céder la parole pour un propos liminaire, Pr Benyamina et Dr Mouton, je vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Le professeur Amine Benyamina et le docteur Servane Mouton prêtent serment.)

Dr Servane Mouton, neurologue et neurophysiologiste, co-présidente de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans. Bien que votre commission ait déjà mené de nombreuses auditions, il me semble important de rappeler en premier lieu le contexte de notre intervention. La santé mentale des jeunes de moins de 25 ans connaît une détérioration significative depuis 2012, tendance qui s’est accentuée avec la pandémie de covid-19. Cette dégradation coïncide avec la diffusion massive des réseaux sociaux.

L’objet de votre commission d’enquête se rapporte à la seule plateforme TikTok, mais il convient de souligner que les problématiques liées au design non éthique sont communes à l’ensemble des réseaux sociaux. Certes, il est permis de considérer que TikTok se distingue par son efficacité à capter l’attention, mais les autres plateformes ne sont pas exemptes de critiques.

Au-delà de la discussion, qu’il reste à mener, sur les éventuels bénéfices de l’usage des réseaux sociaux en termes de connexion sociale et de lutte contre l’isolement, il nous semble essentiel d’appréhender le fond du problème, à savoir la conception et le design des réseaux sociaux en général et de TikTok en particulier, basés sur l’économie de l’attention et la monétisation des données personnelles à des fins publicitaires. La viabilité de leur modèle économique suppose de maximiser le temps passé en ligne et la fréquence des connexions, tout en encourageant les achats via des micro-transactions.

Avant d’aborder les questions relatives à la santé mentale, il importe de rappeler les conséquences préoccupantes sur la santé physique de l’utilisation intensive des réseaux sociaux. De manière générale, les activités sur écran favorisent la sédentarité et augmentent ainsi les risques d’accidents cardiovasculaires, d’obésité et de diabète de type 2. Lorsqu’elles empiètent sur les heures de sommeil, voire qu’elles interrompent le sommeil – et il faut avoir à l’esprit que certains adolescents vont jusqu’à régler leur réveil pour participer à des défis au milieu de la nuit – elles en compromettent la qualité et la quantité. Or le sommeil est déterminant sur le plan de la santé globale, la dette chronique de sommeil étant susceptible de favoriser les maladies cardiovasculaires, le surpoids, l’obésité, les infections et de nombreuses autres pathologies. En outre, les activités sur écran perturbent évidemment les apprentissages, en particulier la mémorisation et les capacités de concentration, tant celles des élèves que celles des adultes.

Enfin, l’activité sur écran, en particulier lorsqu’elle est pratiquée en intérieur, n’est pas sans effet sur la vision puisqu’elle en favorise notamment la myopie en raison du manque d’exposition à la lumière naturelle, de la surexposition à la lumière bleue émise par les écrans de type LED, et de la sursollicitation de la vision de près.

Bien entendu, l’enjeu principal, sur lequel nous avons mis l’accent dans notre rapport, se rapporte aux effets potentiels des réseaux sociaux sur la santé mentale, mais nous aborderons ce point plus en détail. Je conclurais provisoirement en rappelant que la responsabilité première des méfaits des plateformes incombe aux industriels qui les conçoivent, et qu’il appartient selon nous au législateur de réguler ces pratiques aux conséquences délétères.

Pr Amine Benyamina, addictologue et psychiatre, co-président de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans. Le rapport que nous avons remis au président de la République est l’aboutissement de treize mois de travail. Il aborde notamment la question de l’addiction potentielle aux réseaux sociaux, chez les jeunes et les moins jeunes. Notre avis relatif à cette problématique est empreint de nuance et de prudence.

Sur le plan clinique, je constate dans mon service d’addictologie la présence de nombreux jeunes dépendants aux réseaux sociaux, à TikTok en particulier, dont l’algorithme est particulièrement addictogène. Nous les prenons en charge de manière similaire aux addictions aux substances comme le cannabis ou l’alcool. Ces cas se caractérisent rarement par une consommation isolée des réseaux sociaux et s’accompagnent souvent d’effets délétères, tant métaboliques que psychologiques : anxiété, insomnie, dépression, difficultés relationnelles. Nous traitons donc cette problématique dans un cadre global de psychologie, de psychiatrie ou de psychoaddictologie de l’adolescent ou du jeune adulte.

Sur le plan académique, en revanche, l’addiction aux écrans ou aux réseaux sociaux n’est pas officiellement reconnue dans les classifications internationales. Seul le jeu pathologique a été reconnu comme une addiction comportementale, et ce après de longues discussions.

Cette dichotomie entre la réalité clinique et les classifications officielles est courante dans l’évolution de notre compréhension des addictions. Des études à grande échelle seront nécessaires pour éventuellement inclure la consommation des réseaux sociaux dans le cadre général des addictions, de la même manière qu’une discussion est actuellement conduite à propos des troubles du comportement alimentaire. En attendant, nous traitons cliniquement cette problématique comme une addiction.

M. le président Arthur Delaporte. Je tiens d’abord à vous remercier pour la qualité de vos travaux, qui ont considérablement guidé notre réflexion. La lecture de votre rapport a fourni une base solide à notre commission, lui permettant d’optimiser son temps et de se concentrer sur des aspects complémentaires.

Nous avons particulièrement apprécié votre approche consistant à donner la parole aux jeunes. Nous aurions d’ailleurs souhaité reproduire plus amplement cette démarche dans le cadre de notre commission. Il importe en effet de ne pas traiter la question des réseaux sociaux uniquement d’un point de vue adulte, surtout lorsqu’il s’agit d’expériences vécues. Nous avons également cherché à intégrer les perspectives de sociologues spécialisés dans les usages du numérique pour enrichir notre compréhension.

Mme Laure Miller, rapporteure. Je m’associe aux remerciements du président pour ce rapport qui connaît une nouvelle actualité à l’occasion de l’anniversaire de sa remise. Cette actualité reflète l’importance croissante du sujet des réseaux sociaux dans le débat public.

Vous avez évoqué la logique des réseaux sociaux, l’économie de l’attention et leur impact sur la santé des enfants. Votre rapport a été révélateur à cet égard. Cependant, estimez-vous que la prise de conscience vis-à-vis de ces sujets soit suffisante dans notre société ? N’existe-t-il pas un écart significatif entre, d’un côté, les parents et les professionnels de santé bien informés, et de l’autre une large partie de la population qui ignore ces effets et donne sans arrière-pensées des téléphones à de très jeunes enfants ? Ne conviendrait-il pas d’envisager une communication massive afin de diffuser largement les conclusions de votre rapport ?

J’aimerais ensuite vous poser une série de questions qui me sont venues à l’esprit après notre récente audition de familles de victimes, principalement de jeunes filles dont certaines se sont suicidées. Ces familles engagent actuellement des procédures judiciaires pour établir la responsabilité de TikTok dans les tragédies qu’elles ont vécues.

Premièrement, de nombreuses familles nous ont rapporté que, bien que leurs enfants aient été suivis en raison de leurs problèmes de santé mentale par des professionnels de santé, la question de l’utilisation des réseaux sociaux, en particulier de TikTok, n’a jamais été abordée. Cette omission est frappante, comme un éléphant au milieu de la pièce que personne ne voudrait voir. Ne devrions-nous pas envisager une communication plus ciblée auprès des professionnels de santé pour les inciter à interroger systématiquement les jeunes en difficulté sur leur usage des réseaux sociaux ? De manière plus générale, pensez-vous que les professionnels de santé eux-mêmes soient suffisamment sensibilisés à ce sujet ?

Deuxièmement, nous avons entendu lors des auditions, et parfois directement de la bouche des jeunes, l’argument selon lequel les réseaux sociaux représentent pour eux une forme de refuge ou de divertissement essentiel. Ils s’interrogent sur ce qui pourrait remplacer ces plateformes si on les leur retirait. Comment réagissez-vous à cet argument ? Quelle est votre analyse de cette perception des réseaux sociaux comme alternative nécessaire à un manque de divertissement ?

Troisièmement, vous préconisez dans votre rapport une approche progressive de l’accès aux écrans et à leurs usages pour les mineurs en fonction de leur âge. Vous parlez d’une « conquête progressive de leur autonomie numérique ». Comment envisagez-vous la mise en œuvre de cette progressivité face à l’attitude pour le moins peu coopérative des plateformes, notamment de TikTok, lorsqu’il s’agit de respecter un âge minimum ou de modérer les contenus ? Par ailleurs, vous évoquez un accès limité, à partir de 15 ans, aux réseaux sociaux, mais uniquement à ceux dont la conception serait éthique. Pouvez-vous développer ce concept de « réseaux sociaux éthiques » ? Est-ce une utopie ou une réalité envisageable ? Quelles sont vos recommandations concrètes à ce sujet ?

Pr Amine Benyamina. Lorsque le président de la République nous a chargés de constituer cette commission, je dois admettre que j’ignorais l’ampleur du problème lié aux écrans. J’ai découvert un gouffre entre ma perception initiale et la réalité de cette problématique. Je me considérais pourtant comme une personne de bonne foi, pensant tout au plus que les écrans n’étaient qu’une distraction excessive éloignant nos enfants de la réalité. En vérité, il s’agit d’un monde dont les adultes sont souvent exclus, et auquel ils s’intéressent d’ailleurs très peu. Cette prise de conscience s’est particulièrement accentuée à la faveur des témoignages de parents ayant perdu leurs enfants, et qui établissaient un lien direct entre cette perte et ces machines de captation qui broient les plus jeunes.

Depuis la publication de notre rapport, je constate qu’un changement significatif s’est opéré dans la perception collective de ce phénomène. Depuis deux décennies est arrivé entre nos mains un objet révolutionnaire qui a indéniablement facilité nos vies. La société s’est naturellement focalisée sur les aspects positifs de cette révolution. Et aujourd’hui nous nous réveillons et nous découvrons que l’explosion des capacités techniques et technologiques des téléphones a généré des effets pervers considérables.

Lorsque l’humanité s’intéresse à un nouvel outil ou un nouveau canal de communication, la question du profit ne tarde jamais à se poser. C’est précisément ce que les plateformes ont orchestré : une opération de captation massive, ciblant d’abord les enfants, puis s’étendant aux adultes. Cette prise de conscience est en cours, et votre commission contribuera, je l’espère, à l’amplifier.

Aujourd’hui, lorsque l’on interroge les parents ou les adultes, ils évoquent presque systématiquement un jeune de leur entourage confronté à des difficultés liées à l’usage du téléphone portable. Sans nécessairement parler d’addiction, il est clair qu’un problème s’est immiscé dans l’intimité des familles. Cet objet, censé faciliter la vie, grignote insidieusement notre existence et notre liberté.

TikTok incarne à lui seul tous les aspects négatifs que nous dénonçons. Son algorithme, conçu pour une captation maximale, ne fait pas mystère de ses objectifs finaux : attirer un maximum d’utilisateurs, jeunes et moins jeunes, pour vendre du temps, de l’attention, de l’accaparement. Aucune considération éthique n’entre en jeu ni dans sa conception ni dans les contenus parfois sordides qu’il fait circuler.

Les jeunes se trouvent dans une situation paradoxale. Comme nous l’avons souligné dans notre rapport, peut-être de manière trop discrète, l’espace dans lequel nous vivons est devenu essentiellement un espace d’adultes. Nous avons progressivement évincé les jeunes de notre espace commun, multipliant les lieux et les moments où ils ne sont pas les bienvenus. L’espace de l’échange est devenu adultomorphique et, face à cette exclusion, les jeunes se sont réfugiés dans un espace virtuel où ils se retrouvent entre eux, devenant captifs de ces plateformes.

Dans ce contexte, la parole ou l’image émanant de l’écran acquiert souvent plus de poids que celle de l’adulte. Plus inquiétant encore, et contrairement aux affirmations des parents et des adultes, les contenus diffusés par ces appareils ne sont généralement ni discutés ni remis en question par les jeunes utilisateurs. Aussi la question de l’accès des mineurs aux réseaux sociaux constitue un enjeu éthique majeur sur lequel nous avons, en tant qu’adultes, l’obligation morale de nous pencher sérieusement.

Il convient de rappeler que les plateformes disposent des capacités techniques nécessaires pour mettre en œuvre les préconisations et les lois qui pourraient émaner de votre commission, en particulier sur la progressivité de l’accès en fonction de l’âge. Cependant, elles font preuve d’une réelle mauvaise foi. Ainsi l’interdiction aux moins de 13 ans ne semble être énoncée que pour ne pas être respectée. Nous savons pertinemment que la majorité numérique est fixée à 15 ans dans de nombreux pays, et cette limite pourrait parfaitement être appliquée d’un point de vue technique, quoi que prétendent les plateformes. Celles-ci s’efforcent, au mieux, de donner quelques gages de bonne volonté. Elles mettent en avant quelques vœux pieux sur la responsabilité et la liberté, mais se contentent en réalité de renvoyer à la responsabilité des parents de mineurs. Aussi, soyons certains que les plateformes n’agiront de leur propre chef qu’à la condition d’y être contraintes.

J’insiste : les plateformes disposent de toutes les capacités requises pour mettre en place les mesures requises par un fonctionnement éthique. Et je pense qu’il convient d’appréhender la promotion de plateformes éthiques de manière très pragmatique, en insistant sur les profits financiers qu’elles seraient susceptibles de représenter. En effet, si un grand nombre d’utilisateurs migrent vers ces réseaux éthiques au détriment des réseaux non éthiques, les annonceurs suivront naturellement cette tendance, et les profits également.

Dr Servane Mouton. J’aimerais insister, pour répondre à votre première question et compléter les propos du Pr Benyamina, sur le besoin de formation des soignants. Actuellement, la formation relative à l’usage des écrans, quel que soit l’âge de l’enfant ou de l’adolescent, n’est pas structurée. Elle dépend entièrement de l’initiative personnelle du praticien, qui doit trouver ses propres ressources en l’absence d’un cadre officiel, tant en termes de formation que de documentation. Un besoin massif de formation se fait donc sentir, qui concerne les médecins généralistes, les psychiatres et les psychologues. Si l’on considère également la petite enfance, il convient d’y ajouter les pédiatres et l’ensemble du personnel en lien avec les jeunes enfants, notamment les éducateurs. Les assistantes maternelles semblent quant à elles mieux sensibilisées à ces questions. En somme, une formation approfondie et homogène de toutes les professions liées à l’enfance s’avère nécessaire, car la situation actuelle est très hétérogène, avec des messages et des ressources qui varient considérablement selon la personne qui les dispense, faute de lignes directrices clairement définies.

La remarque relative au manque d’alternatives aux réseaux sociaux appelle une réflexion sociétale plus large. En examinant l’évolution des réseaux sociaux, on constate qu’ils se sont éloignés de leur objectif initial de mise en relation des individus pour devenir de véritables machines à profit. TikTok, en particulier, se distingue par un système de recherche et développement extrêmement dynamique, proposant constamment de nouvelles fonctionnalités et diversifiant son offre commerciale. Cela en fait un support publicitaire redoutablement puissant.

Les raisons pour lesquelles les gens utilisent les réseaux sociaux sont multiples et dépendent de facteurs tels que la personnalité, le profil psychologique et les circonstances de vie. TikTok semble avoir la capacité de répondre à une grande variété de besoins : socialisation, reconnaissance, élargissement du réseau social, positionnement au sein d’un groupe, information, expression créative, divertissement, apaisement de l’anxiété par des contenus légers, ou encore procrastination. Cette polyvalence en fait un outil puissamment attractif.

Cependant, la motivation première de TikTok n’est pas le bien-être de ses utilisateurs, elle a pour finalité unique le profit. La plateforme a développé un modèle économique extrêmement lucratif basé sur de nombreux systèmes publicitaires : marques thématiques, publicités entre les vidéos, placements de produits, filtres de marque, partage facilité sur d’autres réseaux sociaux pour recruter de nouveaux utilisateurs, publicités sur d’autres médias, et partenariats commerciaux avec de grandes enseignes, comme Walmart aux États-Unis, permettant des achats directs via l’application. Il est également possible d’acheter des cadeaux virtuels pour les influenceurs que l’on apprécie. Ces cadeaux sont ensuite convertis en monnaie réelle, générant un chiffre d’affaires estimé à 1,9 milliard de dollars en 2023. Cette stratégie commerciale agressive, dénuée de considérations éthiques pour la santé et le bien-être des utilisateurs, transforme ces plateformes en outils d’une puissance quasi incontrôlable et soulève immanquablement des questions éthiques relatives à leur impact sur les jeunes utilisateurs.

L’efficacité de TikTok repose sur son algorithme sophistiqué, qui lui permet de proposer un contenu personnalisé. Des études montrent que notre cerveau réagit différemment à ce type de contenu, parce qu’il stimule ce qu’on appelle le réseau du mode par défaut, c’est-à-dire les régions cérébrales actives lorsque le cerveau est au repos et n’est pas sollicité par le monde extérieur. Le flux de vidéos courtes intitulé « Pour toi », flux continu, permanent, infini, crée une distorsion temporelle et un état de flottement où l’utilisateur perd la notion du temps. Le système de récompense aléatoire, avec des vidéos particulièrement appréciées qui apparaissent de façon imprévisible, renforce le caractère addictif de l’application.

La brièveté des vidéos, généralement de 10 à 15 secondes, permet à l’algorithme de proposer rapidement un contenu très personnalisé. En une heure, l’utilisateur peut visionner un nombre considérable de vidéos, ce qui affine encore la personnalisation. Cette plateforme devient ainsi un lieu où l’on peut satisfaire tous nos besoins sociaux, puisqu’elle cherche à stimuler précisément le système de récompense de notre cerveau. De la sorte, elle coupe l’envie de s’extraire de ce monde virtuel dans lequel on est immergé pour rechercher d’autres sources de satisfaction, puisqu’il récompense notre cerveau sans aucun effort et en un clic.

Une application telle que TikTok, conçue autour de la captation de l’attention, motivée par le seul profit et dépourvue de toute forme de questionnement éthique, conduit naturellement à des excès d’utilisation. Il est par conséquent indispensable non seulement de contraindre ces plateformes à adopter des pratiques plus vertueuses, mais aussi de proposer des alternatives suffisamment attrayantes pour extraire les utilisateurs de cet univers numérique si attractif. À cet égard, j’aimerais mentionner une étude récente menée en France, qui illustre l’importance des alternatives concrètes. Dans un quartier d’habitations à loyer modéré, des installations rudimentaires pour des activités physiques et sportives ont été mises en place durant les vacances scolaires. Les premiers jours, personne ne s’y est intéressé. Puis les gens ont commencé à s’y retrouver, et le lieu n’a pas désempli pendant la seconde semaine. Ces infrastructures simples et peu coûteuses ont incité les habitants du quartier à diversifier leurs activités quotidiennes.

M. le président Arthur Delaporte. Cette initiative rappelle la proposition émise par Serge Tisseron lors de son audition, à propos de l’aménagement de terrains vagues dans les villes, une solution efficace et peu onéreuse.

Pr Amine Benyamina. Deux caractéristiques rendent TikTok particulièrement addictif. Premièrement, son puissant algorithme cible avec précision les préférences individuelles, en se concentrant sur les aspects plaisants. C’est le principe même de l’addiction : on commence par le plaisir, puis on se retrouve enfermé dans une dépendance. Deuxièmement, ses contenus éphémères, fugaces, sont pareils à la cigarette ou au shoot : la brièveté et la répétitivité des vidéos stimulent intensément et constamment le système de récompense du cerveau. Ces deux éléments ne sont pas le fruit du hasard, mais bien le résultat d’une conception délibérée.

Mme Sophie Taillé-Polian (Écos). Je tiens d’abord à vous remercier, Pr Benyamina et Dr Mouton, pour votre travail considérable.

Votre rapport et vos interventions publiques ont suscité un débat de société. Cependant, il me semble que ce débat est pour une part importante un débat générationnel. De manière générale, les jeunes sont conscients du danger que représentent les substances addictives. La dangerosité des plateformes numériques n’est, en revanche, pas reconnue par les 10-25 ans. Lorsqu’on aborde ce sujet avec eux, on est rapidement taxé de ringardise, catalogué comme dépassé et incapable de comprendre le monde contemporain. Dès lors, comment convaincre les jeunes de la réalité des risques pour leur santé ? Vous avez évoqué la formation des soignants et des encadrants, mais ne faudrait-il pas également sensibiliser directement les jeunes en communiquant davantage sur les dangers ? La série Dopamine, diffusée sur Arte, est un excellent exemple de contenu pédagogique, expliquant le fonctionnement de chaque application et son impact sur le système de récompense du cerveau. Malheureusement, ce type de contenu reste rare.

Dr Servane Mouton. La prévention contre les risques inhérents au numérique et aux réseaux sociaux se heurte à un discours convenu sur le conflit générationnel et le caractère inévitable du progrès. Ces arguments paralysent toute volonté de changement. Dès lors, il est déterminant de rappeler que nous ne sommes pas dépouillés de notre capacité à opérer des choix, et que des alternatives sont possibles. Nous pourrions envisager un modèle différent de réseaux sociaux, adapter l’usage de certains produits selon l’âge et les individus, ou encore limiter la présence d’écrans dans certains espaces, notamment ceux fréquentés par les enfants. Il s’agit avant tout d’une question de volonté et de décision collective. Le discours fataliste sur le progrès nous empêche d’évoluer et de reprendre le contrôle de nos choix.

Cela étant dit, n’oublions pas que l’expérience en santé publique montre que la seule information sur la nocivité d’un produit ne suffit pas à modifier les comportements. Si tel était le cas, nous n’aurions plus de problèmes d’obésité, de consommation excessive de produits transformés, de tabagisme ou d’alcoolisme. C’est la raison pour laquelle les produits à fort potentiel addictif, tels que les réseaux sociaux ou les jeux vidéo en ligne, qui stimulent intensément le système de récompense du cerveau, nécessitent une régulation stricte pour espérer un changement de comportement.

En outre, la reconnaissance d’une addiction et de ses effets néfastes peut prendre du temps. L’exemple de la cigarette, dont la dangerosité n’a été pleinement reconnue qu’après près d’un siècle, illustre bien ce phénomène. Ce délai s’explique par la lenteur du processus scientifique et par un lobbying intense adossé à des enjeux financiers colossaux.

La discussion autour du principe de précaution et du niveau de preuve nécessaire pour agir relève de décisions politiques. La difficulté est d’autant plus grande avec les technologies numériques qui évoluent à une vitesse fulgurante. Les usages se transforment constamment, avec de nouvelles applications et de nouveaux produits apparaissant régulièrement. La science peine à suivre ce rythme, accumulant des années de retard dans l’évaluation des effets. Cette situation complexifie et retarde considérablement la mise en place de régulations efficaces.

Pr Amine Benyamina. Rien n’interdit de multiplier les approches de ce sujet qui comporte de multiples facettes et se rapporte à des aspects légaux, législatifs, juridiques, intimes et sanitaires. Je pense par exemple au nécessaire et minutieux travail à mener sur l’imputabilité de cas de suicides aux réseaux sociaux. Parce que les plateformes n’hésiteront pas à se défendre et à rejeter toute forme de responsabilité, il est essentiel d’affirmer clairement la définition de l’addiction ainsi que le lien de causalité direct, notamment en vue des enjeux de réparation.

En parallèle, entamons un travail d’information auprès des populations de France et d’ailleurs. Le président de la République a souligné l’importance de notre rapport, qui pourrait avoir un impact à l’échelle européenne et mondiale. Nous pouvons d’ores et déjà mettre en place des mesures de bon sens, d’information et de limitation. En outre, s’il est bien entendu difficile de questionner des pratiques au sein des familles, notre rapport est accessible sur le site de l’Élysée, et les particuliers peuvent le télécharger et s’en inspirer pour appréhender le sujet dans leur foyer.

M. Arnaud Saint-Martin (LFI-NFP). Pr Benyamina, je suis curieux de connaître l’état de l’art en psychiatrie sur ces questions, et de savoir dans quelle mesure nous disposons aujourd’hui de réponses concrètes pour traiter ces problèmes. L’étiologie des troubles addictifs liés aux réseaux sociaux suscite des controverses au sein de la communauté psychiatrique. Vous avez évoqué des enjeux de classification, probablement liés à des critères spécifiques pour établir un tableau clinique. Les psychiatres s’accordent-ils sur une approche ? Où en est-on aujourd’hui dans l’établissement du diagnostic ? Ce sujet est-il au cœur des congrès de psychiatrie internationaux ?

Ensuite, j’aimerais en apprendre davantage sur les stratégies de traitement adoptées en psychiatrie. Quelles sont les approches privilégiées pour faire face aux comportements particulièrement exposés à l’addiction, en particulier chez les adolescents ? Je m’interroge également sur la durabilité de la guérison. Ces addictions créent-elles des habitudes cognitives profondément ancrées qui pourraient se reporter sur d’autres formes d’addiction ? En d’autres termes, dans quelle mesure ces expériences peuvent-elles conduire à d’autres addictions durables ?

Pr Amine Benyamina. En psychiatrie, les classifications sont rigides mais ne nous empêchent nullement de prendre en charge nos patients comme nous le faisons pour toute problématique lorsque les dommages sont avérés. L’addiction se définit à la fois par ses critères et ses conséquences. Lorsqu’un individu présente une désocialisation, une déscolarisation, des conflits familiaux, des troubles du sommeil, une obsession pour son appareil numérique ou son ordinateur, une immersion excessive dans les réseaux sociaux, et que les parents décident de consulter un spécialiste, nous le prenons en charge comme pour toute autre addiction. Autrement dit je n’attends pas, en tant que praticien, que soient établis des critères formels pour initier une prise en charge.

Il convient en effet de distinguer les critères théoriques et la réalité clinique. Dans la pratique, les parents viennent nous consulter lorsqu’ils sont dépassés par la situation. Leur premier interlocuteur est généralement un professionnel de santé – médecin de famille, neurologue, psychiatre, psychologue – autant qu’il se montre capable de comprendre leur préoccupation et les difficultés de l’enfant à exprimer sa dépendance ou ses problèmes quotidiens liés à sa consommation numérique.

De manière générale, le débat sur l’étiologie existe au sein de la communauté des psychiatres. Il est fort probable qu’à l’avenir une classification intègre les comportements d’addictions aux plateformes. J’en suis personnellement convaincu car nous disposons de tous les éléments nécessaires. En attendant, notre approche clinique fonctionne car elle repose sur une éthique : nous ne pouvons laisser les personnes en difficulté sans assistance.

Le soin découle naturellement de cette approche. Il s’agit d’une prise en charge globale, bio-psycho-sociale. Les mesures sociales consistent à conseiller une limitation de la consommation, à dialoguer avec le système familial – ce que nous appelons la thérapie systémique, impliquant parents et enfants – afin d’éviter les conflits et l’éclatement du noyau familial. Ce point est particulièrement important car il existe souvent un attachement viscéral au produit, à la fois en raison d’une véritable dépendance et parce que l’adolescent ou l’enfant a évolué dans un système avec ses pairs où la virtualité est devenue sa réalité. Leur demander simplement de sortir jouer dehors n’est plus adapté à leur réalité sociale.

Avant de mettre en place cette stratégie bio-psycho-sociale, nous effectuons un bilan approfondi. Celui-ci est déterminant car de nombreuses pathologies psychiatriques majeures débutent à l’adolescence. La schizophrénie se manifeste généralement vers 15 ans, le trouble bipolaire est souvent diagnostiqué plus tard, mais avec une erreur de 10 à 15 ans. Les troubles anxieux apparaissent tôt, dès le début de l’adolescence et de la puberté, période qui s’accompagne de nombreux changements physiques et psychologiques, de confrontations avec le sexe opposé et avec les parents, contre lesquels l’adolescent s’affirme pour construire son identité. Cette compréhension est fondamentale dans notre démarche psychothérapeutique, qui s’adresse à la fois à l’adolescent, au jeune adulte et aux parents. C’est l’ensemble du système familial que nous prenons en charge.

Lorsqu’une pathologie spécifique est identifiée et que des traitements médicamenteux existent, nous traitons l’anxiété, la dépression ou les symptômes psychotiques avec les médicaments appropriés. Notre approche est globale et non séquentielle, et nous adaptons nos thérapies en fonction du profil du patient : thérapies cognitivo-comportementales avec un programme et un contrat, psychanalyse, psychodynamie de groupe, etc. À l’hôpital Paul-Brousse, où j’exerce, nous accueillons des patients de 15 à 23 ans, ce qui nous permet de recréer dans un espace thérapeutique la communauté dont le jeune a été extrait et qui l’a potentiellement affecté.

Enfin, pour répondre à la question sur le transfert de dépendance, qui est fréquemment posée, nous constatons que lorsque nous parvenons à traiter l’addiction aux écrans, il n’y a pas nécessairement de report vers d’autres substances comme le tabac, le cannabis, ou d’autres substances. En revanche, les personnes sujettes aux additions sont aujourd’hui des polyconsommateurs, des polyexpérimentateurs. Ce n’est donc pas l’arrêt de la consommation des écrans qui est à l’origine d’un transfert, mais plutôt le système global dans lequel les jeunes évoluent, avec l’offre de substances disponibles, qui doit être pris en compte dans notre approche thérapeutique.

Mme Laure Miller, rapporteure. Vous préconisez dans votre rapport de ne permettre l’accès aux réseaux sociaux qu’à partir de 15 ans. Pourriez-vous exposer les raisons qui vous ont amenés à fixer ce seuil ? Ne pensez-vous pas qu’en poussant le principe de précaution à son maximum, il serait préférable de le reculer légèrement, peut-être à 16 ans, c’est-à-dire à l’entrée au lycée ? Parmi les familles de victimes que nous avons auditionnées, certaines nous ont confié, en marge des auditions, que 15 ans leur semblait un âge, au cœur de l’adolescence, où les jeunes sont encore vulnérables.

Dr Servane Mouton. Ce sujet a fait l’objet de nombreuses discussions. Le choix de ce seuil de 15 ans pour l’accès aux réseaux sociaux éthiques et transparents s’aligne sur l’âge de la majorité sexuelle en France, et l’âge de la majorité numérique telle qu’elle est fixée par le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD), afin d’aboutir à une certaine cohérence. Cependant, en coulisses et sans que cela soit nécessairement inscrit dans le rapport, nous avons longuement débattu en rapportant la nature addictive de certains produits et l’âge des jeunes qui y sont exposés. Les jeux vidéo en ligne sont déjà reconnus comme potentiellement addictifs dans la classification internationale des maladies, et les réseaux sociaux pourraient un jour rejoindre cette catégorie, comme l’a souligné le Pr Benyamina. Aussi, nous avons même évoqué la possibilité de recommander un seuil à 18 ans.

Toutefois, notre recommandation, telle qu’elle est formulée, s’inscrit dans un cadre idéal où la vérification de l’âge serait efficace, respectueuse de la vie privée et des libertés démocratiques, et où les réseaux sociaux seraient devenus éthiques grâce au renforcement du Digital services act. Cela ne correspond évidemment pas la réalité actuelle.

M. le président Arthur Delaporte. Dans ce cas, si l’on considère que dans un monde idéal, la limite de 15 ans concerne les réseaux sociaux dits éthiques, pourquoi ne pas envisager l’ouverture de réseaux sociaux éthiques à des tranches d’âge inférieures, par exemple 13-15 ans ?

Dr Servane Mouton. Des réseaux sociaux plus éthiques, du moins dans une certaine mesure, existent. Cependant, ils ne rencontrent pas un grand succès car leur fonctionnement diffère des réseaux sociaux traditionnels.

M. le président Arthur Delaporte. Permettez-moi de reformuler ma question. Si, dans un monde idéal, vous préconisez l’accès aux réseaux sociaux éthiques à partir de 15 ans, pourquoi ne pas envisager un accès plus précoce, partant du principe que le caractère éthique implique l’absence de risques d’addiction ?

Pr Amine Benyamina. Notre choix du seuil est lié à la notion de majorité numérique. Nous partons du principe qu’à partir de 15 ans révolus, l’utilisation d’un réseau social, qu’il soit éthique ou non, est plus acceptable que pour les moins de 15 ans.

M. le président Arthur Delaporte. La loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne, dite loi Marcangeli, prévoit que la majorité numérique est fixée à 15 ans, mais que les 13‑15 ans peuvent s’inscrire sur des réseaux sociaux sous réserve de l’accord des parents. Ce seuil est comparable à la conduite accompagnée, qui permet de conduire avant l’obtention du permis.

Dr Servane Mouton. L’accord parental est mentionné dans les conditions générales d’utilisation des réseaux sociaux n’est jamais recueilli. Mais en pratique, il n’est jamais recueilli.

M. le président Arthur Delaporte. Je l’entends, mais ces conditions ne sont pas davantage remplies pour les mineurs de 15 ans révolus. J’aimerais simplement comprendre si, selon vous, permettre l’accès à des réseaux sociaux dits éthiques représente un danger pour mineurs de 13-15 ans, ou bien si ce seuil des 15 ans est avant tout une question de principe.

Pr Amine Benyamina. Je vais peut-être paraître m’égarer dans ce débat, mais je pense qu’il convient de mentionner la question des espaces numériques de travail (ENT), que l’éducation nationale a rendu plus ou moins obligatoires, et qui concerne les moins de 15 ans. Ces environnements sont à vocation pédagogique, ils sont encadrés mais, qu’on le veuille ou non, ce sont aussi des réseaux sociaux.

J’aimerais également évoquer l’annonce de l’interdiction des réseaux sociaux aux moins de 15 ans en Australie. Au-delà de cette annonce, il convient d’être attentif commentaire du premier ministre, qui a mis en avant le caractère révolutionnaire de cette décision, tout en ajoutant immédiatement qu’il ne formait aucun espoir quant à sa mise en pratique. Son Gouvernement a souhaité, avant tout, émettre un signal.

Dr Servane Mouton. Le processus de maturation cérébrale est loin d’être achevé à 15 ans, puisqu’il se poursuit jusqu’à 25 ans. Toutefois, le degré de maturité avéré d’un adolescent de 15 ans n’est pas le même que celui d’un enfant de 13 ans. Plus on avance en âge, plus on est à même d’acquérir les capacités et les compétences nécessaires pour prendre la mesure des enjeux en lien avec le partage de contenus, y compris ceux qui peuvent exposer sa vie privée et son intimité, et la frontière publique-privée.

N’oublions pas non plus que tout seuil d’âge revêt un caractère artificiel, arbitraire, à commencer par la majorité, fixée à 18 ans alors qu’elle était à 21 ans auparavant. Le cerveau mature jusqu’à 25 ans, mais cela n’empêche pas que l’on puisse détenir un permis de chasse à 16 ans. En d’autres termes, les règles d’âge relèvent de normes quelque peu artificielles, et il convient d’harmoniser ces normes dans un souci de cohérence.

M. le président Arthur Delaporte. Je vous remercie pour ces échanges et, au nom des membres de notre commission d’enquête, pour l’ensemble de vos travaux. Nous accueillerons volontiers toute autre contribution que vous jugerez utile de nous faire parvenir afin d’améliorer la régulation de l’espace numérique et la protection des jeunes qui l’arpentent.

25.   Audition de M. Mehdi Mazi, co-fondateur du collectif d’aide aux victimes d’influenceurs (AVI), et M. Jean-Baptiste Boisseau, membre chargé des projets espaces de discussion en ligne, relations presse (mardi 20 mai 2025)

Puis la commission auditionne M. Mehdi Mazi, co-fondateur du collectif d’aide aux victimes d’influenceurs (AVI), et M. Jean-Baptiste Boisseau, membre chargé des projets espaces de discussion en ligne, relations presse ([24]).

M. le président Arthur Delaporte. Je souhaite la bienvenue au nom de notre commission d’enquête à deux représentants du collectif d’aide aux victimes d’influenceurs (AVI), M. Mehdi Mazi, son cofondateur, et M. Jean-Baptiste Boisseau, membre chargé des projets espaces de discussion en ligne et des relations presse.

Avant de vous céder la parole pour un propos liminaire, je vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(MM. Mehdi Mazi et Jean-Baptiste Boisseau prêtent serment.)

M. Jean-Baptiste Boisseau, membre du collectif d’aide aux victimes des influenceurs, chargé des projets espaces de discussion en ligne et des relations presse. Je n’ai aucun lien d’intérêts vis-à-vis de TikTok, cependant, je dois vous informer que je suis le gérant d’une plateforme communautaire de signalement d’escroqueries en ligne. Bien que cela ne constitue pas un conflit d’intérêts à proprement parler, cette expérience me confère une perspective similaire à celle des plateformes sur certains aspects, notamment en matière de modération et de gestion communautaire.

M. Mehdi Mazi, co-fondateur du collectif d’aide aux victimes d’influenceurs. Je n’ai moi non plus aucun lien d’intérêts à déclarer. Le collectif AVI a vu le jour à l’été 2022, d’abord pour répondre aux témoignages nombreux et particulièrement accablants de victimes du couple d’influenceurs M. et Mme Marc et Nadé Blata. Notre objectif premier consistait à accompagner les victimes de ces influenceurs dans leurs démarches pour faire valoir leurs droits et se défendre.

Rapidement nous sont parvenus de nombreux témoignages relatifs aux méfaits d’autres influenceurs. C’est ainsi que notre collectif, à l’origine nommé AVMN pour « aide aux victimes de Marc et Nadé Blata », s’est officiellement constitué en association le 19 août 2022 sous le nom de collectif d’aide aux victimes d’influenceurs.

Notre mission est double. D’une part, nous accompagnons les victimes dans leurs démarches juridiques, portons leur voix et œuvrons pour mettre fin aux agissements de ces influenceurs qui trop souvent continuent d’opérer en toute impunité en dépit des signalements. D’autre part, nous nous efforçons de sensibiliser et d’alerter l’opinion publique, les institutions et les plateformes sur ces dérives.

Dès la création de notre collectif, nous avons reçu de nombreux témoignages particulièrement marquants et accablants. Certaines personnes ont subi des pertes financières considérables, entraînant des préjudices personnels importants. Nous avons recensé des conflits familiaux, des séparations, des divorces, des ventes de maisons forcées, et dans les cas les plus graves, des tentatives de suicide. Les conséquences des méthodes frauduleuses des influenceurs ont bouleversé de nombreuses vies.

Face à cette situation, nous avons immédiatement entrepris des actions de signalement auprès des plateformes comme Snapchat et Instagram. Snapchat s’est montré relativement réactif, bannissant les comptes incriminés au bout de quelques semaines. Instagram, en revanche, a mis plus de temps à réagir.

Nous avons ensuite décidé de lancer une action collective sous forme de 88 plaintes conjointes pour escroquerie et abus de confiance en bande organisée. Ce recours collectif a été déposé le 20 janvier 2023 et annoncé lors d’une conférence de presse. Il vise plusieurs influenceurs, notamment M. Marc Blata et Mme Nadé Blata, concernant leurs projets de copy-trading et d’investissement en crypto‑monnaies.

Notre association a également traité un dossier concernant M. Dylan Thiry pour des faits présumés d’abus de confiance aggravé, en lien avec des soupçons de détournement de cagnottes en ligne à vocation humanitaire. En mars 2024, nous avons organisé une seconde conférence de presse, au cours de laquelle nous avons annoncé le dépôt de nouvelles plaintes visant d’autres influenceurs pour des faits similaires, principalement d’escroquerie en bande organisée ou d’abus de confiance.

Nous avons par ailleurs effectué de nombreux signalements auprès de diverses instances. Dès août 2022, nous avons alerté la Caisse des dépôts concernant les arnaques au compte personnel de formation (CPF) impliquant une quinzaine d’influenceurs. Nous avons également saisi l’Autorité nationale des jeux (ANJ), la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), ainsi que la Cour des comptes.

En parallèle, nous avons participé à des travaux législatifs en collaboration avec des députés et un groupe de travail du ministère de l’économie. Nous avons également coopéré avec des journalistes dans le cadre d’enquêtes, en leur fournissant des documents et des témoignages afin de sensibiliser le plus grand nombre.

Depuis le début de son action, l’association a recensé plus de 2 400 victimes, pour un préjudice total estimé à plus de 2 millions d’euros. Nous gérons actuellement 23 dossiers au sein du collectif, et une douzaine de plaintes ont déjà été déposées.

M. le président Arthur Delaporte. Je vous invite maintenant à aborder les effets sur les mineurs et les aspects directement liés aux travaux de la commission.

M. Jean-Baptiste Boisseau. Je vous propose pour répondre à cette question d’illustrer mon propos par des cas concrets, en mettant en lumière certains points qui n’ont pas encore été portés à la connaissance de la commission. Je commencerai par évoquer deux influenceurs dont les parcours me semblent particulièrement représentatifs des problèmes de régulation actuels.

Le premier cas concerne Rayan PSN, un influenceur qui à l’origine s’est fait connaître sur Snapchat. Sa notoriété a crû soudainement à la faveur d’une vidéo le montrant en train de commettre un vol dans un camion de pompiers. Cette action lui a valu une condamnation à un stage citoyen, mais n’a pas manqué d’entraîner une augmentation significative du nombre de ses abonnés sur les réseaux sociaux. On peut malheureusement constater que, dans ce cas, le délit a été profitable. Par la suite, Rayan PSN a publié une vidéo dans laquelle il menaçait le ministre de l’éducation de l’époque, Jean-Michel Blanquer, avec une arme. Cette fois encore, la justice s’est montrée clémente, le condamnant à quelques heures de travaux d’intérêt général, invoquant le droit à l’humour et le caractère décalé des contenus de ce jeune homme.

Il semble que la justice ne prenne pas en compte la dimension commerciale qui sous-tend ces provocations, ce qui constitue un véritable problème. En effet, ces actions servent en réalité de vitrine à un véritable business de vente de produits et services frauduleux, notamment la promotion de plateformes de trading non autorisées en France, en violation flagrante des réglementations de protection des épargnants.

Un autre épisode controversé concerne une vidéo prétendument tournée en Syrie en 2022, mais en réalité filmée au Liban, dans laquelle Rayan PSN se filme en train de tirer à la kalachnikov et au bazooka, et affirme qu’aucun conflit n’est en cours dans ce pays, ce qui est manifestement mensonger. Ces contenus, d’abord publiés sur Snapchat, ont ensuite été relayés sur Telegram où ils restent d’ailleurs accessibles aujourd’hui.

Malgré ces controverses, Rayan PSN a réussi à se reconvertir sur TikTok, où il compte aujourd’hui plusieurs centaines de milliers d’abonnés. Ses vidéos, qui cumulent parfois des millions de vues, promeuvent des méthodes douteuses d’enrichissement rapide par le trading. Il se présente comme un exemple de réussite, incitant ses jeunes followers à suivre son parcours, malgré ses démêlés avec la justice.

Le second cas que je souhaite évoquer est celui de M. Illan Castronovo. En septembre 2022, sur Instagram, il faisait la promotion d’une clinique esthétique en Turquie, une pratique déjà problématique à l’époque. Il promouvait également un cryptoactif qui s’est avéré être une escroquerie, ainsi que des services de trading promettant des rendements irréalistes de 20 % par semaine.

À la suite de l’adoption de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, promulguée en 2023, et à la faveur d’une attention médiatique et politique accrue sur ces pratiques en 2022 et 2023, M. Castronovo a été épinglé par la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Cependant, l’autorité s’est limitée à lui adresser un simple avertissement, sans sanction concrète ni restriction de ses activités sur les réseaux sociaux.

Afin d’échapper à ces pressions, M. Castronovo a opéré une transition vers TikTok, où il a opté pour des formats de contenus plus légers, mêlant recettes de cuisine et commentaires sur l’actualité. Il participe désormais à des matchs, c’est‑à‑dire des événements diffusés en direct dans lesquels les influenceurs cherchent à obtenir des dons de leur communauté. M. Castronovo figure régulièrement dans le top 10 des créateurs recevant le plus de cadeaux virtuels, une pratique qui soulève des questions éthiques, notamment concernant la potentielle manipulation de personnes vulnérables. Nous avons recueilli des témoignages suggérant des comportements susceptibles de relever de l’abus de faiblesse.

Les deux cas que je viens de présenter sont loin d’être des exceptions. Au contraire, ils sont caractéristiques d’une tendance inquiétante. Plus alarmant encore, il convient de souligner qu’à ce jour, aucun d’entre eux n’a été condamné par un tribunal pour escroquerie ou pratique commerciale trompeuse.

Prenons l’exemple de M. Adrien Laurent, alias AD Laurent, qui a récemment fait l’actualité puisque la ministre déléguée chargée de l’égalité entre les femmes et les hommes et de la lutte contre les discriminations vient de demander à TikTok de supprimer son compte. Son cas est particulièrement intéressant car il soulève non seulement des questions sur son discours problématique concernant les relations hommes-femmes, mais aussi sur ses pratiques commerciales douteuses, notamment dans le domaine du trading. Ces agissements relèvent clairement de la délinquance économique avérée, et il est regrettable que de telles pratiques n’aient pas été stoppées plus tôt.

Notre collectif a élaboré plusieurs propositions pour remédier à cette situation. La première, sur laquelle j’insiste régulièrement auprès de M. le président de la commission d’enquête depuis nos discussions sur la loi sur les influenceurs de 2023, concerne la création d’un véritable parquet du numérique. En vérité ce parquet du numérique existe déjà en France, mais il se limite aux affaires de haine en ligne. C’est la raison pour laquelle nous estimons qu’il devrait élargir son champ d’action pour traiter l’ensemble des abus commis en ligne.

La nécessité d’un parquet spécialisé s’explique par le fait que la justice classique peine à appréhender certaines problématiques spécifiques au numérique. Le cas de Rayan PSN est emblématique : malgré plusieurs comparutions devant les tribunaux, ses activités, relevant à l’évidence de la délinquance économique, n’ont pas été correctement identifiées.

Nous proposons également de renforcer les moyens de lutte contre la délinquance économique en ligne. Cela implique une collaboration accrue avec des autorités telles que la DGCCRF, l’Autorité des marchés financiers (AMF), l’ANJ, et potentiellement l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). À ce propos, il serait intéressant de connaître le nombre de personnes travaillant spécifiquement sur le respect du référentiel de modération des publications litigieuses au sein de l’Arcom.

L’établissement d’un référentiel clair pour la modération des contenus problématiques est indispensable. Actuellement, de nombreuses plateformes se retranchent derrière l’argument de l’absence d’illicéité manifeste pour justifier leur inaction. Un référentiel bien défini permettrait un premier tri efficace sans nécessairement recourir à la voie judiciaire.

Nous préconisons également le renforcement des dispositions de blocage, de suppression de contenus et de bannissement de comptes. Cela implique une extension des mesures juridiques existantes, ainsi que la mise en place de procédures de blocage administratif, similaires aux fermetures administratives d’établissements physiques.

Enfin, d’autres propositions incluent l’encadrement des dons et des matchs, l’organisation de réunions d’information pour les parents de collégiens sur les outils de protection en ligne, et la réalisation d’un audit sur l’application du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA).

M. le président Arthur Delaporte. Nous aurons l’opportunité d’aborder cette question du DSA lors de notre visite à Bruxelles le 4 juin.

M. Jean-Baptiste Boisseau. Concernant les procédures de modération, nous estimons qu’une procédure d’appel indépendante est nécessaire. Actuellement, les appels sont traités par les plateformes elles-mêmes, ce qui limite leur efficacité. Nous suggérons que ces appels soient transmis aux signaleurs de confiance (trusted flaggers) selon la catégorie du signalement, procédure qui peut d’ailleurs bénéficier aussi bien aux influenceurs ciblés qu’aux personnes effectuant les signalements.

La législation européenne, qui s’appuie notamment sur le principe du pays d’origine, constitue souvent une entrave à l’action, comme l’a récemment illustré le cas des sites pornographiques. Ce problème, déjà soulevé lors des discussions sur le DSA, nécessite une réévaluation approfondie.

L’algorithme de TikTok n’est pas le seul en cause, mais il est certainement le plus efficace. C’est pourquoi nous recommandons une approche alternative à l’interdiction ou à la modification directe par les pouvoirs publics. Il s’agirait plutôt de désactiver la vue algorithmique par défaut dans les applications de médias sociaux. En privilégiant par défaut l’affichage des contenus auxquels l’utilisateur est abonné, on pourrait observer un changement significatif dans l’expérience utilisateur, sans pour autant imposer des mesures trop intrusives aux plateformes.

Je souhaite pour conclure évoquer un point très important qui est ressorti de votre échange avec le rapporteur de la commission du Sénat sur TikTok, Claude Malhuret, lors de son audition. Il s’agit de la réalité de la guerre informationnelle et cognitive, qui est au cœur de cette problématique. L’actualité récente en Roumanie illustre parfaitement ce phénomène. TikTok a été massivement utilisé comme outil de propagande et de déstabilisation de l’État, notamment par le biais d’influenceurs. Cette opération, qui aurait pu mener à l’installation d’un gouvernement pour le moins contestable en Roumanie cette semaine, a conduit à l’annulation des élections.

La Roumanie n’est pas un cas isolé. Depuis l’affaire Cambridge Analytica en 2015‑2016, nous avons acquis une connaissance empirique de ce type de problèmes. Ces enjeux concernent désormais l’ensemble de la population, y compris les jeunes. En effet, ces pratiques façonnent la culture de la jeunesse, qui est particulièrement présente sur les réseaux sociaux et s’y informe massivement. Mécaniquement, l’impact de ces techniques ne fera que s’amplifier avec le temps.

Bien que cela puisse dépasser le cadre strict de votre commission, je suis convaincu que ces deux problématiques sont étroitement liées. En nous penchant sur la régulation des contenus accessibles aux jeunes – et pas uniquement à eux – nous devons nécessairement aborder ce sujet, à propos duquel il serait instructif pour votre commission d’enquête d’auditionner le service de vigilance et de protection contre les ingérences numériques étrangères (Viginum).

M. le président Arthur Delaporte. Nous envisageons d’auditionner Viginum, ainsi que d’entendre l’historien M. David Colon sur les questions de guerre de l’information.

Je tiens à vous remercier pour les informations que vous nous livrez, mais aussi et surtout pour vos propositions puisque notre commission d’enquête, à l’issue de son travail de recueil d’informations, a pour objectif d’élaborer une série de propositions afin de déterminer comment prévenir à l’avenir les dérives constatées.

Mme Laure Miller, rapporteure. Je vous remercie à mon tour pour les propositions très détaillées que vous avez formulées, et qui nourriront notre réflexion.

Vous avez mentionné dans votre présentation le chiffre de 2 400 victimes. Quelle est la proportion de mineurs concernés ? Quelle est la part des abus spécifiquement liés à TikTok ?

M. Mehdi Mazi. Nous n’avons recensé qu’un seul cas de mineur impliqué dans les affaires que nous suivons. En l’occurrence il s’agissait d’une affaire de trading.

Nous ne disposons pas de données précises permettant de mesurer l’implication respective de TikTok et d’autres plateformes. Si nous constatons davantage de cas impliquant des influenceurs sur Snapchat et Instagram en particulier, nous observons une augmentation des signalements concernant TikTok. Je précise toutefois que nous traitons principalement de faits datant de 2021-2022, que nous avons examinés récemment. Actuellement, nous commençons à recevoir des cas liés à TikTok, notamment dans le domaine du trading.

M. Jean-Baptiste Boisseau. Notre échantillon n’est pas représentatif. À l’origine, nous avons traité une communauté de victimes liée à M. Marc Blata et Mme Nadé Blata. Au fil du temps, d’autres victimes se sont manifestées après avoir eu connaissance de ces affaires. Nous ne sommes nous-mêmes présents sur TikTok que depuis un an. Néanmoins, nous avons rapidement reçu de nombreux témoignages mettant en lumière des problématiques spécifiques à cette plateforme.

Mme Laure Miller, rapporteure. Dans la continuité de votre réponse, identifiez-vous une spécificité propre à TikTok par rapport aux autres réseaux sociaux, au vu des signalements que vous avez reçus ces derniers mois ?

M. Jean-Baptiste Boisseau. De manière générale, les escroqueries sont similaires sur TikTok et sur les autres réseaux sociaux. La spécificité majeure de TikTok réside dans les matchs, puisque cette fonctionnalité n’existe pas sur les autres plateformes. Elle mérite par conséquent une attention particulière.

En outre, TikTok se distingue par les réponses et les décisions de modération pour le moins déconcertantes par lesquelles elle donne suite aux signalements que nous effectuons. En effet, nous observons que certains contenus sont supprimés, tandis que d’autres, qui nous semblent pourtant davantage problématiques, sont maintenus. N’étant pas encore reconnus comme signaleurs de confiance, il nous est difficile d’expliquer en détail pourquoi nous considérons un contenu ou un compte comme problématique dans son ensemble.

Mme Laure Miller, rapporteure. Avez-vous été en mesure, à la faveur de contacts directs, de signaler à des responsables de TikTok que la modération de la plateforme vous semblait assez aléatoire et pas toujours cohérente ?

M. Jean-Baptiste Boisseau. Non, nous n’avons jamais eu de contacts directs avec TikTok.

Mme Laure Miller, rapporteure. Vous avez mentionné précédemment l’existence d’outils pour les parents, notamment dans le cadre de votre proposition d’organiser une grande réunion avec les parents au collège. Nous avons été frappés, lors de notre audition des familles de victimes la semaine dernière, par les difficultés exposées par les familles à comprendre et à utiliser ces applications. De plus, elles ont souligné que ces outils sont facilement contournables, avec des tutoriels aisément disponibles pour les jeunes. Pourriez-vous développer ce que vous entendez par « outils » dans ce contexte ?

M. Jean-Baptiste Boisseau. Je fais référence aux outils de contrôle parental. La difficulté réside dans leur multiplicité et la complexité de leur paramétrage. Il est vrai que certains jeunes motivés peuvent les contourner ou les désinstaller. Cependant, ce n’est pas le cas de tous, loin de là. Si nous leur expliquons correctement comment les utiliser, alors les parents auront la capacité de détecter ces contournements et d’exercer un contrôle efficace. L’objectif n’est pas de paramétrer l’outil une fois pour toutes, mais d’encourager les parents à suivre régulièrement l’activité de leurs enfants. Avec un suivi attentif, ils devraient être en mesure de repérer d’éventuelles anomalies.

M. le président Arthur Delaporte. Je souhaite revenir sur certains exemples que vous avez mentionnés, afin de les approfondir. Vous avez insisté sur l’interconnexion de l’ensemble des réseaux, et mis en évidence que les influenceurs passent d’un compte à l’autre et d’un réseau social à l’autre. Vous avez également mentionné que TikTok, bien que plus récent que Snapchat ou Instagram, propose des contenus aussi sinon davantage problématiques, en particulier avec ses retransmissions en direct, qui permettent de pratiquer diverses formes d’extorsion. Pourriez-vous, en vous appuyant sur des exemples, décrire précisément les contenus problématiques que vous avez constatés ? Je pense d’abord à AD Laurent, que nous allons bientôt auditionner dans le cadre de cette commission d’enquête.

M. Jean-Baptiste Boisseau. Le cas d’AD Laurent est particulièrement intéressant. Nous nous sommes intéressés à lui lorsqu’il était sur Snapchat. Il avait vu son compte Instagram fermé à la fin du premier confinement, en 2020, à la suite d’un live où une jeune femme avait montré ses seins, ce qui a entraîné de nombreux signalements. Son compte Snapchat a été supprimé environ un an plus tard, en 2021 ou 2022, dans un contexte où cette plateforme se montrait particulièrement vigilante sur les problématiques de trading, et avait supprimé les comptes de nombreux influenceurs, notamment ceux de M. Marc Blata et Mme Nadé Blata, Seby Daddy ou M. Laurent Correia, tous auteurs d’infractions liées à la promotion du trading.

AD Laurent, quant à lui, a persisté dans ses pratiques. Il a créé son propre réseau social, WeScoop, en collaboration avec Seby Daddy, sans toutefois reconnaître son implication. Leur stratégie promotionnelle pour ce réseau était particulièrement problématique, puisqu’ils incitaient les utilisateurs à consulter du contenu progressivement moins censuré sur WeScoop, puis sur OnlyFans. En parallèle, AD Laurent continuait à faire des placements de produits problématiques, des escroqueries diverses et la promotion de produits financiers douteux. Ces pratiques ont perduré jusqu’en 2023. Son comportement sur TikTok s’inscrit dans la continuité de ses agissements sur les réseaux sociaux.

Un doctorant ayant étudié spécifiquement l’activité en ligne d’AD Laurent a montré de quelle manière il jouait constamment avec les limites du système, cherchant à maximiser l’engagement en créant des situations à forte charge émotionnelle. C’est bien cette stratégie qui lui a permis d’exploser sur les réseaux sociaux.

M. le président Arthur Delaporte. Vous mentionnez également Nasdas dans la liste d’influenceurs que vous nous avez transmise. Pourriez-vous développer ce cas ?

M. Jean-Baptiste Boisseau. Nasdas a été, un temps, l’influenceur numéro un sur Snapchat. Il est actuellement le numéro deux. Il a été lui aussi impliqué dans des placements de produits problématiques et la promotion d’offres de trading. Ces pratiques ont été constatées dès 2021, 2022, et persistent encore aujourd’hui puisque récemment encore il faisait sur Twitch la promotion d’un autre influenceur, Marcuus Lawrence, qui propose des formations pour « devenir riche ». Nasdas ne fait pas directement la promotion de ces formations, mais il incite à participer à un concours organisé par son acolyte pour gagner des cadeaux, l’objectif final étant de capter l’attention à travers ce concours, puis de prendre les internautes au piège de la formation au trading dispensée par Marcuus Lawrence. Nasdas est présent sur TikTok et, s’il n’est pas à proprement parler un créateur de contenu TikTok, son influence y est significative puisque ses contenus y sont largement commentés.

M. le président Arthur Delaporte. Dans ces deux cas, AD Laurent et Nasdas, il est difficile de mesurer la proportion exacte de mineurs composant leur audience, mais on peut supposer qu’elle est significative. Avez-vous eu connaissance de victimes mineures qui se seraient inscrites à des services de copytrading par exemple ?

M. Jean-Baptiste Boisseau. Non, nous n’avons pas identifié de cas impliquant des mineurs, mais il convient de rappeler que les victimes qui s’adressent à notre collectif sont rarement mineures. En d’autres termes, si nous ne disposons pas de témoignages directs, il est certain que les mineurs sont directement exposés aux pratiques de ces influenceurs. Je pense en particulier à Rayan PSN : aucune victime mineure ne nous a contactés, mais il est absolument certain que Rayan PSN a causé beaucoup de dégâts parmi les plus jeunes. De même, un groupe nommé Groupe Élite, dirigé par un certain ZK et dont de nombreux influenceurs ont assuré la promotion, cible précisément les mineurs. Bien que nous n’ayons pas reçu de plaintes directes, nous savons qu’il cause des dommages considérables.

Nous pourrions citer d’autres cas exemplaires tels que Alex Hitchens et La Menace. Ces individus font la promotion de formations supposées enrichir rapidement ceux qui les suivent, avec des promesses de rendement extravagantes. La DGCCRF devrait se montrer davantage attentive au contenu et à la présentation de ces formations, car elle pourrait probablement identifier de nombreuses infractions.

M. le président Arthur Delaporte. S’il semble plus que probable que ces influenceurs font des victimes parmi les mineures, ceux-ci sont naturellement peu susceptibles d’être en mesure de leur confier de l’argent, donc d’être victimes directes de leurs escroqueries.

M. Jean-Baptiste Boisseau. En effet, et il convient d’ajouter à cela que, mineures ou majeures, seule une très faible proportion des victimes se déclarent. Dans le cas des escroqueries financières et des formations pour devenir riche, les influenceurs et leurs communautés parviennent souvent à convaincre les victimes qu’elles ne sont pas réellement des victimes. Ils leur font croire qu’elles sont à l’origine de leurs problèmes, qu’elles n’ont simplement pas compris ou correctement suivi la formation, et que c’est pour cette seule raison qu’elles ne sont pas devenues riches. L’influenceur, en exhibant des signes extérieurs de richesse, leur tend un miroir inversé : puisqu’il a réussi, lui, il est bien la preuve que la formation était efficace, et fait porter sur la victime la responsabilité de son échec.

En outre, l’influenceur peut compter sur le soutien d’une partie de sa communauté pour renforcer ce discours d’inversion de la responsabilité. Sur les réseaux sociaux, on observe en effet un phénomène de victim shaming, où il s’agit de faire honte aux victimes, ce qui les dissuade de témoigner contre les influenceurs. Les victimes subissent d’importantes pressions, ce qui explique pourquoi de nombreuses personnes qui nous soumettent des dossiers refusent pourtant de porter plainte.

M. le président Arthur Delaporte. Il me semble important de bien comprendre ces mécaniques de la honte, de la pression, de la peur et du déni du statut de victime. Vous avez évoqué précédemment des agissements pouvant relever de la manipulation de personnes vulnérables. Pourriez-vous détailler davantage la logique de ces manipulations, notamment sur les lives ? Comment se manifestent-elles concrètement ? Quelles sont les méthodes employées pour exploiter la vulnérabilité financière de certaines personnes ?

M. Jean-Baptiste Boisseau. Les lives sont le théâtre de mécanismes biaisés, et TikTok porte une responsabilité importante sur ce point, puisqu’il incite fortement, à travers divers éléments de son interface, à y participer activement, ainsi qu’aux matchs. Des notifications et des messages réguliers encouragent les utilisateurs à soutenir tel ou tel influenceur, promettant des récompenses comme le passage à un niveau supérieur ou l’obtention d’un badge spécifique. Cette gamification, c’est-à-dire cette manière de donner à tout l’aspect d’un jeu et de capter l’attention des participants par la perspective d’obtenir un gain potentiel, se traduit notamment par le classement des meilleurs donateurs, qui crée une compétition malsaine. Les influenceurs faisant eux-mêmes l’objet d’un classement, ils sont eux aussi poussés à exploiter autant que possible ce système. C’est ainsi que l’on observe la formation de véritables équipes de supporters, prêts à investir du temps et de l’argent pour faire progresser leur « gourou » dans ce classement. Une pression de groupe s’exerce au sein de ces communautés, allant jusqu’à qualifier de « traîtres » ceux qui soutiendraient d’autres influenceurs.

Cette dynamique est particulièrement perverse, et certains influenceurs, à l’image de M. Illan Castronovo, l’amplifient en établissant des contacts directs avec leurs meilleurs donateurs. Cette proximité apparente avec l’influenceur devient un enjeu supplémentaire, incitant à des dons toujours plus importants.

M. le président Arthur Delaporte. Pourriez-vous évoquer le cas particulier de M. Julien Tanti ?

M. Jean-Baptiste Boisseau. Notre intérêt pour M. Julien Tanti découle de ses nombreux placements de produits problématiques sur d’autres réseaux, notamment Snapchat et Instagram, impliquant de la contrefaçon. Il s’est également signalé par ses activités de trading et, s’il a bien été sanctionné par la DGCCRF, cette sanction n’a pas abouti à un procès ni à une indemnisation des victimes, qui n’ont même pas été contactées. Un arrangement judiciaire a été conclu, principalement en raison du manque de temps et de ressources de la justice, résultant en une simple transaction financière dont le montant n’a pas été divulgué. Cette situation soulève des questions sur l’efficacité de la justice dans ces affaires.

Depuis, M. Julien Tanti, à l’instar de M. Illan Castronovo, a tenté d’effacer son passé en affirmant avoir cessé les placements de produits. Aujourd’hui, il tire principalement ses revenus de TikTok, à travers les lives et les services associés proposés par la plateforme.

M. Mehdi Mazi. Je souhaite mettre en lumière les principales problématiques que nous avons rencontrées au fil des années. L’isolement des victimes constitue un enjeu majeur, car elle rend difficile l’obtention de témoignages et la libération de leur parole. La peur de s’exprimer, exacerbée par les menaces et les intimidations en ligne, est omniprésente. L’inégalité de la médiatisation place souvent les victimes en position de faiblesse face aux influenceurs.

Nous sommes également confrontés à l’inaction des plateformes, qui rejettent la majorité de nos signalements. Sur TikTok, nos alertes concernant des contenus problématiques sont systématiquement classées sans suite, la plateforme affirmant n’avoir identifié aucune violation de leurs règles d’usage. Cette situation est particulièrement préoccupante dans le cas d’influenceurs promouvant des activités à risque, comme le trading, en utilisant des stratégies de contournement pour échapper à la modération.

Un exemple flagrant est celui d’une influenceuse faisant la promotion indirecte du trading en vantant son train de vie luxueux. Malgré nos signalements répétés, TikTok n’a pris aucune mesure, arguant l’absence de violation directe de ses règles. Cette influenceuse dirige finalement ses abonnés vers un courtier basé aux Caraïbes, proposant des produits financiers extrêmement risqués et douteux.

J’insiste, enfin, sur l’impunité persistante et alarmante dont bénéficient les influenceurs aux pratiques délictueuses. Malgré les dommages causés, certains continuent de diffuser du contenu et de promouvoir des produits ou services douteux sans être inquiétés.

M. Jean-Baptiste Boisseau. Il me semble que la société, dans son ensemble, ne semble pas pleinement consciente de l’ampleur du problème. Prenons l’exemple de la fille de M. Nicolas Sarkozy, dont les lives TikTok ont fait l’objet de nombreux commentaires. Au-delà du contenu de ces lives, le véritable problème réside dans le fait qu’elle n’aurait pas dû pouvoir les réaliser étant donné qu’elle n’a pas atteint l’âge minimum requis de 18 ans selon les conditions d’utilisation de TikTok. La réaction de Mme Carla Bruni, exprimant son incompréhension face à la suppression du compte de sa fille, illustre cette méconnaissance générale des règles en vigueur.

Un autre exemple frappant est celui de M. Laurent Correia, membre de la JLC Family, qui utilise sa biographie TikTok pour rediriger vers un groupe Telegram promouvant du trading. Malgré nos alertes auprès de l’Arcom concernant la publicité faite par TF1 pour cet influenceur, nous n’avons reçu aucune réponse. TF1, de son côté, a simplement déclaré ne pas voir le problème. Cette situation met en lumière un manque de prise de conscience et de responsabilité à l’échelle de la société entière.

M. le président Arthur Delaporte. Avant de conclure, j’aimerais aborder un point que nous n’avons pas suffisamment évoqué : l’exposition des enfants par les influenceurs. Avez-vous des exemples concrets d’influenceurs qui mettent en scène leurs propres enfants ?

M. Jean-Baptiste Boisseau. M. Laurent Correia constitue un exemple parfait de cette pratique. Il va jusqu’à utiliser ses enfants dans des publicités liées au trading. Cette mise en scène de sa vie familiale sert d’élément de crédibilisation, suggérant implicitement que le mode de vie luxueux dont bénéficient ses enfants est accessible à ses abonnés s’ils suivent ses conseils en matière d’investissement.

M. le président Arthur Delaporte. Je tiens à rappeler, notamment pour ceux qui nous écoutent et qui envisageraient d’impliquer leurs enfants dans des publicités, que cette pratique est strictement réglementée et généralement interdite. Par exemple, il est formellement proscrit de faire figurer un enfant dans une publicité pour du trading, activité qui requiert par ailleurs un enregistrement auprès de l’AMF. En outre, toute participation d’un enfant à une publicité nécessite l’établissement d’un contrat de mannequinat et une rémunération appropriée. J’insiste sur ce point car il semble que de nombreuses personnes mettent en scène leurs enfants sans avoir conscience que l’utilisation d’un mineur dans un contenu à visée commerciale est illégale.

M. Jean-Baptiste Boisseau. Je crois qu’un décret d’application de la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet, dite loi Studer, encadre ces pratiques. J’ignore s’il a finalement été promulgué ou s’il est toujours en suspens.

M. le président Arthur Delaporte. Nous vérifierons ce point. Je vous remercie pour vos informations. Vous avez évoqué l’Arcom, ses représentants sont justement les prochaines personnes que nous allons auditionner.

26.   Audition de M. Martin Ajdari, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), M. Alban de Nervaux, directeur général, Mme Lucile Petit, directrice des plateformes en ligne, et Mme Sara Cheyrouze, responsable du pôle relations médias et influence (mardi 20 mai 2025)

Enfin la commission auditionne M. Martin Ajdari, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), M. Alban de Nervaux, directeur général, Mme Lucile Petit, directrice des plateformes en ligne, et Mme Sara Cheyrouze, responsable du pôle relations médias et influence ([25]).

M. Pouria Amirshahi, président. Je souhaite la bienvenue à M. Martin Ajdari, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), à M. Alban de Nervaux, directeur général et à Mme Lucile Petit, directrice des plateformes en ligne. Je vous remercie d’avoir pris le temps de répondre à notre invitation.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations. Je rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(MM. Martin Ajdari, Alban de Nervaux et Mme Lucile Petit prêtent successivement serment.)

M. Martin Ajdari, président de l’Autorité de régulation de la communication audiovisuelle et numérique. Je vous remercie de me donner l’occasion de contribuer à vos travaux, lesquels portent sur un sujet qui est au cœur des préoccupations de l’Arcom et des attentes de régulation de la société, telles que je les perçois depuis ma prise de fonctions à la présidence de l’Autorité, il y a trois mois.

L’Arcom a été désignée en 2024 comme l’une des trois autorités françaises compétentes pour l’application du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), avec la Commission nationale de l’informatique et des libertés (Cnil) et la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). En revanche, elle est le seul coordinateur pour les services numériques : elle est chargée de faire le lien avec la Commission européenne, dans une architecture de régulation du numérique assez complexe.

Sans entrer dans le détail de cette architecture juridique, je rappelle que l’article 28 du règlement sur les services numériques (DSA) prévoit des dispositions spécifiques pour la protection des mineurs, qui s’appliquent à toutes les plateformes en ligne  c’est-à-dire non seulement aux fournisseurs de services intermédiaires les plus importants et bien connus, mais également à ceux de taille plus limitée, à l’exception des très petites entreprises – et qui visent à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs.

Un projet de lignes directrices de la Commission européenne sur la protection des mineurs en ligne vient de préciser ces mesures. Nous avons la faiblesse de penser que ces lignes directrices, soumises à consultation jusqu’au 10 juin, reprennent assez largement la contribution que l’Arcom avait adressée à la Commission l’été dernier, au moment du lancement du projet. Elles portent sur l’ensemble des thèmes pertinents que sont la vérification de l’âge, le paramétrage protecteur par défaut des mineurs, les systèmes de recommandations personnalisées, les notifications ou encore le contrôle parental.

Au-delà des obligations générales posées par l’article 28, qui s’appliquent à toutes les plateformes, les très grandes plateformes en ligne – dont TikTok fait partie –, qui comptent plus de 45 millions d’utilisateurs par mois, soit plus de 10 % de la population européenne, doivent évaluer chaque année les risques systémiques liés à leur fonctionnement et prendre des mesures pour les atténuer. Parmi ces risques, pour reprendre la définition du règlement européen, figure tout effet négatif, réel ou prévisible, lié à la protection de la santé publique et des mineurs.

Comme pour les très grandes plateformes – Facebook, Instagram, X, Google ou YouTube –, TikTok relève du contrôle de la Commission européenne et de l’autorité de son pays d’établissement, en l’occurrence, la commission des médias, instance irlandaise que j’ai rencontrée le 9 mai. Seules ces deux autorités peuvent prononcer d’éventuelles sanctions à son encontre. Nous sommes en lien presque quotidien avec la Commission et, le cas échéant, notre homologue irlandais, pour leur transmettre des alertes, des informations et des compléments d’instruction lorsque nous en disposons. C’est l’un des rôles de l’Arcom, qui a ainsi participé à la procédure engagée contre le service TikTok Lite à l’été 2024, service qui, du fait même du lancement de cette procédure d’enquête à laquelle l’Autorité collaborait, a été supprimé par TikTok.

L’Arcom a pour objectif et ambition de jouer un rôle d’alerte sur les applications en particulier, mais aussi, de façon plus générale, sur les limites observées dans le cadre du déploiement du règlement sur les services numériques. J’ai récemment été conduit, comme d’autres collègues européens, à exprimer au sein du comité européen pour les services numériques les frustrations et les attentes de plus en plus vives en matière de protection des mineurs, à l’égard de la plateforme X notamment – je l’ai déjà fait à deux reprises depuis ma prise de fonctions.

Nous sommes également chargés de désigner les signaleurs de confiance, organismes associatifs, en général, qui sont des maillons essentiels du fonctionnement du DSA. Ces structures agréées par l’Arcom, spécialistes de tel ou tel risque en ligne, peuvent signaler et demander des retraits, avec une priorité de traitement, auprès des très grandes plateformes. Avec sept organismes labellisés, l’Arcom est celui des coordinateurs nationaux qui en a reconnu le plus. Nous entendons poursuivre notre action, puisque le DSA ne fonctionnera pleinement que lorsqu’il se démultipliera et sera pris en charge par des associations, qui en seront les fers de lance, et par des chercheurs qui, en accédant si possible aux données, pourront étudier et identifier les menaces auxquelles les plateformes sont confrontées, afin de les inviter à prendre des mesures correctrices.

Actuellement, 23 équivalents temps plein (ETP) se consacrent au règlement sur les services numériques, sur un effectif total de 350 personnes, sachant que le champ de compétences premier de l’Arcom est l’audiovisuel et la lutte contre le piratage. C’est une première étape et nous sommes reconnaissants au législateur de nous avoir accompagnés ; nous connaissons les contraintes budgétaires, mais l’Arcom devra vraisemblablement monter en puissance si elle veut conduire elle-même des études et démultiplier son action – nos collègues allemands comptent une soixantaine de personnes à leur disposition pour un périmètre de compétences comparable.

Un large consensus se fait jour pour considérer que le niveau de protection des mineurs en ligne en France et en Europe est, depuis de nombreuses années, tout à fait insuffisant sur TikTok. Les très grandes plateformes ont une responsabilité particulière en la matière, en raison de l’empreinte de leurs services dans la population, de la conception et des caractéristiques mêmes de ces services, notamment les réseaux sociaux, et de leur modèle économique fondé sur l’engagement. Ces risques très sérieux ont été largement documentés, entre autres par votre commission. Ils recouvrent l’exposition des contenus illégaux et préjudiciables, rendus dangereux par leur multiplicité, des rencontres susceptibles de porter atteinte à la vie privée, à la sûreté et à la sécurité des mineurs, du cyberharcèlement, des sextorsions et de la pédocriminalité. Ils produisent des effets connus d’anxiété, de dépression, d’addiction, de troubles du comportement et du sommeil, ou encore d’isolement.

S’agissant de TikTok, des signaux convergents, des témoignages de professionnels, de parents, de jeunes eux-mêmes, des travaux de chercheurs et des procédures judiciaires ont montré que ce service est au cœur d’un ensemble de risques particulièrement élevés pour les mineurs, qui justifie de lui porter une attention toute particulière.

Permettez-moi de citer trois éléments qui permettent de caractériser ce service. Tout d’abord, l’exposition des mineurs à la plateforme : au premier trimestre 2025, selon Médiamétrie, près d’un tiers des enfants âgés de 11 à 12 ans ont utilisé TikTok, alors que l’âge minimum d’accès est fixé, dans les conditions générales d’utilisation (CGU), à 13 ans ; la consommation de TikTok concerne plus de la moitié des jeunes internautes dès l’âge de 13 ans et elle augmente progressivement pour atteindre plus de 80 % pour les 15-17 ans – âge auquel on n’est pas non plus sans fragilités.

Ensuite, la deuxième caractéristique de TikTok, qui fait aussi l’attractivité et la qualité de son service, réside dans la conception de son interface, dont les fonctionnalités, le scrolling  défilement – illimité de vidéos courtes et personnalisées, les tendances, les hashtags et un algorithme de recommandations très puissant captent l’attention et allongent le temps passé sur la plateforme. Si cette interface est de nature à répondre aux envies immédiates des utilisateurs, en particulier des mineurs, elle peut aussi les enfermer dans des boucles de contenus nocives. On trouve principalement sur cette plateforme des contenus préjudiciables, qui visent à valoriser ou à banaliser certains comportements, tels que les troubles alimentaires ou la scarification – il existe un hashtag zèbre, assez éloquent, à ce sujet –, les intentions suicidaires, l’hypersexualisation, la violence. Certes, certains contenus visent à contester ou à critiquer de tels comportements, mais les publications nocives touchent des millions et des millions de personnes et attisent fortement les risques.

L’exemple le plus récent et évocateur est la tendance SkinnyTok, qui valorise la maigreur extrême. Elle touche potentiellement tous les utilisateurs, mais le risque est accru pour le public adolescent. À la suite de signalements, nous avons alerté nos collègues européens. Nous avons nous-mêmes effectué durant deux jours, les 23 et 24 avril, des mesures portant sur les publications mises en ligne sur TikTok au cours des trente jours précédents : sur cette seule période, 5 500 publications, diffusées par 3 000 créateurs différents, comprenaient l’expression SkinnyTok. Ces publications, dont 80 % étaient en anglais et 7 % en français, ont obtenu 97 millions de vues et 9,5 millions de likes, ce qui donne une indication de la viralité de ce type de contenus et du nombre de personnes touchées. Même si certaines de ces vidéos dénoncent la tendance et ses effets, il est facile de mesurer l’effet de masse induit.

Ces risques ne sont pas spécifiques à TikTok. D’autres plateformes, plus généralistes ou à destination des jeunes en particulier, qui ont aussi une empreinte très forte dans la population, sont concernées. Par conséquent, les travaux de votre commission d’enquête contribueront, en identifiant et en mettant en évidence certains risques liés à TikTok, à accentuer la pression sur toutes les plateformes et à les inciter à évaluer la situation et à y répondre.

Au-delà de TikTok, permettez-moi d’ajouter quelques mots sur la protection du jeune public et les orientations à privilégier. Évidemment, les plateformes doivent élever considérablement le niveau de protection des mineurs. L’Arcom considère à cet égard que le DSA représente le cadre pertinent pour obtenir des avancées décisives, en raison de sa cohérence d’ensemble, de la sécurité juridique qu’il apporte et de la capacité à négocier avec les plateformes qu’il permet – même si les cultures varient d’un État membre à l’autre, nous constatons une convergence sur le constat et les préoccupations. Certes, une tentation existe, née d’une frustration légitime, d’aller plus vite : sans doute faudra-t-il accélérer, voire renforcer le règlement européen.

Les propositions que nous avions formulées ont été largement reprises dans le projet de lignes directrices, qui fonde la régulation non pas uniquement sur la modération ex post, mais sur une invitation à modifier l’interface des services eux-mêmes et leur algorithme, afin d’apporter des réponses dès leur conception.

La priorité est d’interdire de façon effective l’accès des plus jeunes aux réseaux sociaux. Les conditions générales d’utilisation des plateformes prévoient un âge minimal de 13 ans pour accéder à leurs contenus : imposons-leur déjà de s’assurer que leurs propres CGU sont respectées, en vérifiant l’âge des utilisateurs – même s’il y a un débat légitime au sein des États membres de l’Union européenne sur l’âge, qui pourrait être relevé à 15 ans.

La deuxième exigence est que les plateformes adaptent leurs services au public adolescent et que, lorsqu’elles visent plus largement l’ensemble de la population, des limites d’âge soient instaurées par défaut, ne pouvant être débloquées que par un adulte, selon des modalités à définir, telles que la vérification de l’âge. Si la limite d’âge fixe à l’entrée d’un service ne peut pas constituer la seule protection, elle permet d’instituer un mode « tout ou rien », notamment concernant l’accès des mineurs à la pornographie. Il faut moduler les degrés de protection grâce à un paramétrage par défaut.

Troisièmement, il faut que les obligations procédurales prévues par le DSA soient pleinement appliquées : je pense notamment au traitement prioritaire des notifications des signaleurs de confiance et à l’accès des chercheurs aux données, conformément à l’article 40 du règlement. Un acte délégué de la Commission européenne doit préciser les conditions dans lesquelles les chercheurs pourront accéder aux données qui ne sont pas publiques ; nous espérons présenter ce point aux chercheurs avant l’été pour leur permettre de demander cet accès et d’identifier les risques, afin que la Commission puisse confronter les plateformes à leurs obligations.

Dernier point, sur lequel l’Arcom n’est toutefois pas en première ligne : ces mesures n’auront d’effets que si la sensibilisation des mineurs comme des adultes est améliorée et renforcée – votre commission d’enquête y contribuera. Il n’est certes pas facile de surveiller ce que font les enfants sur leur smartphone et les parents ne sont pas égaux face à cette tâche, mais cela reste le premier degré de régulation. Il s’agit donc, en complément des obligations imposées aux plateformes qu’il faut faire respecter, d’un autre volet de la politique à conduire.

Pour conclure, le DSA est, à mon sens, un outil efficace dont nous devons nous saisir. Pour exploiter pleinement son potentiel, il faut donner les moyens à tous les acteurs – associations, chercheurs, administrations – de conduire des actions pertinentes.

M. Pouria Amirshahi, président. Je vous remercie d’avoir répondu par anticipation à la question sur la nature de la coopération entre l’Arcom et la Commission européenne pour assurer le respect des dispositions du DSA.

Mme Laure Miller, rapporteure. Vous avez mentionné le nombre de personnes qui se consacrent à ce dossier au sein de l’Arcom. Pourriez-vous nous expliquer concrètement en quoi consiste leur travail et comment vous vous organisez pour assurer une veille, recueillir les informations et les faire remonter ? Quel lien entretenez-vous avec la Commission européenne et vos homologues européens – vous avez évoqué notamment un comité européen pour les services numériques ?

M. Martin Ajdari. La Commission européenne est à la tête de l’architecture juridique de régulation des grandes plateformes. Toutefois, à la différence du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA) dont elle traite directement avec chacune des grandes plateformes, elle se repose davantage, s’agissant du DSA, sur le coordinateur du pays d’installation des plateformes  souvent l’Irlande ou les Pays-Bas – et sur les coordinateurs nationaux, puisque les services sont déployés de manière différente selon les États. Les coordinateurs nationaux se réunissent tous les mois au sein de ce que nous appelons le comité européen pour les services numériques  le DSA board – au sein duquel la Commission présente l’avancement des différentes briques du règlement européen qui a été adopté à la fin de l’année 2022 et qui est entré en vigueur au milieu de l’année 2023. C’est donc une architecture neuve, d’autant que la plupart des coordinateurs nationaux ont été désignés en 2024 – deux ou trois pays n’en ont d’ailleurs pas encore nommé. Même si nous avons commencé à entrevoir la plupart des risques auxquels les mineurs sont exposés dès le début des années 2010, notamment en matière d’exposition à la pornographie, la réponse est relativement récente.

Nous alertons la Commission et nous lui faisons remonter régulièrement, dans un système d’alerte et de partage d’informations appelé Agora, les cas qui nous sont signalés, par exemple par des parlementaires – nous avons ainsi saisi la Commission sur le système de recommandation de X, à la suite d’une plainte déposée par une sénatrice et une députée européenne française.

En interne, les 23 ETP sont répartis entre la direction des plateformes en ligne, représentée ici par Mme Lucile Petit, la direction des affaires européennes et internationales qui assure la coordination avec la Commission et la direction des études. Le rôle de la direction des plateformes en ligne est de transposer en France l’architecture du DSA, d’organiser les relations avec les signaleurs de confiance  y compris le recueil des dossiers de candidature à ce statut –, ainsi qu’avec les chercheurs éventuellement  même si cela relève davantage de la direction des études –, et d’être en contact avec l’ensemble des acteurs français, tels que la délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la haine anti-LGBT (Dilcrah) ou les organisations de suivi de la haine en ligne ou de protection des consommateurs.

Mme Lucile Petit, directrice des plateformes en ligne. Nous sommes également chargés du suivi de l’application du DSA par les fournisseurs de services intermédiaires français, dont le nombre est estimé à 200 environ  nous continuons de les recenser tant le champ est large. Bien que ces acteurs, qui incluent les places de marché, soient plus petits que les très grandes plateformes en ligne et que leurs moteurs de recherche soient moins puissants, ils sont tout de même assujettis au DSA : nous devons les accompagner, notamment par de la pédagogie. Ils devront publier cette année, pour la première fois, un rapport de transparence. Le Parlement a confié à l’Arcom la mission de réaliser elle-même un rapport sur ceux-ci. Par conséquent, les équipes sont aussi mobilisées par le volet français de cette mission.

M. Martin Ajdari. Les places de marché, telles que BlaBlaCar, Doctolib ou autres, peuvent poser des problèmes de protection des consommateurs, d’arnaques ou de discrimination en ligne  pour du logement par exemple. Ce sont ces mêmes effectifs de l’Arcom qui sont chargés d’assurer le suivi, en France, des garanties de transparence et de précaution exigées des acteurs.

Mme Laure Miller, rapporteure. En tant qu’autorité, avez-vous des relations directes avec TikTok et quelles sont-elles ? Obtenez-vous les informations que vous demandez ?

M. Martin Ajdari. Nous avons des relations d’assez bonne qualité au quotidien.

Mme Lucile Petit. Nous sommes en relation avec l’équipe française de TikTok depuis des années, puisque la plateforme était concernée par la loi  2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information. Nos échanges consistent à associer TikTok à l’Observatoire de la haine en ligne – ses représentants sont présents à chaque réunion –, à recueillir les informations de la plateforme sur les modifications apportées à ses modalités de modération ou à ses conditions générales d’utilisation. Lorsque nous repérons un problème ou organisons un cycle d’auditions, comme cela a été le cas au cours des périodes électorales, nous avons des échanges bilatéraux, voire multilatéraux, toutes les deux semaines, pour que TikTok nous fasse remonter d’éventuelles difficultés et alertes. Cependant, l’accès aux données en tant que telles, que permet l’article 40 du DSA, n’est pas ouvert aux coordinateurs des pays de destination.

M. Martin Ajdari. Il ne s’agit pas pour nous de faire du TikTok-bashing en tant que tel. Par exemple, TikTok est l’une des plateformes qui traite le plus rapidement les signalements qui lui sont faits et, d’un point de vue administratif, la réaction est satisfaisante. Il n’en demeure pas moins que des risques évidents ont été identifiés et que vous avez signalés : c’est ce sur quoi nous devons nous concentrer.

M. le président Arthur Delaporte. Je vous remercie pour le travail que vous effectuez avec des moyens limités. Comprenez-vous l’impatience des citoyens et leur sentiment que le régulateur est impuissant ? Le Collectif d’aide aux victimes d’influenceurs (AVI), que nous venons d’auditionner, a évoqué le cas d’influenceurs dont TF1 fait la publicité et qui renvoient vers des canaux de copy trading pratique illégale consistant à copier les investissements de traders. Le Collectif a beau faire des signalements, tout le monde lui répond qu’il n’y a pas de problème. Comprenez-vous qu’on se demande où est la police ?

M. Martin Ajdari. Nous comprenons cette frustration ; nous la partageons et la relayons auprès du comité européen pour les services numériques, notamment en ce qui concerne la protection des mineurs. Encore une fois, le DSA est très récent.

Je n’ai pas connaissance de la saisine du Collectif AVI, mais j’essayerai de la retrouver pour voir si un lien peut être fait entre TF1 et cet influenceur qui valorise des pratiques critiquables.

L’interdiction de l’accès des mineurs à la pornographie en ligne a fait l’objet d’une première tentative législative, qui s’est toutefois révélée insatisfaisante sur le plan juridique, dans son articulation avec le droit européen. Elle a été inscrite dans la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique dite loi Sren. Nous avons ensuite publié un référentiel demandant aux plateformes installées en France et en dehors de l’Union européenne d’installer un outil de vérification de l’âge des utilisateurs. Sur les six sites que nous avons contrôlés, l’un a été bloqué parce qu’il ne communiquait pas l’identité et l’adresse de son fournisseur ; les cinq autres ont déployé des systèmes de vérification de l’âge, dont nous sommes en train d’examiner s’ils répondent parfaitement au référentiel.

À compter du mois de juin, nous écrirons aux plateformes les plus importantes installées dans l’Union européenne, comme PornHub et YouPorn, pour leur demander d’installer à leur tour cet outil. Elles essaieront sans doute de le contester ou d’engager des manœuvres dilatoires, mais nous avançons ; on ne peut pas dire qu’il n’y a aucun résultat. Une large part des signalements effectués auprès des grandes plateformes sont suivis d’effet ; en général, quand nos interlocuteurs – les associations e-Enfance ou Point de contact, le Conseil représentatif des institutions juives de France (Crif) – les saisissent, ils obtiennent des résultats. Les signaleurs de confiance permettront de repérer de façon plus systématique et objective les insuffisances des plateformes. Je ne partage donc pas l’idée que cela ne marche pas, même si cela ne marche pas assez, pas assez vite.

M. Pouria Amirshahi, président. Une étude de Médiamétrie montre que les utilisateurs ont des usages différenciés des réseaux sociaux selon leur profil et leur âge. D’après vous, toutes les plateformes présentent-elles des risques identiques, ou sont-ils eux aussi différenciés ?

M. Martin Ajdari. La consommation des plateformes étant multiforme, il est difficile d’apporter une réponse unique. Certains risques sont très bien identifiés : la loi proscrit ainsi l’accès des mineurs aux contenus pornographiques et aux jeux d’argent.

La conception même des plateformes renforce-t-elle la nocivité de contenus qui, en soi, ne sont pas forcément illégaux ? C’est ce que l’on pressent pour un réseau social dont l’algorithme est particulièrement addictif, en comparaison avec une plateforme qui s’apparente plutôt à une messagerie privée, dans un environnement plus fermé. Les services dont le modèle économique repose sur l’engagement, comme les réseaux sociaux, peuvent sans doute produire, par effet de surexposition, des risques plus élevés d’addiction et d’enfermement, même si chaque contenu pris isolément est rarement illégal ou dangereux. Nous devons mettre en évidence ce phénomène et le documenter par un travail d’instruction scientifique, voire presque pénale. Nous souhaitons que des chercheurs accèdent à des données pour approfondir le sujet puis relayer leurs résultats auprès de la Commission européenne – telle est la logique du DSA.

Mme Laure Miller, rapporteure. Nous avons le sentiment de vider la mer à la petite cuiller. Vous signalez certains contenus à la Commission européenne, lesquels sont bannis ou modérés, mais il y en a tellement ! Les jeunes sont confrontés aux écrans sans aucune modération – il n’y a qu’à écouter les familles de victimes que nous avons auditionnées. Je me rends chaque semaine dans des collèges ou des lycées ; hier encore, une jeune fille m’expliquait que l’émoticône de la pizza faisait accéder à des contenus extrêmement problématiques. Tout cela pullule sur un réseau social comme TikTok.

Vous dites relayer les frustrations auprès du comité européen pour les services numériques, mais quelles sont vos attentes concrètes ? L’échelle européenne est sans doute la plus pertinente, mais trois ans après son entrée en vigueur, le DSA n’est pas pleinement appliqué. Pendant ce temps, les plateformes redoublent d’inventivité pour capter et monétiser toujours davantage l’attention. Aurons-nous un jour des plateformes satisfaisantes ? Que faut-il de plus que le DSA pour parvenir à une modération efficace, en particulier à l’égard des mineurs ?

M. Martin Ajdari. Dans la construction juridique européenne à laquelle nous appartenons, les lignes directrices de la Commission constituent des réponses précises sur différents paramètres. Si nous pouvons conditionner l’accès aux réseaux sociaux à une vérification de l’âge, ce sera une réponse. Nous pouvons imposer à des services comme Instagram ou YouTube d’installer des paramétrages protecteurs pour les adolescents, et les sanctionner s’ils n’y procèdent pas.

Mme Laure Miller, rapporteure. Pourquoi ne l’a-t-on pas encore fait ?

M. Martin Ajdari. On pourrait se demander pourquoi l’on a attendu pour interdire l’accès des mineurs aux contenus pornographiques. Songez qu’il a fallu du temps pour imposer le port de la ceinture de sécurité dans les véhicules, d’abord à l’avant puis à l’arrière. Malheureusement, de nombreuses protections sont déployées avec retard ; changer des habitudes ancrées demande du temps. Les lignes directrices permettront d’imposer des obligations aux plateformes à l’échelle européenne, quitte à les adapter au niveau national.

M. Alban de Nervaux, directeur général de l’Arcom. Ces lignes directrices sont extrêmement détaillées, exhaustives et précises. Elles sont de nature à permettre une évolution structurelle du modèle de ces services, à condition qu’elles soient effectivement appliquées et que les contrôles prévus aient lieu. La conviction de l’Arcom est qu’on ne peut pas se contenter d’une régulation ex post consistant à retirer les contenus signalés, tous plus problématiques les uns que les autres – ce serait le tonneau des Danaïdes. L’enjeu est d’engager une évolution systémique, structurelle, du modèle de ces services. On peut estimer que les lignes directrices ne vont pas assez loin sur certains points, mais dans l’ensemble, elles constituent une avancée sans précédent.

Jusqu’à présent, le caractère assez général du DSA et de son article 28 pouvait être utilisé comme prétexte pour ne pas avancer. Or les lignes directrices sont des prescriptions précises touchant à la structure des services – évolution notoire. Elles entrent dans le détail concernant la vérification de l’âge ou les paramètres de protection installés par défaut pour les mineurs : interdiction des contacts avec des inconnus, désactivation de la lecture automatique, interdiction des notifications, a fortiori pendant les heures de sommeil, désactivation des filtres préjudiciables à l’image ou à la santé mentale et des fonctions ayant pour seul objet de maximiser le temps passé et l’engagement des utilisateurs. Saisissons cette occasion, parallèlement aux enquêtes que mène la Commission, et qui avancent – en témoignent les conclusions préliminaires relatives à l’obligation pour TikTok de publier un registre des publicités, en application de l’article 39 du DSA. Les publicités sont aussi le nerf de la guerre et présentent des enjeux systémiques pour les plateformes.

Mme Laure Miller, rapporteure. La question de l’âge minimal pour accéder aux réseaux sociaux s’invite dans le débat public, en France mais peutêtre aussi ailleurs. Qu’en pensez-vous ? Au-delà des amendes, de quels moyens disposons-nous pour obliger TikTok à respecter la limite d’âge de 13 ans ? Si TikTok est sanctionné financièrement et refuse d’obtempérer, pouvons-nous aller jusqu’à supprimer la plateforme ?

M. Martin Ajdari. Si TikTok ne se conforme pas à ses obligations de manière répétée, malgré les injonctions de la Commission, elle peut se voir infliger une amende équivalant à 6 % de son chiffre d’affaires mondial ; puis vient la possibilité d’une suspension – cela existe. À court terme et de façon pragmatique, nous pouvons demander aux plateformes de respecter certaines obligations, à commencer par leurs propres conditions générales d’utilisation qui fixent la limite d’âge à 13 ans. Ces CGU sont la norme aux États-Unis ; chaque plateforme les a reprises à son compte.

Si nous voulions imposer une limite d’âge à 15 ans, comme la ministre chargée du numérique l’a évoqué, ce pourrait être une démarche politique conduite avec d’autres États membres en vertu du principe de précaution. Il y a de bonnes raisons de penser qu’en matière de santé publique, ne pas accéder aux réseaux sociaux avant 15 ans ne serait pas une très mauvaise idée. Tel que le règlement est conçu, cela nécessiterait une décision des États membres de réviser le DSA ou une décision politique de l’Union européenne, respectant les règles de majorité du Conseil et du Parlement, d’interdire les réseaux sociaux avant 15 ans. À mon avis, cette démarche n’est pas hors de portée car tous les États partagent cette préoccupation.

Une autre approche – pouvant être transitoire, avant de remonter l’âge limite – consisterait à appliquer tous les outils disponibles. En effet, les réseaux sociaux ne sont pas intrinsèquement dangereux en dessous de 15 ans ; tout dépend du type de service, des limitations au caractère addictif de l’algorithme, des paramétrages d’accès, de la vérification de l’âge…

Il peut donc y avoir deux approches. On peut comprendre que l’impatience, la frustration et les dangers observés conduisent à privilégier le principe de précaution, mais cette voie requiert des étapes politiques. Une approche plus pragmatique consiste à forcer les plateformes à déployer certains outils. La capacité à faire appliquer des paramétrages, des règles et des principes protecteurs fera office de test pour juger de la nécessité d’aller plus fort, plus vite et plus loin en remontant la limite d’âge.

M. Pouria Amirshahi, président. L’Arcom peut-elle adresser en propre des injonctions ou des avertissements à TikTok, indépendamment des faits incriminés par la Commission européenne, ou ne peut-elle le faire qu’à la demande de cette dernière ?

M. Martin Ajdari. Nous transmettons des alertes à la Commission, qui s’en saisit : elle peut demander des informations à TikTok, éventuellement lui imposer de conserver toutes ses données de trafic pour mener une enquête plus approfondie. Cette enquête contradictoire prend du temps, causant impatience et frustration. La Commission peut enfin prononcer une sanction. En revanche, l’Arcom ne peut pas prendre de sanction contre les plateformes comme TikTok.

M. Pouria Amirshahi, président. Le fait que TikTok soit domicilié en Irlande vous empêche-t-il de lui adresser des avertissements ?

M. Martin Ajdari. Nous pouvons faire remonter des alertes à la Commission ou à notre interlocuteur en Irlande, selon qu’une enquête a été engagée ou non par la Commission. Nous leur demandons d’étudier tel ou tel problème constaté par nos soins ou par des tiers – chercheurs, ONG, associations, élus.

Mme Laure Miller, rapporteure. Qu’en est-il des deux enquêtes dont TikTok fait l’objet ? L’Arcom est-elle associée aux travaux de la Commission ?

Mme Lucile Petit. La Commission peut demander des éléments aux coordinateurs nationaux si elle en ressent le besoin, mais ce n’est pas systématique.

Plusieurs enquêtes sont en cours au sujet de TikTok. L’une, ouverte en février 2024, porte sur la conception des interfaces et des systèmes de recommandation, en lien, notamment, avec la protection des mineurs. Dans ce cadre, une procédure vise le service TikTok Lite. Ce dernier n’étant disponible qu’en Espagne et en France, la Commission nous a demandé de lui fournir des éléments d’analyse ; nous y avons répondu dans le délai court – quelques jours – dont nous disposions. En revanche, nous n’avons pas été associés à l’enquête relative à la bibliothèque publicitaire.

M. Martin Ajdari. Il me semble que cette enquête était liée au processus électoral en Roumanie, mais nous n’avons pas eu d’information officielle sur le sujet.

Pour assurer la sécurité juridique de la procédure, la Commission observe le silence pendant toute la durée de l’instruction. Comme l’instruction peut durer six, douze voire dix-huit mois, cela peut occasionner des incompréhensions de la part des coordinateurs nationaux, qui n’obtiennent aucune réponse à leurs questions. Nous sensibilisons la Commission au besoin d’être associés à l’avancement de ses démarches, mais il est compréhensible qu’elle veuille garantir la sécurité juridique de l’instruction.

M. Pouria Amirshahi, président. Parmi les risques ou délits identifiés sur les plateformes, vous avez cité l’accès à la pornographie pour les mineurs, les incitations abusives à la consommation ou encore la promotion de pratiques dangereuses pour la santé, comme l’anorexie. Qu’en est-il du recrutement de candidats – possiblement mineurs – au narcotrafic ou à la commission d’actes délictueux ? Nous savons que les prises de contact peuvent passer par les plateformes.

M. Martin Ajdari. Tout passe malheureusement par les plateformes, y compris ces pratiques.

Mme Lucile Petit. Le DSA impose à chaque plateforme d’évaluer les risques systémiques induits par ses usages et ses fonctionnalités, parmi lesquels figure « tout effet négatif, réel ou prévisible sur […] la sécurité publique ». Il faut toutefois préciser que le DSA ne s’applique pas aux messageries privées des plateformes.

Mme Laure Miller, rapporteure. De nombreux contenus problématiques captent des utilisateurs sur les réseaux sociaux et les renvoient très rapidement vers des messageries privées comme WhatsApp ou Telegram. Avezvous des pistes pour endiguer ce phénomène face auquel nous sommes démunis ?

M. Martin Ajdari. Les messageries privées ne sont pas complètement à l’écart du champ du DSA et elles peuvent se prêter à l’analyse des risques. Cependant, le caractère systémique de ces derniers est moins facile à mettre en évidence pour des messageries fermées que pour des systèmes ouverts comme TikTok.

Mme Lucile Petit. C’est une vraie préoccupation, qui renvoie à l’aptitude à coopérer des réseaux mi-publics, mi-privés. Quant aux messageries cryptées de bout en bout, elles présentent des risques pour la sécurité des utilisateurs, leurs données personnelles et leur vie privée.

Mme Laure Miller, rapporteure. Pourriez-vous nous en dire plus sur la participation de TikTok à l’Observatoire de la haine en ligne ? Les contenus haineux sont très présents sur cette plateforme en particulier. Comment parvenezvous à échanger avec ses responsables ? N’est-il pas illusoire de penser que les choses pourraient évoluer favorablement ?

Les plateformes sont aujourd’hui de simples hébergeurs mais, leur rôle n’étant pas neutre dans la diffusion des contenus, elles pourraient être considérées comme des éditeurs. Vous semble-t-il que cette question pourrait revenir dans le débat à l’échelon européen ?

M. Martin Ajdari. Les exigences du DSA vis-à-vis des plateformes sont supérieures à celles imposées aux simples hébergeurs : les plateformes ne sont pas uniquement contraintes de retirer les contenus illicites, elles doivent également, sous peine d’encourir des sanctions assez importantes, fonctionner de manière transparente, évaluer les risques et y répondre.

Considérer qu’elles seraient éditrices des contenus reviendrait à faire un pas de trop, en tout cas aujourd’hui. Elles organisent et mettent à disposition les contenus mais elles ne les créent pas. Leur responsabilité est évidente, mais je ne la qualifierais pas d’éditoriale ; c’est une responsabilité de fournisseur de service en ligne. Si le service comporte des risques importants, ceux-ci doivent être mesurés et corrigés. À défaut, le service doit être supprimé ou sanctionné.

M. Alban de Nervaux. Le DSA a tranché pour un temps le débat sur le statut des plateformes et il ne me semble pas qu’il faille le remettre à l’ordre du jour. Les déterminants ayant conduit à la création d’un régime de responsabilité particulier, singulièrement renforcé par rapport à celui des hébergeurs, restent les mêmes. Ces plateformes contribuent à leur manière à la liberté d’expression. Il pourrait être disproportionné de les rendre comptables de l’infinie quantité de contenus qui transitent par leur intermédiaire.

Il n’y a pas eu de consensus parmi les États membres, lors de la négociation du DSA, pour leur conférer le statut d’éditeur ou les investir d’une responsabilité comparable ; je ne pense pas qu’il y en aurait davantage aujourd’hui. Cette voie ne me semble la plus judicieuse ni sur le plan politique ni sur le plan juridique. Nous devons continuer de privilégier celle qui consiste à tirer le maximum du potentiel qu’offre le DSA et à être particulièrement exigeants sur le respect par les très grandes plateformes en ligne de leurs obligations – sachant que l’essentiel des travaux est encore devant nous.

Mme Lucile Petit. L’Observatoire de la haine en ligne a été installé quelques semaines après la promulgation de la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet. Il comprend une cinquantaine de membres. Dès les premières réunions, la question de la mesure de la haine en ligne s’est posée et l’ensemble des membres ont constaté que l’on manquait de données pour cette tâche.

L’Observatoire s’est réuni quarante à cinquante fois en cinq ans, pour traiter notamment de sujets concrets. L’an dernier, nous avons organisé deux réunions pour anticiper, avec l’ensemble des membres et de façon élargie avec le ministère de la justice et celui des sports, les risques susceptibles de survenir en ligne au moment des Jeux olympiques. Chacun a pu évoquer les risques et les craintes qu’il avait identifiés mais aussi présenter les mesures déjà déployées : ces rencontres ont été l’occasion de créer des canaux. Nous nous servons de l’Observatoire comme d’un espace de dialogue et de régulation, dans lequel les plateformes sont toujours présentes.

Grâce à un règlement d’exécution de la Commission entrant en vigueur à partir du semestre prochain, nous disposerons bientôt, au sujet de la modération par les plateformes, de chiffres très précis et harmonisés. Nous avons bon espoir aussi qu’une fois en place, les bibliothèques publicitaires donneront, avec certains outils offerts par le DSA, un souffle nouveau aux travaux d’observation.

M. le président Arthur Delaporte. Le cas de X est sans doute l’exemple le plus flagrant de mise en avant de contenus d’extrême droite au travers d’un algorithme. Dans un cas comme celui-ci, ne peut-on pas considérer que le réseau a une responsabilité éditoriale ? De la même façon, TikTok a fait le choix d’un algorithme qui promeut des contenus problématiques auprès d’utilisateurs ayant une tendance à la tristesse, par exemple. N’y a-t-il pas, là aussi, une responsabilité éditoriale ? Ces logiques de promotion sont intentionnelles.

M. Martin Ajdari. S’agissant de la mise en avant de contenus par le propriétaire de la plateforme X au profit de son agenda politique, nous avons saisi la Commission au début de l’année 2025 et lui avons transmis les constats faits par des utilisateurs, notamment des élus. Elle examine actuellement le sujet. Si l’ensemble des fils suivis par les utilisateurs de X étaient inondés de contenus d’Elon Musk visant à promouvoir ses propres idées, peut-être pourrait-on se poser la question d’une responsabilité éditoriale, mais c’est un cas un peu particulier.

Lors des élections en Roumanie, il y a eu une suspicion d’utilisation de la plateforme TikTok par des intérêts étrangers ou locaux, lesquels auraient cherché à manipuler l’opinion. Un tel risque systémique doit être identifié, corrigé et, à défaut, sanctionné. Mais cela ne doit pas conduire, à mon sens, à considérer TikTok comme un service de nature éditoriale. La responsabilité liée aux risques manifestes ou supposés appelle des réponses que le DSA permet d’apporter.

La situation pourrait être différente dans le cas en cours d’instruction, donc encore supposé, d’Elon Musk et de X.

M. Pouria Amirshahi, président. J’entends bien la différence selon que l’on est propriétaire ou non du réseau, et le fait que la responsabilité éditoriale d’une plateforme ne saurait être engagée comme celle d’un titre de presse.

Les publications incitant à la haine – qu’elle soit raciste, xénophobe, antisémite, islamophobe, homophobe ou autres – constituent des délits et mettent en cause les fondements des démocraties. Vous dites qu’il faudrait les corriger : ce vœu reste assez général. Envisagez-vous d’avancer, dans le rapport que vous remettrez au Parlement, des recommandations plus spécifiques en la matière ?

M. Martin Ajdari. Quand les contenus sont illégaux – ce qui est le cas des publications racistes –, la question n’est pas celle de la responsabilité éditoriale : l’hébergeur a la responsabilité de les retirer. Il doit se mettre en situation de les identifier à l’avance et de répondre rapidement aux signalements, avec d’autant plus de diligence que les contenus sont dangereux et qu’ils sont signalés par des personnes réputées habilitées à le faire, comme les signaleurs de confiance. Beaucoup de contenus sont supprimés automatiquement – malheureusement pas tous. Le système est organisé de façon à permettre leur retrait très rapide.

M. Pouria Amirshahi, président. Un délai précis est-il fixé, ou le retrait doit-il seulement être « très rapide » ?

M. Martin Ajdari. Les contenus signalés par les signaleurs de confiance doivent être traités prioritairement, 50 % voire 75 % devant être retirés dans les 24 heures – c’est un objectif indicatif, susceptible d’être renforcé.

Ce n’est pas au sujet du retrait de contenus illicites que l’on nous signale le plus de problèmes, quand bien même ces contenus sont très nombreux. La question de l’identification de leur source se pose, tout comme celle de l’anonymat – même si celui-ci n’apporte plus le même degré de protection qu’il y a deux ou trois ans –, mais les obligations relatives à leur retrait sont très claires.

M. Pouria Amirshahi, président. Nous vous remercions de votre participation à cette audition.

M. Martin Ajdari. Nous vous remercions pour votre écoute. Nous préciserons et compléterons notre propos en vous transmettant des réponses écrites au questionnaire que nous avons reçu il y a quelques jours.

27.   Audition de M. Arthur Melon, délégué général du Conseil français des associations pour les droits de l’enfant (COFRADE) ainsi que des associations membres : Mme Nathalie Hennequin, membre du Bureau national SNUASFP-FSU (Syndicat national unitaire des assistantes sociales de la Fonction Publique/Fédération Syndicale Unitaire), Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone, Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France, et Mme Marie-Françoise Wittrant, Association AISPAS (jeudi 22 mai 2025)

La commission auditionne conjointement M. Arthur Melon, délégué général du Conseil français des associations pour les droits de l’enfant (COFRADE) ainsi que des associations membres : Mme Nathalie Hennequin, membre du Bureau national SNUASFP-FSU (Syndicat national unitaire des assistantes sociales de la Fonction Publique/Fédération Syndicale Unitaire), Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone, Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France, et Mme MarieFrançoise Wittrant, Association AISPAS ([26]).

M. le président Arthur Delaporte. Mes chers collègues, nous reprenons nos auditions avec une matinée consacrée aux associations de défense des droits de l’enfant et à leur sensibilisation.

Nous recevons le Conseil français des associations pour les droits de l’enfant (Cofrade) :

– M. Arthur Melon, délégué général du Cofrade,

– Mme Nathalie Hennequin, membre du Bureau national Syndicat national unitaire des assistantes sociales de la fonction publique/fédération syndicale unitaire (SNUASFP-FSU)

– Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone,

– Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France,

– et Mme Marie-Françoise Wittrant de l’association AISPAS.

Je tiens à rappeler que notre commission a lancé une consultation sur le site internet de l’Assemblée nationale. À ce jour, nous avons reçu près de 30 000 réponses, provenant pour moitié de lycéens. Nous remercions les lycéens, mais aussi les Français ayant pris le temps de répondre à cette enquête. Nous avons également reçu des témoignages par courriel à l’adresse suivante : commission.tiktok@assemblee-nationale.fr.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

Avant de vous céder la parole, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Arthur Melon, Mme Nathalie Hennequin, Mme Anne-Charlotte Gros, Mme Socheata Sim et Mme Marie-Françoise Wittrant prêtent serment.)

M. Arthur Melon, délégué général du Cofrade. Le Cofrade, fondé en 1989 lors de la signature de la Convention internationale des droits de l’enfant, a pour mission de promouvoir cette convention et de veiller à son application réelle en France. Le Conseil regroupe actuellement 53 associations, fondations et syndicats, spécialisés dans divers domaines touchant aux droits de l’enfant. Nos champs d’action couvrent un large spectre, incluant le numérique, l’éducation, la santé, les droits des mineurs non accompagnés, l’accès à la culture et aux loisirs. Nous travaillons également sur des problématiques, telles que les violences, les mutilations sexuelles, ainsi que sur les questions de citoyenneté et de participation des enfants. Nos associations membres sont présentes sur l’ensemble du territoire national, y compris dans les départements et régions d’outre-mer.

Le Cofrade participe à l’évaluation quinquennale de l’application de la Convention internationale par notre État, menée par le Comité des droits de l’enfant de l’Organisation des Nations Unies (ONU). Nous organisons chaque année des consultations nationales, notamment des débats d’adolescents et des états généraux des droits de l’enfant, afin de recueillir les réflexions et recommandations des enfants et de les transmettre directement aux institutions. Je serai ravi de vous fournir ultérieurement des éclairages, issus de ces consultations, sur les questions liées au numérique.

En termes de plaidoyer, nous sommes membres du Haut-Conseil à la famille, à l’enfance et à l’âge, de la Commission nationale consultative des droits de l’homme, et nous collaborons régulièrement avec le Défenseur des droits. Au niveau européen, nous sommes membres de la Fédération Eurochild.

Récemment, nous avons travaillé sur des sujets, tels que les violences intrafamiliales, les droits des mineurs non accompagnés, l’exposition à la pornographie ou encore le droit au sommeil. Nous menons également une réflexion sur la place et le statut des enfants dans la société, avec des travaux sur l’infantisme, également appelé adultisme ou misopédie.

En outre, nous organisons aussi des mobilisations citoyennes et populaires, comme la marche pour l’enfance et la jeunesse, dont la deuxième édition se tiendra ce samedi dans trois villes en France.

Je tiens à déclarer que nous recevons un soutien financier sous forme de mécénat de la part de Google France.

Pour conclure, je souhaite souligner les trois principaux enjeux sur lesquels le Cofrade rencontre des difficultés dans la promotion des droits des enfants :

– la possibilité technique de mobiliser les enfants eux-mêmes et de faire entendre leur voix,

– le démantèlement des services publics, qui affecte la plupart des associations et entrave l’application effective des droits,

– et la baisse tendancielle très forte des financements, qui affecte l’ensemble de nos associations membres.

M. le président Arthur Delaporte. Ayant à cœur de recueillir la parole des premiers concernés, nous avions envisagé, avec Mme la rapporteure, d’organiser des visites dans des classes. Cependant, les contraintes de temps liées à l’échéance du 15 juin nous ont contraints à revoir ce projet. C’est notamment pour cette raison que nous avons souhaité vous inviter.

Nous prenons note de vos propos sur la question des financements. Je ne doute pas que, pour le prochain budget, Mme la rapporteure et moi-même déposerons des amendements communs pour essayer de renforcer les dotations des budgets pour vos associations.

Mme Nathalie Hennequin, membre du bureau national du SNUASFPFSU. Le syndicat national des assistantes de service social de la fédération syndicale unitaire, que je représente, est la première organisation syndicale représentative des personnels du service social de l’éducation nationale. Je suis moi-même assistante de service social dans un collège des Yvelines.

Les réseaux sociaux ont profondément modifié notre manière de communiquer, de partager et d’interagir avec le monde qui nous entoure, et notamment avec le petit monde de chacun. S’ils ont certes facilité la communication pour les personnes timides ou isolées et élargi nos possibilités d’échanges à distance, les réseaux sociaux ont également introduit un écran interposé dans nos relations humaines, supprimant la dimension non verbale essentielle de la communication, qui fait aussi partie de l’échange et de la manière de se comprendre.

Ce qui a pu être bénéfique pour les adultes soulève des questions quant au développement de l’apprentissage de la communication lorsque cela devient le principal moyen d’échange de nos enfants, qui n’ont pas eu l’expérience, bonne et mauvaise, de communications de proximité avant de se lancer sur les réseaux sociaux. En tant qu’adultes, nous pourrions tous raconter des expériences difficiles de communication dématérialisée via les réseaux sociaux, certaines ayant même eu des conséquences graves. Aussi, il y a de quoi s’interroger sérieusement de leurs effets sur les enfants, qui n’ont pas autant d’expériences de la communication avec leurs pairs que les adultes, et s’inscrivent pourtant beaucoup plus tôt sur les réseaux sociaux que la génération précédente.

La communication est plus complexe que l’alignement de mots. Elle permet d’exprimer ses besoins et ses sentiments, de développer ses idées, de négocier et de convaincre, mais peut aussi être utilisée pour manipuler, blesser ou détruire. Le ton employé, la distance, les expressions faciales, le public qui entoure ou la confidentialité d’un échange font partie de l’apprentissage de la communication. Or, derrière un écran, il est impossible de voir autre chose que des mots et de voir ce que ces derniers font à celui ou celle qui les reçoit.

Protéger sa vie intime et privée tout en développant son réseau de connaissances, faire confiance pour construire des relations tout en ne restant pas naïf ou naïve sur les capacités malfaisantes de certains et certaines, communiquer de manière constructive, savoir où s’arrête la liberté de chacun, cela s’acquiert par l’éducation, le partage d’expériences et l’expérimentation personnelle, sur les réseaux sociaux ou non.

En attendant que les enfants soient capables d’évaluer les risques et de maîtriser les règles de savoir-vivre, il incombe aux adultes de poser un cadre protecteur adapté à l’autonomie de chaque enfant. Sans cela, le risque est grand de voir nos enfants se refermer sur eux-mêmes si l’expérience a été difficile. Pour cela, les enfants doivent être entourés d’adultes en capacité d’écoute pour les accompagner, notamment après des expériences traumatisantes. C’est ce que nous devons aux enfants et qui permettrait sûrement de restaurer un mode de communication moins agressif et destructeur que ce que l’on peut regretter actuellement entre enfants, mais aussi entre adultes.

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Je suis secrétaire générale de l’association Respect Zone. Notre organisation, qui lutte depuis plus de dix ans contre les violences en ligne, prône trois valeurs :

– le respect en ligne, notre objectif étant de faire d’internet un espace de respect,

– une liberté d’expression responsable,

– et la protection des mineurs et de la jeunesse.

Nos actions s’articulent autour de trois axes.

Premièrement, la sensibilisation et la prévention constituent notre priorité.

Deuxièmement, nous nous efforçons d’apporter une aide aux victimes en leur offrant un soutien juridique et en les orientant vers des professionnels, notamment des psychologues, lorsque cela s’avère nécessaire.

Troisièmement, dans le cadre de notre action de plaidoyer, nous sommes associés aux processus de régulation français et européens et formulons des propositions.

Nous constatons un usage massif des réseaux sociaux par les jeunes, couplé à un problème de vérification d’âge. Les jeunes sont mal accompagnés et méconnaissent leurs droits, notamment en matière de signalement. De plus, la récurrence de contenus toxiques est préoccupante.

Nous avons essayé de faire véritablement remonter des témoignages de jeunes afin de vous faire part de leurs ressentis et de leurs demandes, liées à un meilleur accompagnement, particulièrement dans l’exercice du droit de signalement.

Dans notre action de plaidoyer, nous défendons l’instauration d’un droit à la dignité numérique, renforcé pour les enfants. Ce droit transversal, applicable à l’ensemble du numérique, permettrait de mettre en place des mesures de renforcement de la protection, essentielles compte tenu du développement cérébral encore incomplet des mineurs. Nous devons impérativement agir collectivement en faveur de cette protection.

Concernant la majorité numérique à 15 ans, nous ne sommes pas favorables à une interdiction absolue, mais plutôt une autorisation parentale obligatoire associée à une vérification effective de l’âge.

Nous recommandons également la création de comptes spécifiques pour les mineurs, intégrant des garanties telles que des algorithmes neutralisés et la possibilité de réinitialiser.

Nous insistons évidemment sur l’importance de renforcer la sensibilisation et la formation, constatant un doublement de nos demandes d’intervention en milieu scolaire en seulement un an, ce qui nécessite davantage de financements.

Par ailleurs, nous plaidons pour une meilleure intégration des associations dans l’application des règles, notamment européennes. Par exemple, alors que seules deux associations sont signaleurs de confiance, d’autres organisations devraient disposer de couloirs prioritaires. Nous sollicitons également un accès facilité aux données de modération pour les associations.

Enfin, face à l’augmentation des demandes et à la couverture encore insuffisante des milieux scolaires et extrascolaires, nous soulignons l’urgence de flécher des fonds publics pour permettre aux associations de mener à bien leurs missions.

Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Je représente l’association CAMELEON, qui lutte contre les violences sexuelles faites aux mineurs aux Philippines et en France. Mon intervention se fonde sur des observations auprès de milliers d’enfants depuis 2019, lors d’animations de prévention en milieu scolaire, principalement en Île-de-France, et d’actions menées auprès des parents et des professionnels, ainsi que de sollicitations d’associations et d’expériences personnelles.

Concernant les risques liés aux réseaux sociaux, particulièrement TikTok, nous constatons une forme de déconnexion et de déformation du réel. Ces plateformes constituent à la fois un produit de consommation rapide – particulièrement avec le format ultra-court et addictif de TikTok – et un espace d’interactions sociales.

Cette déconnexion se manifeste d’abord par rapport au corps. Les enfants, absorbés par les réseaux sociaux, en oublient parfois leurs besoins physiologiques élémentaires, comme la faim ou la nécessité d’aller aux toilettes.

Au niveau relationnel, la communication avec leurs pairs, leurs parents ou les adultes devient parfois compliquée en dehors des écrans, au point que certains préfèrent communiquer via les réseaux sociaux alors qu’ils se trouvent dans la même pièce.

Cette immersion restreint également leur univers, alors que les enfants explorent déjà moins la nature et l’espace public. Pour les jeunes, le tiers-lieu majoritaire, hors de la famille et de l’école, est internet, faute d’espace de rencontre et de socialisation sécurisé permettant le développement de l’estime de soi dans l’espace public.

Un phénomène inquiétant de désensibilisation des jeunes par rapport aux violences, y compris sexuelles, se développe, lié à la question de l’empathie. La répétition de contenus choquants entraîne une perte d’indignation et peut même susciter une recherche d’adrénaline à travers des contenus de plus en plus choquants, tels que des vidéos à caractère sexuel ou montrant des tortures. Cette banalisation se traduit dans leurs relations réelles, où certaines formes de violence sont minimisées ou considérées comme de simples défis. La période de l’adolescence étant marquée par le goût du risque et de la transgression, nous voyons la dangerosité des réseaux sociaux.

Ces plateformes créent un miroir déformant de la réalité, car le biais de confirmation y est amplifié. En cas de vulnérabilité, de mal-être – comme dans les cas d’anorexie ou de scarifications –, de communautarisme ou d’idées préconçues sur des sujets sensibles, comme la féminité ou encore la masculinité, ces contenus constituent une consommation facile qui donne une illusion de repères. Les réseaux sociaux permettent de devenir acteurs, avec des effets d’entraînement pouvant devenir toxiques, ces groupes pouvant renforcer des conduites à risques.

Le cyberharcèlement évolue constamment, avec l’apparition de nouveaux termes, comme le « pressing », et une tendance à aller toujours plus loin.

L’algorithme, en proposant toujours plus de contenus similaires, nous enferme dans une vision déformée du monde et de nous-mêmes.

Face à ces constats, nous formulons trois recommandations principales.

Premièrement, nous préconisons une régulation européenne plus restrictive envers les plateformes. Les simples incitations ne suffisent pas, il faut les contraindre. Deux textes en discussion à la Commission européenne et au Parlement européen, notamment sur la lutte contre l’exploitation sexuelle des mineurs en ligne, nous semblent essentiels pour obliger les plateformes à agir contre le grooming – aussi appelé pédopiégeage – et à rendre compte de leurs actions relatives à la détection et à la collaboration avec les autorités. La coopération avec la société civile nous semble également importante. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) manque de moyens. La réserve numérique citoyenne constitue un sujet. Concernant les maraudes numériques, la société civile doit être alliée à ces plateformes et aux politiques.

Deuxièmement, nous insistons sur la nécessité d’un continuum entre les espaces en ligne et hors ligne et d’une présence éducative, permettant d’expliquer les interdictions et les régulations. Des professionnels doivent jouer le rôle de modérateurs ou veilleurs. Des dispositifs comme les promeneurs du net ou les maraudes numériques doivent permettre d’orienter les jeunes en difficulté vers des structures d’aide physiques, comme les maisons des adolescents. Dans les lieux de vie, comme les écoles, il est nécessaire d’informer davantage sur ces espaces de protection numérique.

Enfin, troisièmement, nous soulignons l’importance des enjeux de démocratie et de médiation numérique. La consultation citoyenne que vous avez lancée s’inscrit dans ce cadre. Au-delà de la législation, il est essentiel d’obtenir l’adhésion des populations, particulièrement des jeunes, ce qui implique de les comprendre et d’être à leur écoute. Alors que la loi n° 2019-721 du 10 juillet 2019 relative à l’interdiction des violences éducatives ordinaires est parfois vue comme une intrusion dans la vie privée des parents, il faut, pour ce sujet également, accompagner, écouter et informer les parents, notamment par de la médiation en petits groupes. Alors que des évolutions législatives ont eu lieu concernant le droit à l’image et le droit à la vie privée, nous voyons à quel point la mise en œuvre effective de ces recommandations est difficile, notamment pour les enfants influenceurs. Aller auprès des jeunes, des parents et des acteurs est donc nécessaire.

M. le président Arthur Delaporte. Mme Wittrant semble rencontrer un problème de connexion. Je cède donc la parole à Mme la rapporteure.

Mme Laure Miller, rapporteure. Monsieur Melon, j’aimerais entendre les paroles de jeunes que vous avez recueillies concernant leur vision des réseaux sociaux.

Plus largement, je souhaiterais que vous puissiez détailler les atteintes aux droits de l’enfant que vous pouvez constater.

Je partage votre avis sur la sensibilisation et l’éducation au numérique, qu’il faut absolument amplifier et pour lesquelles il existe un sujet de moyens. Néanmoins, dans le cas où nous parviendrions à sensibiliser chaque enfant, n’avez-vous pas le sentiment que nous nous battons contre des géants, qui auront toujours un train d’avance ? Devrions-nous nous poser la question d’un âge en dessous duquel, malgré une éducation et une sensibilisation très importantes, un enfant doit être préservé des réseaux sociaux ? Évidemment, il serait complexe de rendre une telle mesure applicable

M. Arthur Melon, délégué général du Cofrade. Je vais y répondre en m’appuyant sur les débats que nous avons conduits durant un an avec des adolescents, en 2019, sur la thématique du numérique, du droit à l’information et des réseaux sociaux.

Je commencerai par les aspects positifs que les adolescents attribuent aux réseaux sociaux.

Les jeunes soulignent que ces plateformes permettent de rompre une certaine solitude, bien que cette solution puisse être à double tranchant. Il est intéressant de noter que, derrière l’image des réseaux sociaux comme un espace éminemment collectif et relationnel, les adolescents peuvent ressentir une grande solitude. Certains mentionnent même les sites de rencontre comme moyen de combattre l’isolement, malgré les limites et les risques que cela comporte.

Les adolescents apprécient également la possibilité de maintenir le contact avec leur famille à l’étranger grâce à des communications gratuites via wifi. Ce point a été particulièrement soulevé par des mineurs étrangers non accompagnés.

Des jeunes reconnaissent aussi l’efficacité des réseaux sociaux pour une communication rapide et une mobilisation facile, citant en exemple les marches pour le climat ou l’engagement associatif.

Enfin, certains contenus sur les réseaux sociaux sont perçus comme ayant une valeur pédagogique, voire parascolaire. Des élèves utilisent des tutoriels ou des vidéos pour compenser des difficultés dans certaines matières. Ils regrettent que ces ressources soient principalement orientées vers les filières générales au détriment des filières professionnelles. Ils souhaiteraient que ces ressources pédagogiques en ligne puissent être mieux mises à profit dans le milieu scolaire.

Concernant les risques, les adolescents ont identifié plusieurs problématiques.

Ils pointent un danger d’uniformisation des pratiques et de standardisation, notamment en termes d’apparence vestimentaire et de maquillage. Les filles, en particulier, soulignent que cette standardisation des corps idéalisés engendre des complexes et peut donner lieu à des remarques et insultes sexistes de la part de garçons, alors qu’elles estiment que ces derniers ne sont pas la cible des mêmes commentaires. Je note que, lors de ces consultations, des garçons avaient déclaré qu’il était normal que les filles « assument les conséquences » de la divulgation de ce type de contenu. Nous voyons donc qu’un travail reste à faire sur les questions de harcèlement sexiste et sexuel.

Les enfants sont conscients des conséquences à long terme de leur présence en ligne. Ils rapportent des cas où des personnes se sont vu refuser des stages en raison de l’historique de leurs profils sur les réseaux sociaux.

Les jeunes soulignent également le caractère éphémère de la popularité en ligne, qui nécessite une création constante de contenu pour maintenir une audience.

Le harcèlement en ligne a été un sujet majeur de préoccupation, puisque ce thème a été le plus débattu.

Les adolescents ont aussi évoqué les dangers liés aux challenges en tout genre qui mettent en péril l’intégrité physique et morale des participants, voire qui mettent leur vie en danger.

L’usurpation d’identité et les risques d’arnaque, notamment par des individus se faisant passer pour des célébrités, ont également été mentionnés.

Les jeunes sont conscients des dangers liés aux biais de confirmation renforcés par les algorithmes des réseaux sociaux.

Enfin, les adolescents ont évoqué la prolifération de fake news et de propos extrémistes.

Face à ces défis, les adolescents sont sceptiques quant à l’efficacité d’interdire ou de limiter la diffusion de fausses informations, craignant des dérives en termes de contrôle et soulignant l’impossibilité technique d’une telle mesure. Comme l’exprime Lorenzo d’Issy-les-Moulineaux : « Les réseaux sociaux ne sont qu’une caisse de résonance de ce qui se passe dans la société, tout y est amplifié. C’est pour cela que les ateliers de sensibilisation doivent commencer dès le plus jeune âge. » Victoria de Nanterre affirme : « La sensibilisation aux réseaux sociaux est beaucoup trop tardive. Elle intervient alors que l’on a déjà des téléphones et que l’on est déjà sur les réseaux ». Les enfants consultés soulignent la nécessité d’une prévention plus précoce et plus intensive, non seulement pour les protéger de situations où ils pourraient être victimes, mais aussi pour prévenir des actes où ils pourraient être auteurs, notamment de violences ou de harcèlement.

Ils préconisent que des témoignages encouragent la parole des victimes et jugulent le sentiment de honte ou de culpabilité. Le recours à des influenceurs pour sensibiliser est également suggéré.

Les adolescents font le constat que les plateformes d’écoute et de conseil ne sont pas suffisamment connues. Les jeunes ne connaissent pas l’ensemble des numéros et ne comprennent pas la différence entre les différentes lignes d’écoute, tels que le 119 ou le 3020. Ainsi, ils souhaiteraient une clarification sur les numéros à appeler selon les différents contextes.

Concernant la prévention en milieu scolaire, les enfants souhaitent des tutoriels ou cours pratiques plutôt que des approches moralisatrices. Ils préconisent des ateliers concrets sur le paramétrage des comptes, la protection en ligne et le signalement de contenus. Nicolas, des Scouts et guides de France déclare ainsi : « il faut former les adultes à cette sensibilisation au numérique pour nous accompagner ».

Un point récurrent dans les consultations est la demande de sensibilisation et de formation des parents. Les enfants estiment que leurs parents sont souvent désemparés face aux enjeux du numérique, ce qui les empêche de se sentir vraiment protégés.

La compréhension des conditions générales d’utilisation, que personne ne lit, est également évoquée. Les adolescents suggèrent l’utilisation de pictogrammes ou de formats audio ou vidéo, pour rendre ces informations plus accessibles.

Enfin, la question de l’anonymat sur internet a été abordée, sans apporter de réponse particulière. Les enfants s’interrogent sur l’opportunité de limiter au maximum l’anonymat dans certains contextes pour décourager tout comportement ou tout propos qui n’aurait pas été assumé si l’identité de la personne avait été connue de tous.

Concernant les atteintes aux droits des enfants, plusieurs points sont à souligner.

Le droit à une information adaptée, reconnu par la Convention internationale des droits de l’enfant, est menacé, notamment par l’exposition à des contenus pornographiques.

Le droit à la vie privée est mis à mal par la divulgation d’informations personnelles sur les réseaux sociaux.

Le droit à la santé peut être compromis par la sédentarité et les potentiels effets négatifs sur le développement cognitif.

Le droit au sommeil, peu mis en avant, est également impacté alors qu’il s’agit d’un droit reconnu par la Convention internationale des droits de l’enfant.

Par ailleurs, concernant l’âge approprié pour accéder aux réseaux sociaux, les consultations menées cette année dans le cadre des états généraux des droits de l’enfant révèlent une attitude mesurée des jeunes. Contrairement aux idées reçues, ils ne revendiquent pas un abaissement systématique des limites d’âge. Les lycéens, en particulier, reconnaissent la nécessité d’un encadrement parental concernant l’accès aux réseaux sociaux, justifié par leur maturité encore insuffisante. Les adolescents les plus âgés, notamment au lycée, sont très favorables à un contrôle drastique de l’accès à internet pour les plus jeunes, au collège ou en primaire.

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Pour compléter ces observations, je souhaite partager les résultats d’une étude menée auprès d’une classe de sixième en région parisienne. Les chiffres sont alarmants : 83 % des élèves possèdent un smartphone, 90 % sont inscrits sur au moins un réseau social, et, fait particulièrement préoccupant, 80 % déclarent utiliser des comptes de majeurs.

Face à cette réalité, notre approche consiste à sensibiliser les jeunes au fonctionnement des réseaux sociaux, aux méthodes de protection en ligne et aux réactions appropriées face à des contenus violents.

Nous avons constaté que ces élèves sont souvent dans l’incompréhension face à l’apparition de contenus violents sans rapport avec leurs centres d’intérêt. Même s’ils déclarent que ces contenus ne les intéressent pas, nous avons l’impression que ces contenus reviennent tout de même. Ce problème de fonctionnalité doit être mis au clair.

Par ailleurs, les élèves ont le sentiment que les signalements sont inefficaces, car ils ne reçoivent pas de retour. Chez Respect Zone, nous insistons pour accompagner, valoriser, renforcer et sensibiliser sur le signalement et ses conséquences, quitte à demander aux plateformes de faire un retour sur le signalement.

Il est également crucial de prendre en compte l’accessibilité de certains réseaux sociaux via le net, sans qu’il soit nécessaire de se connecter. Certaines images sont accessibles sur les moteurs de recherche.

Enfin, nous plaidons pour la création de comptes spécifiquement conçus pour les mineurs, intégrant des fonctionnalités précises.

Mme Nathalie Hennequin, membre du bureau national SNUASFPFSU. Nous sommes confrontés à des enjeux concernant le droit à la vie privée et surtout au droit à être protégé.

Il est essentiel de rappeler que les réseaux sociaux sont parfois utilisés comme vecteurs d’entrée dans la prostitution, ce qui constitue l’une des grandes inquiétudes des personnels des services sociaux de l’éducation nationale.

Un texte important vient d’être publié sur l’éducation à la vie affective, relationnelle et sexuelle (Evars). Si de nombreuses personnes ne retiennent que la partie liée à la sexualité, nous sommes, quant à nous, intéressés par la partie relative à la vie affective et relationnelle. Ce programme complet, qui s’étend de la maternelle au lycée, est ambitieux et abordera les communications sur les réseaux sociaux. Toutefois, la mise en place de ce programme nécessitera des moyens en personnels formés et en équipes pluriprofessionnelles comprenant des assistantes sociales, des psychologues, des infirmières et des médecins, essentiels à l’accompagnement des enfants, des enseignants et des parents. Notre mission d’assistante sociale comprend la prévention, mais aussi l’accompagnement des enfants ayant subi des traumatismes. Il est donc impératif d’insister sur le besoin de moyens supplémentaires pour la mise en place du programme Evars. Des créations de postes doivent permettre que l’école puisse être un lieu d’éducation à la vie affective, relationnelle et sexuelle, tout en protégeant et en accompagnant les enfants et les familles confrontés à des situations traumatisantes.

Concernant la restriction de l’usage des outils numériques, nous savons que des limites d’âge existent déjà. La question de la faisabilité technique reste ouverte et je laisse aux spécialistes le soin d’y répondre. Cependant, l’éducation est primordiale et il est crucial de rappeler aux parents qu’ils disposent, eux aussi, de moyens pour protéger leurs enfants. Les enfants, particulièrement les adolescents, sont très doués pour contourner les interdits. C’est pourquoi il est essentiel de leur expliquer les raisons de ces restrictions, de leur faire comprendre pourquoi nous cherchons à les protéger et pourquoi ils ne sont pas considérés comme majeurs avant un certain âge. Il est important de fixer un âge minimum pour accéder aux réseaux sociaux, même si nous ne parvenons pas à trouver une solution technique permettant de faire respecter cette restriction, car ce seuil nous permettra de rappeler cette règle aux jeunes et aux parents. Nous avons besoin de textes permettant d’expliquer aux élèves pourquoi ces règles sont mises en place pour les protéger.

Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Nous nous battons contre des géants qui, par leurs stratégies marketing et leurs discours, cherchent à convaincre les enfants et les parents que tout est sous contrôle dans le monde virtuel. Ils promettent un univers merveilleux, une fuite vers le métavers ou les lunettes connectées, où chacun pourrait contrôler ce qu’il voit ou ne voit pas. Face à cela, il est crucial d’opposer un discours alternatif, de sensibiliser davantage aux impacts psychologiques et médicaux de ces technologies sur les jeunes, mais aussi de faire basculer la norme. En effet, ces géants construisent les normes sociales et dictent ce qui est désirable. Nous constatons que les enfants qui sont bien cadrés et ne sont donc pas exposés à des contenus inadaptés à leur âge peuvent se retrouver exclus socialement à l’école. Il est impératif de faire basculer ces points de repère et ces normes.

L’instauration d’une majorité entre 13 et 15 ans pour l’utilisation des réseaux sociaux est essentielle, même si certains tenteront toujours de les contourner. L’important est que ces restrictions deviennent la norme pour la majorité, même s’il sera difficile de les contrôler sur le plan technique. Cette interdiction devra être rappelée dans les établissements scolaires, les espaces publics, chez les médecins et dans les lieux de protection maternelle et infantile (PMI).

Une prise de conscience a lieu concernant les mécanismes de manipulation utilisés par les plateformes. Développer un esprit critique est important pour les jeunes, mais aussi pour les parents, afin de comprendre comment ils peuvent être aliénés. Une résistance citoyenne peut permettre de contrer ces enjeux financiers, l’accumulation de données personnelles et l’impact sur le long terme. Au-delà des initiatives en matière d’éducation, la technologie doit être questionnée.

Nous sommes particulièrement vigilants et proactifs afin qu’une réglementation stricte, des moyens de détection, y compris dans les messageries privées, des sanctions appropriées et un accroissement des moyens permettent d’endiguer l’exploitation en ligne des mineurs.

Mme Laure Miller, rapporteure. Avez-vous constaté des problématiques spécifiques sur TikTok, notamment en ce qui concerne les contenus pornographiques ou la pédocriminalité ?

Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Nous constatons un paradoxe en matière d’hypersexualisation. TikTok peut entraîner un oubli de son corps, tout en conditionnant les utilisateurs à s’exposer davantage. Cette plateforme s’est fait connaître par des danses d’enfants qui s’exposaient, parfois en famille. Il faut souligner que les contenus sont souvent monétisés. Cette plateforme est effectivement un moyen d’entrer en contact avec des enfants. Concernant les contenus à caractère sexuel, on y trouve des contenus « érotisés » sous prétexte de divertissement. TikTok se distingue des autres réseaux sociaux par son niveau d’hypersexualisation et d’hyperviolence. Le format des vidéos très courtes favorise une consommation massive et une addiction encore plus prononcée que sur d’autres plateformes. De plus, nous notons qu’il peut exister un manque de transparence.

Mme Laure Miller, rapporteure. Madame Gros, vous évoquiez précédemment votre souhait de voir des comptes spécifiques pour mineurs. Dans un scénario idéal, comment envisageriez-vous la mise en place d’une telle fonctionnalité par TikTok ?

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Tout d’abord, il est impératif d’atténuer, voire de bannir, les publicités sponsorisées. Il faut également offrir la possibilité de réinitialiser l’algorithme. En outre, il est crucial de mieux accompagner le mineur en cas de signalement et de développer un algorithme plus neutre. Cette approche vise à rassurer les parents, souvent inquiets et insuffisamment sensibilisés.

La vérification de l’âge est un enjeu majeur, d’autant plus que certains jeunes nous ont confié que leurs parents leur demandaient de créer des comptes pour les plus de 18 ans afin d’éviter les risques liés à la pédophilie. Il est donc essentiel d’accompagner et de sensibiliser davantage les parents et les jeunes.

Concernant la proposition de fixer la majorité numérique à 15 ans, bien que potentiellement difficile à mettre en œuvre, elle fournirait un cadre juridique clair pour les éducateurs et le personnel encadrant, tout en offrant aux parents une base de discussion.

Pour renforcer la protection des mineurs, je préconise la mise en place de signalements prioritaires. Cette possibilité viserait à créer une bulle de protection autour du mineur.

De plus, il serait judicieux d’instaurer une signalétique numérique pour les contenus sensibles, par le biais des plateformes, des algorithmes ou des associations. Cette mesure permettrait aux mineurs de mieux identifier et d’éviter les contenus inappropriés. Il est primordial d’expliquer aux mineurs les raisons de ces restrictions.

M. le président Arthur Delaporte. Pourriez-vous nous donner des exemples concrets concernant vos pratiques de signalement sur TikTok et sur les autres réseaux sociaux ?

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Le problème que nous rencontrons est l’absence de retour à la suite des signalements effectués.

M. le président Arthur Delaporte. Recevez-vous au moins une notification indiquant que le contenu ne contrevient pas aux conditions générales d’utilisation ?

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Les témoignages des jeunes indiquent une absence de retours. Actuellement, seuls deux signaleurs de confiance sont reconnus dans le cadre des régulations européennes, en raison de leur financement. Nous aimerions également être signaleurs de confiance, mais cela nécessite un budget. Nous souhaiterions que les autres associations puissent disposer d’un couloir prioritaire auprès de ces signaleurs de confiance. De plus, il est crucial d’améliorer la visibilité et la possibilité du signalement pour les jeunes utilisateurs. Nous devons donc non seulement les accompagner dans cette démarche, mais aussi garantir un retour après le signalement pour éviter ce sentiment d’inutilité.

M. le président Arthur Delaporte. Avez-vous des exemples à nous communiquer ?

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Nous sommes confrontés à une absence de transparence. Où en sommes-nous des régulations européennes ? Un premier rapport de l’Arcom a été publié. Nous avons besoin d’obtenir des données sur la modération.

M. le président Arthur Delaporte. Cette question sera posée à TikTok.

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Un défi supplémentaire concerne la distinction entre contenus illicites et contenus sensibles. Il faut arbitrer entre la liberté d’expression et la promotion d’un mouvement pouvant heurter la sensibilité des enfants. Ces contenus sensibles ne sont donc pas nécessairement illégaux, mais sont problématiques pour les mineurs. Cette « zone grise » pose problème et nous manquons de données sur ce point.

Seules 25 plateformes sont actuellement concernées par les obligations de transparence renforcée du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA). Nous proposons d’étendre ces obligations aux plateformes intermédiaires, en introduisant un nouveau critère : toute plateforme comptant au moins 20 % d’utilisateurs mineurs devrait être soumise aux mêmes exigences que les grandes plateformes.

Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Les challenges problématiques peuvent impliquer des actes de torture envers les animaux ou de la simulation de violence envers des enfants. Le « challenge du zizi sexuel » est également préoccupant. Bien que ces contenus puissent être signalés, le processus est long et souvent sans retour. De plus, leur prolifération est difficile à endiguer, même lorsqu’un contenu est bloqué. Le signalement relève de la responsabilité des internautes. Il est impératif de développer des technologies plus avancées pour détecter automatiquement ces types de contenus. C’est pourquoi nous militons pour une législation plus proactive avec des outils plus performatifs, notamment sur les représentations de mineurs dans des postures sexualisées ou les propos faisant l’apologie de la pédocriminalité.

Mme Laure Miller, rapporteure. Quel est votre point de vue sur le DSA ? Bien que largement considéré comme une avancée incontestable, il semble que nous puissions aller encore plus loin. L’Arcom, que nous avons auditionnée récemment, est chargée de recueillir et transmettre les signalements à la Commission européenne, mais ce processus s’avère lent et nous pouvons avoir des doutes sur la finalité de ces signalements, pas toujours suivis d’effet. Malgré la suppression de certains contenus, la prolifération de contenus extrêmement problématiques persiste, souvent accessibles via des emojis spécifiques. Nous nous doutons bien que TikTok dispose des capacités technologiques pour éliminer ces contenus facilement. Comment percevez-vous l’évolution du droit européen sur ces questions ? Ne devrions-nous pas adopter une approche plus ferme afin de traiter ces problèmes plus rapidement ?

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Le règlement sur les services numériques (DSA) constitue une avancée majeure et suscite de grands espoirs. Les plateformes semblent jouer le jeu, comme en témoigne le premier rapport de l’Arcom. L’enjeu crucial réside désormais dans l’analyse des données que les plateformes sont tenues de rendre transparentes. Cette analyse nécessite l’intervention de scientifiques et des moyens financiers conséquents. Ce règlement marque une étape importante, notamment grâce à l’instauration de sanctions et à une réelle volonté politique.

La France a déjà mis en place certaines dispositions qui n’ont pas encore été adoptées au niveau européen, comme la peine de bannissement numérique des réseaux sociaux pour les utilisateurs ayant tenu des propos haineux. Nous sommes favorables au bannissement numérique temporaire, qui favorise une prise de conscience, plutôt qu’au recours à l’emprisonnement ou à la comparution immédiate. Nous souhaitons voir cette disposition française intégrée à la législation européenne, tout comme l’extension du champ d’application aux plateformes de taille intermédiaire.

Un aspect crucial, actuellement absent du règlement, concerne l’intelligence artificielle (IA). L’IA permet désormais de générer des deepfakes de personnes sans leur consentement, une problématique déjà abordée par la loi française et qu’il faudrait porter au niveau européen.

Concernant l’IA, nous préconisons une approche similaire à celle du DSA, en imposant aux entreprises d’IA générative un dispositif de signalement. L’utilisation croissante de l’IA par les mineurs soulève des inquiétudes quant à son caractère protecteur. Il est donc impératif de réguler ces entreprises par le biais d’audits et d’obligations de transparence.

Le DSA devrait donc être modifié, particulièrement pour renforcer le volet qui concerne les mineurs avec les mesures mentionnées. Nous vous transmettrons une documentation détaillée comprenant nos recommandations.

Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. La proposition de règlement du Parlement européen et du Conseil établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants européenne visant à lutter contre l’exploitation sexuelle des mineurs, qui autorise des dérogations à la directive sur la vie privée (directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques) pour améliorer la détection des contenus pédocriminels, est en cours jusqu’en avril 2026. L’adoption de ce règlement est complexe en raison des enjeux liés à la vie privée, à la protection et à la proportionnalité aux risques. Il est impératif d’aller plus loin pour contraindre les plateformes à être plus proactives, non seulement dans la détection, le signalement et le retrait des contenus, mais aussi dans la lutte contre les mécanismes de grooming et de pédopiégeage.

L’émergence de l’IA soulève de nouvelles inquiétudes, notamment avec l’apparition de chatbots entraînés pour reproduire les modes opératoires des pédocriminels, facilitant ainsi le piégeage des enfants. Ces questions doivent être prises en compte dès la conception de nouveaux services et les entreprises doivent pouvoir être sanctionnées et privées d’accès au niveau national, si ce n’est pas possible au niveau européen.

Nous plaidons pour un renforcement des contraintes, estimant que les mesures actuellement mises en place par les plateformes sont insuffisantes au regard des profits générés et de l’ampleur croissante du phénomène.

Nous préconisons la création d’un observatoire indépendant du traitement des signalements, international ou national, en lien avec des citoyens, pour restaurer la confiance dans les mécanismes de signalement, tant pour les jeunes que pour les adultes.

Nous savons que l’Office mineurs (Ofmin) reçoit 870 signalements de contenus pédocriminels par jour. Moins de 1 % de ces contenus donnent lieu à des investigations en raison de l’insuffisance des moyens. En outre, l’apparition de l’IA complique davantage la tâche des enquêteurs, rendant plus difficile la distinction entre les vrais faits pédocriminels et les contenus générés artificiellement.

Il existe un sentiment d’impunité. Bien que des lois existent pour sanctionner le harcèlement, leur application effective reste problématique. L’absence de sanctions visibles peut s’avérer contre-productive, donnant un sentiment d’impunité aux auteurs de ce type de faits et décourageant les victimes potentielles, alors que la loi devrait permettre de les protéger.

Mme Nathalie Hennequin, membre du bureau national SNUASFPFSU. Alors que nous évoquons les risques de l’utilisation de l’IA et la possibilité d’instaurer un âge légal d’accès aux réseaux sociaux, je mets en garde sur l’usage des technologies numériques dans le cadre scolaire. S’il est demandé aux parents de fournir à leurs enfants un téléphone le plus basique possible, nous constatons paradoxalement que certains élèves d’écoles primaires disposent de tablettes. Il est essentiel de réfléchir collectivement à la façon dont nous pouvons mettre en garde contre l’exposition des enfants aux technologies numériques. Un texte sur l’IA passe ce matin au Conseil supérieur de l’éducation. Or, il a fallu fortement appeler à la vigilance quant à l’application d’un véritable cadre. Nous devons nous questionner collectivement sur les outils que nous mettons entre les mains de nos enfants. Les parents peuvent peiner à limiter l’usage des écrans lorsque leurs enfants reçoivent des tablettes fournies par les collectivités territoriales.

M. le président Arthur Delaporte. Il existe en effet une injonction paradoxale. Si nous n’accompagnons pas les jeunes dans leur usage du numérique et si nous n’utilisons pas les potentialités offertes par le numérique, nous craignons qu’ils ne soient pas en mesure de s’adapter à la vie active. En même temps, nous leur fournissons des outils pouvant faire l’objet d’usages détournés. Je suppose que les départements ne donnent pas des tablettes aux collégiens pour qu’ils visionnent des vidéos pornographiques. Des associations m’ont expliqué que les usages détournés adviennent assez facilement.

Mme Nathalie Hennequin, membre du bureau national SNUASFPFSU. Il est crucial de rappeler la différence entre les adultes et les enfants dans l’approche du numérique. Mes enfants s’inquiètent d’être parents au vu de ce qu’ils ont eux-mêmes rencontré et se demandent comment ils pourront protéger leurs enfants. Nous ne nous posions pas du tout la question de la même manière.

Au sein de la FSU, nous rappelons que la priorité de l’éducation, notamment au sein de l’éducation nationale, est de développer les capacités de nos enfants. C’est pourquoi l’introduction de l’intelligence artificielle à l’école suscite des inquiétudes. Notre objectif est que nos enfants soient déjà en capacité de faire sans ces outils.

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Concernant le numérique à l’école, j’estime qu’un encadrement est nécessaire. Une tablette numérique mise entre les mains d’un collégien est en principe paramétrée pour que le jeune ne puisse pas consulter des sites problématiques. Il existe également une fermeture numérique à 20 heures.

Il est crucial d’accompagner l’usage du numérique. Dans cette optique, nous élaborons des chartes avec les établissements scolaires, en accompagnant sur les bonnes pratiques numériques. Une sensibilisation précoce, dès le CM2, à l’ensemble des enjeux numériques auxquels l’enfant sera confronté est nécessaire. Cependant, cela nécessite une réelle volonté politique. Nous constatons que, si l’usage des smartphones est déjà interdit à l’école, cette mesure n’est pas forcément appliquée.

Par ailleurs, l’ensemble des établissements est traité de la même façon. Or, le lien au numérique n’est pas uniforme selon les régions et les établissements. Il convient donc d’éviter les généralisations et d’adopter une approche au cas par cas, en accompagnant les établissements dans la gestion du numérique, désormais présent dans les cartables des collégiens et lycéens. Notre objectif est de promouvoir de bonnes pratiques, notamment au travers de chartes et de labels, pour célébrer ce qui se passe bien. L’usage numérique peut bien se passer, à condition de disposer de garde-fous.

Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Concernant les atteintes aux droits des enfants, il est fou de constater que des investissements massifs sont réalisés afin de ne pas être dépassés par le numérique, alors que des enfants ne disposent pas d’un toit correct, de nourriture en quantité suffisante et des ressources pour se soigner. Cette focalisation sur le numérique tend à masquer un certain nombre d’inégalités. Pour des enfants n’ayant pas les moyens de manger à leur faim, d’avoir accès à des loisirs ou de partir en vacances, le numérique, presque gratuit, représente un supermarché d’abondance mettant tout le monde sur un pied d’égalité. Ces univers virtuels leur donnent ainsi le sentiment d’être comme les autres et que tout est possible alors que le niveau d’affection reçu, l’éducation et les possibilités de réussite sociale ou scolaire divergent.

Comment permettre à ces enfants de bien vivre, de se déconnecter et de respirer ? Les enfants ont le droit de jouer et de s’ennuyer, sans être constamment sollicités par des contenus numériques. Ils ont également le droit d’être dans l’intériorité, faisant ainsi abstraction du regard des autres. Il faut encourager l’exploration du monde, pas uniquement à travers les écrans. Nous devons nous reconnecter à la réalité, aux relations humaines et nous extraire de cette course effrénée vers toujours plus de numérique, qui nous aliène et nous coupe de notre environnement.

Le rapport du Défenseur des droits souligne ces tristes inégalités : certains jeunes n’ont que le numérique pour rêver, s’évader, entrer en relation avec autrui ou avoir des commentaires positifs sur leur apparence ou leurs ambitions. Le défi est de recréer du positif dans la vie, en complémentarité et non en opposition avec ces outils numériques.

M. Thierry Perez (RN). Au regard de votre expérience et de vos travaux, quelle évolution constatez-vous quant à l’utilisation des réseaux sociaux, particulièrement par les mineurs ? Observez-vous une tendance à un usage de plus en plus précoce ? La prolifération de contenus néfastes ou négatifs s’accentue‑t‑elle ? En définitive, diriez-vous que la santé mentale des plus jeunes tend à se dégrader au fil des années en raison de cette dépendance aux réseaux sociaux ?

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Il est difficile de répondre à cette question, car nous ne disposons pas de chiffres particuliers. Il serait pertinent d’interroger l’Observatoire de la parentalité et de l’éducation numérique (Open) pour des données chiffrées.

Il me semble qu’alors que l’âge du premier smartphone était de 9 ans, il est actuellement de 10 ans, ce qui témoigne d’une première prise de conscience collective. Cette prise de conscience se reflète également dans les actions des pouvoirs publics, avec de nombreuses législations adoptées ces dernières années au niveau européen, et ce processus se poursuit.

Le défi actuel réside dans la puissance croissante des algorithmes et le développement de l’IA. Bien que les mesures de protection aient été renforcées concernant les termes et comportements illicites, une « zone grise » persiste, notamment pour les mineurs, en ce qui concerne les contenus sensibles, violents ou relevant de l’influence toxique. Le débat porte encore sur les contenus illégaux, mais aussi sur la protection des mineurs. Nous n’en avions pas véritablement conscience jusqu’à maintenant. Si une partie de la régulation européenne concerne les mineurs, elle nous semble insuffisamment développée.

J’ai le sentiment que la santé mentale des jeunes s’est dégradée ces dernières années. Le numérique joue forcément un rôle dans cette dégradation. Les actions du Parlement, les auditions et l’évolution des textes au niveau européen témoignent d’une prise de conscience collective. L’inquiétude d’un grand nombre de parents montre que tout le monde a envie d’améliorer la situation de nos mineurs et de renforcer leur protection.

Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Des études nationales et internationales mettent en évidence une augmentation significative des atteintes numériques envers les mineurs ces dernières années, avec une hausse de 45 % depuis 2019.

Concernant les questions d’exploitation sexuelle des mineurs, la crise liée à la covid-19 a marqué un tournant, avec des enfants de plus en plus jeunes exposés aux écrans et une augmentation générale du temps passé devant ces derniers. Les faits de sextorsion sont passés de quelques dizaines en 2020 à plus de 12 000 cas l’année dernière.

Les adultes ne disposent pas toujours des codes, comme en témoigne l’augmentation des pratiques de sharenting. Les changements de pratiques concernent donc les jeunes, mais aussi les adultes. Cela pose la question du mimétisme des enfants par rapport aux adultes, pas toujours conscients des risques.

Un autre point préoccupant est l’exposition de plus en plus précoce des jeunes à la pornographie, voire à des contenus pédocriminels. En effet, des vidéos de viols d’enfant peuvent tourner sur les groupes de discussion dès le primaire. La désensibilisation qui en découle peut accroître la vulnérabilité des jeunes face aux violences sexuelles et générer un imaginaire pédocriminel. L’alarmante augmentation à laquelle nous assistons depuis une dizaine d’années mobilise de nombreux services d’enquête, tant au niveau d’Interpol qu’aux échelons européen et mondial. Il est à noter que plus de 62 % des contenus pédocriminels connus sont hébergés en Europe, la France étant elle-même un important consommateur et hébergeur de tels contenus. Il existe donc des enjeux nationaux sur ce sujet.

Enfin, un rapport de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants (Ciivise) a estimé une augmentation de plus de 3 000 % des cas de grooming. Aujourd’hui, les prédateurs sont présents sur les réseaux sociaux, tout comme les mineurs, qui y sont présents de plus en plus jeunes.

M. le président Arthur Delaporte. Nous sommes ouverts à toute contribution complémentaire susceptible d’enrichir nos travaux, comme les chiffres et les références d’enquêtes évoqués.

Je tiens à vous remercier pour votre contribution et, plus largement, pour le travail que vous accomplissez.

Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Je souhaite préciser que notre association est indépendante, sans aucune subordination à un quelconque groupe politique ou financier. Bien que nous puissions établir des partenariats avec des plateformes, c’est uniquement dans le cadre de la lutte contre la violence en ligne. Nous n’entretenons donc aucun lien de dépendance économique avec aucune plateforme.

Mme Nathalie Hennequin, membre du bureau national SNUASFPFSU. Je vous remercie de vous pencher sur ce sujet.

M. le président Arthur Delaporte. Je vous remercie.

28.   Audition de M. Cyril di Palma, délégué général de Génération numérique (jeudi 22 mai 2025)

Puis la commission auditionne M. Cyril di Palma, délégué général de Génération numérique ([27]).

M. le président Arthur Delaporte. Mes chers collègues, nous reprenons avec l’audition de M. Cyril di Palma, délégué général de Génération numérique.

Je remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

Avant de vous donner la parole, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Cyril d Palma prête serment.)

M. Cyril di Palma, délégué général de Génération numérique. Concernant d’éventuels liens avec des acteurs du numérique, Génération numérique reçoit effectivement, depuis sa création, des fonds de diverses entreprises du secteur, en numéraire ou sous forme de coupons publicitaires pour offrir une plus grande visibilité à des campagnes en ligne. Ces entreprises sont Google, TikTok, Snapchat, X, Meta, mais nous travaillons aussi avec la Fondation SFR et Orange. Ces contributions, quelle qu’en soit la forme, ne changent en rien notre manière d’opérer : neutre commercialement, philosophiquement ou religieusement. Cette neutralité est notre vocation, mais également une obligation liée à notre agrément du ministère de l’éducation nationale. Son non-respect compromettrait le renouvellement de cet agrément et nous attirerions à juste titre les foudres des enseignants présents lors des séquences d’éducation animées par nos intervenants. Ainsi, il n’existe aucune influence sur la ligne éditoriale de Génération numérique.

M. le président Arthur Delaporte. Merci pour ces éléments.

M. Cyril di Palma, délégué général de Génération numérique. Génération numérique est une association loi 1901 à but non lucratif, fondée en septembre 2015. Elle est l’héritière d’une précédente structure que j’avais créée fin 2003 et qui a fonctionné jusqu’en 2015. Après une séparation avec mon ancien associé, nous avons reconstitué Génération numérique avec une grande partie de l’équipe précédente. Je m’exprimerai donc au nom de l’expérience acquise au cours de ces vingt-deux dernières années.

Notre vocation première est d’être un complément à l’éducation nationale et à l’éducation parentale en fournissant des conseils, des animations, de la prévention et de l’éducation, principalement en milieu scolaire. Nous menons des actions de terrain. Ainsi, dès 2004, nous avons lancé un tour de France des collèges, en partenariat avec le ministère de l’éducation nationale, pour sensibiliser les élèves aux enjeux et risques liés à leurs usages en ligne.

Aujourd’hui, Génération numérique compte une trentaine de salariés et 24 intervenants répartis sur l’ensemble du territoire national, intervenant quotidiennement dans les écoles, collèges et lycées, avec une base de partenaires d’environ 2 000 établissements scolaires différents. Chaque année, nous animons entre 6 000 et 6 500 séances d’éducation, touchant non seulement les élèves, mais aussi les parents et les éducateurs, qu’ils soient enseignants, infirmières ou éducateurs hors milieu scolaire. Au total, nos équipes rencontrent annuellement près de 300 000 personnes en présentiel.

Notre action, relative à la citoyenneté, répond à trois enjeux majeurs.

Le premier enjeu, historique et davantage demandé par les établissements, est le bon usage d’internet. Cela englobe le paramétrage sur les réseaux sociaux, la lutte contre le harcèlement, la compréhension des modèles économiques, notamment des jeux vidéo, et, plus généralement, le comportement en ligne.

Le deuxième enjeu, développé depuis 2009, est lié à l’égalité. Nous abordons les questions de représentations, de rapport au corps, aux normes de beauté et promouvons l’égalité entre les filles et les garçons.

Le troisième enjeu concerne la lutte contre la désinformation, le développement de l’esprit critique et l’éducation aux médias. Nous menons des actions, principalement en milieu scolaire, pour aider les élèves à muscler leur cerveau, à aiguiser leur esprit critique et à disposer d’outils techniques et intellectuels pour juger les contenus, notamment en ligne.

Notre approche se veut interactive. Très rapidement, nous avons adopté une méthode partant de la réalité numérique des jeunes. Nous explorons ainsi leurs usages, qu’il s’agisse autrefois des skyblog ou aujourd’hui de TikTok, pour identifier les comportements induits et les risques encourus.

Notre démarche s’inscrit également dans une logique républicaine. Nous rappelons systématiquement le cadre légal, crucial face au sentiment d’impunité parfois ressenti en ligne.

En outre, nous adoptons systématiquement une approche empathique pour déconstruire les idées préconçues sur la distinction entre comportements en ligne et hors ligne. Nous expliquons les conséquences des actes, présentons l’envers du décor et promouvons des alternatives aux géants du numérique.

Les difficultés rencontrées varient selon les sujets traités. La principale demande des établissements concerne la lutte contre le harcèlement et le bon usage des réseaux sociaux, à la fois malgré et grâce au programme de lutte contre le harcèlement à l’école, le programme Phare du ministère de l’éducation nationale. Ce focus est lié aux injonctions reçues par les établissements, mais aussi à la réalité du terrain, où ce fléau continue de faire des ravages, malgré de larges progrès. La difficulté est que notre association est parfois enfermée dans une aide aux établissements scolaires sur cette question des réseaux sociaux, alors que nous estimons que les enjeux sont bien plus larges.

Concernant l’égalité filles-garçons, nous rencontrons des difficultés de déploiement en milieu scolaire, notamment en raison des réticences de certains parents, qui voient d’un mauvais œil que nous puissions parler de corps et, éventuellement, de normes de beauté avec les élèves. Pour cette raison, notre module « Égalité, genres et stéréotypes 2.0 » n’est proposé qu’à partir de la classe de quatrième.

La difficulté relative au module consacré à la désinformation, à l’éducation aux médias et à l’esprit critique est sa durée, comprise entre six et huit heures.

Notre défi majeur, partagé vraisemblablement par les autres associations, réside dans la difficulté budgétaire quotidienne liée aux dotations publiques et privées. Nous sommes confrontés à une quête incessante de fonds, à tous les échelons administratifs : villes, communautés de communes, départements, régions, préfectures, instances européennes et ministères. La réduction des budgets publics nous contraint, pour assurer les demandes des établissements scolaires, à rechercher des financements privés.

L’absence de visibilité à long terme constitue un obstacle majeur. Nos budgets sont définis pour l’année civile en cours, et nous nous trouvons fréquemment dans la situation paradoxale de devoir déjà travailler sur les dotations 2026 alors que nous ne disposons pas encore des dotations 2025. Ce travail long et fastidieux est risqué. Par exemple, l’année dernière, notre dotation historique du secrétariat général du comité interministériel de prévention de la délinquance et de la radicalisation (SG-CIPDR) d’environ 100 000 euros par an a été drastiquement réduite à 30 000 euros en raison des investissements en vidéosurveillance pour les Jeux olympiques et paralympiques. Cette information ne nous est parvenue qu’au mois de juin, alors que nous avions déjà engagé les deux tiers de nos actions annuelles. Cette situation met en lumière la complexité de notre gestion et l’impossibilité de mobiliser les énergies là où elles seraient le plus nécessaires.

Concernant les difficultés rencontrées par nos différents publics, je distinguerai trois catégories : les mineurs, les adultes parents et les adultes éducateurs.

Pour les parents, nous constatons une progression de l’utilisation des logiciels d’aide à la parentalité, notamment depuis l’obligation faite aux fournisseurs d’accès internet de proposer un contrôle parental dans le cadre de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. Cependant, la couverture nationale reste insuffisante et ces outils sont parfois perçus par les enfants et les adolescents comme de l’espionnage plutôt qu’un dispositif éducatif. Les parents tendent à appréhender la vie numérique de leurs enfants à travers le prisme de leur propre expérience, ce qui engendre une vision partielle et biaisée de la réalité numérique dans laquelle évoluent leurs enfants. Bien que des outils techniques soient développés, leur utilisation demeure limitée. Lorsqu’ils sont employés, on craint parfois une forme de déresponsabilisation parentale. Les parents doivent comprendre que l’environnement en ligne dans lequel évoluent les enfants s’apparente à une rue plus dangereuse que les rues de nos villes, car dépourvue des cadres légaux concernant la vente de substances interdites aux mineurs.

Les éducateurs et les professeurs rencontrent d’autres difficultés. Nous proposons aux établissements scolaires d’organiser une réunion à destination des professeurs, infirmières et personnels. Ces acteurs ont orienté ces sessions vers des questions d’ordre personnel et manifesté le besoin d’une culture numérique. L’objectif est de permettre aux professionnels de comprendre ce qu’est un challenge et sa viralité, afin de mieux appréhender ce qu’il se passe dans les couloirs. Au vu du renouvellement presque quotidien des challenges, leur curiosité est essentielle pour actualiser leurs connaissances.

M. le président Arthur Delaporte. Je vous remercie et vous invite à nous communiquer vos réponses écrites aux questions.

M. Cyril di Palma, délégué général de Génération numérique. Permettez-moi d’attirer votre attention sur une enquête comparative que nous avons menée. Dans le cadre de nos interventions en milieu scolaire, Génération numérique propose aux établissements un questionnaire en ligne anonyme destiné aux élèves. Ce sondage recueille des informations sur l’âge, le niveau scolaire et le sexe des participants. Bien que la participation ne soit pas systématique, nous parvenons à constituer une base de données d’environ 5 000 élèves âgés de 11 à 14 ans chaque année.

Le document que je vous ai remis présente une analyse comparative des pratiques numériques des 11-14 ans en 2020 et en 2025. Sur l’échantillon de 2025, qui comprend 5 944 jeunes, 2 573 déclarent posséder un compte TikTok. Nous avons isolé ce sous-groupe pour examiner si leurs réponses divergeaient de la moyenne générale.

Dans les pages que je vous ai fournies, vous trouverez une comparaison entre les données de 2020 et celles de 2025. La troisième colonne présente spécifiquement les résultats des répondants de 11 à 14 ans qui ont déclaré avoir un compte sur TikTok.

Mme Laure Miller, rapporteure. J’ai le sentiment que les parents ou les personnels de l’éducation nationale que nous rencontrons ont une connaissance générale des réseaux sociaux, mais méconnaissent la singularité de TikTok, sur laquelle il serait nécessaire de sensibiliser davantage. En effet, contrairement à d’autres plateformes, TikTok n’est pas principalement utilisé par les jeunes pour communiquer avec leur famille ou leurs amis, mais plutôt pour visionner un nombre infini de vidéos. L’algorithme de TikTok est singulier et peut rapidement enfermer les utilisateurs dans des contenus qu’ils n’ont pas nécessairement choisis. De plus, la modération sur TikTok n’est pas forcément à la hauteur.

Les données que vous nous avez fournies montrent que les jeunes eux‑mêmes reconnaissent la présence de contenus problématiques sur la plateforme. Notamment, 41 % d’entre eux mentionnent la présence de contenus pornographiques et 47 % évoquent des images de bagarres ou de violence.

M. Cyril di Palma, délégué général de Génération numérique. Je me permets de rectifier ce point. Il ne s’agit pas des contenus présents sur TikTok, mais des réponses de la base de jeunes qui déclarent avoir un compte sur TikTok. Ainsi, leurs réponses ne concernent pas forcément TikTok.

Mme Laure Miller, rapporteure. Il n’en demeure pas moins que les faits nous démontrent qu’il y a beaucoup de contenus problématiques.

Faut-il sensibiliser davantage les parents et le personnel éducatif à cette réalité ? S’ils passaient du temps sur la plateforme pour observer ce à quoi les jeunes sont exposés, leur perception serait probablement très différente. Vous donniez l’image d’un enfant laissé seul dans la rue. Or, la situation est peut-être même pire. C’est comme si vous autorisiez des inconnus à entrer dans la chambre de vos enfants, croyant qu’ils y sont en sécurité. Ne devrions-nous pas approfondir cet aspect dans les efforts de sensibilisation ?

M. Cyril di Palma, délégué général de Génération numérique. Les résultats de notre enquête révèlent des disparités significatives entre les deux bases étudiées concernant le contrôle parental de l’accès à internet, la présence d’appareils numériques dans les chambres des enfants et l’utilisation nocturne des écrans. Les parents semblent moins vigilants avec les enfants possédant un compte TikTok. Cependant, il est difficile de définir ce qui est la cause et ce qui est la conséquence. Deux hypothèses se dégagent : soit la médiatisation de TikTok pousse certains parents à l’interdire, entraînant une utilisation secrète chez les enfants, soit l’existence d’un compte sur TikTok est corrélée à des comportements différents, plus cachés. Je recommande à la commission de lancer une étude scientifique, incluant des groupes de parole et une enquête quantitative, afin de disposer de données objectives sur lesquelles se baser.

Il est effectivement important d’informer les parents et les adultes en général. Néanmoins, nous devons éviter de nous focaliser uniquement sur TikTok au risque de négliger d’autres plateformes, qu’il s’agisse de réseaux sociaux, de plateformes de diffusion de vidéos ou de jeux en ligne, de Discord, de Twitch et des applications de messagerie comme Telegram, ayant peu ou pas de représentants en France. L’objectif est plutôt de fournir une information générale pour que les parents comprennent le monde numérique dans lequel évoluent les enfants, leur permettant ainsi de prendre des décisions éclairées concernant la navigation de leurs enfants.

Mme Laure Miller, rapporteure. Premièrement, quelle est votre opinion concernant l’âge minimal en dessous duquel un enfant ne devrait pas être laissé seul sur les réseaux sociaux, malgré toute la sensibilisation que nous pourrions faire ?

Deuxièmement, pourriez-vous nous donner votre avis sur l’état actuel de l’éducation numérique dans notre pays et proposer d’éventuelles pistes d’amélioration ?

M. Cyril di Palma, délégué général de Génération numérique. Concernant l’éducation numérique en France, nous constatons une évolution significative au cours des vingt dernières années. Des progrès majeurs ont été réalisés, notamment grâce au programme Phare du ministère de l’éducation nationale. Cet enjeu a été pris à bras-le-corps par différents ministères et secrétariats d’État. Génération numérique fait partie de l’Observatoire de la haine en ligne à l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), du collectif Educnum de la Commission nationale de l’informatique et des libertés (Cnil) et du label « P@rents, parlons numérique » du secrétariat d’État à la famille.

Cependant, le principal reproche que je formule concerne le manque de coordination. Les initiatives sont fragmentées. Par exemple, j’ai été auditionné successivement par la commission supérieure du numérique et des postes, au Sénat, puis par la délégation aux droits des enfants de l’Assemblée nationale, répétant les mêmes informations. Ces éléments illustrent le problème de communication et de coordination entre les instances.

La mise en œuvre des actions est également très fragmentée et dépendante de facteurs, tels que l’établissement scolaire, le maire, la préfecture, les enjeux ou les priorités immédiates. En dehors du ministère de l’éducation nationale, il manque un pilotage collectif.

Nous appelons de nos vœux une coordination. Il existe une multitude d’associations et d’acteurs, mais nous ne disposons pas d’une cartographie de leurs zones d’intervention géographique, des thèmes qu’ils abordent ou des populations qu’ils touchent. Cette absence de vue d’ensemble empêche d’assurer que tous les enfants, de Foix à Strasbourg, de Calais à Brest, en passant par Marseille, dans les villes comme dans les campagnes, aient les mêmes chances d’accéder à une éducation au numérique de qualité, au-delà de ce qui est prévu dans les programmes de l’éducation nationale.

Concernant l’âge minimal pour accéder aux réseaux sociaux, l’impact des contenus numériques sur les jeunes dépend en effet de leur nature et de la durée d’exposition. Je n’entrerai pas dans des considérations psychologiques, car les interventions de Mesdames Vanessa Lalo et Séverine Erhel, dont j’ai pris connaissance, sont pertinentes et en accord avec notre position. Il est évident que certains contenus, pratiques et temps d’utilisation peuvent être problématiques. Comme pour le reste, ces plateformes doivent être consommées avec modération. Il s’agit d’un équilibre, qui dépend des profils des enfants et des familles. Malheureusement, il est difficile d’établir une règle commune. Le docteur Serge Tisseron avait proposé la règle des 3-6-9-12, offrant ainsi des repères aux parents. Notre rôle, en tant que parents et éducateurs, est d’autonomiser nos enfants et de leur permettre de devenir des citoyens libres, éclairés et indépendants. Or, chacun évolue à son rythme. De plus, la construction des jeunes est fortement influencée par leurs activités en ligne.

La question de l’établissement d’un âge minimum pour laisser les jeunes baguenauder en ligne soulève celle du contrôle effectif de l’âge des utilisateurs. Nous avons réussi à faire fermer deux sites pornographiques, mais des dizaines de milliers d’autres subsistent. Cette problématique s’étend à toutes les plateformes, notamment les réseaux sociaux, pour faire en sorte que les mineurs ne puissent pas accéder à des contenus inappropriés ou créer des profils en mentant sur leur âge. Lorsqu’un enfant de dix ans déclare en avoir vingt, il perd toutes les protections prévues pour les mineurs et se voit exposé à des contenus et publicités destinés aux adultes. La majorité numérique fixée à 15 ans est plutôt pertinente. Le défi réside dans son application effective, en s’assurant que les enfants de moins de 15 ans ne puissent pas s’inscrire sans l’accord parental et que ceux déjà inscrits renseignent leur véritable âge. Ce point soulève des questions liées à la gestion des données publiques, à leur sécurité et au respect de la vie privée.

Mme Laure Miller, rapporteure. Pouvez-vous préciser votre position quant à l’instauration d’un âge minimal ?

M. Cyril di Palma, délégué général de Génération numérique. Nous sommes effectivement favorables à l’instauration d’un âge minimal pour l’inscription des jeunes sur les plateformes numériques. Nous n’avons jamais préconisé l’âge de 13 ans. Cette limite a été établie par les plateformes américaines en conformité avec leur législation nationale. Bien que l’âge de 13 ans puisse être considéré comme le minimum, il faut reconnaître qu’à cet âge, la maturité n’est pas encore pleinement développée, ce qui peut rendre certains contenus inadaptés.

Il ne faut pas oublier que les contenus présents sur internet sont majoritairement produits par des humains. En tant que créateurs de contenus, nous avons tous une responsabilité quant à ce que nous publions ou relayons par rapport au public mineur.

Mme Laure Miller, rapporteure. Je vous ai demandé de préciser, car j’ai tout d’abord été marquée par vos propos quant à la nécessité d’une consommation modérée. Même avec modération, l’exposition à des contenus pornographiques ou hypersexualisés reste problématique pour un enfant de 12 ou 14 ans. Or, ces contenus peuvent être trouvés assez rapidement. De plus, nous avons évoqué la semaine dernière avec des familles de victimes la facilité d’accès à des contenus faisant la promotion du suicide ou de l’automutilation. Certaines personnes auditionnées ont souligné que poser une règle pourrait aider les parents à faire entendre raison à leurs enfants. Quel est votre avis sur ce point ?

M. Cyril di Palma, délégué général de Génération numérique. Il est important de distinguer deux cas dans votre exemple. L’exposition des mineurs à la pornographie est interdite avant 18 ans. En revanche, la modération des contenus dits « gris », qui ne sont pas illégaux, s’avère plus complexe, car il n’existe pas de qualification légale précise interdisant leur accès avant un certain âge. C’est pourquoi j’insiste sur le fait que tous les contenus ne sont évidemment pas adaptés aux mineurs, et encore moins aux jeunes enfants. Dans certains cas, la loi existe et doit offrir un cadre de protection, comme pour l’exposition des mineurs à la pornographie. Cependant, la majorité des contenus ne tombent pas sous le coup de la loi, quelle qu’elle soit.

M. le président Arthur Delaporte. Je vous remercie pour votre intervention. Les données fournies contribuent à notre compréhension et nous permettent de disposer de l’approche la plus fine pour identifier si les problématiques sont spécifiques à TikTok.

En examinant votre échantillon de jeunes utilisateurs exposés à TikTok, nous constatons que les problématiques sont largement similaires, avec quelques exceptions significatives. Par exemple, l’exposition aux scènes de bagarre ou de violence est légèrement plus élevée pour les utilisateurs de TikTok, avec une différence de cinq points. Il en va de même pour l’exposition à la pornographie. Les jeunes n’utilisant pas cette plateforme sont deux fois moins exposés aux insultes liées à la religion, à l’apparence physique, ainsi qu’aux propos sexistes, homophobes ou racistes.

Par ailleurs, un point important est que les jeunes utilisateurs de TikTok se confient moins à des adultes, malgré leur exposition à des contenus plus choquants.

Votre questionnaire relève que les jeunes mentent sur leur âge, ont conscience qu’il est difficile de signaler des contenus et ont réussi à supprimer leur compte lorsqu’ils le souhaitaient.

Ces observations soulignent l’importance cruciale de l’éducation et de la sensibilisation aux enjeux du numérique. Le rôle d’organisations telles que Génération numérique s’avère essentiel et mérite d’être encouragé.

Vous ne disposez pas des moyens d’intervenir dans toutes les classes, ce qui pose la question d’une politique publique. Ne faudrait-il pas envisager la création d’une brigade numérique d’intervention dans les établissements ? La prise en charge des missions actuellement assurées par des associations relève peut-être de la responsabilité de l’éducation nationale.

M. Cyril di Palma, délégué général de Génération numérique. Lors de la création de notre première association, nous avions prévu de fermer en trois ans. Notre hypothèse était que la familiarisation du public avec les outils numériques rendrait notre valeur ajoutée obsolète. Au contraire, les sujets liés au numérique se sont développés, ainsi que les problèmes et questions qui les accompagnent.

Je note que la systématisation existe déjà à travers la certification Pix.

M. le président Arthur Delaporte. Constatez-vous néanmoins une augmentation continue des demandes d’intervention ?

M. Cyril di Palma, délégué général de Génération numérique. En effet. Concernant la certification Pix, il arrive que des élèves soient confrontés à cette plateforme d’évaluation des compétences numériques sans avoir bénéficié d’une formation préalable. Cette inégalité de traitement, bien que logique compte tenu de la machine qu’est l’éducation nationale et de son inertie, reste problématique, même si des améliorations sont sans doute en cours.

La contrainte que rencontreraient les associations, si elles devaient se massifier, est d’ordre financier. À l’époque de la proposition de loi devenue la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, j’avais estimé qu’une action touchant 800 000 jeunes nécessiterait un budget annuel de 20 à 25 millions d’euros.

Plutôt que parler d’éducation au numérique, je préfère évoquer une éducation à la citoyenneté, s’appliquant notamment dans le monde numérique. Les enjeux abordés comprennent une partie sur la haine, élaborée en collaboration avec la délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la haine anti-LGBT (Dilcrah), mais aussi la laïcité, la discrimination religieuse ou encore l’homophobie. Cette diversité des sujets impose de faire des choix. J’avais autrefois rêvé d’une réforme du rythme scolaire qui aurait permis l’intervention d’acteurs associatifs sur des enjeux parascolaires variés – art, culture, laïcité, valeurs de la République et numérique – durant les après-midis. Un tel fonctionnement faciliterait la mise en place de nos actions.

M. le président Arthur Delaporte. Je vous remercie pour votre participation et vos travaux.

29.   Audition de Mme Alejandra Mariscal Lopez, directrice de Point de Contact, et M. Yann Lescop, responsable projets et études (jeudi 22 mai 2025)

Enfin la commission auditionne Mme Alejandra Mariscal Lopez, directrice de Point de Contact, et M. Yann Lescop, responsable projets et études ([28]).

M. le président Arthur Delaporte. Mes chers collègues, nous reprenons avec l’audition de Mme Alejandra Mariscal Lopez, directrice de Point de Contact, et M. Yann Lescop, responsable projets et études.

Madame, monsieur, je vous remercie de prendre le temps de répondre à notre invitation.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

Avant de vous donner la parole, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mme Alejandra Mariscal Lopez et M. Yann Lescop prêtent serment.)

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Point de Contact est une association qui relève de la loi de 1901, créée il y a 25 ans. Notre mission a considérablement évolué au fil du temps. Aujourd’hui, nous nous définissons comme une association luttant contre les cyberviolences et protégeant les droits humains dans l’espace numérique. Notre approche se veut holistique, avec pour mission principale le traitement des signalements.

Nous mettons à disposition de tout citoyen des outils de signalement permettant de porter à notre connaissance tout contenu illicite ou préjudiciable en ligne. Actuellement, nous mettons trois outils de signalement à disposition des internautes. Lors de la réception d’un signalement, nous procédons à son analyse et évaluons son caractère illicite au regard de la loi française. Si nous concluons à l’illégalité du contenu, nous collaborons avec les plateformes, les hébergeurs de contenus et les autorités compétentes pour obtenir son retrait et, le cas échéant, engager des poursuites judiciaires.

En complément de cette mission centrale, nous menons diverses actions dans les domaines de l’éducation, de la sensibilisation, du plaidoyer et de la recherche. Nous collectons des données non personnelles issues des signalements, ce qui nous permet d’établir des statistiques sur le nombre de contenus illicites reçus, de signalements traités et d’identifier les tendances par type d’infraction et par plateforme. Ces recherches sont cruciales pour analyser et suivre l’évolution des tendances au fil du temps.

Nous effectuons également une veille en ligne, adaptée aux circonstances. Par exemple, dans le cadre des Jeux olympiques et paralympiques de Paris 2024, nous avons lancé une campagne globale incluant une veille proactive sur les réseaux sociaux pour analyser les contenus haineux échangés.

Notre principale source de financement provient de la Commission européenne. Nous participons au programme national Safer Internet France, qui s’inscrit dans le programme européen Better Internet for Kids. Safer Internet France comprend trois lignes d’action : Internet sans crainte, un centre de sensibilisation produisant des ressources pour les parents, les enfants et les professionnels ; le 3018, une ligne d’écoute offrant un soutien psychologique ; et Point de Contact, la plateforme de signalement.

Notre association est membre du réseau INHOPE, composé de 54 associations et organisations dans 50 pays qui luttent contre l’exploitation sexuelle des mineurs en ligne, notamment en œuvrant pour le retrait de contenus pédocriminels. En tant que représentants français de ce réseau, nous recevons tous les signalements de contenus pédocriminels hébergés en France identifiés par le réseau. Nous agissons ensuite au niveau local en signalant ces contenus aux autorités compétentes, à Pharos et aux hébergeurs pour obtenir leur retrait. Le réseau INHOPE utilise une base commune appelée ICCAM, qui permet l’échange de signalements entre membres. Cette base est également mise à disposition d’Interpol pour l’identification des victimes et des criminels. Depuis sa création, elle a permis l’identification d’au moins 40 000 victimes et 20 000 pédocriminels.

Dans le cadre de ce réseau, nous participons à un projet permettant de mettre nos contenus à disposition du Centre de lutte contre les criminalités numériques (C3N), un service d’enquête de la gendarmerie nationale réalisant de l’identification des victimes et des pédocriminels, afin de contribuer directement à leurs enquêtes.

Pour vous donner une idée de l’ampleur de notre action, nous avons reçu plus de 42 000 signalements en 2024. Parmi ces signalements, 57 % étaient illicites, soit environ 24 000. En outre, 37 000 signalements concernaient une suspicion d’exploitation sexuelle de mineurs, dont 70 % (17 000 contenus) se sont avérés effectivement illicites et ont été transmis aux autorités compétentes. Il est à noter que 90 % des contenus qualifiés de pédocriminels concernaient des filles. Ces volumes sont très importants. Concernant le réseau INHOPE, nous avons reçu approximativement 12 000 signalements et leur en avons transmis environ 8 000.

Point de contact est signaleur professionnel de Pharos depuis 2010. Nous avons établi une convention professionnelle pour que nos signalements bénéficient d’un traitement prioritaire par leurs services. À chaque fois que nous déterminons qu’un signalement est illicite, nous le transmettons à Pharos, puis envoyons une notification d’information à l’hébergeur ou à la plateforme après un délai de trois à six heures.

Concernant notre gouvernance et notre financement, il est important de souligner que Point de contact a été fondé en 1998 par les principaux acteurs d’internet. L’objectif initial était de les aider à se conformer à leurs obligations en matière de retrait de contenu. Nous ouvrions des canaux de signalement permettant aux internautes de nous remonter les informations liées aux contenus illicites, que nous transmettions ensuite aux acteurs concernés par un canal dédié. Cette démarche a posé les bases du concept de signaleur de confiance.

Aujourd’hui, notre bureau rassemble de nombreux acteurs impliqués dans le numérique, organisés en différents collèges selon la terminologie du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA).

Le collège des fournisseurs de services intermédiaires (FSI) inclut les grandes plateformes, telles que TikTok, Snapchat, Google, Meta et Yubo, ainsi que des plateformes de plus petite taille et des hébergeurs comme OVH Cloud.

Le collège d’entreprises technologiques (TEC) met à notre disposition des outils d’intelligence artificielle ou d’intelligence cognitive afin de nous aider dans la modération et le traitement des contenus.

Le collège des membres support regroupe des entreprises hors FSI et TEC.

Le collège de membres honoraires est composé d’experts en protection de l’enfance, terrorisme et numérique.

Enfin, le collège des membres observateurs inclut des autorités publiques, comme la gendarmerie nationale et la préfecture de police de Paris.

Cette organisation vise à ramener tout le monde autour de la table afin de mettre en place des moyens de collaboration dédiés et efficaces. Dans le but de respecter les critères d’indépendance demandés par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), des garde-fous ont été mis en place, avec des mesures permettant que les acteurs du numérique n’aient aucune influence sur notre gouvernance ou notre traitement des contenus.

Cela ne signifie pas que les entreprises du numérique ne paient pas de cotisation, car nous pensons que tous les acteurs impliqués doivent participer au financement des signaleurs de confiance comme Point de Contact. Le montant de la cotisation, plafonné à 12 500 euros par an, est variable pour que chaque acteur puisse choisir son niveau de contribution en fonction du soutien qu’il souhaite apporter à Point de Contact et de ses moyens financiers.

Concernant notre rôle dans la régulation des espaces numériques, Point de Contact fait partie des sept organisations françaises reconnues comme signaleurs de confiance, sur un total de trente-deux au niveau de l’Union européenne, dont neuf spécialisées dans la protection de l’enfance. Notre mission s’inscrit dans ce contexte et nous prônons une régulation ambitieuse et protectrice.

Nous venons partager notre expertise de terrain, notre connaissance juridique en matière de régulation d’internet, ainsi que les leçons en matière de financement du secteur des signaleurs de confiance, qui absorbent une part significative des signalements de contenus illicites et préjudiciables.

Mme Laure Miller, rapporteure. Pourriez-vous nous dire quelle est la plateforme qui cotise le plus ?

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Google et Meta contribuent à hauteur de 12 500 euros. OVH Cloud, en tant qu’hébergeur, a choisi d’aller au-delà du montant maximal en versant 15 000 euros. TikTok et Snapchat financent notre association à hauteur de 8 500 euros, suivis par d’autres acteurs comme X à 5 500 euros.

Mme Laure Miller, rapporteure. Pourriez-vous nous expliquer le cheminement d’un signalement ? Recevez-vous des retours systématiques ? Les signalements sont-ils tous couronnés de succès ? Pouvez-vous faire une distinction entre les différents réseaux sociaux ? La politique de TikTok en matière de réponse aux signalements est-elle différente des autres plateformes ?

Vous avez évoqué le rôle de signaleur de confiance qui vous a été confié par l’Arcom. Pouvez-vous nous expliquer comment cette relation fonctionne au quotidien avec l’Arcom dans le cadre des signalements ?

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Notre process implique d’abord un signalement à Pharos, puis à l’hébergeur ou à la plateforme concernée. Nous attendons généralement un délai de 24 heures avant de vérifier si le contenu a été supprimé, dans le cadre de nos activités de monitoring. Bien que notre statut officiel de signaleur de confiance – au sens du DSA – soit récent, nous bénéficions depuis longtemps de ce statut auprès de la plupart des principales plateformes, parmi lesquelles TikTok.

Auparavant, nous envoyions les signalements à TikTok par email. Par la suite, l’entreprise a mis à notre disposition une plateforme spécifique nous permettant d’envoyer les signalements, mais aussi de suivre leur traitement, de vérifier la suppression effective des contenus et d’obtenir des explications en cas de non-suppression.

TikTok est un acteur assez réactif en matière de traitement des signalements, ce qui n’est pas toujours le cas pour d’autres plateformes. Les suites données sont très importantes pour nous, particulièrement en tant que signaleur de confiance. En effet, nous sommes tenus de publier un rapport de transparence détaillant les délais de retrait des contenus illicites par les plateformes. Si les plateformes ne nous permettent pas de vérifier ces informations de manière simple, notre travail s’en trouve considérablement alourdi. TikTok a toujours facilité le suivi du parcours d’un signalement jusqu’au retrait du contenu.

M. Yann Lescop, responsable projets et études. Je confirme les propos d’Alejandra.

Nous constatons une amélioration des délais, particulièrement depuis l’entrée en vigueur du DSA. La plateforme de signalement mentionnée par Alejandra a été mise à disposition en février 2024, coïncidant avec l’entrée en vigueur définitive du règlement sur les services numériques (DSA).

Nous constatons un bon taux de prise en compte de nos signalements, à quelques exceptions près. Par exemple, deux signalements sont restés sans réponse à ce jour. L’un d’eux concerne du harcèlement envers des personnes handicapées. Cependant, pour les autres cas, notamment liés au terrorisme, à l’extrémisme violent et à l’exploitation sexuelle, les réponses sont rapides. Pour les cinq derniers signalements traités, le délai de réponse varie entre une et cinq heures.

M. le président Arthur Delaporte. Vous mentionnez deux signalements restés sans réponse. Quel est l’objet du deuxième signalement ?

M. Yann Lescop, responsable projets et études. Je ne suis pas en mesure de répondre sur l’objet du deuxième signalement.

Un point regrettable à souligner est l’impossibilité de relancer la plateforme.

M. le président Arthur Delaporte. Nous avons été informés de la problématique liée à l’absence de procédure d’appel.

M. Yann Lescop, responsable projets et études. En effet, les deux points que je souhaiterais soulever sont l’absence de procédure d’appel et l’impossibilité de relancer un signalement. Une fois qu’un dossier est clôturé, nous ne disposons d’aucun bouton pour demander son réexamen ou pour relancer la plateforme, même après plusieurs semaines d’attente.

M. le président Arthur Delaporte. La procédure d’appel pourrait revêtir deux formes : soit un appel auprès de la plateforme, soit un appel auprès d’une instance annexe.

M. Yann Lescop, responsable projets et études. Les out-of-court disputes du DSA sont des organes indépendants chargés de la conciliation entre les plateformes et les utilisateurs.

M. le président Arthur Delaporte. Ces organes fonctionnent-ils ? Les avez-vous déjà utilisés ?

M. Yann Lescop, responsable projets et études. Nous ne travaillons pas avec ces organes. Je crois savoir qu’une dizaine ont déjà été désignés au niveau européen.

Par ailleurs, il est important de souligner que, parmi les signalements relatifs à TikTok que nous recevons, le contenu terroriste y est prédominant. Notre plateforme de signalement, qui fonctionne de manière réactive grâce à l’engagement de personnes adhérant à notre mission, n’offre pas une analyse macroscopique. Néanmoins, nous constatons une progression significative : de 14 signalements de contenus terroristes en 2023, nous sommes passés à 32 en 2024. TikTok se positionne ainsi comme la deuxième plateforme sur laquelle nous identifions le plus ce type de contenus. Ces contenus consistent principalement en la glamourisation, la glorification ou l’apologie d’actes terroristes ou de leurs auteurs.

M. le président Arthur Delaporte. Votre rapport d’activité met en lumière une problématique majeure liée à la prise en compte des discours haineux et à leur qualification juridique. Il semble que c’est dans ce domaine que vous rencontrez le plus faible taux de reconnaissance de contenus illicites par rapport au volume de signalements. Pourriez-vous nous éclairer sur cette situation ? Observez-vous des différences de traitement sur le retrait de ce type de contenus de la part de TikTok ?

M. Yann Lescop, responsable projets et études. La raison pour laquelle il existe une disproportion assez notable sur la question de la haine en ligne réside dans l’interprétation stricte que nous faisons de la loi sur la liberté de la presse. Nous sommes compétents sur trois infractions : l’incitation publique à la haine, l’injure haineuse et la diffamation haineuse, comme elles sont définies par la loi sur la liberté de la presse. Soucieux de ne pas être perçus comme des censeurs, nous sommes particulièrement vigilants quant à la préservation de la liberté d’expression. Notre équipe est composée de juristes, notamment spécialisés sur les questions de droits humains.

M. le président Arthur Delaporte. Ne pensez-vous pas qu’une évolution du cadre juridique serait nécessaire ? Cette situation soulève des interrogations, car nous sommes souvent confrontés à des utilisateurs qui signalent des contenus qu’ils perçoivent comme haineux, mais qui ne sont pas retirés, car jugés non problématiques d’un point de vue légal. Pourtant, une analyse approfondie révèle souvent que ces contenus sont effectivement problématiques, bien qu’ils se situent aux marges du droit. La loi devrait-elle évoluer pour apporter plus de clarté ?

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Nous recevons moins de signalements, car les citoyens pensent que cela ne sert à rien. D’autre part, on constate une certaine banalisation des propos haineux. Ces deux éléments dissuadent les utilisateurs d’effectuer un signalement à Point de Contact.

Nous remarquons une différence entre les signalements sur les plateformes et ceux adressés aux hébergeurs. Sur les plateformes, de nombreux internautes sont habitués à signaler directement les contenus illicites en utilisant les outils mis à disposition. Cependant, nous constatons que certains utilisateurs nous contactent après avoir signalé un contenu à la plateforme, lorsque celle-ci n’a pas pris de mesures. Cela montre que nous ne sommes pas toujours le premier recours pour les signalements sur les plateformes. La situation est différente pour les sites lambdas, où le processus de signalement est souvent plus complexe. De nombreux hébergeurs, particulièrement à l’étranger, ne mettent pas en place les canaux de signalement adéquats. Dans ces cas, les utilisateurs se tournent vers nous pour effectuer le travail de géolocalisation de l’hébergeur et trouver l’adresse abuse pour transmettre les signalements. Cette différence explique pourquoi nous recevons davantage de signalements concernant les forums et les sites lambdas que pour les contenus haineux en ligne.

Il faut également prendre en compte que les utilisateurs ne sont pas tous juristes et peuvent avoir des difficultés à identifier ce qui est illicite. Les contenus manifestement illicites, comme ceux impliquant des violences sexuelles ou des mineurs, sont plus facilement signalés. En revanche, la haine en ligne peut parfois sembler plus floue, ce qui peut freiner les signalements. C’est précisément pour cette raison que nous avons mené une campagne de sensibilisation pendant les Jeux olympiques et paralympiques afin d’inciter aux signalements et de promouvoir un comportement responsable en ligne. Nous avons insisté sur le fait que le signalement est un acte citoyen qui contribue à protéger les personnes vulnérables de l’exposition à certains types de contenus.

Il est important de distinguer les contenus effectivement illicites, qui entrent dans le cadre de la loi, de ceux qui peuvent être préjudiciables tout en pouvant parfois entrer tout de même dans le cadre des politiques internes des plateformes. La Commission européenne utilise cette approche pour lutter indirectement contre les risques systémiques, en incitant les plateformes à renforcer et clarifier leurs politiques internes pour les rendre plus protectrices. C’est par ce biais que la Commission cherche à traiter ces contenus moins clairs, plutôt qu’au travers de la loi.

Nous avons également observé, notamment depuis que certaines plateformes ont modifié leurs politiques de modération, que des contenus manifestement illicites car haineux restent en ligne sans être supprimés. C’est un véritable sujet, notamment lorsque ces contenus visent des groupes spécifiques.

M. le président Arthur Delaporte. C’est un sujet qui nous préoccupe grandement, de même que les utilisateurs.

Vous mentionnez un bon taux de retraits par rapport aux signalements. Cependant, nous entendons souvent que les signalements effectués par des utilisateurs lambdas n’aboutissent pas nécessairement au retrait des contenus.

M. Yann Lescop, responsable projets et études. La philosophie de Point de Contact est précisément de se présenter comme un pont entre la société civile et les plateformes. Je ne dirai pas que nous jouons un rôle de médiateur, car nous agissons pour procéder au retrait des contenus illicites. Nous sommes demandeurs de davantage de visibilité auprès de la population pour remédier à ces problématiques.

M. le président Arthur Delaporte. Il est souhaitable que vous soyez identifiés. Cependant, il est préoccupant que les utilisateurs doivent passer par vous, car, en tant qu’acteurs non identifiés, ils n’ont pas réussi à obtenir la suppression des contenus. Il me semble qu’une représentante de StopFisha indiquait que les signalements effectués avec son compte personnel sont ignorés, alors que, lorsqu’elle utilise le compte StopFisha, les mêmes contenus sont retirés. Quelle est la raison de cette différence de traitement ? Suppose-t-on que vous avez déjà effectué un travail de préidentification et d’analyse juridique ?

M. Yann Lescop, responsable projets et études. Je partage votre point de vue, et c’est précisément l’une des réflexions que nous souhaitons partager avec la commission d’enquête. Notre rôle se situe dans la modération ex post, c’est-à-dire une fois que les contenus sont publiés. Cependant, nous plaidons pour une approche plus proactive dans le retrait des contenus.

Dans cette optique, nous avons développé un outil appelé Disrupt, qui vise à prévenir la diffusion de contenus intimes sans consentement. Cet outil permet aux internautes qui craignent la diffusion de leurs contenus privés de nous contacter en amont. Nous transformons alors ces contenus en signatures numériques que nous intégrons à une base de données mise à disposition des plateformes. Ainsi, les plateformes peuvent reconnaître ces signaux et empêcher la mise en ligne de ces contenus, prévenant ainsi l’infraction avant même qu’elle ne se produise. Nous avons fait part de ces observations à la Commission européenne, en suggérant que cette base de données, reposant sur une démarche proactive, soit reconnue comme une bonne pratique. Malheureusement, nous constatons que les plateformes tardent à prendre les devants sur ces questions.

M. le président Arthur Delaporte. Quelles sont les plateformes qui utilisent Disrupt ?

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. À ce jour, aucune plateforme n’utilise encore cet outil, malgré nos sollicitations auprès des grandes plateformes membres de Point de Contact depuis décembre 2024. TikTok, qui fait partie des acteurs avec lesquels nous avons davantage avancé dans les discussions, nous a donné un avis favorable, mais nous attendons toujours depuis cinq mois. Il s’agit d’une question de volonté. Certaines plateformes invoquent un manque de moyens ou des collaborations existantes avec d’autres structures sur cette thématique. Or, Disrupt demeure le seul outil français et européen disponible.

Concernant les signalements citoyens, nous constatons clairement un sentiment d’impuissance chez les utilisateurs individuels qui se tournent vers nous. Le DSA visait à solliciter les signaleurs de confiance pour absorber un volume important de signalements, puis à utiliser ce volume à des fins de transparence. Néanmoins, s’ils analysent les données des signaleurs de confiance, les rapports de transparence ne mettront pas nécessairement en avant les données des citoyens. Nous estimons donc que les plateformes devraient intensifier leurs efforts non seulement envers les signaleurs de confiance, mais aussi envers les citoyens qui font valoir leurs droits.

M. le président Arthur Delaporte. Nous sommes d’accord avec vous.

Nous savons que les contenus terroristes et pédopornographiques sont globalement retirés efficacement. Cependant, je souhaiterais approfondir la question de cette zone grise plus vaste, englobant le harcèlement et la haine en ligne, notamment les contenus liés à l’origine, à la religion ou à la communauté LGBT. Pourriez-vous développer vos observations à ce sujet ? Y a-t-il des spécificités propres à TikTok ? Enfin, quelle est la place des mineurs dans ces contenus signalés ?

M. Yann Lescop, responsable projets et études. En matière de haine en ligne, ce n’est pas TikTok que nous identifierions comme étant plus problématique. D’autres plateformes ont connu une dégradation notable de leurs politiques de modération ces derniers mois. X et Meta, par exemple, nous ont posé de sérieuses difficultés en termes de retrait de contenus, ce qui n’est pas le cas avec TikTok. Il est important de noter que nous recevons moins de signalements de haine relatifs à TikTok. Je rappelle toutefois que les signalements proviennent d’internautes qui nous connaissent.

La problématique majeure concerne la frontière entre le légal et l’illégal. Par exemple, dans le cas de la tendance SkinnyTok, il n’est a priori pas illégal de faire l’apologie de la maigreur.

Cela soulève la question du rôle que nous entendons donner aux plateformes en ligne en termes d’accessibilité des contenus. Les récentes lignes directrices de la Commission européenne mentionnent, par exemple, le fait que les contenus signalés par des signaleurs de confiance puissent être automatiquement retirés de la vue des mineurs, sans attendre la décision finale de modération. Ces signaux nous semblent assez encourageants quant aux contenus auxquels les mineurs sont exposés via leur algorithme de recommandation. Nous estimons que notre statut privilégié pourrait être mis à profit dans ce cadre.

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Avant le DSA, chaque plateforme définissait librement sa politique interne, ce qui est toujours le cas aujourd’hui. Nous avons souvent constaté que nous pouvions faire retirer des contenus illicites, mais non manifestement illégaux, via les canaux de politique interne plutôt que par le biais du canal DSA.

Récemment, la Commission européenne a publié de nouvelles lignes directrices concernant l’article 28 du DSA. Ce document détaillé aide les plateformes à interpréter cet article et établit une série de principes, notamment la mise en place de politiques internes très précises. Les risques liés aux conduites addictives et aux tendances, comme SkinnyTok, faisant l’apologie de la maigreur y sont abordés. À travers ces lignes directrices, la Commission renforce cette protection, qui devient en quelque sorte une obligation puisqu’elle entre dans le cadre d’un article du DSA. Il existe donc l’article 28 sur la protection des mineurs, l’article 24 sur l’évaluation des risques systémiques et l’article 35 sur les mesures d’atténuation de ces risques, parmi lesquelles la collaboration avec les signaleurs de confiance. Selon l’article 28, lorsqu’un signaleur de confiance signale un contenu comme illicite, ce dernier doit être rendu inaccessible aux mineurs. Ces mesures sont très récentes.

Cette année, ce sera la première fois que les signaleurs de confiance et les réseaux sociaux publieront leurs rapports de transparence. Nous pourrons ainsi évaluer la mise en œuvre effective de ces mesures et l’application des lignes directrices entrant dans le cadre de l’article 28.

En conclusion, bien que le cadre soit désormais défini, nous attendons une responsabilité accrue des plateformes et une mise en œuvre efficace de tous ces moyens.

M. le président Arthur Delaporte. Souhaitez-vous ajouter des éléments ?

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. J’ai évoqué une veille proactive, dont nous avons transmis une synthèse à l’Arcom. Nous utilisons certains outils de veille proactive, dont l’un, mis en place par l’European Observatory of Online Hate (EOOH), permet de scanner les réseaux sociaux pour analyser ce qu’il se passe en ligne. Nous pouvons effectuer des recherches ciblées, comme celle sur SkinnyTok. Cet outil est actuellement en phase de test et certaines de ses fonctionnalités nécessitent des améliorations. Son efficacité est optimale pour le contenu textuel, donc sur X. En revanche, son efficacité est moindre sur TikTok, où le pourcentage d’identification des contenus est plus faible.

Nous avons lancé une recherche sur SkinnyTok, limitée aux contenus en langue française, via une veille automatique du 22 au 24 avril. L’outil a identifié 1 136 contenus liés à la tendance SkinnyTok, parmi lesquels 91 ont été qualifiés de toxiques. La répartition de ces contenus toxiques était la suivante : 66 % sur TikTok, 27 % sur X et 7 % sur YouTube. Cette veille a été réalisée à un moment où TikTok avait déjà mis en place certaines mesures, notamment l’affichage d’un avertissement signalant les contenus toxiques. Malgré cela, certains contenus toxiques restent en ligne. Cependant, le fait que nous n’ayons identifié que 1 136 contenus parmi tous les contenus pouvant exister sur TikTok suggère qu’un certain nettoyage avait déjà été effectué.

M. le président Arthur Delaporte. Avez-vous analysé la viralité, le nombre de likes et de vues de ces contenus ? La simple quantification du nombre de contenus ne nous renseigne pas sur leur portée.

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Ces données indiquent que l’outil a identifié peu de contenus toxiques. Néanmoins, certains contenus sont liés à la tendance SkinnyTok.

M. le président Arthur Delaporte. Avez-vous inclus dans votre analyse le nombre de vues par publication ?

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Nous ne disposons pas de ces données. Nous avons pu extraire certaines publications avec leur nombre de likes. Par exemple, j’ai identifié six publications ayant entre 60 et 150 likes.

M. le président Arthur Delaporte. Il semble que votre requête n’ait pas fait ressortir de publications avec des milliers de likes.

Concernant SkinnyTok, avez-vous signalé certains de ces contenus ? Si oui, quels types de contenus avez-vous signalés et ont-ils été retirés ?

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Pour SkinnyTok, notre action s’est principalement concentrée sur une activité de veille. Nous avons signalé certains contenus en infraction avec les politiques internes des plateformes. Cependant, comme je l’ai mentionné précédemment, de nombreux contenus ne correspondaient pas à ces critères et n’étaient pas illicites.

M. le président Arthur Delaporte. Avez-vous mené ce type d’études sur d’autres sujets ? Par exemple, vous mentionnez dans votre rapport la provocation au suicide. Avez-vous effectué des recherches sur ce thème ?

M. Yann Lescop, responsable projets et études. Nous sommes bêta‑testeurs de cet outil depuis décembre dernier, ce qui est relativement récent. Nos analyses ont porté sur divers sujets, tels que le cyberharcèlement, les violences sexistes en ligne, avec des focus particuliers, comme l’élection de Miss France. Nous avons également effectué un suivi concernant la journaliste Salomé Saqué et la streameuse Ultia, qui a vécu une vague de haine à la suite d’un procès. Très récemment, nous nous sommes intéressés aux réseaux masculinistes et au manifeste potentiellement diffusé en ligne à la suite d’une attaque au couteau. Notre objectif est d’identifier la toxicité et de suivre les activités en ligne sur ces questions.

M. le président Arthur Delaporte. Quelles sont vos conclusions ?

M. Yann Lescop, responsable projets et études. Nos observations ont révélé que les profils féminins les plus présents en ligne subissaient le plus de cyberharcèlement. Par exemple, Miss France, dont la présence en ligne est limitée, a fait l’objet d’une vague de haine moins intense. Des personnalités comme Ultia, bien ancrée dans les habitudes numériques, sont confrontées à des contenus beaucoup plus violents et insultants, constitutifs de ce phénomène de cyberharcèlement.

M. le président Arthur Delaporte. Quelles sont vos observations sur le masculinisme ?

M. Yann Lescop, responsable projets et études. Concernant la récente attaque au couteau impliquant un étudiant ciblant apparemment explicitement de jeunes femmes, notre utilisation de l’outil visait à identifier le manifeste en ligne. À des fins de recherche, il est intéressant pour nous de disposer du matériel de l’extrémisme violent en ligne. J’ai lancé cette recherche hier, donc je n’ai pas encore de résultats à vous communiquer.

M. le président Arthur Delaporte. Nous sommes intéressés par tous les éléments que vous pourrez nous fournir sur ces analyses, notamment concernant la spécificité de TikTok.

M. Yann Lescop, responsable projets et études. Concernant la philosophie et la régulation des plateformes en général, nous avons beaucoup évoqué le DSA, qui constitue le cadre dans lequel nous opérons et qui nous fournit des mécanismes d’intervention. Cependant, il est important de souligner que la France a la possibilité d’aller au-delà des règlements de l’Union européenne. Cela a déjà été fait, il y a un an, avec l’adoption de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique qui encadre les deepfakes et la diffusion de deepfakes à caractère sexuel. Des infractions ont été créées sur ce point.

Aujourd’hui, la question cruciale, tant au niveau international qu’en France, concerne la vérification de l’âge et la régulation de l’accès aux réseaux sociaux en fonction de l’âge des utilisateurs. Pour nous, le préalable essentiel est la mise en place de mécanismes de vérification d’âge bien implantés. Sans cela, même la création de réseaux sociaux spécifiques pour les enfants ne résoudrait pas les problèmes de fond, notamment en termes de protection contre les contenus inappropriés ou les risques de contact avec des pédocriminels.

Dans ce contexte, le rôle des signaleurs de confiance est primordial. Nous avons évoqué précédemment l’importance d’invisibiliser certains contenus dès leur signalement. Nous sommes prêts à prendre toute notre part dans ce projet.

Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Nous n’avons pas assez évoqué les contenus qui ne sont manifestement pas illicites, mais qui sont vraiment préjudiciables et nocifs.

La diffusion non consensuelle de contenus intimes est un exemple. Nous sommes un peu seuls face à cette problématique. Si le contenu est explicite et implique un mineur, il est rapidement traité. Toutefois, lorsque le contenu implique un adulte, il existe un manque de dispositifs aux niveaux national, européen et international concernant le retrait de ces contenus. L’absence de caractère manifestement illicite empêche les autorités d’agir pour le retrait. Nous sommes confrontés à des situations où l’hébergeur peut refuser d’agir ou exiger une décision de justice, ce qui peut prendre des années pendant lesquelles la victime continue de subir les conséquences de cette atteinte.

Nous sommes donc favorables à une régulation plus stricte sur ce type de contenu. Certains pays ont déjà pris des initiatives en ce sens. Le Royaume-Uni, par exemple, a mis en place des obligations de détection proactive pour certains types de contenus. Aux États-Unis, le Congrès vient d’approuver le Take It Down Act, qui impose aux hébergeurs de retirer ces contenus dans un délai de 48 heures lorsqu’ils sont signalés par la victime ou une association d’aide aux victimes. Nous préconisons d’aller plus loin en renforçant les pouvoirs des signaleurs de confiance, ce qui permettrait d’obtenir des résultats plus concrets en matière de retrait de contenus et d’apporter un soutien plus efficace aux victimes.

M. Stéphane Vojetta (EPR). Avez-vous identifié des différences entre les plateformes concernant la modération des messageries privées, notamment par rapport à l’envoi non sollicité d’images à caractère intime ? C’est notamment dans ces messageries privées qu’ont tendance à se développer les phénomènes de harcèlement.

M. Yann Lescop, responsable projets et études. Tout d’abord, concernant les réseaux sociaux classiques, tels que TikTok, Instagram ou Snapchat, nous n’avons effectivement pas accès aux messageries privées, s’agissant de conversations entre deux utilisateurs. Notre réponse à cette problématique réside dans l’utilisation de Disrupt, une base de données accessible aux grandes plateformes permettant de bloquer la transmission de certains contenus, même dans les messageries privées, agissant ainsi au niveau des systèmes pour répondre à ce besoin.

Ensuite, pour les réseaux sociaux fonctionnant sur ce modèle, comme Telegram, nos analystes sont habilités à intégrer, via des liens d’invitation, des canaux effectuant de la diffusion non consentie de contenus intimes. Récemment, en collaboration avec l’association StopFisha, nous avons réussi à faire fermer un canal de 200 000 personnes qui exposait des personnes haïtiennes.

Enfin, il est important de noter que, depuis environ six mois, nous sommes reconnus comme signaleur de confiance auprès de Telegram, bien que l’application ne soit pas soumise à la régulation de la Commission européenne. Telegram n’est pas encore reconnu comme un grand réseau social, mais cela ne nous empêche pas d’avoir des moyens d’action, que nous tissons unilatéralement avec certaines entités.

M. le président Arthur Delaporte. Je vous remercie infiniment pour votre contribution, vos travaux, vos diverses recherches et les actions que vous menez quotidiennement.

30.   Audition du Docteur Jean-Marcel Mourgues, vice-président du Conseil national de l’ordre des médecins (CNOM), et des médecins présents sur TikTok : Docteur Raphaël Dachicourt, président du collectif ReAGJIR), Docteure Nawale Hadouiri, praticien hospitalo-universitaire en médecine physique et réadaptation au centre hospitalier universitaire de Dijon, Mme Marion Joud, co-fondatrice de Elema Agency, M. Baptiste Carreira Mellier, psychologue et neuropsychologue, et Mme Sophia Rakrouki, sage-femme (jeudi 22 mai 2025)

La commission auditionne conjointement le Docteur Jean-Marcel Mourgues, vice-président du Conseil national de l’ordre des médecins (CNOM), et des médecins présents sur TikTok : Docteur Raphaël Dachicourt, président du collectif ReAGJIR), Docteure Nawale Hadouiri, praticien hospitalo-universitaire en médecine physique et réadaptation au centre hospitalier universitaire de Dijon, Mme Marion Joud, co-fondatrice de Elema Agency, M. Baptiste Carreira Mellier, psychologue et neuropsychologue, et Mme Sophia Rakrouki, sage-femme ([29]).

M. le président Arthur Delaporte. Mes chers collègues, nous reprenons nos auditions avec une table ronde regroupant plusieurs professionnels de santé et collectifs de médecins qui apportent la contradiction et rétablissent la vérité face aux allégations médicales, parfois dangereuses, sur les réseaux sociaux. Je vous remercie pour votre engagement à apporter une parole de santé publique.

Permettez-moi d’accueillir :

• Dr Jean-Marcel Mourgues, vice-président du Conseil national de l’ordre des médecins (Cnom),

• Dr Raphaël Dachicourt, président du collectif ReAGJIR,

• Dre Nawale Hadouiri, praticien hospitalo-universitaire en médecine physique et réadaptation au centre hospitalier universitaire (CHU) de Dijon,

• Mme Marion Joud, cofondatrice de Elema Agency,

• M. Baptiste Carreira Mellier, psychologue et neuropsychologue,

• et Mme Sophia Rakrouki, sage-femme.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

Avant de vous céder la parole, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Dr Jean-Marcel Mourgues, Dr Raphaël Dachicourt, Dre Nawale Hadouiri, Mme Marion Joud, M. Baptiste Carreira Mellier et Mme Sophia Rakrouki prêtent serment.)

Dr Jean-Marcel Mourgues, vice-président du Cnom. J’interviendrai en qualité de représentant du Conseil national de l’ordre des médecins (Cnom), au sein duquel je suis chargé de la communication par délégation. J’ai notamment travaillé avec la présidente de la section santé publique sur une charte avec YouTube, qui a eu une certaine publicité.

Le Cnom, principalement par sa section santé publique, traite des signalements émis essentiellement par des particuliers, des médecins ou la mission interministérielle de vigilance et de lutte contre les dérives sectaires (Miviludes). Il est important de préciser que nous n’avons pas de pouvoir de police et ne disposons pas des moyens pour surveiller les réseaux sociaux.

Concernant TikTok, nous constatons fréquemment des actes à visée esthétique illégaux, impliquant principalement des injectrices de toxines botuliques et d’acides hyaluroniques. La difficulté majeure réside dans l’identification des auteurs, qui utilisent généralement des pseudonymes. Le Cnom a pensé créer un faux compte pour traquer les auteurs de tels agissements, mais s’est heurté, en interne, à un avis défavorable du délégué à la protection des données et des services informatiques. Le Cnom demande aux auteurs des signalements de fournir des captures d’écran ou les adresses où ces actes délictueux seraient effectués afin de pouvoir, le cas échéant, saisir le procureur de la République. Les adresses sont parfois fixes, mais peuvent également être éphémères, dans des hôtels par exemple. La section santé publique traite de tels signalements au moins une fois par semaine.

Nous avons été très impliqués sur les réseaux sociaux pendant la longue période de la covid-19, qui a été un catalyseur.

Concernant les fausses informations en matière de santé, notre expérience montre qu’Instagram et YouTube sont davantage impliqués que TikTok. C’est d’ailleurs ce qui nous a incités à élaborer une charte avec YouTube, dont les représentants se sont montrés très compréhensifs et collaboratifs.

Ces fausses informations émanent souvent de prétendus médecins, certains n’hésitant pas à utiliser le titre de docteur ou de scientifique tout en révélant rarement leur véritable identité.

En ce qui concerne les mineurs, bien que cela ne soit pas spécifique à TikTok, nous sommes particulièrement vigilants sur les messages relatifs aux enfants autistes, notamment ceux diffusés par des médecins ou prétendus médecins aux pratiques particulières.

TikTok s’est davantage polarisé sur des propositions d’actes à visée esthétique. Nous pensons que la raison est que l’application se distingue par sa forte popularité auprès des adolescents, une population vulnérable. Nous observons, tant dans nos fonctions au sein du Cnom que dans notre pratique médicale, une augmentation des troubles alimentaires, des troubles dépressifs, des automutilations et des préoccupations à visée esthétique chez cette population. Une psychologue m’a confirmé que les demandes d’adolescents concernent souvent des interventions à visée thérapeutique. Nous constatons des problèmes de déscolarisation, de désocialisation et d’addictions multiples, y compris aux réseaux sociaux.

Récemment, nous avons signé une charte avec YouTube établissant dix règles de bonne conduite pour les médecins-influenceurs. Cette initiative, sollicitée par des médecins-influenceurs eux-mêmes, vise à leur permettre d’avoir un rôle de santé publique vis-à-vis des publics de ces réseaux sociaux.

Mme Marion Joud, cofondatrice de Elema Agency. En tant que directrice générale de l’agence Elema, qui dispose d’un département dédié à l’accompagnement des professionnels de santé, je suis présente aujourd’hui pour représenter deux professionnels de notre agence. Notre rôle consiste à les accompagner dans leurs activités sur les réseaux sociaux en tant que médecins-influenceurs.

Nous sommes également adhérents à l’Union des métiers de l’influence et des créateurs de contenu (Umicc), une organisation qui a fortement travaillé sur ces questions.

Nous nous réjouissons de ces initiatives visant à développer des chartes de bonne conduite, comme celle déjà mise en place avec YouTube, qui a été très bien accueillie.

M. Baptiste Carreira Mellier, psychologue et neuropsychologue. Je suis psychologue clinicien exerçant en cabinet. Je reçois des patients en population pédiatrique, de 6 à 18 ans et au-delà. Parallèlement, je crée de la vulgarisation autour de la psychologie. Je rappelle que je ne suis pas médecin, mais bien psychologue. Je suis confronté quotidiennement aux problématiques liées aux réseaux sociaux et à l’utilisation excessive des écrans et des téléphones.

J’ai mené une analyse des études scientifiques sur le sujet. Sans surprise, ces recherches mettent en évidence des liens de corrélation entre l’utilisation des écrans et la santé mentale, notamment en termes de dépression, d’anxiété et de stress. Les résultats sont significatifs, avec une taille d’effet modérée, ce qui semble révéler un véritable impact.

Ma démarche de vulgarisation sur les réseaux sociaux vise à rendre la psychologie plus accessible et à la démystifier. La psychologie est avant tout une discipline scientifique et la santé mentale une grande cause nationale. Je souhaitais montrer que, loin d’être un panier garni réunissant des sciences plus ou moins alambiquées, la psychologie est une science rigoureuse qui suit des recommandations de santé, notamment celles de la Haute Autorité de santé (HAS), et que notre démarche est de nous inscrire le plus possible dans le parcours médical, en collaborant avec les psychiatres, les médecins et les institutions.

Je constate d’importantes dérives dans la création de contenus sur les plateformes comme TikTok. Les algorithmes favorisent malheureusement les contenus polémiques, générant plus d’engagement, au détriment d’un discours scientifique rigoureux. Par exemple, aborder des sujets complexes, comme le rôle du lobe préfrontal dans le trouble du déficit de l’attention avec hyperactivité (TDAH) et ses implications dopaminergiques ne suscite que peu d’intérêt auprès du grand public. Il est essentiel de comprendre que la psychologie, comme la santé en général, ne propose pas de solutions miracles. Les parcours thérapeutiques sont souvent longs, laborieux et compliqués. Malheureusement, les réseaux sociaux encouragent la recherche de solutions miracles en une minute. Nous ne sommes donc pas toujours mis en avant et nous trouvons donc sur la même ligne que les autres créateurs de contenu, alors que nous essayons de sourcer nos propos.

Cette situation a des conséquences. J’ai reçu en consultation une adolescente de 14 ans persuadée d’avoir un trouble borderline. Or ce type de trouble n’est pas diagnostiqué à 14 ans, encore moins chez un psychologue qui n’en a pas le droit. Elle m’a expliqué qu’elle a reçu ce diagnostic de sa « psychologue » faisant de la création de contenu sur les réseaux sociaux. En réalité, cette personne est thérapeute et propose, par le biais des réseaux sociaux ou de sites internet, des consultations.

Ce cas illustre parfaitement les problématiques auxquelles nous sommes confrontés : l’auto-diagnostic basé sur des informations trouvées en ligne – concernant particulièrement le TDAH, le haut potentiel intellectuel (HPI), le haut potentiel émotionnel (HPE), les addictions ou les troubles du comportement alimentaire (TCA) –, l’automédication inspirée par des tendances sur les réseaux sociaux et l’errance, entraînant un retard avant la consultation d’un psychologue ou, mieux encore, d’un psychiatre.

Mme Sophia Rakrouki, sage-femme. J’exerce en tant que sage-femme depuis huit ans au sein de l’hôpital de l’Assistance publique – hôpitaux de Paris (AP-HP) Jean-Verdier, où je coordonne le service de préservation de la fertilité pour des raisons médicales, notamment oncologiques. Concrètement, notre mission consiste à trouver rapidement la meilleure solution pour préserver la fertilité des patients, comme récemment pour une patiente diagnostiquée d’un cancer trois jours avant sa consultation. Parallèlement, j’ai développé depuis environ un an et demi ou deux ans une pratique libérale à hauteur de 20 % de mon temps de travail, soit une journée par semaine.

Depuis un an et demi, je prends la parole sur les réseaux sociaux, motivée par l’évolution législative de la loi n° 2021-1017 du 2 août 2021 relative à la bioéthique ouvrant la possibilité à toutes les femmes de 29 à 37 ans de congeler leurs ovocytes, qui a considérablement accru la charge de travail des centres de procréation médicalement assistée (PMA), déjà saturés. Face à cette situation, nous avons dû adapter nos pratiques, notamment en recourant à la téléconsultation, ce qui a malheureusement conduit à une prise en charge non optimale, les patientes ne se rendant à l’hôpital que le jour de l’intervention. Nous avons essayé d’en parler avec le service communication, mais ce type de démarche prend du temps. Ainsi, j’ai pris l’initiative d’offrir une information sur le parcours de soins afin d’améliorer la prise en charge en interne. J’ai constaté sur ces plateformes une prolifération de comptes traitant de santé, dont beaucoup ne sont pas tenus par des professionnels. Cependant, il est encourageant de noter que les comptes gérés par des professionnels de santé gagnent rapidement en visibilité, car ils répondent à un besoin d’information dû aux déserts médicaux et à la diminution du nombre de gynécologues, mais aussi de sages-femmes et de médecins généralistes assurant un suivi gynécologique.

Au regard de ces éléments, j’ai pensé qu’il est important de diffuser ces informations. J’ai choisi le réseau social Instagram en raison de mon âge. À 32 ans, je ne consulte pas spontanément les sites officiels de l’État, bien qu’ils soient de qualité. Les retours positifs reçus sur Instagram m’ont encouragée à étendre ma présence à TikTok, où les vidéos sont plus longues et où les lives offrent une diffusion beaucoup plus étendue. Cette amplification présente à la fois des avantages et des risques : elle permet de toucher rapidement un large public avec des informations pertinentes, mais peut également propager massivement des informations erronées.

Mon expérience sur ces plateformes m’a confrontée à un tsunami de désinformation. J’ai observé un millier de comptes promouvant des compléments alimentaires censés déboucher les trompes, donner 98 % de chances d’avoir un enfant ou améliorer la qualité des ovocytes. Certains compléments alimentaires « prophétiques » intègrent même un aspect religieux. J’ai également vu des offres pour des « coachings en fertilité ». Si je ne constate pas une usurpation du titre de médecin ou de sage-femme, de prétendus « experts en cycle » ou « experts en fertilité » proposent des prestations à plusieurs centaines ou milliers d’euros. Ces pratiques retardent la prise en charge médicale des patientes, impactent négativement leur état psychologique et, potentiellement, réduisent leurs chances de grossesse.

De plus, j’ai constaté l’émergence d’une méfiance inquiétante envers les professionnels de santé. J’ai entendu des affirmations sans nuances, qui ne tiennent pas compte de l’évolution constante de la recherche médicale. Mon objectif sur ces réseaux sociaux est donc de fournir des informations fiables tout en développant l’esprit critique des utilisateurs.

Enfin, une patiente m’a récemment alertée sur un nouveau phénomène préoccupant : l’utilisation de l’intelligence artificielle pour créer des contenus, rendant encore plus difficile la distinction entre le vrai et le faux.

M. Raphaël Dachicourt, président du collectif ReAGJIR. Je suis président du syndicat ReAGJIR, représentant les jeunes médecins généralistes. Début mars, nous avons lancé la campagne de communication « Health Buster », visant à déconstruire certains conseils de santé jugés dangereux, notamment diffusés sur TikTok.

Un sondage IFOP de 2023 révèle que 49 % des 15-24 ans utilisent TikTok quotidiennement, que 59 % s’en servent comme moteur de recherche, qu’une proportion similaire le considère comme une plateforme d’apprentissage comme une autre et que 45 % ne vérifient pas les informations qu’ils y trouvent.

Ces données corroborent ce que nous, médecins généralistes, observons dans nos cabinets. Les réseaux sociaux sont devenus de nouveaux canaux d’information sur la santé, prenant une ampleur sans précédent ces dernières années. Ce phénomène s’inscrit dans un contexte de contournement du système de soin et de défiance envers les professionnels de santé. Les difficultés d’accès aux soins peuvent également jouer, renforçant l’utilisation de ces nouveaux outils.

On trouve sur ces plateformes des conseils non seulement inutiles, mais particulièrement dangereux. Nous avons, par exemple, pu alerter sur les risques liés à l’ingestion de térébenthine.

La diffusion de ces contenus s’appuie sur des leaders d’opinion, avec un effet de tendance. La popularité d’un contenu dépasse malheureusement sa légitimité aux yeux des utilisateurs pour juger de sa pertinence. L’algorithme de ces plateformes, en créant un effet de chambre d’écho, renforce les croyances, particulièrement chez les mineurs qui ne disposent pas des clés pour débunker toutes ces idées et sont donc des cibles faciles. Ces leaders d’opinion utilisent des systèmes d’accroche sur des conseils, avec des interprétations simplistes et des arguments d’autorité, qui ne sont pas remis en question.

Face à cette situation, nous estimons qu’il est crucial que les professionnels de santé soient présents sur ces espaces numériques. Nous devons contrebalancer ces messages dangereux par une parole posée et sourcée en dehors des cabinets médicaux. Il est difficile, sur ce type de réseaux sociaux, de nuancer les propos. Pourtant, en matière de santé, comme dans tout domaine scientifique, les nuances sont essentielles. Notre mission est de vulgariser des messages complexes.

C’est ce que nous avons essayé de faire en utilisant les codes des réseaux sociaux dans notre campagne, créée notamment avec l’aide de l’intelligence artificielle. En effet, on constate désormais sur TikTok l’apparition de comptes usurpant l’identité de médecins — parfois même de praticiens connus — pour promouvoir des produits prétendument miraculeux. J’ai observé sur TikTok des vidéos utilisant l’image du docteur Marine Lorphelin ou du docteur Didier Raoult, pour vanter les mérites du shilajit, une résine présentée comme miraculeuse, bien qu’aucune donnée n’appuie cette idée.

Ces désinformations concernent principalement la santé mentale ou des maux du quotidien, avec la promotion de purges ou de cures détox. Ces messages s’appuient souvent sur des idées liées au naturel, reflétant une certaine défiance envers la médecine allopathique actuelle.

Dr Nawale Hadouiri, praticien hospitalo-universitaire en médecine physique et de réadaptation au CHU de Dijon. Je suis praticien hospitalo‑universitaire en médecine physique et de réadaptation, spécialisée en neurologie, au CHU de Dijon. Je suis également créatrice de contenu sur diverses plateformes, telles que TikTok, Instagram et YouTube. Je n’ai aucun conflit d’intérêts ni partenariat financier à déclarer. De plus, j’ai participé à l’élaboration de la charte de bonnes pratiques pour les médecins-créateurs de contenu, aux côtés de représentants du Cnom, d’experts YouTube et d’autres confrères.

Notre objectif initial, en tant que professionnels de santé sur les réseaux sociaux, est de diffuser une information de qualité, scientifiquement validée, référencée, sourcée et conforme aux recommandations nationales. Mon but personnel était de faire connaître ma spécialité, la médecine physique et de réadaptation neurologique. J’ai constaté un intérêt croissant du public pour des questions relatives aux pathologies neurologiques et aux situations de handicap, domaines où la désinformation se propage.

Au fil de mon activité de production de bonnes informations, j’ai été amenée à réagir à des vidéos de désinformation afin de rétablir la vérité. À la suite de la période covid-19, nous avons vu une accélération exponentielle de la création de contenu, rendant difficile l’identification des vidéos trompeuses. Il est important de noter que la production de désinformation est bien plus rapide que celle relayant des informations de qualité et que les fausses nouvelles se propagent plus vite que les informations fiables. Dans ce contexte, le rôle des professionnels de santé, notamment des médecins, dans le débunkage est crucial.

La charte mentionnée vise à rétablir la balance en objectivant le rôle des médecins dans la création de contenu sur les réseaux sociaux, en leur donnant des règles de bonnes pratiques pour produire une information médicale de qualité.

La plateforme TikTok présente des spécificités notables.

Les contenus sensationnels et les challenges sont ceux qui génèrent le plus de likes et d’interactions, ce qui tend à propulser les fausses informations au premier plan. Pour qu’une vidéo de désinformation soit visible, elle doit devenir virale, ce qui constitue un premier danger.

Je note, sur TikTok, une présence très importante de non-professionnels de santé diffusant des contenus, parfois teintés d’un esprit complotiste à l’égard de la communauté des soignants. Ces personnes peuvent prodiguer des conseils pour éloigner des bonnes pratiques, avec un esprit presque sectaire.

Un autre danger de cette plateforme est que je constate que certains professionnels de santé et de l’éducation, qui devraient être des sources fiables d’information pour les mineurs notamment, se laissent parfois entraîner dans la promotion de désinformation. Il est crucial de rester critique, même envers les contenus produits par certains professionnels à la recherche de popularité.

TikTok est l’une des plateformes les plus utilisées par les jeunes, avec plus de 60 % des moins de 30 ans qui y sont présents et un temps de visionnage moyen dépassant 3 heures par jour. Cette popularité exige donc une vigilance accrue et des mesures pour cette plateforme, en raison de ses spécificités.

Mme Laure Miller, rapporteure. Nous serions tentés de décentrer quelque peu le propos et de vous interroger sur l’impact des réseaux sociaux et du numérique sur la défiance de certains citoyens envers la médecine et la santé en général. En effet, les professionnels de santé rapportent que des patients arrivent en consultation avec un diagnostic préétabli, basé sur leurs recherches, accordant parfois plus de crédit à leur ordinateur qu’à l’avis médical.

Cependant, dans la mesure où notre commission d’enquête se concentre sur TikTok, j’aimerais approfondir certains points.

Tout d’abord, pouvez-vous expliciter en quoi TikTok pourrait être plus problématique que les autres réseaux sociaux ?

Ensuite, nous constatons que l’algorithme conduit à la mise en avant des contenus les plus problématiques. Avez-vous des discussions relatives à la stratégie afin de concurrencer les contenus problématiques ? Privilégiez-vous des contenus positifs pour expliquer des sujets de santé ou créez-vous des contenus visant à contrer de fausses informations qui circulent ?

Prenons l’exemple du Paracétamol Challenge, qui incite à ingérer une quantité excessive de paracétamol pour finir aux urgences. Avez-vous envisagé de produire des contenus expliquant les conséquences graves de cette pratique, y compris les dommages cérébraux potentiels, même en l’absence de décès ? Avez‑vous réussi à réfléchir à des façons de concevoir des contenus plus percutants et moins nuancés pour concurrencer ces défis dangereux ? Avez‑vous identifié certains types de contenus ayant mieux fonctionné que d’autres ?

Mme Sophia Rakrouki, sage-femme. J’ai récemment mené une expérience en recherchant le terme « infertilité » sur YouTube, TikTok et Instagram. Sur YouTube, j’ai constaté que les contenus de professionnels de santé labellisés étaient mis en avant, reléguant les informations non vérifiées en bas de page. En revanche, sur Instagram et TikTok, les résultats prioritaires étaient des vidéos virales, souvent axées sur la peur et les tendances du moment.

Concernant notre approche pour concurrencer ces contenus, c’est une question difficile. Il est complexe de donner une information scientifique légère. Chaque mot a son importance et peut modifier significativement le message. Condenser une explication médicale en 30 secondes, format privilégié par l’algorithme, s’avère difficile.

Notre stratégie consiste à débunker des vidéos virales. J’ai personnellement eu l’occasion de le faire à deux reprises, pour une vidéo virale affirmant à tort que l’Antadys, utilisé en cas de suspicion d’endométriose ou de règles douloureuses, causait la stérilité et une vidéo prétendant que la pilule contraceptive provoquait forcément le cancer, exposant potentiellement les femmes à des interruptions volontaires de grossesse (IVG) répétées. Notre méthode consiste à décortiquer ces vidéos, en nous appuyant sur des études scientifiques. Cependant, ce processus est chronophage et empiète souvent sur notre temps personnel.

M. Baptiste Carreira Mellier, psychologue et neuropsychologue. Nous utilisons en effet tous cette approche de recontextualisation. Cependant, il n’existe pas de gros compte de désinformation comptant des centaines de milliers d’abonnés et faisant des millions de vues, mais plutôt des milliers de petits comptes, rendant impossible une réfutation systématique, car nous passerions nos journées à jouer à la police.

Hier soir, j’ai repéré une vidéo déconseillant formellement le traitement médicamenteux pour le TDAH, qui a suscité un fort engagement. J’ai signalé ce contenu, mais je pense qu’il serait crucial que les signalements émanant de professionnels de santé identifiés par leur numéro du répertoire partagé des professionnels de santé (RPPS) soient traités en priorité et conduisent à une suppression plus rapide des contenus.

La création de contenus de réfutation est extrêmement chronophage et peut parfois attirer un lot de commentaires négatifs et peu agréables à lire. Face à cette situation, nous pouvons être tentés de privilégier la diffusion de contenus de prévention et de sensibilisation plutôt que la déconstruction de ces tendances, qui me semble impossible à niveau.

Mme Marion Joud, cofondatrice de Elema Agency. Dans le cadre de mon activité en agence, je réalise un important travail de communication et de présentation auprès des différents acteurs de santé publique pour devenir une référence. Les professionnels de santé ne peuvent consacrer tout leur temps à surveiller les réseaux sociaux. C’est pourquoi nous les accompagnons pour travailler sur les réseaux sociaux, leur permettant ainsi de se concentrer sur leurs consultations et leurs patients.

Nous essayons de prendre attache avec certaines autorités pour collecter les alertes et les informations. Nous transmettons ainsi régulièrement aux professionnels de santé des signalements et des actualités importantes sur les réseaux sociaux, leur permettant de réagir rapidement si le sujet relève de leur expertise et si leur emploi du temps le permet. Chaque semaine, nous recevons quelques alertes et signalements.

Dr Jean-Marcel Mourgues, vice-président du Cnom. Je partage entièrement les propos qui ont été tenus. La situation à laquelle nous sommes confrontés est extrêmement complexe, avec des déterminants multifactoriels et protéiformes. Il est impératif d’adopter une vision systémique.

Premièrement, il est crucial d’agir dès la petite enfance. La surexposition aux écrans affecte le neurodéveloppement et la plasticité cérébrale, favorisant ainsi la vulnérabilité. Nous constatons une augmentation des troubles de l’attention, de la concentration et de la persévérance chez les enfants. Cette prévention universelle concerne tant le milieu familial que scolaire.

Dans le contexte familial, la tâche s’avère ardue. Avec environ un foyer sur deux étant monoparental ou composé de parents séparés, le recours aux écrans devient une solution de facilité pour gérer les tâches domestiques. De plus, la première génération du numérique, désormais parents, ne montre pas toujours l’exemple requis, comme en témoigne l’omniprésence des smartphones dans les transports en commun.

Concernant la prévention scolaire, il est essentiel d’intervenir dès la maternelle et le primaire. Nous devons revenir aux fondamentaux de l’éducation, car nous observons un déclin de la capacité de raisonnement logique et d’analyse critique chez les enfants. Cette lacune les rend plus vulnérables face à l’exposition aux contenus en ligne.

Les adolescents, principaux consommateurs de TikTok, sont particulièrement exposés. S’ils présentent des troubles de l’attention et n’ont pas développé une structuration de la pensée logique, ils se trouvent dans l’incapacité d’avoir un avis critique et pertinent sur l’information qu’ils pourraient recevoir.

Pour les autres réseaux sociaux, il serait judicieux d’envisager la généralisation de chartes, sans nécessairement les rendre obligatoires – cette décision incombant au législateur. Ces chartes permettraient d’identifier clairement les professionnels de santé signataires et d’améliorer leur référencement. Actuellement, ces professionnels, peu nombreux comparés aux influenceurs, se retrouvent relégués dans les dernières pages des résultats de recherche.

Une multiplicité des moyens est sans doute nécessaire tant la tâche est immense.

Dr Nawale Hadouiri, praticien hospitalo-universitaire en médecine physique et réadaptation au CHU de Dijon. Je rejoins l’avis de mes collègues créateurs de contenu. Avec nos moyens limités, il s’avère extrêmement difficile de contrer toutes les vidéos de désinformation en tant que professionnels de santé. De plus, notre activité quotidienne de soignants ne nous permet pas de consacrer tout notre temps à scroller et à filtrer les contenus problématiques sur les réseaux sociaux.

Concernant notre stratégie pour tenter de démêler le vrai du faux, je produis personnellement environ trois à quatre contenus par semaine, dont au moins une vidéo de débunkage.

La semaine dernière, j’ai découvert le compte TikTok et Instagram d’un professeur de mathématiques suivi par 1,5 million de personnes. Ce dernier a publié une vidéo sur la gestion de l’anxiété, du stress et de la santé mentale, dans laquelle il présentait l’ostéopathie comme solution miracle pour réduire le stress lié aux évaluations scolaires. J’ai été assez choquée par cette affirmation. Ma méthode de débunkage consiste généralement, dans les trente premières secondes, à engager une sorte de « questions-réponses » avec l’auteur de la désinformation, puis j’explique pourquoi l’information est erronée. Les réactions des auteurs initiaux varient : certains gardent le silence, tandis que d’autres, comme ce professeur, refusent toute remise en question. L’ostéopathie n’a pas encore reçu de recommandations de la HAS et sa pratique reste problématique, même si certains ostéopathes s’efforcent d’améliorer leurs pratiques. La vidéo en question, qui a même choqué des ostéopathes, était une promotion déguisée d’une praticienne. J’ai par la suite reçu des messages un peu envahissants.

Lorsque nous faisons du débunkage, nous, professionnels de santé, n’avons pas de défense vis-à-vis des personnes effectuant de la désinformation, n’hésitant pas à utiliser des méthodes d’intimidation. Pour le moment, nous ne disposons pas d’assez de moyens techniques et nous ne sommes pas suffisamment protégés quand nous nous lançons dans ce type d’activité. Ainsi, il peut être compliqué de se lancer dans le débunkage du fait de toutes les conséquences que cela peut occasionner.

M. Raphaël Dachicourt, président du collectif ReAGJIR. Concernant la particularité de TikTok par rapport aux autres réseaux sociaux, cette application se distingue par son audience particulièrement jeune. Les statistiques révèlent que 70 % des 15-17 ans utilisent quotidiennement cette plateforme, avec une durée moyenne d’utilisation de deux heures par jour. Cette tendance contraste nettement avec d’autres réseaux sociaux, comme Facebook, qui attirent davantage la génération des millenials.

De plus, TikTok se caractérise par des contenus courts, privilégiant des idées percutantes pour favoriser la viralité, contrairement à des plateformes comme YouTube où les vidéos sont plus longues.

En tant que professionnels de santé, notre objectif est la santé publique. Cependant, notre approche se heurte souvent à celle de certains influenceurs dont les motivations sont clairement financières. Notre charge de travail quotidienne ne nous laisse ni le temps ni les ressources pour mettre en place une stratégie de débunkage systématique. En outre, en tant que professionnels de santé, nous manquons généralement des compétences nécessaires, bien que certains collègues les aient développées. De notre côté, nous avons fait appel à une agence de communication, reconnaissant que nous n’avions pas les codes et que nous avions besoin d’innover dans ce domaine. Cette démarche nous a fait prendre conscience que nous ne pouvons pas faire le poids face à ces influenceurs.

L’enjeu crucial réside dans le passage du « débunk » au « prébunk ». Le « débunk » consiste à réagir en démontrant pourquoi une idée est erronée. Le « prébunk », quant à lui, vise à sensibiliser en amont à l’esprit critique, en fournissant aux utilisateurs les outils nécessaires pour évaluer la fiabilité des contenus qu’ils rencontrent. Cette stratégie devrait être développée non seulement sur les réseaux sociaux, mais également au sein de l’éducation nationale. Ce sujet semble devenir de plus en plus un enjeu de santé publique.

Mme Laure Miller, rapporteure. Premièrement, pensez-vous qu’il est illusoire d’envisager les réseaux sociaux comme un véritable vecteur de santé publique dans notre pays ? Serait-il envisageable que des institutions s’emparent de ces plateformes pour diffuser des messages fiables ?

Deuxièmement, concernant les signalements effectués par le Cnom ou à titre personnel, obtenez-vous des retours ? Avez-vous le sentiment que vos interventions conduisent effectivement à la suppression des contenus problématiques ?

Enfin, troisièmement, compte tenu de la vulnérabilité des plus jeunes et de leur esprit critique en construction, pensez-vous qu’instaurer une limite d’âge pourrait protéger les publics les plus sensibles des contenus les moins appropriés ?

Dr Jean-Marcel Mourgues, vice-président du Cnom. Il n’existe pas de solution unique.

Concernant l’exposition aux écrans, un communiqué commun de la Société de pédiatrie, de neuropédiatres et de Santé publique France recommande de limiter autant que possible l’exposition des enfants de moins de six ans.

L’éducation joue un rôle crucial. Dans la mesure où l’enjeu est de sauver une génération, il me semble que ce sujet doive être intégré aux objectifs prioritaires des contenus de l’éducation nationale, dès la grande section de maternelle et surtout à l’école primaire, sous une forme plus ou moins ludique. Nous pourrions imaginer des espaces où les apports des réseaux sociaux pourraient être abordés, de façon critique, mais nuancée. Au collège, cette approche pourrait être approfondie en analysant des exemples concrets des effets pressentis pervers des réseaux sociaux.

Concernant les plateformes comme YouTube et Instagram, nous avons signé une charte. Qu’est-ce qui empêche les autres de suivre cet exemple ? Sans être liberticides, nous devrions leur dire qu’il existe des objectifs communs de bien supérieur de santé publique. Il faudrait leur demander quelle place ces plateformes comptent donner à la promotion de professionnels de santé influenceurs ayant adhéré à une charte, notamment en matière de référencement. L’objectif serait d’intégrer dans ces algorithmes du contenu critique, offrant ainsi aux utilisateurs une perspective alternative.

Bien que je n’aie pas de solution magique, je crois qu’il ne faut pas être défaitistes. Il est essentiel que tous les acteurs concernés, y compris les législateurs, se réunissent pour élaborer des stratégies efficaces.

Mme Sophia Rakrouki, sage-femme. Tout d’abord, nous sommes face à un enjeu de santé publique. Notre impact quotidien se manifeste à travers les nombreux messages de remerciement que nous recevons et les témoignages de personnes qui nous abordent dans la rue pour nous dire que nous avons changé leur prise en charge. Cela confirme que nous avons notre place et que cette approche constitue l’avenir.

Cependant, nous avons souvent un temps de retard sur les évolutions numériques, nous plaçant en position réactive. Il serait judicieux d’organiser des réunions afin d’être en avance et d’avancer ensemble, plutôt que de subir. Actuellement, nous réagissons aux défis posés par les réseaux sociaux, mais nous devrions déjà nous préparer aux enjeux liés à l’intelligence artificielle, notamment en termes d’esprit critique.

Concernant les signalements, le problème principal réside dans la capacité du grand public à identifier la désinformation. Si le signalement de contenus manifestement violents ne pose généralement pas de difficulté, la détection de fausses informations médicales nécessite souvent des connaissances spécifiques. Par conséquent, seule une poignée de professionnels de santé actifs sur les réseaux sociaux effectue ces signalements, ce qui limite leur impact. Pour être efficace, le système d’alerte devrait mobiliser un plus grand nombre d’utilisateurs. Une solution potentielle serait d’accorder un poids plus important aux signalements émanant de professionnels de santé référencés. Lorsque nous qualifions une information de désinformation, c’est qu’elle l’est très certainement.

Enfin, l’impact de TikTok sur les jeunes est indéniable, mais il ne se limite pas à eux. Mes statistiques sur TikTok révèlent une audience diversifiée, incluant des parents. J’ai récemment eu une conversation révélatrice avec ma tante, âgée d’une quarantaine d’années, qui m’a partagé une vidéo TikTok manifestement générée par intelligence artificielle, sans pouvoir discerner sa nature artificielle. Cela démontre que la problématique concerne l’ensemble de la population, pas uniquement les jeunes. Il est donc impératif d’informer et d’éduquer, quel que soit l’âge.

M. Baptiste Carreira Mellier, psychologue et neuropsychologue. Nous avons notre place sur les réseaux sociaux, même si nous ne pouvons pas faire face.

Nous avons tous expérimenté la frustration des signalements qui n’aboutissent qu’à un simple message : « merci d’avoir signalé ». Nous pourrions disposer de davantage d’outils, notamment une reconnaissance de nos numéros de répertoire partagé des professionnels de santé (RPPS) et une certification. Nous jouons le jeu de la création de contenu. Nous pourrions donc également jouer le jeu d’effectuer une veille des réseaux sociaux, en consultant et signalant les contenus problématiques.

Concernant l’éducation au numérique dans les établissements scolaires, ne pourrions-nous pas envisager de l’intégrer directement sur les réseaux sociaux ? Par exemple, lors de la création d’un compte pour mineur, un quiz ou une vidéo de prévention pourrait être proposé, sensibilisant aux risques potentiels. Cette approche pourrait s’inspirer de l’évolution des pratiques dans le domaine sportif, où certaines associations ont remplacé l’exigence d’un certificat médical par un quiz, libérant ainsi des créneaux de consultation médicale.

Dans ma pratique clinique, je constate les effets néfastes de la surexposition aux écrans, souvent chez les jeunes patients que je reçois pour des hypothèses de diagnostic de TDAH. Après cinq minutes d’utilisation d’écrans en salle d’attente, leur capacité d’attention est considérablement altérée, nécessitant des adaptations pendant la consultation. J’insiste auprès des parents sur l’importance de limiter l’usage des écrans avant les rendez-vous.

Notre rôle, tant en consultation que sur les réseaux sociaux, est d’informer. Il serait judicieux d’envisager un système de signalisation distinctif pour les contenus de santé, similaire à ce qui a été mis en place pendant la pandémie de covid-19. Une bannière d’alerte pourrait rediriger vers des sources d’information gouvernementales fiables dès qu’un contenu relatif à la santé est abordé.

Dr Nawale Hadouiri, praticien hospitalo-universitaire en médecine physique et réadaptation au CHU de Dijon. Concernant l’utilisation des réseaux sociaux comme outil de santé publique, notre engagement en tant que professionnels de santé sur ces plateformes témoigne de leur potentiel. Nous considérons cela comme une nouvelle façon d’exercer notre métier, complémentaire à nos consultations, permettant de diffuser des informations de santé publique au-delà de nos cabinets et des hôpitaux.

Quant à la stratégie à adopter, mon expérience en recherche m’incite à privilégier une approche préventive, en commençant par une information primaire ciblant à la fois les enfants, les adolescents et leurs parents. Les sondages IFOP révèlent que de nombreux parents ne savent pas utiliser ou n’utilisent pas les outils de contrôle parental disponibles, soit par manque de connaissance, soit par difficulté à les intégrer avec leurs enfants. Il est donc crucial d’inclure les parents dans la boucle de décision pour les rendre acteurs du chemin de leurs enfants. Des programmes éducatifs doivent être mis en place, que ce soit via des plateformes ou dans le cadre de travaux dirigés. L’objectif est de créer un programme pour les enfants et les parents. Nous pourrions nous inspirer des pays nordiques, plus avancés sur ces questions. Par exemple, le programme éducatif néerlandais sur ce thème pourrait être adapté au contexte français.

Afin de contrer la désinformation, il est nécessaire d’indiquer les contenus fiables. YouTube, par exemple, a lancé un programme de labellisation des professionnels de santé, avec la mise en évidence de leur numéro RPPS. Cette initiative pourrait être étendue à TikTok et à d’autres plateformes, permettant ainsi aux utilisateurs d’identifier facilement les comptes de professionnels de santé.

Il est également nécessaire de développer des moyens techniques pour lutter contre les contenus inappropriés. Nous devons réfléchir à la manière de faire comprendre aux créateurs de ces contenus qu’ils font fausse route. Dans la mesure où nous sommes en France, il faudra peut-être envisager des sanctions, y compris pénales, pour les récidivistes. Bien que les plateformes doivent être tenues responsables, les créateurs de ces contenus doivent également comprendre que leur production n’est pas sans conséquence.

Il est donc impératif de trouver une approche pour cibler toutes les problématiques et, surtout, prévenir ces dérives qui affectent toute une génération.

M. le président Arthur Delaporte. Avez-vous un exemple de contenu que vous auriez signalé à TikTok et qui n’aurait pas été retiré ?

Dr Nawale Hadouiri, praticien hospitalo-universitaire en médecine physique et réadaptation au CHU de Dijon. Il s’agit notamment de contenus liés à des challenges. J’en ai signalé de nombreux, qu’ils soient peu ou très visionnés. Par exemple, j’ai récemment vu une vidéo relative au « Labello Challenge ». Des adolescents appliquent du baume à lèvres et, à chaque événement négatif dans leur vie, ils en coupent une partie. J’avais pu lire dans les médias que ce défi pouvait parfois mener à des idées à tendance suicidaires une fois le baume entièrement consommé. Ce type de défi existe depuis environ un mois et de nombreuses vidéos y sont consacrées. J’ai également signalé des défis liés à des régimes dangereux, comme la suppression totale du sucre. Malgré mes signalements, je n’ai jamais reçu de message ni constaté leur retrait de ces vidéos.

Mme Sophia Rakrouki, sage-femme. Pour ma part, j’ai signalé une publicité pour un complément alimentaire « prophétique », censé résoudre tous les problèmes de fertilité. Malgré mon signalement, la vente de ce produit se poursuit.

Dr Jean-Marcel Mourgues, vice-président du Cnom. Le Cnom souhaiterait bénéficier, au même titre que d’autres institutions et acteurs, d’une voie prioritaire pour les signalements. Nous demandons également que les signalements ne restent pas sans réponse et qu’une réponse argumentée soit fournie dans les meilleurs délais.

Lors de notre unique rencontre avec TikTok, on nous a expliqué qu’ils utilisent des analyses par intelligence artificielle pour examiner leurs contenus, avec une seconde lecture humaine pour les contenus suspects. Cependant, certains contenus nous semblent très suspects.

Nous sommes conscients que certains utilisateurs peuvent fermer un compte et en ouvrir un autre sous un pseudonyme différent. Néanmoins, nous demandons cette facilité d’alerte et l’obligation d’un retour dans les meilleurs délais, afin d’éviter des semaines d’attente pour obtenir une réponse aléatoire.

Mme Marion Joud, cofondatrice de Elema Agency. Je souhaite ajouter que nous sommes actuellement confrontés à un problème : des vidéos sur TikTok mettant en scène le docteur Marine Lorphelin sont générées par intelligence artificielle pour promouvoir des compléments alimentaires douteux. Cela fait déjà une à deux semaines que nous signalons ces contenus. Marine utilise ses autres réseaux sociaux pour inciter son audience à les signaler également. Malgré cela, à ce jour, tout est encore en ligne. Je reçois des messages de personnes ne voyant pas que le contenu a été créé à l’aide d’une intelligence artificielle et disant avoir acheté ces produits. Il existe clairement un business qui s’est développé autour de cette pratique.

M. le président Arthur Delaporte. J’adresse un message aux affaires publiques de TikTok, qui suivent probablement cette audition avec intérêt. Si ces contenus sont toujours présents dans deux semaines, lors de notre rencontre avec TikTok, nous ne manquerons pas de les interroger sur l’absence de réponse aux signalements. N’hésitez pas à nous informer de la situation juste avant l’audition de TikTok.

Au nom de mes collègues, je vous remercie pour votre engagement, même si cela peut parfois sembler décourageant. Heureusement que ce type de contenu positif existe pour tenter de contrebalancer la masse de désinformation. Nous espérons que les algorithmes évolueront pour mettre en valeur ces contenus positifs ainsi que pour modérer et retirer les contenus problématiques. C’est dans cette direction que nous essayons d’orienter nos efforts.

Je vous remercie pour votre participation à cette audition.

31.   Audition de M. Antonin Atger, écrivain, doctorant chercheur, et Mme Audrey Chippaux, auteure de Derrière le filtre. Enquête sur le système d’influence (2025) (lundi 26 mai 2025)

La commission auditionne conjointement M. Antonin Atger, écrivain, doctorant chercheur, et Mme Audrey Chippaux, auteure de Derrière le filtre. Enquête sur le système d’influence (2025) ([30]).

M. le président Arthur Delaporte. Nous recevons ce matin M. Antonin Atger, écrivain, doctorant chercheur, et Mme Audrey Chippaux, auteure de Derrière le filtre, Enquête sur le système d’influence (2025).

Madame, monsieur je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Audrey Chippaux et M. Antonin Atger prêtent successivement serment.)

M. Antonin Atger, écrivain, doctorant chercheur. Outre mon travail d’écriture, je suis doctorant chercheur en psychologie sociale, notamment sur le complotisme et la désinformation, à Londres. J’ai été amené à travailler avec Mme Chippaux autour de son livre, parce qu’en élargissant ce cadre de recherche, on rencontre les réseaux sociaux et les influenceurs, avec leur impact sur la santé mentale.

En termes synthétiques, on ne connaît pas de lien de causalité directe entre l’état de santé mentale et l’usage de TikTok. Il est très difficile d’établir un tel lien sur le plan scientifique, car cela supposerait une étude longitudinale dont la réalisation est compliquée. Nous disposons en revanche, et bien que TikTok soit un média encore jeune, d’un nombre croissant d’études « de corrélation », c’est-à-dire montrant que, plus une personne passe de temps sur TikTok, plus elle présentera certains états mentaux. Apparaît ainsi un lien de corrélation entre un usage prolongé de TikTok et, par exemple, l’anxiété, la dépression, une basse estime de soi, le Fomo – peur de passer à côté (fear of missing out) – ou un mauvais sommeil. Cela ne signifie pas pour autant que l’un provoque l’autre. On peut en effet imaginer, par exemple, qu’une personne anxieuse ira plus facilement sur TikTok parce qu’elle a peur du lendemain : le lien est alors dans l’autre sens. D’autres facteurs peuvent aussi influer à la fois sur la santé mentale et sur l’usage de TikTok. Toujours est-il que nous disposons d’un bon nombre de méta-analyses et qu’un consensus entre plusieurs études montre un lien assez fort entre un usage démesuré de TikTok et des troubles mentaux anxieux. On peut donc imaginer que, même s’il n’y a pas de lien direct, l’anxiété d’une personne anxieuse peut être décuplée sur TikTok à cause du contenu qu’elle y trouve. Cela ne concerne toutefois pas seulement TikTok ni les seuls mineurs et, si TikTok peut amplifier ce phénomène, il n’en est pas nécessairement la cause.

TikTok peut avoir aussi des effets bénéfiques, comme on l’a vu par exemple durant la période du covid. De nombreuses études, notamment celle de Mme Laura Marciano et al., montrent par exemple que c’est un lieu de socialisation et de coping apprenant à gérer une situation stressante, un lieu d’identification où les adolescents peuvent, par exemple, expliquer leur quotidien. Durant le confinement, le réseau social permettait de s’identifier et de créer du lien, ce qui est très important en particulier pour les adolescents. Bien utilisé avec des professionnels, TikTok peut ainsi avoir des effets bénéfiques sur la santé mentale.

Je conclurai en évoquant le complotisme et la désinformation. Le complotisme est aussi – et je pense que Mme Chippaux en parlera – un moyen rhétorique utilisé par les influenceurs pour légitimer leur position. Un influenceur qui, par exemple, se fait bannir invoquera le complot pour expliquer ce bannissement, prétendant qu’il dit une vérité qui dérange. Ce phénomène ne se limite d’ailleurs pas aux réseaux et une personne publique pourra tout aussi bien invoquer un complot pour se tirer d’une accusation et se légitimer.

Par ailleurs, sur les réseaux, la désinformation et le complotisme se traduiront, comme le décrit M. Chris Bail dans son livre Le prisme des réseaux sociaux, par une polarisation des gens sur des groupes sociaux très différents, avec beaucoup moins de nuances. Au-delà des états mentaux individuels, c’est là un facteur de fracture de la société, fondé sur l’idée que des gens trop différents les uns des autres ne peuvent pas vivre ensemble. Il faut avoir une vision globale de cet impact social de la polarisation sur les réseaux, qui a de nombreuses explications.

Enfin, le complotisme est relié à deux thématiques très importantes : la dominance de l’orientation sociale, c’est-à-dire l’idée que certains groupes sociaux seraient supérieurs aux autres – soit une forme de racisme –, et l’anomie, qui est le sentiment de ne plus se reconnaître dans la société. Si donc les réseaux accentuent le complotisme, ils peuvent favoriser aussi, au-delà de l’état mental individuel, ce sentiment d’isolement social. C’est là une dimension à creuser pour comprendre l’impact que peuvent avoir les réseaux sociaux au niveau de la société.

Mme Audrey Chippaux, auteure de Derrière le filtre, Enquête sur le système d’influence (2025). Je suis arrivée sur les réseaux sociaux en 2019. Je ne les connaissais pas du tout et je suis très vite tombée sur des comptes d’influenceurs qui pratiquaient dans leurs stories du placement de produits frauduleux. J’ai commencé à poster des publications pour donner l’alerte à propos de ce que je voyais, en considérant que ce serait déjà bien si une ou deux personnes voyaient mes commentaires et n’achetaient pas ces produits, mais il se trouve qu’elles ont été vues beaucoup plus largement et j’ai ainsi été amenée à côtoyer beaucoup de gens qui avaient acheté des produits mais ne les avaient pas reçus, ou à qui l’on avait livré des produits défectueux ou non conformes à leur description.

Je me suis alors intéressée à la pratique illégale de la médecine – compléments alimentaires de toute sorte, injections, par exemple, d’acide hyaluronique pratiquées par des personnes qui ne sont pas médecins – et au placement de produits financiers. Peu à peu, au fil des années, j’ai vu tous les réseaux : Instagram, Snapchat et Twitter. Je pensais que ce dernier était le pire jusqu’à ce que je découvre TikTok, qui est pis encore. J’en suis ainsi venue – et c’est à ce titre que j’ai contacté M. Antonin Atger – à m’intéresser aux phénomènes d’influence, aux biais cognitifs et à notre réaction d’internautes face aux contenus. À cet égard, ce qui vaut pour les adultes est encore plus vrai pour les enfants, qui n’ont pas encore la maturité ni les acquis nécessaires pour percevoir la réalité des contenus disponibles en quantité illimitée sur les réseaux sociaux et qui, dans le cas de TikTok, conduisent très vite vers des aspects négatifs de ce que nous voulons regarder.

Mme Laure Miller, rapporteure. En quoi TikTok est-il, comme vient de le dire Mme Chippaux, pire que les autres réseaux sociaux, notamment Twitter, dans son fonctionnement, dans ses messages et dans les dérives qu’il peut véhiculer ? Quelle est la spécificité de TikTok ?

Mme Audrey Chippaux. Cette spécificité réside dans des vidéos très courtes qui s’enchaînent très vite. Twitter propose plus de textes, même si l’on y trouve aussi des vidéos sur lesquelles on peut cliquer pour faire apparaître un scrolling. Sur TikTok, ces vidéos se présentent à l’infini et une recherche y débouche très vite sur des contenus plutôt négatifs, sans que l’on ait nécessairement – et cela vaut pour tous les réseaux – l’intuition d’aller chercher du positif pour tenter de créer un équilibre. Il est donc beaucoup plus difficile, sur ces réseaux, de garder du recul et de conserver une neutralité dans les opinions que l’on se construit. Ce qui vaut pour l’adulte est pire encore pour l’enfant ou l’adolescent, qui n’ont pas ce recul et ne connaissent pas des codes que je suis moi-même encore en train d’apprendre. Je pense d’ailleurs que j’en apprendrai toujours, chaque fois que j’irai sur les réseaux sociaux. Nous ne sommes pas des psychologues et, quand nous communiquons avec quelqu’un, nous ne possédons pas tous les codes qui nous aideraient à penser, de telle sorte que nous pouvons vite être emmenés, sans forcément le vouloir, dans du négatif, dans des choses qui ne sont pas bonnes pour nous.

Je suis également très inquiète des phénomènes de collage que j’observe spécifiquement sur le réseau TikTok : un commentaire publié par un individu est repris et intégré dans une vidéo qui suscite de nombreuses réactions, ce qui donne audit commentaire une très grande visibilité. Son auteur, qui est un internaute comme vous et moi et qui n’a peut-être que cinquante abonnés, se retrouve présent dans des vidéos qui peuvent avoir trois ou quatre millions d’abonnés. C’est tout à fait anormal, car on ne connaît pas les gens ni leurs fragilités. Sur le réseau, on s’exprime vite, et encore plus en raison de la limitation du nombre de caractères, si bien que les phrases publiées ne reflètent pas nécessairement la pensée de leur auteur, mais celle que l’influenceur comprend avec ses propres filtres avant de jeter des individus en pâture sur la base d’interprétations qui peuvent être fausses, tout en livrant l’identité de ces individus lambda, sur lesquels ils ont fait des recherches. J’observe souvent ce phénomène sur TikTok, et je trouve cela dramatique.

M. Antonin Atger. Le collage est un peu l’équivalent du CoTweet sur Twitter, qui consiste à reprendre et commenter un texte. Cette particularité de TikTok est aussi responsable de son succès, pour des raisons bénéfiques et négatives. La raison bénéfique est qu’un influenceur peut citer un internaute qui le suit, ce qui peut être valorisant et créer un lien de proximité. En revanche, l’influenceur peut aussi mettre en relief, dans sa réponse, le commentaire qui énerve et polarise et, ainsi, accentuer la polarisation. Cette mécanique qui permet de prendre – évidemment pas au hasard – un message est une particularité de TikTok. On pourrait évoquer à cet égard de nombreux biais cognitifs de négativité, consistant à mettre en avant le négatif, qui nous interpelle davantage et nous énerve. Cet appel à l’émotion est très présent sur les réseaux, même si, bien sûr, l’émotion n’est pas négative en soi.

L’étude de Hendrickx et al., comparant TikTok et Instagram, réseau social un peu similaire et dont les reels ont copié le principe de TikTok, observe que le temps passé sur TikTok est corrélé avec un usage problématique des réseaux sociaux, de la dépression et des problèmes d’estime de soi, mais pas avec la solitude, tandis qu’Instagram l’est seulement avec un usage problématique des réseaux sociaux. On pourrait estimer que c’est parce qu’Instagram fait mieux, mais je pense que d’autres facteurs interviennent, comme l’âge ou la condition sociale des utilisateurs. De fait, comme je l’observe au fil de mes nombreuses interventions scolaires, ce ne sont pas les mêmes personnes qui utilisent ces deux réseaux, Instagram touchant un public un peu plus âgé. La différence évoque celle qui existe entre Android et Apple : ce sont deux mondes différents et même opposés. En outre, Instagram ne propose pas que des vidéos : on y trouve aussi des photos et des stories, qui ont un usage différent. Peut-être donc cette pluralité de moyens de poster sur Instagram se traduit-elle par une moindre viralité des reels. En outre, il n’est pas possible de répondre à un commentaire sur les shorts de YouTube ni sur les reels d’Instagram. C’est peut-être ce qui explique la différence entre TikTok et les autres réseaux. Qui plus est, le fait que les usagers de TikTok soient, selon moi, plus jeunes, peut aussi expliquer ces phénomènes.

Mme Laure Miller, rapporteure. Est-ce la viralité des vidéos ou la plus grande capacité de polarisation de leurs propos qui fait de Tiktok un outil plus attirant pour les influenceurs problématiques que vous avez identifiés ?

Mme Audrey Chippaux. Ils sont tous arrivés sur TikTok, mais ils s’étaient tous emparés préalablement de Snapchat. Le fonctionnement des deux réseaux est différent. L’avantage que je vois à TikTok est que les observateurs – dont je suis – peuvent constater que certains influenceurs fonctionnent en groupe : un sujet traité par un influenceur sera repris par dix, quinze ou vingt personnes et va très vite monter et être partagé, ce qui permet de créer beaucoup de choses. Ce n’est pas le cas avec Snapchat.

Mme Laure Miller, rapporteure. Monsieur Atger, vous avez dit qu’un usage modéré de TikTok pouvait avoir des effets bénéfiques, mais n’est-ce pas complètement antinomique ? Un usage modéré de TikTok est-il possible, compte tenu de la force de l’algorithme et du fonctionnement même de TikTok, qui incite à l’utiliser sans modération ?

M. Antonin Atger. Non. Il ne faut pas sous-estimer l’agentivité des mineurs. Des personnes souffrant de troubles anxieux auront peut-être du mal à résister à l’algorithme, mais il y a là une corrélation : ceux qui peuvent faire un usage modéré de TikTok sont des gens qui peuvent décider de s’arrêter et d’aller se coucher. Tous les adolescents ne sont heureusement pas susceptibles d’avoir un usage problématique des réseaux, même s’ils peuvent être nombreux dans ce cas.

Nous avons vu des effets bénéfiques, notamment, comme je l’ai dit, durant le covid. L’étude que j’ai déjà citée montre par exemple qu’on peut tracer des effets bénéfiques pour une utilisation d’une heure par jour, alors que ces effets sont plus problématiques pour une durée quotidienne de trois, quatre ou cinq heures. À cela s’ajoute un autre facteur très important : le manque de sommeil lorsqu’on scrolle jusqu’à deux heures du matin, alors qu’un bon sommeil est évidemment bénéfique pour la santé.

On observe aussi une disparité en fonction des milieux sociaux, les plus défavorisés ayant un usage plus problématique de TikTok. Je n’ai pas forcément d’explication à ce phénomène, qui est probablement très complexe et multifactoriel, mais cela tient peut-être au fait que ces personnes ont moins accès à un thérapeute en cas de problèmes de santé mentale. L’usage des réseaux accentue donc entre les jeunes des disparités socioéconomiques déjà existantes.

Pour citer un exemple récent d’étude montrant les effets bénéfiques de TikTok, Nancy Lau et al., analysant les cent vidéos les plus virales du hashtag #TeenMentalHealth, consacré à la santé mentale des jeunes, montre que de nombreux adolescents parlent de leur expérience, ce qui est très important pour eux et très bénéfique, car cela permet de créer un lien et de s’identifier, mais que ces vidéos mettent aussi en avant nombre de spécialistes et experts de ces questions. On pourrait penser que les mineurs n’écoutent pas les personnes référentes, mais mon expérience des classes m’a montré que ce n’était pas vrai. Dans le domaine de l’actualité, les références restent, pour les plus jeunes, les chaînes d’info ou HugoDécrypte, c’est-à-dire des gens qui ont une certaine compétence, et il en va de même pour la santé mentale. Les personnes qui se présentent comme experts en santé mentale, comme les thérapeutes, jouent sur l’humour en adoptant les codes de TikTok, avec des résultats bénéfiques. Le seul défaut est que ces informations ne fournissent pas toujours des explications fondées sur des preuves, mais les jeunes vont tout de même sur TikTok pour se renseigner sur la santé mentale et écoutent des personnes qui ont une expertise dans le domaine. Ce peut donc être un moyen d’investir TikTok en poussant des experts à s’y exprimer sur ces sujets, car leur discours peut devenir viral d’une manière bénéfique.

M. le président Arthur Delaporte. Permettez-moi de faire une petite incise. Il ne me semble pas vous avoir entendu déclarer des conflits d’intérêts. Le confirmez-vous, l’un et l’autre ?

M. Antonin Atger. Non, aucun conflit d’intérêts.

Mme Audrey Chippaux. Pas de conflit d’intérêts.

Mme Laure Miller, rapporteure. Pouvez-vous citer des pratiques abusives que vous avez observées sur TikTok de la part d’influenceurs, et nous dire si ces derniers ont, selon vous, une stratégie ciblée sur les mineurs ? Pouvez-vous également nous parler plus précisément des lives sur TikTok, qui nous semblent être une sorte de no man’s land où il se passe des choses problématiques sans que quiconque puisse faire grand-chose à ce stade ?

Mme Audrey Chippaux. J’ai pu observer toutes les dérives liées au placement de produits, au dropshipping, à la contrefaçon, à la pratique illégale de la médecine, à la promotion de produits dangereux pour la santé et aux placements financiers risqués, pour lesquels le storytelling de l’influenceur transforme l’étudiant fauché en millionnaire. C’est, en effet, souvent comme cela que ces contenus sont vendus, avec des vidéos montrant de belles voitures, de belles villas et des vêtements de luxe. Ces vidéos sont très nombreuses, et pas seulement dans le domaine du placement financier : on les trouve dans les ventes de formations et dans tout le business du sexe. Ces influenceurs vantent les comptes MYM et OnlyFans en prétendant qu’ils font de l’argent et sont devenus millionnaires grâce à ces plateformes. Cela vaut aussi pour les paris sportifs et pour les casinos en ligne, où l’on sait pourtant que ce n’est pas possible. Je vois sur la plateforme en direct des annonceurs qui passent directement par TikTok pour faire de la publicité entre deux vidéos ou recourent, d’une manière indirecte, à des influenceurs, en étant parfois couverts par certaines agences.

On observe aussi l’emploi de filtres couplés à des publicités pour des compléments alimentaires ou pour de la médecine et de la chirurgie esthétique. J’ai eu bon nombre de témoignages de jeunes faisant état de baisse d’estime de soi et de confiance en soi. On sait aussi que ce phénomène a causé certains troubles du comportement alimentaire, sur lesquels les médecins se sont exprimés, et une augmentation du recours aux médecins et chirurgiens esthétiques. Je cite d’ailleurs dans mon livre les propos du docteur Adel Louafi, président du syndicat national de chirurgie plastique reconstructrice et esthétique, qui en fait état.

En matière de désinformation, j’entends, comme M. Antonin Atger, beaucoup de choses. On affirme ainsi partout, ces derniers temps, que Mme Macron serait un homme. Le blogueur Aquabebe aurait, quant à lui, retrouvé M. Xavier Dupont de Ligonnès et s’en ouvre sur les réseaux sociaux. Selon ce modèle étonnant, cette personne aurait été retrouvée par les internautes et ce n’est pas la police qui a été prévenue, mais les réseaux sociaux. Quand bien même ce serait vrai, ce serait lunaire ! Je peux citer aussi un certain Thierry, qui explique que la chimiothérapie est toxique et inefficace, et qu’il est préférable d’être abstinent et crudivoriste.

M. le président Arthur Delaporte. On peut citer son nom : M. Thierry Casasnovas.

Mme Audrey Chippaux. Ce monsieur n’est pas condamné et, si cela peut vous rassurer, il a été conseiller municipal en 2020 et a annoncé sa candidature à l’élection présidentielle de 2027 à ses 2,7 millions d’abonnés – ce qui n’est pas peu.

M. le président Arthur Delaporte. Ils sont abonnés sur TikTok ?

Mme Audrey Chippaux. Non, sur YouTube, mais tout est repris sur TikTok, qui bénéficie d’une large publicité et qui était même présent au festival de Cannes. J’aurais encore de nombreux exemples à vous donner, mais je tiens aussi à souligner que, bien que j’aie dans mon entourage de nombreuses personnes qui ne sont pas sur les réseaux sociaux – et j’en suis ravie –, il est tout de même inévitable que ces derniers nous influencent. Moi qui suis sur ces réseaux, je vérifie ce que je regarde et je ne veux pas communiquer n’importe quoi à n’importe qui, mais une personne qui est influencée par un réseau social et qui croit ce qu’elle y voit le communiquera dans la vraie vie. Son entourage n’est pas dans le réseau, mais il l’est quand même par le biais de la communication de la personne qui y est. Ce qui se passe sur les réseaux n’est donc pas anodin, car cela modèle notre société. C’est une question qui me tient à cœur.

M. Antonin Atger. Thierry Casasnovas fait quelque chose de très important et qui fait vibrer ma fibre romanesque : du storytelling. Il raconte qu’il était un peu décadent, qu’il avait une mauvaise hygiène de vie et qu’il a failli mourir, avant de connaître une sorte d’illumination. Il est très religieux et cette foi va le guérir, à l’aide d’un régime très strict. On peut analyser cela de nombreuses manières. Sur le plan psychologique, il en appelle beaucoup à la nature, puisque ce qui est naturel est forcément bon. Ce storytelling d’outsider et de méritocratie, reposant sur l’idée que, quand on veut, on peut, est une stratégie rhétorique très utilisée par les influenceurs. Parmi ceux qui parlent d’argent, qu’évoquait Mme Audrey Chippaux, M. Yomi Denzel, par exemple, passe du statut d’étudiant fauché à celui de milliardaire, tout en jouant aussi sur un aspect communautaire, parlant de YomNation, à l’instar d’un animateur de télévision qui a lui aussi un nom pour qualifier les gens qui le suivent. Ce mécanisme fonctionne très bien, et pas seulement sur les réseaux. On en appelle aussi beaucoup à l’émotion.

Quant aux matchs, il s’agit pour moi de l’un des éléments les plus problématiques de TikTok, même s’ils ont aussi de bons aspects. Un exemple assez écœurant, et que Mme Audrey Chippaux a vu de l’intérieur, est celui d’un affrontement entre des équipes de jeunes qui doivent mobiliser des financements qu’elles reçoivent sous forme de fleurs payées préalablement par leurs followers : à la fin de la semaine, on voit qui a généré le plus de revenus en argent. Il s’agit donc d’un match où l’on donne de l’argent. L’un des matchs de ce genre les plus écœurants était un match Israël-Palestine, où l’on voyait quels soutiens donnaient le plus d’argent. Le contexte politique très anxiogène était utilisé pour générer des actions, en accentuant la polarisation que j’évoquais par l’opposition à un ennemi. Les problèmes touchent à la fois la santé mentale et la vie en société. En effet, la société est aussi faite de compromis et de consensus, ce que ne met pas du tout en lumière, sur les réseaux, cette mécanique de matchs ou de polarisation plus générale.

Il faut également évoquer les influences étrangères, qui ne sont pas seulement le fait de l’algorithme en tant que tel ou du comportement des adolescents mais il peut s’agir aussi, comme on l’a vu récemment en Roumanie sans que l’on sache vraiment qui est derrière, d’un jeu d’influence. Au début de la guerre en Ukraine, j’ai vu des influenceurs expliquer, sur fond de drapeau ukrainien et malgré leur accent français classique, qu’ils habitaient en Ukraine et se réjouissaient de l’arrivée des Russes. Les réseaux sociaux sont aussi une arme de guerre informationnelle pour modeler l’opinion et promouvoir certaines thématiques plutôt que d’autres. Le cas de la Roumanie est très intéressant, car on y parlait moins de la personne que de ses thématiques, en les gonflant artificiellement, pour que les électeurs choisissent plutôt un candidat qu’un autre.

Le jeu de pouvoir qui se joue sur les réseaux sociaux excède, bien sûr, la question de la santé mentale des jeunes, mais il a aussi un impact sur eux, car un monde anxiogène ne fait pas de bien à l’état mental.

Mme Audrey Chippaux. Ces contenus sont, en outre, visibles par des jeunes, qui peuvent tomber dessus s’ils s’intéressent à la politique. Parmi les groupes que j’observe depuis quelques mois, je constate une polarisation des influenceurs et une évolution dans laquelle les gens deviennent de plus en plus extrêmes. Je m’intéresse à un groupe de droite et un groupe de gauche, mais on peut aujourd’hui les décrire comme d’extrême droite et d’extrême gauche.

M. le président Arthur Delaporte. Pouvez-vous décrire plus précisément ce phénomène de polarisation ?

Mme Audrey Chippaux. Au début, les contenus sont présentés comme pédagogiques. Quelqu’un explique, par exemple, ce qu’est le racisme et comment il se matérialise, par exemple sous forme systémique, puis les contenus deviennent progressivement de plus en plus violents. Voilà quelques semaines ou peu de mois, il s’agissait tout simplement de retrouver certaines personnes et de ne plus se laisser faire : il fallait frapper. On ne peut pas tenir de tels propos sur des réseaux sociaux !

M. le président Arthur Delaporte. Voyez-vous des jeunes exposés à cela ?

Mme Audrey Chippaux. Bien sûr.

M. le président Arthur Delaporte. Avez-vous des moyens de le voir.

Mme Audrey Chippaux. Les republications permettent de déterminer que des jeunes se trouvent dans ces sphères. Les influenceurs qui communiquent sont relativement jeunes, et des jeunes sont forcément attirés aussi. C’est une mécanique.

M. Antonin Atger. Pour avoir beaucoup étudié cette polarisation, qui est loin d’être propre à TikTok et que l’on retrouve aussi beaucoup sur Twitter, je dirais qu’elle s’explique aussi par des raisons presque mécaniques, pas seulement par les algorithmes. Sur un sujet donné, ce sont généralement les personnes les plus militantes, dotées de fortes convictions et au bord de la polarisation, qui vont investir ces réseaux en y consacrant le plus de temps. Ces profils estiment qu’il faut militer et ils ont du temps pour ce faire. De manière naturelle, les gens qui prennent la parole sur les réseaux, en particulier sur des thématiques politiques, sont très investis, plutôt aux extrêmes et polarisés. Les personnes modérées ne vont pas se reconnaître dans ces bords-là ; elles vont peu à peu se désintéresser, moins argumenter et même abandonner parce qu’elles se font taper des deux côtés. D’ailleurs, beaucoup de personnes ne souhaitent pas du contenu politique : elles vont sur les réseaux pour se détendre.

Ces divers facteurs expliquent que ce sont en général des militants tenant des propos radicaux – ce qui n’est pas forcément mal en soi – qui vont investir les réseaux. Il y a une mécanique propre au groupe : on a tendance à aller vers la radicalité, à faire preuve de ce que l’on peut appeler de la pureté militante pour montrer que l’on appartient au bon camp. Le phénomène gagne naturellement les réseaux, alimenté par le fait qu’il est possible de faire une vidéo sur un commentaire et que c’est ce genre de contenu qui marche le mieux – le choc, les émotions et le biais de négativité en renforcent l’attrait. Pour nuancer un peu, on notera qu’il existe aussi beaucoup de vulgarisateurs sur ces sujets et qu’ils sont présents sur TikTok, où ils ont une grande audience. Il est important de faire la part des choses, mais la radicalité des propos est malheureusement un phénomène naturel et propre aux réseaux sociaux.

Mme Audrey Chippaux. S’agissant des collages, ils provoquent des vagues de cyberharcèlement. Pas un jour ne passe sans que j’assiste à ce phénomène quand je me connecte à mon réseau social. À mon avis, beaucoup de gens participent à du cyberharcèlement de manière passive, sans même s’en rendre compte, au milieu de grosses foules. Cela fait beaucoup pour une seule personne qui reçoit tous ces commentaires, sans parler des messages privés que l’on ne voit pas, des collages et des partages, parce qu’elle aura eu la curiosité d’aller voir ce qui se passe et ce que l’on dit parce que cela la touche. En janvier 2025, une altercation entre deux élèves a été postée sur TikTok et relayée des milliers de fois. Des enquêtes sont en cours. C’est l’indignation qui a provoqué cette viralité sur les réseaux sociaux : on a tendance à partager ce qui nous paraît anormal et on contribue ainsi au phénomène.

Certaines images mises en ligne peuvent être utilisées par des pédocriminels. Maddy, une influenceuse, a montré son bébé dénudé dans la piscine ou en couches à ses 3 millions d’abonnés, sans avoir conscience que ces images peuvent être utilisées par la suite. Les influenceuses avec lesquelles j’ai abordé cette thématique m’expliquent que ce ne sont pas elles qui ont un problème, mais les autres – en l’occurrence les pédocriminels –, ce qui n’est pas faux. Certains parents n’ont pas encore pris conscience de cette dimension quand ils diffusent des photos de leurs enfants.

Dans l’univers de la médiumnité et de la cartomancie, auquel je m’intéresse aussi, je peux vous citer un cas où l’utilisation de l’intelligence artificielle (IA) pose problème : après vérification, on voit que le conseil minute, vendu 180 euros par une médium, est produit par IA.

Quant aux contenus sexistes et misogynes, ils pullulent sur les réseaux – j’en reçois ma part. Dans ce registre, on trouve Alex Hitchens qui compte 477 000 abonnés et dont les propos sont franchement… Enfin, disons qu’il coche beaucoup de cases.

Dans ma liste de dérives, j’ai mis les matchs live qui se déroulent désormais à la journée. On y achète des pièces qui servent à acheter des cadeaux numériques. Au cours de ce premier jeu financier, on perd la notion de l’argent : quand il est offert, le cadeau numérique se transforme en diamants qui s’affichent au-dessus du compte de l’influenceur. On ne sait plus exactement ce que l’on a donné. Ces diamants sont ensuite transformés en euros ou en dollars, dont TikTok prélève 50 %. Le réseau a donc un sérieux intérêt à l’existence de tels matchs qui pourraient être interdits en France comme ils le sont dans certains pays.

Pour vous donner une idée de l’importance du sujet, je peux vous donner l’exemple d’un échange que j’ai eu avec la maman d’un adolescent. Le service Apple Pay étant connecté au compte TikTok, l’adolescent a dépensé plus de 4 000 euros, c’est-à-dire tout le budget des vacances, en participant à ce genre de matchs. Je ne vous décris pas l’état de la maman. Pourquoi voulait-il faire des cadeaux ? Parce qu’il voulait se faire des amis. Il souffrait d’une petite exclusion dans le milieu scolaire et, en allant sur les réseaux sociaux, il avait plutôt l’intention de se faire des amis. Dans cette affaire, l’influenceur n’est pas innocent : il fait croire à un lien d’amitié avec les personnes qui donnent. Et c’est dramatique.

M. le président Arthur Delaporte. Qui était l’influenceur ?

Mme Audrey Chippaux. Je ne sais plus parce que je ne le connaissais pas. Il faudrait que je consulte les messages directs que m’envoyait la maman.

M. Antonin Atger. À ce propos, j’aimerais intervenir sur le concept de relation parasociale. Il s’agit de gens qui ont le sentiment d’avoir une relation réelle avec une personne imaginaire – un personnage de roman – ou avec une star, une célébrité, un youtubeur, un tiktokeur ou autres. Ils ont l’impression de connaître cette personne qui, elle, ne les connaît pas. C’est donc une relation déséquilibrée qui peut être exploitée, de manière volontaire ou non, par la personne célèbre. D’où l’incompréhension en cas de rencontre : l’une disant « je sais tout de vous », et l’autre répliquant « qui êtes-vous ? » Cela étant, dans l’exemple donné par Mme Chippaux, on voit que l’adolescent avait un problème d’intégration à l’école. Le malaise existant dans la vraie vie est exploité par TikTok. Il faut donc agir sur TikTok, mais aussi sur les problèmes existant dans la vraie vie pour empêcher ensuite les dérives observées sur le réseau.

M. le président Arthur Delaporte. On nous rétorque souvent que les mineurs ne peuvent pas mettre de l’argent au cours de lives, ce que tend à infirmer l’exemple que vous donnez, madame Chippaux. En avez-vous rencontré d’autres ?

Mme Audrey Chippaux. Au début de 2023, quand j’ai commencé à constater le problème et à en parler, j’ai eu plusieurs mamans en ligne. À chaque fois, j’ai retrouvé les mêmes mécanismes et profils : des jeunes qui se sentaient isolés socialement ; une jeune fille qui pensait avoir un lien amoureux avec le créateur de contenus. Peut-on d’ailleurs les qualifier de créateurs de contenus ? Certains ne font que des matchs et ne sont pas des influenceurs, au sens habituel du terme, qui créent des contenus permanents sur les réseaux.

M. le président Arthur Delaporte. Dans ces cas aussi, les sommes étaient importantes ?

Mme Audrey Chippaux. Au minimum 1 500 euros et au maximum plus de 4 000 euros – le cas que je vous ai d’abord cité. Mais Julien Tanti, par exemple, a reçu des dons pour un montant de plus de 140 000 euros.

M. le président Arthur Delaporte. On vous a parlé de mineurs donnant de l’argent à Julien Tanti ?

Mme Audrey Chippaux. Non, on ne m’a pas parlé de mineurs dans le cas de Julien Tanti.

J’ai fait une semaine d’observation en créant des comptes. J’ai choisi une personne focalisée sur les matchs, qui ne créait pas vraiment de contenus quotidiens ou en vidéo, sachant que les matchs peuvent être une activité à part entière. J’ai choisi une personne ayant recours au marketing. Le mécanisme est toujours le même : avant de démarrer un match, pendant environ une demi-heure, on nous demande de mettre des likes au live et de partager celui-ci, alors qu’ils commencent déjà à recevoir des cadeaux. À ce stade, il s’agit d’augmenter la visibilité du live, de faire en sorte qu’il soit vu par un maximum de gens. Tout cela se fait sur fond de musiques très entraînantes. La personne en question ne démarrait jamais avant 23 heures, sans doute parce que moins de gens regardent, et elle portait un masque, de sorte que l’on ne savait jamais si l’on avait affaire à un homme ou une femme. Trouvant cela très intrigant, j’ai choisi de suivre cette personne en particulier. J’étais intéressée par la ritualisation, le marketing, et l’horaire atypique – de 23 heures à 6 heures du matin.

M. Antonin Atger. Ceux qui sont sur des réseaux au milieu de la nuit ont peut-être déjà des troubles anxieux parce qu’il y a une corrélation avec la mauvaise qualité du sommeil. À cette heure de la nuit, ceux qui sont sur les réseaux sont peut-être des victimes plus faciles.

M. le président Arthur Delaporte. Est-ce que vous avez repéré des gens qui étaient manifestement mineurs ? J’imagine que c’est difficile à voir.

Mme Audrey Chippaux. C’est difficile à voir en live. Pour ma part, j’avais créé deux comptes, dont l’un ne comportait rien qui permette d’en déduire mon âge.

M. le président Arthur Delaporte. Vous avez quand même déclaré une date de naissance en vous inscrivant sur la plateforme.

Mme Audrey Chippaux. Oui, j’avais déclaré une date de naissance me faisant apparaître comme majeure parce que je voulais que mon compte passe. De toute façon, je peux m’inscrire sur TikTok en déclarant que j’ai 13 ans.

M. le président Arthur Delaporte. En effet. C’est d’ailleurs l’un de nos sujets. Dans mon souvenir, vous avez évoqué les logiques de casino, de jeux d’argent.

Mme Audrey Chippaux. Oui, c’est vraiment du jeu d’argent. Dès lors que l’on s’inscrit dans une team, une équipe, on s’engage. Quand on donne un cadeau, notre nom est hurlé. Quand cela m’est arrivé, j’ai rigolé derrière mon téléphone. Mais j’ai pensé à l’effet produit sur quelqu’un qui n’a pas de communauté, qui ne sait pas ce que c’est, qui n’a jamais reçu de message un peu sympa. On se met à hurler son nom pendant un live où nous étions au moins 1 000. Comment le vit-il ? Ce n’est pas anodin. Tout le monde n’est pas habitué à un tel traitement. Cela crée la dépendance : on va avoir envie de redonner pour entendre encore notre nom, pour être encore mis en avant – l’influenceur demande même aux gens de s’abonner à notre compte. Pendant cette période, j’ai gagné je ne sais combien d’abonnés sur TikTok, alors que je n’y fais quasiment rien.

M. le président Arthur Delaporte. Combien d’argent avez-vous donné ?

Mme Audrey Chippaux. Pas beaucoup – 50 euros – parce que je ne donnais que dans des moments stratégiques, par exemple quand les dons étaient multipliés par quatre. Cela étant, le gain était aussi multiplié par quatre pour l’influenceur, ce qui fait que j’ai quand même donné pas mal d’argent. À la fin de la semaine, nous sommes arrivés en deuxième position. Je me suis dit : « Mince, j’aurais quand même bien voulu gagner parce que j’ai participé ! »

M. le président Arthur Delaporte. Gagner zéro, en fait.

Mme Audrey Chippaux. C’est ce qui est terrible ! Alors que je ne suis pas du tout joueuse, j’ai été contrariée de ne pas avoir gagné. Pendant toute la semaine, on est tellement matraqué sur le thème : « On est une équipe, on joue ensemble ! » En fait, on joue ensemble pour ne rien gagner. C’est quand même exceptionnel, ce truc !

M. le président Arthur Delaporte. C’est l’influenceur qui anime l’équipe ou c’est un groupe de discussion privée ?

Mme Audrey Chippaux. Non, c’est dans le live, pendant le match. Dès que l’on se connecte, on l’entend matraquer sans relâche.

M. le président Arthur Delaporte. Comment s’inscrit-on dans une équipe ?

Mme Audrey Chippaux. Il y a un bouton « rejoindre l’équipe » pour s’inscrire. Il suffit de cliquer. C’est la première étape. Une fois qu’elle est franchie, on se prend d’autant plus facilement au jeu que la musique est entraînante. Il suffit que l’influenceur gagne un match pour qu’il se mette à hurler. Alors, on est content qu’il ait gagné son match. Quand arrive la finale, on veut qu’il gagne. Tout est fait pour créer cette petite tension. Comme je n’ai jamais demandé d’argent au moyen d’un match, je n’ai pas vu l’écran auquel les influenceurs ont accès. Quoi qu’il en soit, ils ont une fonction permettant de cacher le montant des dons, ce qui fait que les gens donnent à l’aveugle et ne découvrent le résultat définitif qu’à la fin de la semaine. C’est bien fait pour capter la personne jusqu’à la fin.

M. le président Arthur Delaporte. Un influenceur peut-il faire cadeau de cadeaux à sa communauté ?

Mme Audrey Chippaux. Ils offrent des coffres à toute la communauté. Il y a un petit compteur. À la fin, on clique sur le coffre et des pièces sont distribuées en fonction de critères que j’ignore – peut-être la rapidité des clics.

M. le président Arthur Delaporte. De jeunes enfants m’ont dit qu’on leur a offert des coffres sans qu’ils aient donné d’argent. Ils ont pu redonner le contenu de ces coffres sans avoir mis d’argent ?

Mme Audrey Chippaux. Tout à fait. En cliquant sur ces fameux coffres pendant une semaine, j’ai dû avoir 150 ou 200 pièces.

M. le président Arthur Delaporte. Et vous passiez votre temps à cliquer sur ces coffres ?

Mme Audrey Chippaux. Ah oui, dès que j’en voyais un, parce que je n’avais tout de même pas trop d’argent à mettre là-dedans !

M. le président Arthur Delaporte. Combien vous ont rapporté ces 150 pièces ?

Mme Audrey Chippaux. Pas grand-chose. Il me semble qu’une pièce vaut 17 centimes. Il faudrait revoir les calculs, parce que les cours évoluent tout le temps, comme ceux de l’euro. Un peu d’argent rentre malgré tout de cette manière.

M. le président Arthur Delaporte. En gros, vous avez touché environ 25 euros en cliquant sur les coffres.

Mme Audrey Chippaux. Je ne suis plus très sûre des cours parce que le temps a passé. Une pièce valait peut-être 2 centimes.

M. le président Arthur Delaporte. Vous avez donc reçu entre 5 et 25 euros de monnaie virtuelle en cliquant sur des coffres. Vous auriez pu être mineure.

Mme Audrey Chippaux. Pire : le mécanisme est tel qu’il peut donner envie d’acheter des pièces. Avec cette monnaie virtuelle, vous pouvez commencer à acheter une fleur, une rose ou n’importe quel cadeau que vous allez offrir. Si vous offrez la totalité des pièces que vous gagnez, le cadeau peut être important. Il l’est d’autant plus si vous le faites à un moment où la mise est doublée, triplée ou quadruplée. Votre nom peut alors être scandé pendant le match, ce qui va vous donner l’envie d’acheter des pièces. Et le problème est qu’il est facile d’en acheter. Si le compte est connecté à Apple Pay, on n’est pas obligé d’avoir la carte bleue de ses parents. Dans le cas que j’ai cité, la maman belge me disait que les 4 000 euros ont été prélevés sur sa facture de téléphone.

M. le président Arthur Delaporte. Merci pour ces précisions.

Mme Laure Miller, rapporteure. Dans une interview récente, madame Chippaux, vous vous déclariez favorable à un durcissement de la législation, notamment en matière de régulation. Aviez-vous une idée précise en tête ? Quel regard portez-vous sur le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) ?

Mme Audrey Chippaux. Interrogée à ce sujet ce matin sur France Inter, j’ai répondu qu’il faudrait déjà que les lois soient appliquées. Nombre des mesures de la loi n° 2023‑451 du 9 juin 2023 visant à encadrer l'influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux ne le sont pas. Même en tant qu’internaute lambda, on le constate. Il faut des sanctions, pas de simples rappels à l’ordre. Après la communication offerte par Booba sur le business des influenceurs, il faut passer aux sanctions financières. Ils ne comprendront pas tant qu’il n’y aura pas des sanctions financières ou, pire, des peines de prison. Et encore ! Lors de contacts que j’ai eus avec la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), on m’a expliqué que les amendes étaient fixées en pourcentage du chiffre d’affaires. Il faudrait peut‑être alourdir ces amendes parce qu’il n’est pas normal que des gens s’enrichissent en escroquant, en toute conscience ou pas, et en profitant de la naïveté de profanes qui ne peuvent pas imaginer tout ce qui se passe.

Nous parlons des mineurs aujourd’hui, mais les adultes sont eux-mêmes concernés. Nombre d’adultes me disent qu’ils ne sont pas influençables, alors que nous le sommes tous. M. Antonin Atger m’en donnait un excellent exemple. Si, dans une forêt, on entend soudain des gens crier au feu en s’enfuyant vers la gauche, que va-t-on faire ? On va courir aussi dans la même direction, sans avoir vu ni fumée ni feu. Nous sommes tous influençables. Oublions donc les rappels à l’ordre et passons aux sanctions prévues, surtout en cas de récidive. J’ouvre ici une parenthèse sur l’arrivée des brouteurs dans les lives, alors qu’ils agissaient jusqu’à présent par texto et par e-mail. J’ai été en contact avec des victimes – majeures – qui ont perdu jusqu’à 25 000 ou 30 000 euros. Même si on ne les voit pas forcément, ces brouteurs sont présents dans les lives. Ce n’est pas anodin.

En ce qui concerne les lois et le DSA, des mesures ont tout de même été prises, telles que la désignation de signaleurs de confiance. Moi qui observe tout cela depuis 2019, je ne peux que trouver le processus un peu long. Le délai est tellement long entre le moment où un phénomène émerge et celui où une loi est adoptée pour le combattre, que les personnes visées et les plateformes sont déjà passées à autre chose. Ce retard continuel est problématique parce que le citoyen a l’impression qu’il ne se passe rien, même s’il se passe des choses qui ne sont pas toujours visibles. On en arrive à des situations comme celle de Booba, où les tweets en rafale se succèdent sur les réseaux. Par contrecoup, ceux-ci peuvent devenir des tribunaux, au risque d’aggraver la polarisation.

M. Antonin Atger. Un guide sur l’article 28 du DSA vient d’être publié. On y parle de co-construction et d’écoute des acteurs, notamment des adolescents, sur leur rapport aux réseaux sociaux. Il est très bien, fondé sur des bases solides, et il peut avoir des effets intéressants. Le problème, c’est en effet son applicabilité.

M. le président Arthur Delaporte. Nous avons annoncé dans la presse que nous recevrions Mme Manon Tanti et M. Julien Tanti ainsi qu’AD Laurent. Avez‑vous des éléments d’observation à nous donner sur ces influenceurs, notamment sur leur rapport aux mineurs ?

Mme Audrey Chippaux. Ont-ils une idée de la répartition de leur audience ? Comment font-ils pour savoir s’il y a des mineurs ? À mon avis, ils ne peuvent pas le savoir. M. Julien Tanti fait énormément de matchs TikTok. Comment sait-il qui lui donne quoi ? Est-ce que des mineurs participent à ces matchs ?

M. le président Arthur Delaporte. Avez-vous observé des choses sur leurs contenus ?

Mme Audrey Chippaux. M. Julien Tanti a un nouvel ami sur TikTok, qui lui donne 140 000 euros – montant assez stupéfiant. Chacun fait ce qu’il veut de son argent et ce n’est pas le sujet, mais je trouve cela bizarre.

M. le président Arthur Delaporte. Avez-vous un dernier élément que vous souhaitez porter à la connaissance de notre commission ?

Mme Audrey Chippaux. Depuis quelque temps, nous avons affaire à des placements de produits d’opinion. Nous en avions parlé il y a deux ans, à un moment où ce n’était pas trop le sujet. De tels placements ont été identifiés dans des contenus de Mme Magali Berdah, mais une enquête du Monde a aussi mis en cause des influenceurs TikTok qui utilisent la forme du micro-trottoir pour donner une opinion favorable de la Russie dans la guerre qu’elle mène contre l’Ukraine. Quand des gens sont payés pour communiquer, il est important que nous le sachions.

M. le président Arthur Delaporte. Mme Magali Berdah ne faisait pas état de cette collaboration commerciale de manière visible et permanente ?

Mme Audrey Chippaux. Non, cela figurait en commentaire, ce qu’on ne lit pas quand on regarde une vidéo.

M. le président Arthur Delaporte. Nous allons saisir le procureur de la République, en application de l’article 40 du code de procédure pénale, au sujet des publications que vous évoquez et qui ne respectent pas la loi dite influenceurs précitée.

Mme Audrey Chippaux. Le sujet est important puisqu’il s’agit d’opinions. Combien d’autres contenus de ce type n’ont pas été identifiés ?

M. Antonin Atger. Que peut-on faire ? Une interdiction totale sera inefficace en raison notamment des réseaux privés virtuels (VPN) ou de questions de droit. Il faut une régulation, des amendes plus fortes et de la co-construction pour limiter les dégâts, et même favoriser un usage modéré et vertueux des réseaux.

M. le président Arthur Delaporte. Avant de vous donner la parole pour une dernière intervention, je vous signale que la commission reste à votre disposition pour tout élément complémentaire que vous souhaiteriez nous communiquer. Elle est aussi à la disposition du grand public et reçoit tout éventuel témoignage sur son adresse e-mail. Nous avons aussi recueilli plus de 30 000 réponses à notre grande consultation en ligne.

Mme Audrey Chippaux. Il existe des contenus pour enfants sur YouTube. Pourquoi n’y aurait-il pas la même chose pour TikTok, en guise d’alternative ?

M. Antonin Atger. Je suis d’accord.

Mme Audrey Chippaux. Autre suggestion : puisqu’ils nous imposent leur publicité entre deux vidéos, pourquoi ne pas les obliger à diffuser aussi des contenus préventifs – et de préférence attractifs pour les jeunes ? En matière de prévention, les idées ne manquent pas.

M. le président Arthur Delaporte. Madame, monsieur, je vous remercie.

32.   Audition de M. Guilhem Julia, maître de conférences en droit privé et sciences criminelles à l’université Sorbonne Paris-Nord, co-directeur du master « Droits des activités numériques », Mme Joëlle Toledano, Professeur émérite d’économie associée à la chaire « Gouvernance et régulation » de l’université Paris Dauphine - PSL, membre du Conseil national du numérique, et Mme Célia Zolynski, Professeur de droit privé à l’École de droit de la Sorbonne de l’Université Paris 1 Panthéon-Sorbonne, codirectrice du département de recherche en droit de l’immatériel de la Sorbonne (lundi 26 mai 2025)

Puis la commission auditionne, conjointement M. Guilhem Julia, maître de conférences en droit privé et sciences criminelles à l’université Sorbonne Paris-Nord, co-directeur du master « Droits des activités numériques », Mme Joëlle Toledano, Professeur émérite d’économie associée à la chaire « Gouvernance et régulation » de l’université Paris Dauphine - PSL, membre du Conseil national du numérique, et Mme Célia Zolynski, professeur de droit privé à l’École de droit de la Sorbonne de l’Université Paris 1 Panthéon-Sorbonne, codirectrice du département de recherche en droit de l’immatériel de la Sorbonne ([31]).

M. le président Arthur Delaporte. Je souhaite la bienvenue à M. Guilhem Julia ainsi qu’à Mmes Joëlle Toledano et Célia Zolynski pour cette table ronde consacrée à la régulation des plateformes.

Je vous remercie de faire état de tout intérêt public ou privé de nature à influencer vos déclarations. Je rappelle que cette audition obéit au régime de celles d’une commission d’enquête, tel que prévu par l’article 6 de l’ordonnance  581100 relative au fonctionnement des assemblées parlementaires. Cet article impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Guilhem Julia, Mmes Joëlle Toledano et Célia Zolynski prêtent successivement serment.)

M. Guilhem Julia, maître de conférences en droit privé et sciences criminelles à l’université Sorbonne Paris-Nord, codirecteur du master droit des activités numériques. J’ai grand plaisir à être entendu par cette commission d’enquête, dont la création me réjouit. TikTok incarne en effet, à mes yeux, la quintessence des dangers que représente un réseau social, en particulier pour un public – les mineurs – vulnérable.

Mme Joëlle Toledano, professeure émérite d’économie associée à la chaire gouvernance et régulation de l’université Paris Dauphine-PSL, membre du Conseil national du numérique. Je mettrai l’accent sur deux sujets qui me tiennent à cœur : celui des modèles économiques et un autre, absent de votre questionnaire mais fortement lié à l’objet de cette commission d’enquête.

Depuis quinze ans, les réseaux sociaux relèvent, en Europe et aux ÉtatsUnis, d’un modèle économique très majoritairement financé par la publicité, parfois par des abonnements. La recherche de relais de croissance est permanente et correspond à la période actuelle. Ainsi, le social commerce, entre l’e-commerce et le réseau social, est un relais de croissance extrêmement important, venant principalement d’Asie. Le chiffre d’affaires de TikTok a dépassé les prévisions anticipées, pour atteindre 39 milliards de dollars sur l’année 2024, dont 75 % proviennent de la publicité, 15 % du social commerce et 10 % du système de monétisation dit in-app, qui contribue à financer les influenceurs. Le champion toutes catégories est Meta, avec 165 milliards de dollars de chiffre d’affaires l’année dernière, celui de LinkedIn – dont une part plus importante provient de la publicité – s’élevant à 17 milliards et celui de YouTube à 50 milliards.

Je soulignerai deux éléments importants. Tout d’abord, le modèle économique est celui de l’économie de l’attention, qui consiste à échanger la gratuité contre autre chose. Nous n’avons pas suffisamment la notion de gratuité présente à l’esprit lorsque nous envisageons des modèles de régulation alternatifs. Si l’on cherche à capter l’attention, c’est non seulement pour passer de la publicité, mais aussi, secondairement, pour pousser à des actes d’achat, plus impulsifs, et à toute autre forme de gaming. L’attention porte sur les algorithmes, mais également sur les types de contenus, la façon de scroller, les formats : l’ensemble du système vise à nous garder présents le plus longtemps possible. Le social commerce permet de déployer une variété d’outils et de rentabiliser encore plus la captation de l’attention. Il est beaucoup plus développé en Chine, où il représente 15 % de l’ecommerce, qu’aux États-Unis, où sa part est de 5 %, et en France, où, bien que sa proportion ne soit que de 2 %, il est en forte croissance  il faut y songer car il est lié à un sujet qui vous intéresse aussi, monsieur le président, à savoir celui des influenceurs et la façon dont ils sont financés.

J’en viens à mon deuxième point, qui concerne l’une de vos questions : « les obligations de modération des plateformes des réseaux sociaux sont-elles suffisantes pour protéger les utilisateurs des contenus illicites ? Sont-elles suffisamment bien appliquées ? » Cette interrogation renvoie à un sujet qui me tient énormément à cœur : de quelles informations disposons-nous pour déterminer si ces obligations sont suffisantes ?

À cet égard, j’ai porté une grande attention à l’audition du présidentdirecteur général de Médiamétrie : interrogé par tous sur le fonctionnement interne du groupe, il a refusé de répondre, au motif qu’il ne pouvait dévoiler des éléments de contenu. C’est comme si l’enquête des consommateurs de l’Insee mentionnait les boutiques dans lesquelles se rendent les consommateurs et le temps qu’ils y passent, mais pas ce qu’ils achètent et consomment. Cette situation correspond à tout ce qui se passe sur internet aujourd’hui, si bien que nous sommes incapables d’évaluer les effets des mesures du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) ou du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA).

C’est pourquoi je plaide pour une sortie du schéma actuel, dans lequel nous espérons que les informations permettant de déceler l’existence d’effets délétères soient fournies par les acteurs du système, dont l’objectif est avant tout de défendre leur modèle économique. La problématique est d’ailleurs la même pour toutes les questions liées à internet. Je défends l’idée d’une recherche allant au-delà des panels d’URL : l’autorité publique doit élargir son point de vue, regarder sous le lampadaire et prendre connaissance des contenus afin de mesurer leurs conséquences dans la vie quotidienne. N’attendons pas des opérateurs qu’ils nous communiquent ces informations dont dépend leur rentabilité, car eux-mêmes en craindront les conséquences.

Mme Célia Zolynski, professeure de droit privé à l’École de droit de la Sorbonne de l’Université Paris 1 Panthéon-Sorbonne, codirectrice du département de recherche en droit de l’immatériel de la Sorbonne. Je vous remercie vivement de m’avoir conviée à cette audition et je salue l’important travail mené par votre commission d’enquête. Il y a un an, nous avons remis au président de la République un rapport dont le titre a été choisi avec soin : Enfants et écrans. À la recherche du temps perdu. Nous y avons rappelé que nos enfants ne sont pas à vendre : notre responsabilité collective est de préserver leurs intérêts, de leur permettre de grandir et de se réaliser en toute liberté. Nous avons proposé une réponse collective déclinée en vingt-neuf recommandations, en insistant sur l’importance de les penser comme un système et sur l’urgence à agir.

Le premier objectif est la nécessité de placer la responsabilité où elle doit être, à l’égard des acteurs économiques qui produisent des services prédateurs, à la conception délétère, notamment pour les plus jeunes. Sont concernés les services numériques dont la conception est sous-tendue par un modèle fondé sur l’engagement, dont les effets sont gravement délétères. Il faut s’attaquer franchement à ces travers et soutenir l’émergence de modèles alternatifs.

Je vais revenir sur ces propositions en les actualisant dans la perspective des travaux de cette commission d’enquête, en tenant notamment compte des dernières avancées du droit de l’Union européenne. Tout d’abord, nous avons souligné la nécessité de nous inscrire dans les premières avancées du DSA, pour assumer des positions plus fermes concernant le caractère délétère de la conception des interfaces et autres algorithmes de recommandation, dès lors qu’ils portent atteinte à la sûreté et à la sécurité des enfants, en particulier en raison de leur caractère addictogène. Il est également indispensable d’agir sur les phénomènes d’amplification, qui peuvent enfermer les utilisateurs dans une spirale de contenus toxiques, en particulier les plus jeunes. À cet égard, nous avons soutenu les propositions issues de la résolution du Parlement européen sur la conception addictive des services en ligne et la protection des consommateurs sur le marché unique de l’Union européenne, dont les discussions se prolongent dans le cadre des négociations du Digital Fairness Act.

Dans le prolongement de plusieurs autres travaux – ceux de la Commission nationale consultative des droits de l’homme (CNCDH), du Conseil national du numérique (CNNUM) et d’ONG telles que la Fondation Panoptykon et People vs Big Tech –, nous avons aussi souligné la nécessité de redonner du choix aux plus jeunes et la main aux utilisateurs sur leurs interactions numériques, par la reconnaissance d’un nouveau droit au paramétrage, afin que les utilisateurs puissent déterminer leurs sphères d’émission et de réception. Il est également important d’imposer aux plateformes un paramétrage par défaut de certaines fonctionnalités, pour que les plus jeunes bénéficient d’une protection à la hauteur des enjeux.

Saluons à cet égard le projet de lignes directrices de l’article 28 du DSA, qui reprend un grand nombre de ces propositions : limiter les travers du modèle reposant sur l’engagement et l’effet spirale de contenus toxiques ; favoriser le respect des intérêts des mineurs ; offrir aux mineurs la possibilité de faire valoir leurs intérêts, en agissant sur les différents paramètres. D’autres propositions, sur lesquelles nous reviendrons si vous le souhaitez, visent à limiter le caractère addictif et doivent être saluées.

Ces propositions doivent néanmoins être accompagnées d’un contrôle strict des opérateurs, pour en assurer le plein effet. Il est essentiel d’évaluer l’efficacité des mesures préconisées, pour qu’elles atteignent leur objectif, conformément au projet de lignes directrices, qui donne lieu à consultation des mineurs et à la réalisation de tests avec eux, en prenant leur retour d’information en compte.

Il est également déterminant d’adapter ces mesures à l’évolution des techniques et des pratiques, en associant à ce processus les représentants de la société civile et les chercheurs académiques. Plus généralement – nous l’avons souligné –, il convient de les soutenir par des actions de politique publique, pour qu’ils puissent utilement contribuer à la co-construction des lignes directrices et à la multi-régulation que nous appelons de nos vœux.

En outre, pour s’attaquer au modèle délétère et redonner du choix aux plus jeunes, il est essentiel de soutenir le développement de contre-modèles à celui de la captation de l’attention, en favorisant l’ouverture des réseaux sociaux à des acteurs tiers, pour faire émerger des modèles plus respectueux des intérêts des enfants, notamment par la promotion du pluralisme algorithmique – mesure proposée dans le cadre des états généraux de l’information. Le DMA ouvre à cet égard des perspectives intéressantes, qu’il convient de prolonger.

Mme Laure Miller, rapporteure. Nous attendions cette audition avec impatience : si nous avons déjà entendu beaucoup de spécialistes de ces réseaux sociaux, nous n’avons pas forcément obtenu de réponses sur les actions concrètes à instaurer, notamment du point de vue juridique. J’aurai plusieurs questions. Tout d’abord, TikTok, comme d’autres plateformes, a actuellement tendance à décliner toute responsabilité en matière de contenus, au motif qu’il les héberge sans les éditer : est-il possible de considérer TikTok comme un éditeur de contenus ? Cela permettrait d’engager la responsabilité de la plateforme, notamment en cas de recours devant la justice, à l’instar de celui en cours.

Par ailleurs, la volonté de rendre effectif le contrôle de l’âge d’un enfant qui s’inscrit sur les réseaux sociaux est souvent évoquée. Si l’âge minimum est de 13 ans, il est rarement respecté et l’inscription est très facile. Comment faire respecter l’interdiction de créer un compte pour les moins de 13 ans ? En matière de paramétrage des réseaux sociaux, comment supprimer l’algorithme de recommandation, notamment pour les jeunes ? Si le DSA offre certaines possibilités, les plateformes ont tendance à le contourner. Faut-il interdire l’accès au téléphone portable, principal vecteur d’accès aux réseaux sociaux ?

Enfin, quelles sont les mesures qui relèvent de notre compétence, et non du droit de l’Union européenne ? Avons-nous la possibilité d’agir en dehors du cadre du DSA, sur le sujet de la santé publique de nos enfants ?

M. Guilhem Julia. Le régime de responsabilité des grands acteurs, dont les plateformes d’internet, repose sur la distinction entre hébergeur et éditeur. Cette distinction figure dans le droit français depuis le début des années 2000 et la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique. À l’époque, les réseaux sociaux étaient beaucoup moins présents et délétères. Le législateur a donc été assez visionnaire, même si les données personnelles n’étaient pas encore exploitées comme elles l’ont été par la suite : la distinction entre hébergeur et éditeur, toujours d’actualité, est pertinente. Si le DSA ne l’a pas remise en cause, il a obligé les hébergeurs à fournir aux utilisateurs des outils de signalement des contenus illicites. Ils permettent une modération a posteriori. Ainsi, le signalement d’un contenu illicite devra conduire l’hébergeur à le retirer rapidement, faute de quoi il risque d’engager sa responsabilité.

Ce système n’est toutefois pas satisfaisant, d’abord parce qu’il faut s’entendre sur ce qu’est un contenu illicite ; sur la plateforme TikTok, les procédures de signalement ne sont pas du tout efficaces. Le problème est le même sur X, où des contenus haineux ne sont pas supprimés, malgré les nombreux signalements. Si TikTok était considéré comme un éditeur, une modération a priori serait envisageable.

Les plateformes d’intermédiation – dont les réseaux sociaux – sont traditionnellement qualifiées d’hébergeurs : elles ne font que stocker et mettre à disposition des contenus dont elles ne sont pas les auteurs. Des décisions  notamment le très important arrêt Google Adwords de 2010 de la Cour de justice de l’Union européenne (CJUE) – ont néanmoins considéré que certaines plateformes, bien qu’hébergeant ce type de contenus, pouvaient être qualifiées d’éditeurs, en raison de leur contrôle – le rôle actif de l’hébergeur – et maîtrise des contenus.

Une autre décision a sanctionné une contrefaçon : un moteur de recherche s’apparentant à YouTube permettait d’accéder gratuitement à des contenus sportifs, en principe réservés à des abonnés payants. Pour se défendre, la plateforme a décliné toute responsabilité, arguant que, en tant qu’hébergeur, elle ne faisait que mettre à disposition des liens postés par ses utilisateurs. Le juge a refusé de faire droit à cet argument et a requalifié la plateforme d’éditeur, considérant qu’elle avait un rôle actif sur les contenus, puisque les différents liens avaient été organisés selon des thématiques et des dates, et présentés d’une certaine façon par ses algorithmes. Dans le même ordre d’idées, dans le rapport de la commission d’enquête du Sénat sur l’influence de TikTok, la plateforme reconnaît son rôle éditorial, afin de pousser certains contenus ou d’en bannir d’autres : la reconnaissance du statut d’éditeur qui en découle permettrait d’engager beaucoup plus facilement sa responsabilité en cas de contenus illicites.

Mme Laure Miller, rapporteure. L’influence des plateformes sur les contenus – leur rôle d’éditeur – a été décelée il y a plusieurs années : pourquoi le DSA n’a-t-il pas intégré cette évolution ? Connaissez-vous l’origine des blocages ?

M. Guilhem Julia. La distinction entre hébergeur et éditeur existe depuis 2004 en France et depuis 2000 au niveau européen, avec la directive sur le commerce électronique. Je suppose que le législateur de l’Union européenne n’a pas souhaité remettre cette distinction en cause. Le juge – au niveau national comme européen – s’est en effet sans doute approprié cette distinction et a permis à des hébergeurs de devenir éditeurs, avec une évaluation au cas par cas. Étant donné la souplesse d’appréciation dont dispose le juge quant au rôle de chaque plateforme, il ne me semble pas utile de la remettre en question.

Mme Célia Zolynski. Depuis plusieurs années, ces sujets donnent lieu à de vives discussions. L’enjeu est aussi celui de la préservation de la liberté d’expression. Le législateur a souhaité préserver l’équilibre trouvé avec la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur dite directive ecommerce lors de l’adoption du DSA : ce point a été déterminant dans les négociations. Un consensus s’est établi, intégrant quelques aménagements, comme la clause du bon samaritain – elle existe aussi dans le droit américain – et l’harmonisation de procédures de notification.

Il faut cependant souligner qu’un contrôle sera exercé par la CJUE. Un autre arrêt important – l’affaire opposant Google et YouTube à Cyando – porte sur l’impact de la recommandation algorithmique sur la qualité d’éditeur : la Cour de justice a écarté cette qualité, s’agissant du fonctionnement de YouTube. La France devra s’assurer de respecter la jurisprudence européenne.

Le deuxième point déterminant est celui du consensus pour un régime qui fasse évoluer les modèles des plateformes. L’objectif est de leur conférer une responsabilité spécifique, en lien avec la conception et le fonctionnement de leur service, de façon à sortir de la dichotomie entre hébergeur et éditeur. L’étude annuelle du Conseil d’État de 2014 avait déjà permis de faire des propositions  attendues depuis longtemps – sur ce point, tout comme les travaux du CNNUM en 2015 ; la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique avait donné lieu à une première consécration – une obligation de loyauté des plateformes –, extrêmement timide. Les avancées se sont faites par petits pas, la notion d’intérêt des mineurs étant alors moins prégnante. Ainsi, des avancées avaient été proposées par le rapport de M. Benoit Loutrel Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne, et certaines des dispositions de la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet dite loi Avia ont inspiré le DSA. On peut regretter qu’il ait fallu tant de temps pour adopter des mesures contraignantes envers les plateformes. Pour contribuer à cet effort de régulation, il faudra veiller à ce que le régulateur ait les moyens d’assurer ses missions et que les acteurs – la société civile, les académiques – soient soutenus.

Mme Joëlle Toledano. Mes propos seront un peu moins organisés que ceux de mes camarades juristes.

Une partie des discours autour de la liberté d’expression ont pour objectif de bloquer la réflexion. On le voit avec les débats avec les États-Unis, qui nous opposent l’argument de l’atteinte à la liberté d’expression sur des sujets qui nous tiennent à cœur.

Il est temps de sortir de cette ambiguïté et de vraiment responsabiliser les plateformes afin qu’elles voient la régulation comme quelque chose qui est important pour elles. Aujourd’hui, on en parle en termes de modalités et de vérification de tel ou tel point. C’est trop lent : nous sommes comme des coureurs de fond face à des sprinteurs. Cela m’inquiète beaucoup. Il suffit de regarder le bilan de l’application du DSA depuis deux ans sur l’accès des chercheurs aux données des plateformes en ligne : on en est encore à discuter sur le point de savoir comment imposer cet accès aux plateformes.

Si on ne change pas de braquet, dans cinq ans nous serons en train de discuter de la régulation des plateformes telles qu’elles existent aujourd’hui alors que, d’ici là, l’intelligence artificielle aura tout changé.

La responsabilisation est la solution. Il suffit pour s’en convaincre de voir que les acteurs américains en ont peur, ainsi qu’en témoignent les contentieux en cours devant les cours américaines.

Pour contrer l’argument de l’atteinte à la liberté d’expression, je propose que nous nous dotions des moyens pour vérifier les conséquences de telle ou telle politique. Nous sommes aujourd’hui entre les mains des acteurs américains et de tels moyens nous permettraient de limiter cette asymétrie d’informations ; faute de quoi nous en serons encore à discuter de mesures alors que la technologie aura évolué.

Mme Laure Miller, rapporteure. La question de la régulation nous concerne tous : nous avons tous des enfants, des petits-enfants, des neveux et des nièces sur lesquels nous pouvons mesurer l’impact réel, minime ou dévastateur, des réseaux sociaux. C’est la raison pour laquelle nous avons souhaité nous concentrer sur la protection des enfants, plutôt que sur la liberté d’expression. L’objectif n’est pas d’interdire les réseaux sociaux ou de renforcer le DSA, dont nous pouvons constater la lenteur de l’application.

Cette lenteur est inhérente au fonctionnement de l’Union européenne, mais nous ne pouvons pas l’admettre car les plateformes ont toujours un train d’avance sur nous. Face aux alertes sur la santé de nos enfants – et le rapport que vous avez remis l’année dernière au président de la République, madame Zolynski, en est une –, nous devons agir. Ne pourrions-nous pas le faire à l’échelle nationale et essayer d’aller plus loin grâce à notre compétence de législateur en matière de santé publique ? Cette compétence est-elle bloquée par le DSA ?

Mme Célia Zolynski. Je commencerai par questionner le niveau d’intervention souhaitable, avant d’en analyser la possibilité juridique.

On réfléchit, depuis longtemps déjà, à une meilleure responsabilisation des plateformes. Le DSA a permis des avancées significatives et intéressantes en ce sens mais, depuis son adoption, les effets délétères de ces plateformes se sont amplifiés. Je partage la frustration et la colère, y compris en tant que parent, de certains observateurs concernant les atteintes à la vie privée, à la sûreté et à la santé des enfants. Je travaille d’ailleurs beaucoup sur la pédocriminalité, sur les contenus deepfake, sur les discours de haine en ligne et sur l’exposition à des contenus toxiques.

Néanmoins, il est important d’explorer pleinement la possibilité d’agir au niveau européen, car c’est là – je crois que l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) vous l’a rappelé – que nous pouvons obtenir les avancées les plus significatives, grâce à une meilleure négociation et une meilleure pression sur les plateformes.

Il serait donc malheureux de commencer une nouvelle réflexion qui nous ferait perdre beaucoup de temps. Il est préférable d’apporter tout le soutien possible à la mise en œuvre effective du DSA. Certaines propositions pour modifier le modèle des plateformes sont d’ailleurs en train d’aboutir. On peut regretter leur temporalité et, peut-être, la mise en œuvre des contrôles, mais ne laissons pas passer ces opportunités. Je vous invite à examiner de près le projet de lignes directrices, qui vient d’être mis en consultation par la Commission européenne. Il contient en effet des mesures très pertinentes.

Nous disposons aujourd’hui de toutes les clés pour faire évoluer le modèle d’affaires des plateformes. L’édifice qui a été construit est désormais stabilisé. Il faut le soutenir afin que la France puisse accompagner sa mise en œuvre, en y associant l’Arcom, des représentants de la société civile et des chercheurs académiques.

Nous nous sommes appuyés sur le fondement de la santé publique et, plus généralement, sur celui de la protection des enfants, pour formuler des propositions concernant le droit au paramétrage, qui semblent avoir été consacrées dans les lignes directrices dont j’ai parlé. Je vous apporterai avec plaisir des informations complémentaires sur l’aspect opérationnel de ces propositions.

Je vous recommande d’auditionner des chercheurs américains, qui pourront vous livrer leur analyse des dernières décisions de justice rendues aux États-Unis sur ce point : elles ne font pas une lecture aussi caricaturale ou dévoyée de la liberté d’expression que l’on pourrait le penser. Plusieurs décisions, notamment à l’égard de TikTok, permettent d’ouvrir la voie vers une responsabilité des plateformes au regard de la conception de leurs services.

Toutes les questions que vous avez évoquées, madame la rapporteure – responsabilité des plateformes, conditions d’accès en fonction de l’âge, paramétrage et santé des enfants – rejoignent l’enjeu central de la conception des plateformes. Au moment où la Commission européenne a ouvert les consultations sur les lignes directrices, il est important que la France puisse exprimer d’une voix forte qu’il ne suffit pas de formuler des préconisations au conditionnel : elle doit exiger que ces mesures, qui sont pour la plupart très pertinentes et utiles, soient pleinement suivies d’effet.

M. Guilhem Julia. TikTok se différencie des autres plateformes de réseaux sociaux. Elle est numéro un auprès des 13-24 ans et elle est celle qui diffuse le plus de contenus dangereux, notamment pour la santé, alors que ce public est plus vulnérable.

Pour me familiariser avec cette plateforme, je l’ai utilisée pendant une matinée, la semaine dernière. C’est pire qu’un train fantôme ! Je n’imaginais pas qu’on puisse avoir accès en France à des contenus glorifiant l’automutilation, la boulimie ou le suicide. Cela m’a profondément choqué. L’accès est très facile : en quelques minutes, l’algorithme de recommandation m’a inondé de ces contenus. J’ai d’ailleurs fait des signalements, qui sont restés lettre morte. Je pense donc qu’il faut traiter TikTok comme un cas à part. Il ne me semble pas qu’Instagram et Facebook proposent des contenus aussi problématiques.

Pour être crédible face à la Big Tech, il faut absolument parler d’une seule voix harmonisée, et cette voix ne peut qu’être celle de l’Union européenne. L’exemple du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) me paraît à cet égard très convaincant. Il est en effet le fruit d’une action coordonnée entre le législateur de l’Union européenne et chacune des autorités nationales de contrôle – la Commission nationale de l’informatique et des libertés (Cnil) en France. Le texte de l’Union européenne a donné de nouveaux pouvoirs, notamment de sanction, à ces autorités, qui conservent une certaine autonomie. Elles peuvent, de leur propre chef, sanctionner Amazon, Facebook ou TikTok par des amendes, parfois de plusieurs centaines de millions d’euros. Le RGPD est donc la preuve que la coopération entre l’Union européenne et les États membres peut être efficace. Si chaque État membre conservait sa propre législation dans ce domaine, on pourrait imaginer que les plateformes fassent pression sur chaque État pour qu’il change sa législation en le menaçant de ne pas fournir ses services à ses ressortissants. L’harmonisation du droit permise par le DSA restreint ces possibilités de pression.

Il reste possible d’aller plus loin en s’appuyant sur le fondement de la santé publique. Le meilleur exemple en est la loi n° 2023-451 du 9 juin 2023 visant à encadrer l'influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux. La direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) a récemment précisé que cette loi s’appliquait à TikTok et que, au nom d’impératifs de santé publique et de la protection des mineurs, certains produits ou services ne pouvaient être proposés par les influenceurs de cette plateforme. Il peut donc être porté atteinte à leur liberté d’expression et à leur liberté d’entreprendre.

Ne pourrait-on donc pas, au nom d’impératifs supérieurs de santé et de protection de l’enfance, bannir de la plateforme certains contenus glorifiant des comportements dangereux ? La marge de manœuvre pour créer une spécificité française existe puisque le DSA parle de contenus illicites, sans les définir précisément. Il y a là une possibilité de coordination entre la législation de l’Union européenne, qui doit constituer la base, et la législation nationale.

M. le président Arthur Delaporte. Je vous remercie d’avoir souligné l’intérêt de la loi sur les influenceurs. N’y voyez aucun conflit d’intérêts ! J’en profite pour constater que, lorsque je vous ai demandé en introduction de déclarer d’éventuels conflits d’intérêts, vous avez gardé le silence. J’en déduis que vous n’en avez pas.

Mme Joëlle Toledano. La loi sur les influenceurs a montré que la coopération est un combat. Le sujet est remonté jusqu’à la Commission européenne en raison de difficultés avec le DSA, mais aussi parce qu’il existait un mouvement de régulation dans d’autres États membres. Une proposition peut être initialement considérée comme pas tout à fait compatible avec le DSA, mais elle peut aboutir si vous arrivez à convaincre trois ou quatre autres pays qui partagent les mêmes intérêts. Cela peut donc avoir du sens de faire quelque chose d’un peu borderline et d’essayer de pousser pour sa réalisation.

Je suis en désaccord assez net avec la confiance que portent beaucoup de mes concitoyens et camarades dans le DSA et dans le DMA et dans leur capacité à imposer des changements de modèle économique aux plateformes. Ces textes n’imposent en effet qu’une conformité molle, que j’ai pu analyser avec mes étudiants. Deux ans après leur entrée en vigueur, quel est leur bilan ? Aujourd’hui, on discute encore de la possibilité de leur imposer un changement, cette fois sur leurs algorithmes en leur imposant un dégroupage en fonction des différents services qu’ils proposent, à l’instar de ce qui a été fait pour les télécoms. Vous n’y arriverez pas ! Qui paiera pour pouvoir se connecter à ces algorithmes ? Peut-être telle ou telle ONG aura-t-elle envie de s’engager dans une telle voie en faisant ce qu’elle peut, mais les autres acteurs privés chercheront à maximiser leurs profits en captant le plus possible d’attention, des adultes comme des gamins. Il faut donc s’attaquer directement au modèle économique.

Madame la rapporteure, je ne suis pas sûre qu’il est possible de trouver des solutions qui ne concernent que les enfants. Même en Chine, les parents donnent un téléphone portable à leurs enfants. Il faut donc faire attention au décalage entre les annonces et la réalité des pratiques. Il me semble préférable d’évaluer ce qui se fait dans son ensemble, pour comprendre pourquoi certaines choses ne marchent pas ou prennent trop de temps plutôt que de continuer à chercher à imposer des changements partiels aux plateformes.

Mme Laure Miller, rapporteure. Monsieur Julia, vous avez évoqué le fait que les signalements ne fonctionnent pas. L’audition de l’Arcom nous a permis de mieux comprendre leur fonctionnement : dans sa mission de mise en œuvre du DSA, elle doit respecter beaucoup d’étapes avant que le signalement arrive à la Commission européenne. Il existe en outre une zone grise où se trouvent des contenus qu’il est difficile de qualifier d’illicites et donc de supprimer. Je souhaitais donc vous interroger sur l’efficacité du mécanisme de signalement.

Ma deuxième question porte sur la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne dite loi Marcangeli, qui institue une majorité numérique. Deux ans après sa promulgation, les décrets d’application n’ont toujours pas été publiés. S’agit-il d’une question de délimitation des compétences nationale et européenne ? Si le législateur français vote une loi qui ne relève pas de la compétence nationale, comment peut-elle être mise en application ? Faut-il attendre une validation de la Commission européenne ?

Madame Toledano, pourriez-vous préciser de façon plus concrète comment nous pourrions nous attaquer directement au modèle économique des plateformes ?

M. le président Arthur Delaporte. Je ne suis pas auditionné mais, concernant votre deuxième question, j’aurais pu partager mon expérience sur l’application de la loi sur les influenceurs.

Mme Célia Zolynski. Je m’intéresse de très longue date à la transposition des directives européennes en droit interne – j’y ai consacré ma thèse – et aux obligations de la France quant au respect du droit de l’Union européenne. Je comprends la démarche politique de certains députés et sénateurs, mais elle doit être coordonnée avec le respect de ces obligations. Toutefois, pour parler franchement, il faut éviter de se contenter d’une action politique forte que l’on sait vaine et qui risque de faire perdre beaucoup de temps.

Certes, il est parfois utile que la France ouvre la voie et agisse comme leader, comme cela a pu être pour la loi influenceurs ou pour la responsabilisation des plateformes, mais une coordination avec la Commission européenne me paraît essentielle. La voix de la France compte davantage quand elle s’articule avec nos obligations en droit institutionnel. Une meilleure compréhension de ces mécanismes est donc déterminante, mais je sais que c’est le cas du président. Je ne développerai donc pas davantage.

Des avancées importantes ont pu être obtenues sur le cadre juridique grâce à des actions coordonnées. Ainsi, Amazon a dû faire évoluer ses conditions problématiques de désabonnement à son service Prime sur le fondement de la directive relative aux pratiques commerciales déloyales, rappelée dans le DMA. On pourrait également citer une récente condamnation de la Cour de justice de l’Union européenne à propos du modèle pay or consent de Meta.

On peut se dire que cela prend trop de temps d’attendre une condamnation de la CJUE, mais je rappelle que des enquêtes menées par la Commission européenne sur le fondement du DSA sont sur le point d’aboutir. J’ajoute que les lignes directrices sont très prometteuses. Espérons qu’elles aboutiront à un texte final ferme sur les obligations de respect de l’article 28 du DSA imposées aux plateformes.

Encore une fois, il faut s’intéresser à la conception des plateformes et notamment au droit de paramétrage, qui devrait être imposé comme une forme d’obligation de loyauté et de prise en compte des intérêts des utilisateurs, surtout les plus jeunes d’entre eux. Je pourrai apporter des précisions sur ce point. Je pense que nous tenons ici un levier pour faire évoluer le modèle d’affaires des plateformes. Le DSA est resté timide et ne remet pas frontalement en cause ce modèle, mais on a vu que la coordination a pu le faire évoluer sur certains points. Elle devrait également porter sur le pluralisme algorithmique dans l’intérêt des médias. C’est ce que nous avions recommandé dans le cadre des états généraux de l’information.

Nous appelons à une réflexion plus globale sur l’économie de l’attention et ses effets délétères et sur le design. Mme Joëlle Toledano, qui est une grande spécialiste de ces questions sur le plan économique et moi-même, qui dispose d’une expertise juridique, nous tenons à votre disposition pour identifier les avancées à promouvoir et les marges de manœuvre de la France, dans le respect de ses obligations institutionnelles.

Mme Joëlle Toledano. La question du modèle d’affaires a été posée par un certain nombre d’économistes. Le premier levier, mis en avant par beaucoup d’entre eux, est celui de la publicité ciblée. Quelques-uns – des économistes américains qui ne sont pas les moins connus – proposent de la taxer très fortement, jusqu’à 50 %. Une autre position, développée au Parlement européen, consiste à interdire la publicité ciblée – ou non ciblée. Les influenceurs, pardon d’y revenir, sont une façon, assez géniale, de faire du ciblage sans le dire. Ce que j’ai pu lire au sujet du commerce social, c’est que les petits et les gros influenceurs ont pour intérêt de permettre de cibler un peu différemment.

L’économie de l’attention repose sur la gratuité, je l’ai dit tout à l’heure, et sur la nécessité de trouver des contreparties. Toute une économie, et c’est la difficulté du sujet, s’est construite ainsi – des commerçants arrivent à vivre parce qu’ils se sont bien positionnés dans ce cadre. La question de la publicité, qui est l’angle mort du DMA et du DSA, mais qui se trouve au cœur de ces modèles d’affaires, me paraît évidemment centrale. Ce qui est un peu perturbant au sujet des enfants, c’est que la publicité ciblée est a priori interdite à leur égard, mais qu’on trouve visiblement matière à compenser cet interdit – même si je ne sais pas exactement comment.

Une autre solution, mais j’avoue n’être pas assez subtile pour faire la différence entre la responsabilité liée à l’algorithme et la responsabilité éditoriale, serait d’engager la responsabilité des acteurs, y compris, comme on le voit aux États-Unis, les personnes chargées de fabriquer les algorithmes. Il en résulterait automatiquement, j’en suis absolument certaine, une véritable évolution des modèles d’affaires et c’est d’ailleurs la raison pour laquelle cette solution ferait l’objet d’une opposition politique extraordinaire de la part des acteurs concernés. Je pense que la liberté d’expression est prise en otage dans un certain nombre de cas.

Personnellement, je suis désolée de le dire, je n’ai pas été convaincue jusqu’à présent par la proposition relative au pluralisme algorithmique, pour les raisons que j’évoquais tout à l’heure. Puisque le modèle d’affaires de l’économie de l’attention ne serait pas remis en cause, je crains que TikTok, s’il n’existait plus, soit remplacé par TokTik. J’adorerais que ce genre de solutions fonctionne, comme on l’a vu dans les télécoms, mais, à modèle économique constant, j’ai un petit doute.

M. Guilhem Julia. S’agissant des algorithmes, il sera extrêmement difficile de contraindre les plateformes à révéler leurs secrets de fabrication. C’est le trésor d’un réseau comme TikTok. Les contenus étant très courts, leur viralité est très forte et l’algorithme se nourrit de ce que vous visionnez beaucoup plus rapidement que sur les autres plateformes : il va très vite pouvoir vous recommander des contenus similaires. Les développeurs de TikTok, on le sait, travaillent énormément sur ce point. La société ByteDance a beaucoup investi dans les algorithmes – il existe non pas un, mais plusieurs algorithmes de recommandation, qui sont mis à jour continuellement. Au niveau juridique, ils sont protégés au titre de la propriété intellectuelle. En France, le droit d’auteur protège notamment le code source et le code objet. Par ailleurs, je crois qu’une protection est également possible dans le cadre du secret des affaires  du secret industriel.

Des règles ont été adoptées en France à propos de la transparence algorithmique, mais elles concernaient les algorithmes des décisions administratives, dans l’open data mis en place par la loi de 2016 pour une République numérique. Quand un citoyen fait l’objet d’une décision prise, pour partie, sur la base d’un algorithme, on a considéré qu’il fallait lui transmettre des éléments sur le fonctionnement de l’algorithme et la façon dont la décision a été prise. Mais cette transparence ne porte que sur les algorithmes liés aux décisions administratives : je ne pense pas qu’on puisse appliquer la même règle à des algorithmes de l’ecommerce ou des réseaux sociaux, c’est-à-dire des plateformes dont nous parlons. À mon avis, il sera très difficile d’obtenir des changements dans la conception de leurs algorithmes – c’est même complètement illusoire.

Par ailleurs, il faut bien comprendre que ce sont les conséquences des algorithmes qui peuvent être négatives et non les algorithmes en tant que tels. Quand on utilise un moteur de recherche ou un site d’e-commerce, on a affaire à un algorithme de recommandation, qui n’est pas forcément préjudiciable. La technologie permettant de recommander des contenus personnalisés n’est pas en tant que telle nocive, me semble-t-il. C’est lorsque l’algorithme recommande des contenus douteux, toxiques, qu’il existe un problème, ce qui est le cas s’agissant de TikTok quand des contenus peuvent affecter la santé mentale et physique des mineurs.

De même, on ne peut pas interdire la publicité ciblée, selon moi, et je ne suis pas convaincu que la taxer serait une bonne idée : c’est le modèle économique des plateformes. Si les services sont gratuits, c’est parce qu’en contrepartie la publicité ciblée est là, c’est-à-dire l’exploitation des données personnelles des utilisateurs. À la suite d’une décision de la Cour de justice de l’Union européenne, déjà évoquée, on a considéré que Meta ne pouvait pas imposer la publicité ciblée à ses utilisateurs, notamment sur Facebook, sans requérir leur consentement. Facebook a donc proposé le système pay or okay : si on paie tous les mois un abonnement, on n’a plus de publicité ciblée. Mais un recours a été introduit contre ce système par l’association None of Your Business, pour qui il est fou d’avoir à payer quelque chose pour que sa vie privée soit respectée. Selon cette association, c’est une espèce de monétisation d’un droit fondamental, ce qui n’est pas satisfaisant non plus.

En ce qui concerne les signalements, je commencerai par un point assez étonnant. Lorsqu’on fait un signalement, qui décide d’y faire droit ou non ? C’est la plateforme ellemême, ce qui soulève un vrai problème de gouvernance d’internet en général. Sous prétexte que leur service touche le monde entier, des plateformes s’arrogent un peu un rôle de législateur, ou du moins de juge. C’est exactement la même chose lorsque vous faites une demande dans le cadre du droit au déréférencement : c’est Google qui examine si cette demande paraît légitime. En vérité, cela devrait être le travail d’un juge, mais la plateforme est forcément mieux placée pour le faire, notamment quand il s’agit de prendre une décision rapide. Par ailleurs, le refus de la plateforme de faire droit à une demande de déréférencement peut faire l’objet d’un recours devant un juge. Mais est-ce bien aux plateformes de juger si tel contenu est licite ou non, doit être retiré ou non ? La question de la licéité des contenus relève de textes de droit, à commencer par le DSA.

Le vrai problème, concrètement, c’est que s’il existe des outils de signalement, encore que, s’agissant de TikTok, ils ne soient pas facilement accessibles, comme le requiert pourtant le DSA – le signalement n’est pas possible dès la page de la publication, il faut déployer deux sous-menus –, on voit que les signalements restent lettre morte. J’ai ainsi contesté un refus de prise en compte d’un signalement auprès de TikTok et je n’ai toujours pas de nouvelles, alors que j’avais bien motivé ma demande, comme vous pouvez vous en douter. Mm Joëlle Toledano l’a un peu dit, en apparence les plateformes se mettent en conformité, en proposant des outils de signalement, mais la mise en œuvre de la réglementation n’est pas du tout effective. C’est pourquoi il serait plus simple, à mon avis, de bannir dès le début certains contenus, au lieu d’attendre que des signalements soient pris en compte et aboutissent enfin à un retrait. Pendant ce temps, le contenu est en ligne et il continue de causer des préjudices.

M. le président Arthur Delaporte. Pourriez-vous nous dire à quels contenus vous avez été exposé et le type de signalement que vous avez fait ? En quoi était-ce facile ou non ? Quel type de réponse vous a été apporté et avez-vous fait appel ?

M. Guilhem Julia. J’ai fait des captures d’écran des différentes étapes du signalement et des contenus litigieux, que je pourrai envoyer au secrétariat de la commission.

Je suis tombé sur une série de contenus glorifiant des comportements alimentaires dangereux, des automutilations et des comportements suicidaires. Un contenu, ou plutôt le compte entier d’une jeune fille, a particulièrement retenu mon attention. On la voit tous les jours, en plan fixe, en train de faire une crise de boulimie.

J’ai fait un signalement. Lorsque vous êtes sur la publication, il faut aller, ce qui n’est pas du tout intuitif, sur l’onglet permettant de partager le contenu, comme si vous vouliez envoyer celui-ci à quelqu’un, sur un autre réseau social. Lorsque vous avez ouvert l’onglet de partage, un nouvel écran s’affiche et, en bas à gauche, vous trouvez l’onglet « signaler ». Une série de motifs est alors proposée – en l’occurrence, celui des troubles alimentaires du comportement correspondait parfaitement. J’ai fait un signalement, mais je n’ai pas eu la possibilité de le motiver ou de dire quoi que ce soit. On m’a répondu, deux jours plus tard, qu’aucune infraction aux règles de la communauté n’avait été détectée. On m’a alors demandé si je voulais changer le motif du signalement ou refaire celui-ci, en me donnant cette fois la possibilité d’argumenter, dans un espace de discussion.

J’ai tout simplement fait une copie d’écran des règles communautaires de TikTok, qui sont limpides : TikTok n’autorise pas la présentation et la promotion des troubles du comportement alimentaire – cela figure dans l’onglet « santé mentale et comportementale » des principes communautaires de TikTok. J’ai expliqué que les vidéos d’une jeune fille filmant chaque jour ses crises de boulimie entraient, à mon sens, dans cette catégorie. Je n’ai pas eu de nouvelles après ce nouveau signalement.

M. le président Arthur Delaporte. Nous aurons l’occasion d’interroger TikTok à ce sujet. N’hésitez pas à nous transmettre les éléments que vous avez évoqués et à nous dire si une réponse est apportée par la suite.

M. Guilhem Julia. Je vous transmettrai toutes les captures d’écran et toutes les pièces dont je dispose.

Mme Célia Zolynski. Nous avons beaucoup réfléchi à ces questions. La Commission nationale consultative des droits de l’homme, au sein de laquelle je siège en tant que personnalité qualifiée, a eu l’occasion d’examiner la proposition de loi de Mme Avia relative à la lutte contre la haine en ligne. Nous avions anticipé dans notre avis la décision, de 2020, du Conseil constitutionnel. Je voudrais porter à votre attention une exigence juridique, qui concerne aussi nos valeurs démocratiques fondamentales. Bannir d’emblée certains contenus peut poser une question. Ce n’est pas le cas s’ils sont illicites, c’est-à-dire manifestement contraires au droit français et au droit de l’Union européenne – je rappelle, à cet égard, que la France a compétence pour qualifier d’illicites certains contenus, comme nous l’avons fait récemment pour des contenus dits fake à caractère sexuel, dans le cadre de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique dite SREN. En la matière, les plateformes ont une obligation de retrait « dans un prompt délai » et elles engagent leur responsabilité si elles ne s’exécutent pas. En revanche, on sait toute la difficulté que peuvent poser des contenus préjudiciables, qui ne sont pas illicites et qui, séparément, peuvent ne pas avoir un effet délétère considérable, mais qui sont extrêmement préjudiciables, notamment aux plus jeunes utilisateurs. Ce qu’a rappelé mon collègue au sujet de TikTok est tout à fait problématique et choquant. Il faut trouver le moyen d’agir contre les effets d’amplification des contenus toxiques.

Les lignes directrices – je suis désolée d’insister sur ce document mais il me semble qu’il recèle des clefs – indiquent tout d’abord, au sujet de la modération, que les plateformes doivent préciser ce qu’elles entendent par « contenus préjudiciables ». Pour éviter la difficulté à laquelle mon collègue a été confronté, il faudrait que TikTok, si on ne considère pas que cette plateforme est de mauvaise foi, identifie clairement dans ses conditions générales d’utilisation et dans ses règles de communauté, dont le respect s’impose en vertu du DSA, ce qui relève des contenus préjudiciables. Les signalements pourraient ainsi être plus efficients. S’agissant de la promotion des troubles du comportement alimentaire, par exemple, il faudrait savoir exactement quels contenus entrent dans cette catégorie, au moyen d’exemples précis. Cela permettrait non seulement d’exercer un contrôle, mais aussi de faciliter les signalements des utilisateurs.

On l’a vu, en effet, à propos de la lutte contre la haine en ligne – je travaille sur ce sujet avec bon nombre de très jeunes utilisateurs –, bien souvent ces derniers ne savent pas si un contenu relève de la haine en ligne, si c’est un contenu toxique. Ces hésitations conduisent à ne pas faire de signalement, d’autant qu’on ne veut pas dénoncer, même si c’est une autre question. Il faudrait des règles claires sur ce qui peut être signalé et ce qui ne peut pas l’être, dans le cadre des règles de la communauté et des conditions générales d’utilisation de la plateforme, afin de permettre un contrôle efficient sur le plan de la mise en œuvre.

Par ailleurs, d’autres fondements sont possibles, notamment le droit des pratiques commerciales déloyales. Quand une plateforme annonce qu’elle modère certains contenus mais ne le fait pas, on peut agir sur ce fondement, qui est extrêmement efficient.

Soyons prudents à l’égard de solutions qui paraîtraient peut-être pertinentes mais pourraient en réalité se révéler problématiques, comme un bannissement trop général de contenus qui ne préserverait pas la liberté d’expression, le droit de certaines personnes de partager certains états, certaines analyses. On a vu ce qu’il en était avec la lutte contre la haine en ligne ou l’éducation à la vie affective et sexuelle. Il faut faire attention à préserver l’ensemble de l’édifice.

M. Guilhem Julia. Je suis entièrement d’accord. Le bannissement est une solution très radicale, qui porte atteinte, notamment, à la liberté d’expression. J’imagine aussi que les jeunes filles qui partagent de tels contenus sur TikTok ont, en fait, besoin de s’exprimer. C’est peut-être une partie d’une thérapie pour elles, si tant est qu’elles soient favorables à cela et qu’elles en aient envie. J’imagine la violence que pourrait représenter pour elles l’interdiction de partager leurs contenus.

Une autre idée, plus respectueuse de la liberté d’expression, serait de rassembler dans des groupes ces publications, qui ne sont pas nécessairement illicites mais peuvent tout du moins être préjudiciables, selon l’état psychologique des personnes qui les regardent. Un avertissement permettrait de prévenir les utilisateurs de la plateforme qu’il s’agit de contenus potentiellement préjudiciables, mais il faudrait surtout que ces publications soient retirées du fil algorithmique « pour toi » de TikTok. Ainsi, la publication ne pourrait plus être soumise passivement à l’utilisateur, imposée dans le cadre de la spirale dont il a beaucoup été question. Ce serait plutôt une posture active de l’utilisateur qui le conduirait, en connaissance de cause, vers ces contenus. Une telle forme de modération permettrait peut-être de restreindre un peu la toxicité de ces contenus tout en permettant à leurs auteurs de s’exprimer, de les partager avec certains utilisateurs. Cela pourrait être une solution.

Mme Célia Zolynski. Les lignes directrices vont dans ce sens. Il doit être possible de modifier les paramètres du système de recommandations, par la reconnaissance de préférences qui influencent directement ces dernières, et de mettre en place des mécanismes de signalement et de retour d’informations pertinents, qui ont un impact rapide. Parfois, l’utilisateur indique qu’il ne veut pas voir davantage de contenus similaires, mais ce n’est pas suivi d’effets. Dès lors, on peut considérer l’interface de choix comme trompeuse, ce qui peut être sanctionné en tant que tel. La possibilité de modifier son fil de recommandations, de faire un reset réinitialisation – lorsqu’on est enfermé dans une spirale de contenus toxiques, est déterminante, de même que la possibilité de proposer de nouveaux contenus après un certain temps d’interaction, pour éviter l’effet « trou de lapin ».

Je vous invite à œuvrer vraiment le plus possible pour limiter l’effet spirale, qui est éminemment toxique. On attend, à cet égard, les résultats de l’enquête de la Commission européenne sur TikTok et Meta, mais il est possible de travailler d’ores et déjà en vue d’imposer une conception qui interdise – j’irai jusque-là – l’effet spirale de contenus délétères. Votre audition des familles de victimes regroupées dans le collectif Algos Victima en a souligné la nécessité. Saisissons-nous de la question de la conception des services pour forcer – c’est possible, selon moi – une évolution des algorithmes de recommandations.

Mme Joëlle Toledano. Je suis évidemment d’accord avec ce qui vient d’être dit.

Au-delà des questions de la consultation des ados, des jeunes, de ce que tout cela peut signifier pour eux, du temps passé sur les plateformes et des catastrophes, bien sûr trop nombreuses, qui se produisent, je reviens sur l’idée plus générale qu’il serait bon d’avoir des éléments d’appréciation et de compréhension. J’ai été frappée de voir que des entreprises vendaient à toute une série de secteurs  acteurs de la mode, vedettes de sport... – des services consistant à suivre ce qui se passe sur les réseaux à leur propos, pour canaliser les choses et les comprendre un tout petit peu.

J’ai ainsi repéré une entreprise qui s’appelle Bodyguard. Il me semble qu’il serait intéressant que vous l’auditionniez, car elle a créé un observatoire de la haine en ligne. Si elle constituait un observatoire des jeunes, à partir d’un échantillon, cela permettrait d’avoir des éléments qui nous manquent pour rendre factuel ce qui se passe, au lieu de seulement attraper des catastrophes. À ce sujet, les enseignants nous disent que la première des catastrophes, c’est que les enfants dorment à l’école.

Pourquoi ne pas essayer de se doter d’un outil qui permettrait d’appréhender la situation d’une manière plus factuelle ? Je ne sais pas si vous aviez noté l’existence de cet observatoire de la haine en ligne – je pourrai vous envoyer un lien. Cela donne envie de faire d’autres choses qui seraient un peu dans le même esprit.

M. le président Arthur Delaporte. C’est bien noté. Mme la rapporteure sera libre de faire les recommandations qu’elle souhaite, mais cela pourrait éventuellement être intégré dans le rapport.

Mme Célia Zolynski. Bodyguard mène effectivement une action extrêmement intéressante, notamment en matière d’analyse de l’utilisation d’émojis – en forme d’arbre ou de pizza, par exemple – pour contourner les mécanismes de modération des contenus haineux et en matière de suivi, en temps réel, de l’évolution de l’ensemble des communautés, à l’imaginaire très fertile, qui mettent en avant les discours haineux. La proposition formulée par Mme Joëlle Toledano est essentielle, mais je voudrais aussi porter à votre connaissance d’autres mécanismes – c’était, je crois, l’un des derniers points de votre questionnaire écrit – qui pourraient servir de sources d’inspiration pour la France.

Nous avons formulé des recommandations dans le cadre de la mission Enfants et écrans afin de construire vraiment un dialogue avec les jeunes utilisateurs, qui sont les premières vigies des nouvelles pratiques. Ils ne les identifient pas toujours comme délétères pour eux, mais certains le font très bien  il existe, dans ce domaine, une différence de génération intéressante. Nous menons, avec mes étudiants de Paris 1, un certain nombre d’actions pour mobiliser différentes générations de jeunes sur le déploiement d’outils en la matière – je pourrai ainsi vous faire part des actions de l’association ADN sans haine. Cette question est également au cœur d’un mécanisme mis en place en Australie par l’eSafety, qui a créé un conseil de jeunes pour l’aider à élaborer les documents de sensibilisation et les lignes directrices – qui portent là-bas un autre nom – pour les opérateurs.

Il est essentiel d’assurer une telle courroie de transmission et de mettre en place des mécanismes de signalement extrêmement rapides, à l’image de l’alerte enlèvement. Quand émerge une pratique qui emporte des effets délétères, comme le SkinnyTok, et qui s’amplifie très vite, compte tenu du fonctionnement de TikTok, il me paraît déterminant que des signalements puissent avoir lieu, afin que des actions de sensibilisation des plus jeunes soient menées, y compris au sein de l’éducation nationale – on le voit bien avec toutes les mécaniques de sextorsion et la déferlante d’applications de dénudage qui arrive en France.

M. le président Arthur Delaporte. Je vous remercie. Nous sommes preneurs de synthèses, de témoignages et de tout complément que vous voudriez nous transmettre. Vous pourrez notamment nous écrire pour préciser ce que vous avez observé ailleurs en matière de bonnes pratiques – cela ne pourra qu’alimenter la dimension prospective et les propositions du rapport. Je rappelle également que nous sommes ouverts à tous les témoignages à l’adresse suivante : commission.tiktok@assemblee-nationale.fr.

33.   Audition de M. Bernard Basset, président de l’Association Addictions France, M. Franck Lecas, responsable du pôle projets politiques publiques et Mme Louise Lefebvre-Lepetit, chargée de mission plaidoyer (lundi 26 mai 2025)

La commission auditionne M. Bernard Basset, président de l’Association Addictions France, M. Franck Lecas, responsable du pôle projets politiques publiques et Mme Louise Lefebvre-Lepetit, chargée de mission plaidoyer ([32]).

M. le président Arthur Delaporte. Je vous remercie d’avoir sollicité cette audition auprès de la commission d’enquête.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Bernard Basset, M. Franck Lecas et Mme Louise Lefebvre-Lepetit prêtent successivement serment.)

Je vous remercie également de signaler tout intérêt public ou privé de nature à influencer vos déclarations.

M. Bernard Basset, président de l’association Addictions France. L’appartenance à l’association exclut tout lien d’intérêt avec des lobbies pouvant générer des addictions, qu’il s’agisse du numérique, de l’alcool ou du tabac.

De notre point de vue, les réseaux sociaux sont particulièrement dangereux en raison d’un mécanisme addictif qui tient, d’une part, à l’outil numérique, c'està-dire aux algorithmes employés par les plateformes pour retenir leurs utilisateurs, et d’autre part aux produits ou aux comportements addictifs promus dans les contenus, comme la consommation d’alcool, les jeux et les paris sportifs. Les algorithmes sont basés sur le renforcement de la préférence ; la recherche de plaisir étant le point de départ des addictions, ils renforcent donc les mécanismes d’addiction. Ils ont également pour effet d’enfermer l’utilisateur dans une bulle informationnelle en resserrant les contenus proposés sur les centres d’intérêt identifiés. De ce fait, les réseaux focalisent l’attention et limitent la curiosité intellectuelle par effet d’entonnoir.

M. Franck Lecas, responsable du pôle projets politiques publiques. Le même mécanisme est à l’œuvre pour les publicités sur les plateformes de Meta, où le recueil de cookies permet de cibler de manière toujours plus précise une population donnée – il y a moins de publicité sur TikTok. Les offres de gratification des sites de paris sportifs sont ainsi destinées aux personnes utilisant les plateformes des opérateurs de jeux et identifiées comme telles.

Notre travail a commencé en 2021. Il consiste à identifier les contenus promouvant des produits dangereux sur les réseaux sociaux, comme l’alcool et les paris sportifs, et à les faire supprimer, à plus forte raison lorsqu’ils sont permanents. Au début, nous avons rencontré des difficultés. Nos actions en justice, notamment sur des contenus liés à l’alcool enfreignant la loi n° 91-32 du 10 janvier 1991 relative à la lutte contre le tabagisme et l’alcoolisme dite loi Évin, ont permis une légère amélioration. Sur TikTok, nous avons eu accès à la trustee procedure, qui préfigure la procédure prévue par le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA). Pour Meta, à partir du moment où nous avons fait condamner la plateforme, nous avons atteint un taux de retrait d’environ 70 %, ce qui est critiquable mais bien meilleur qu’au démarrage. Néanmoins, nous ne comprenons pas par quel mécanisme la procédure aboutit ou non à un retrait. Nous essuyons parfois de la part de Meta des refus non expliqués qui nous obligent à saisir la justice afin de déterminer si le contenu est bien illégal.

En outre, les contenus éphémères – les stories et les lives – passent sous les radars de la régulation. Les contenus sur TikTok sont pour l’essentiel des contenus permanents, mais il existe désormais des contenus éphémères dans la catégorie « Pour toi ». Si les modalités de contrôle a posteriori semblent s’améliorer, rien n’existe pour anticiper les infractions. Nous sommes contraints de maintenir une veille permanente pour supprimer ces contenus dont le nombre ne baisse pas avec le temps.

Mme Louise Lefebvre-Lepetit, chargée de mission plaidoyer. Les algorithmes sont au cœur de l’addiction, aussi bien aux réseaux sociaux qu’aux produits qui y sont valorisés. À nos yeux, il faut responsabiliser les acteurs du numérique plutôt que les parents.

Mme Laure Miller, rapporteure. Il ressort de nos auditions que la dépendance aux écrans reste une notion controversée dans le milieu scientifique. Dans quelle mesure considérez-vous que les réseaux sociaux relèvent de l’addiction ?

Voyez-vous une spécificité dans le fonctionnement de TikTok qui rendrait cette plateforme particulièrement addictive ?

Vous avez dit que les contenus problématiques étaient désormais plus facilement retirés sur Meta. Quel est votre taux de retrait sur TikTok ? Les choses vont-elles en s’améliorant ?

Enfin, pourriez-vous détailler les politiques de prévention que vous mettez en œuvre ?

M. Bernard Basset. Effectivement, le sujet fait débat : s’agit-il d’une addiction aux écrans ou aux contenus ? La réflexion se poursuit. Vous avez auditionné la semaine dernière les docteurs Amine Benyamina et Servane Mouton, coprésidents de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans. Ils ont adopté une position pragmatique qui consiste à remédier aux effets constatés sans prendre position sur le plan théorique.

Même si les écrans sont partout, nous avons tendance à considérer qu’il s’agit principalement d’une addiction aux contenus, favorisée par l’algorithme, qui est un facteur additionnel : quand un contenu court et éphémère produit du plaisir, on a tendance à le renouveler. C’est pourquoi nous sommes très attentifs à la fois au fonctionnement des plateformes et à ce qu’elles proposent. Elles créent un environnement qui favorise les comportements addictifs, aussi bien du fait de l’algorithme et de la vitesse à laquelle les contenus s’enchaînent qu’en raison des produits promus. Je rappelle que la promotion de l’alcool enfreint la loi Évin et que celle des paris sportifs contrevient aux recommandations de l’Autorité nationale des jeux (ANJ).

Nous réussissons davantage sur TikTok, où le taux de retrait des contenus signalés comme illégaux atteint 95 % – principalement des infractions à la loi Évin –, que sur Meta, où il n’est que de 76 %. Cela n’inclut pas les contenus éphémères, pour lesquels nous sommes dans l’incapacité de produire une preuve devant le juge car le contenu disparaît avant que nous ayons le temps de le faire constater par un commissaire de justice.

M. Franck Lecas. Je ne voudrais pas faire passer TikTok pour un bon élève, mais il est vrai que son taux de retrait est plus satisfaisant que celui de Meta. Nous rencontrons néanmoins des problèmes autour des contenus restreints, dont on ne sait pas très bien à quoi ils correspondent. Si j’ai bien compris, il ne s’agit pas d’un blocage territorial, mais d’empêcher le contenu de s’afficher sur la page « Pour toi ». Il est évident que cette réponse est insuffisante lorsque le contenu en question est illégal. Nous sommes en discussions avec TikTok pour en savoir plus.

Le délai de retrait sur TikTok a été amélioré : il est désormais compris entre un et cinq jours, contre dix au début de notre action. Cependant, le retrait des contenus n’entraîne pas nécessairement la suppression du compte et, le cas échéant, le créateur de contenus contrevenant à la loi ou aux règles de TikTok peut toujours recréer un compte ou basculer sur une autre plateforme. Cela nous oblige à multiplier les actions, ce qui entraîne une perte de temps et un gâchis d’argent public.

M. le président Arthur Delaporte. Pour rebondir sur cette question de la modération et des transferts entre plateformes, avez-vous constaté que certains influenceurs jugés problématiques sur d’autres réseaux, comme Instagram, s’étaient reportés sur TikTok ?

M. Franck Lecas. Très concrètement – et comme nous nous exprimons sous serment, je dois être exact –, nous avons observé l’inverse, c’est-à-dire des tiktokeurs bannis de TikTok qui se sont rabattus sur Meta.

Je pense par exemple à Zackii, dont le compte TikTok a été supprimé et recréé plusieurs fois. Sur ce point, nous avons d’ailleurs un peu de mal à comprendre comment fonctionne TikTok, puisque nos signalements n’empêchent pas les personnes concernées de créer de nouveaux comptes.

M. le président Arthur Delaporte. Quelle est la nature du problème posé par cet utilisateur ?

M. Franck Lecas. Ce monsieur crée des cocktails mêlant différents alcools qui contiennent souvent aussi des friandises – du Kinder Bueno, de la barbe à papa –, ce qui, au-delà du fait que cela cible de façon un peu tendancieuse une population jeune, dépeint surtout une consommation d’alcool ludique.

M. Bernard Basset. C’est illégal, tout simplement.

M. Franck Lecas. En effet : il n’y a pas vraiment de débat sur ce point. Son compte a donc été supprimé, mais il le recrée périodiquement, ce dont il se vante d’ailleurs, puisqu’il revendique, dans son palmarès, trois comptes bannis sur TikTok, ce qui est assez cynique – ou irrévérencieux, je ne sais pas. En tout cas, cet influenceur a maintenant aussi créé un compte sur Instagram, au cas où. Dans ce type de situations, signaler encore et encore les contenus problématiques n’est donc pas très efficace.

Mme Laure Miller, rapporteure. Pouvez-vous nous dire quelques mots des politiques de prévention que vous conduisez ?

M. Bernard Basset. Nous menons des politiques de prévention globale à l’intention des jeunes, en particulier à travers ce que nous appelons des programmes probants, dont l’efficacité est certifiée par Santé publique France, la HAS (Haute Autorité de santé) ou d’autres institutions. Les programmes destinés aux jeunes visent principalement à renforcer les compétences psychosociales, c’est-à-dire la capacité à dire non à une sollicitation ou à des effets de groupe de pairs qui incitent à consommer. Des programmes financés par le fonds de lutte contre les addictions sont ainsi déployés auprès des populations scolaires.

La prévention passe aussi par le fait d’avertir les plateformes quand elles proposent des contenus illégaux, de faire de la pédagogie auprès d’elles pour qu’elles retirent ceux qui sont déjà en ligne et qu’elles ne recommencent pas. C’est évidemment un peu plus difficile – vous en avez eu un aperçu.

Nous avions également milité, lors de l’examen de la proposition de loi devenue la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, en 2023, pour que ces derniers ne puissent faire aucune publicité, directe ou indirecte, pour les alcools. Cette option, qui n’a pas été retenue par le Gouvernement, serait une solution structurelle en matière de promotion des boissons alcooliques sur les plateformes.

Nous participons aussi, à l’instar d’autres associations, à des opérations de prévention générale sur les paris sportifs et d’autres thèmes, le plus souvent avec Santé publique France ou les services du ministère de la santé.

M. le président Arthur Delaporte. Vous avez indiqué disposer d’un canal de signalement privilégié auprès de TikTok, qui permet le retrait des contenus dans 95 % des cas. Avez-vous des contacts directs et identifiés pour remonter des problèmes tels que les recréations de compte que vous décriviez ?

M. Franck Lecas. Oui. C’est d’ailleurs un processus laborieux pour nous, car cela nécessite chaque fois une nouvelle démarche, et les collaborateurs de TikTok avec qui nous communiquons changent fréquemment – d’après ce que j’ai compris, la modération est assurée depuis l’Irlande. Actuellement, nous avons un contact français, même si je ne sais pas exactement où il se situe dans l’institution TikTok. Nous pouvons donc effectivement communiquer avec eux directement, ce qui n’est pas le cas pour toutes les plateformes.

M. le président Arthur Delaporte. Vous leur avez donc dit de manière explicite, et pas simplement par un formulaire, que le compte de Zackii, par exemple, a été recréé trois fois ?

M. Franck Lecas. Exactement. Plus précisément, nous l’avons fait une première puis une deuxième fois, et nous envisageons désormais d’autres solutions plus contraignantes vis-à-vis de cet influenceur, en espérant que cela le dissuade davantage : vous l’aurez compris, nous allons probablement engager une action contentieuse. Nous avons donc mis de côté les signalements le concernant, puisque les actions préventives ne fonctionnent pas avec lui. Il ne nous laisse pas vraiment d’autre choix, d’autant qu’il n’a pas été particulièrement sympathique à notre égard et nous a dénigrés dans une vidéo.

M. le président Arthur Delaporte. On parle beaucoup de la modération par les plateformes, mais, s’agissant de contenus clairement illicites, comme dans ce cas précis, se pose la question de la judiciarisation. Qu’en est-il de votre capacité à engager des actions judiciaires ? Est-il difficile d’engager de telles démarches ? Aboutissent-elles rapidement ?

M. Franck Lecas. Comme je l’indiquais, le fait d’agir en justice nous a permis de débloquer la situation avec TikTok et de nous donner accès à une procédure spécifique qui nous permet d’agir directement auprès d’eux, ce qui n’a pas été le cas pour Meta.

Au-delà de nos liens avec les plateformes, la judiciarisation apporte des résultats qui peuvent être rapides, puisqu’il existe, depuis la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, une procédure accélérée au fond qui nous permet d’agir vite et de citer rapidement des utilisateurs. Nous n’engageons cependant pas une action pour chaque contenu : nous attendons d’en avoir accumulé suffisamment pour que l’action soit rentable et efficiente, d’abord parce que nous ne sommes pas très riches – nous sommes une association –, mais aussi parce que nous ne souhaitons pas encombrer les tribunaux outre mesure, de peur de créer une saturation, de gêner le juge et d’aboutir à une décision défavorable. Nous faisons donc très attention à ne pas trop user de ce levier : c’est une stratégie réfléchie de notre part. Nous agissons avec parcimonie, sur des cas qui ne nous semblent pas poser de difficulté juridique.

Si ces procédures sont efficaces, la contrepartie est qu’elles prennent du temps. Le délai précis figure dans notre rapport intitulé Les réseaux sociaux, un nouveau Far West et il dépend du stade de la procédure auquel on se situe, mais il excède souvent deux ans : en moyenne, l’attente est tout de même assez longue.

M. le président Arthur Delaporte. Quelle est la nature de vos liens avec l’Autorité de régulation de la communication audiovisuelle et numérique l’Arcom ? Quel type de signalements lui faites-vous ?

M. Franck Lecas. J’ai lu dans le questionnaire que vous nous avez transmis que vous établissez un lien entre l’Arcom et le DSA. Ce lien existe effectivement, puisque c’est l’Arcom qui nous a accordés, en avril dernier, le statut de signaleur de confiance créé par le DSA.

Je ne saurais vous en dire beaucoup plus quant à l’efficacité de ce statut, car nous ne l’avons pas encore mis en œuvre, pour deux raisons. D’abord, nous devons nous organiser en interne pour définir quels contenus signaler et quel protocole appliquer.

Ensuite, nous n’avons pas toutes les clés pour mettre ce statut à profit. Chez TikTok, une procédure spécifique a été créée, sans que nous comprenions exactement comment elle fonctionne à ce stade : nous n’avons pas réussi à l’appliquer. Il semble qu’il y ait un blocage, ce qui n’est pas le cas pour leur ancienne trustee procedure, qui existe toujours et qui cohabitera avec la nouvelle procédure. Le même constat vaut pour les autres plateformes : YouTube et Meta ne nous ont pas répondu et, si certains réseaux sont venus vers nous pour nous enjoindre d’utiliser cette procédure et nous donner les clés, nous n’avons pas réussi à les faire fonctionner – nous n’avons pas trouvé la serrure, en quelque sorte.

Nous n’utilisons donc pas encore ce nouveau statut de signaleur de confiance, mais nous comptons le faire dans le courant de l’année. Nous pourrons alors comparer l’efficacité d’un signalement classique et celle d’un signalement DSA. Nous ferons régulièrement des comptes rendus à qui voudra les lire.

Quant à l’Arcom, chaque citoyen peut lui faire des signalements. Nous lui en adressons, y compris à propos de contenus publiés sur des réseaux sociaux, dont YouTube. Nous l’avons par exemple saisie d’un clip du rappeur SCH, bien connu à Marseille et maintenant dans la France entière, à qui elle a demandé de flouter des éléments faisant de la publicité pour l’alcool, ce qui n’est pas une sanction particulièrement contraignante. À l’occasion d’un autre signalement, l’Arcom a demandé à l’auteur d’un contenu de couper les éléments problématiques, ce qui est également une sanction relativement douce. À notre connaissance, elle n’a pas imposé de sanctions plus lourdes pour l’instant.

Mme Laure Miller, rapporteure. Avez-vous des recommandations à formuler en matière de politique de santé publique ?

M. Bernard Basset. Nous avons commencé par dénoncer l’effet pervers de l’algorithme utilisé par nombre de ces plateformes. Sans vouloir faire sa promotion, Dailymotion utilise un système différent, qui propose des contenus en dehors des préférences déjà identifiées. Or il est plus stimulant intellectuellement de ne pas être enfermé dans un entonnoir de préférences qui se renforcent chaque fois qu’on clique sur un contenu.

Se pose aussi la question du temps d’exposition aux écrans. Une solution technique consisterait à rendre le visuel moins attractif après une durée à déterminer – trente minutes, une heure –, par exemple en le passant en noir et blanc, afin que le fait de rester devant l’écran devienne moins attirant à mesure que le temps s’écoule.

Pour lutter contre le non-respect de la loi Évin sur les réseaux sociaux, en particulier par les influenceurs, nous ne voyons pas d’autre solution que d’interdire à ces derniers de promouvoir l’alcool. Cette publicité est un des moteurs les plus puissants de la consommation : parce que les jeunes s’identifient à un jeune qui leur ressemble et qui leur apparaît dans une situation valorisante, ils s’identifient aussi à son comportement et à ce qu’il promeut, que ce soient des vêtements ou de l’alcool. S’agissant des produits dangereux, en particulier pour la jeunesse – et on sait que l’alcool est dangereux pour le cerveau des jeunes –, il n’y a pas d’autre solution que d’interdire leur promotion sur les réseaux sociaux. C’est une mesure assez radicale, mais nous n’en avons pas d’autre à disposition.

Il y a enfin le problème de la vérification de l’âge minimal requis pour accéder à certains contenus. Il est difficile à résoudre et je ne suis pas compétent pour me prononcer sur les mesures techniques à prendre, mais, sur le principe, un contrôle efficace de l’âge doit être instauré avant de permettre l’accès à ces plateformes et aux contenus qu’elles promeuvent.

M. le président Arthur Delaporte. Avant que nous mettions fin à cette audition, voulez-vous porter des éléments supplémentaires à notre connaissance ?

Mme Louise Lefebvre-Lepetit. Il est très important que ce soient les acteurs du numérique qui prennent en charge la réponse à ces revendications, qu’il s’agisse de la vérification de l’âge – en demandant des justificatifs – ou des mesures techniques permettant de limiter le temps d’exposition. Les plateformes doivent mettre en œuvre ces mesures et les proposer de manière claire et accessible à tous les utilisateurs, mineurs comme adultes – car les adultes peuvent aussi être concernés par ces formes d’addiction. Elles doivent prendre en charge ces actions, et pas simplement laisser aux parents la responsabilité d’activer le contrôle parental et de vérifier ce que font leurs enfants.

M. Bernard Basset. Il ne s’agit effectivement pas de culpabiliser les parents, qui font face à des réseaux sociaux et à des plateformes redoutables. Ces acteurs doivent être régulés et ont les moyens d’instaurer toutes les mesures nécessaires pour respecter la loi.

M. le président Arthur Delaporte. Merci pour vos réponses. Mme la rapporteure et moi-même restons à votre entière disposition pour tout élément complémentaire que vous souhaiteriez nous communiquer.

M. Bernard Basset. Nous vous retournerons le questionnaire que nous avons reçu vendredi dernier.

34.   Audition de Mme Bérangère Couillard, présidente du Haut Conseil à l’Egalité entre les hommes et les femmes (mardi 27 mai 2025)

La commission auditionne Mme Bérangère Couillard, présidente du Haut Conseil à l’Egalité entre les hommes et les femmes ([33]).

M. le président Arthur Delaporte. Mes chers collègues, nous reprenons nos auditions en recevant Mme Bérangère Couillard, présidente du Haut Conseil à l’égalité entre les hommes et les femmes (HCEFH) et ancienne ministre. Madame, je vous remercie d’avoir pris le temps de répondre à notre invitation, mais également de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mme Couillard prête serment.)

Mme Bérangère Couillard, présidente du Haut Conseil à l’égalité entre les hommes et les femmes. Je suis très honorée d’être invitée aujourd’hui pour cette audition et de pouvoir représenter le Haut Conseil devant la représentation nationale. La question de l’influence du réseau social TikTok sur les mineurs et des effets de son utilisation est sérieuse et grave, loin des caricatures. Celles et ceux qui, comme moi et les membres du Haut Conseil, s’intéressent aux questions d’égalité entre les femmes et les hommes savent que les réseaux sociaux ont un effet extrêmement néfaste sur les rapports entre les jeunes hommes et les jeunes femmes. L’utilisation massive de ces applications a entraîné harcèlement sexiste, violence verbale et psychologique, promotion de la pornographie ou encore montée en puissance des idées masculinistes.

Mais TikTok présente des particularités qui méritent de traiter cette application différemment des autres réseaux sociaux. Elle est aussi la plus utilisée parmi les jeunes mineurs de notre pays, ce qui accroît le risque de l’influence éducative qu’elle peut entraîner sur nos enfants. Ainsi, 70 % des usagers de TikTok en France ont moins de 24 ans, dont un enfant sur deux est âgé de 11 à 12 ans.

Environ 76 millions d’utilisateurs dans le monde ont été signalés pour avoir moins de l’âge minimal, soit 13 ans, uniquement en 2023. Le Haut Conseil à l’égalité a travaillé sur ce sujet et publié un rapport en 2022 sur la question plus large du cercle vicieux du sexisme dans le numérique. Pour le volet concernant les réseaux sociaux Instagram, TikTok et YouTube, nous nous sommes notamment appuyés sur le travail très sérieux de plusieurs étudiants de Sciences Po Paris avec lesquels nous avons travaillé en partenariat.

Ils se sont attachés à analyser les 100 contenus les plus visionnés sur TikTok en 2022. Leur constat est sans appel : les femmes sont repoussées au second plan sur TikTok. Les créatrices, tout d’abord, sont minoritaires. Parmi les 100 contenus analysés, seuls 31 sont issus de comptes identifiables comme étant gérés par des femmes ou cogérés par un couple hétérosexuel. En tout, seulement onze comptes sont gérés exclusivement par des femmes et vingt cogérés par des hommes et femmes. Les comptes de créatrices féminines sont ainsi largement absents du top 100 des vidéos les plus visionnées.

Les femmes sont aussi globalement sous-représentées dans les contenus. Seuls 36 % des personnages sont des femmes contre 64 % d’hommes. En outre, on décompte 53 % de vidéos présentant une mixité des genres. Dans les vidéos non mixtes, seuls 27 % mettent en scène une ou plusieurs femmes. La non-mixité, lorsqu’elle existe, est donc plus souvent masculine. Enfin, seuls 35 % des femmes occupent un rôle principal, les hommes en représentent 65 %. La parité pour les rôles secondaires reste la même : 38 % pour les femmes contre 62 % pour les hommes.

Mais si l’on se concentre sur le contenu en lui-même, le constat est encore plus inquiétant. L’humour dit « masculin » et donc stéréotypant est ultradominant. Ainsi, 35 % des vidéos présentent un comportement féminin stéréotypé, c’estàdire incluant un ou plusieurs stéréotypes féminins. Les données montrent que dans les cas où la femme correspond à un archétype de genre, elle est dépeinte respectivement comme étant la femme réservée et calme (18 %), hystérique (16 %) et séductrice (13 %). Ensuite, 61 % des vidéos présentent des comportements stéréotypés masculins. Quand les hommes sont représentés au travers d’un archétype de genre, ils le sont très largement au travers de la figure de l’homme humoriste. Ainsi, 33 % des vidéos ont pour but de divertir et 32 % sont humoristiques.

Comme sur YouTube, la récurrence de ce trait souligne que le fait d’être drôle, d’occuper le devant de la scène et de faire rire une audience mixte est largement associé aux hommes. Contrairement aux archétypes féminins, les stéréotypes masculins les plus observés sont donc valorisants. Pire encore, une image dégradante de la femme est mise en avant dans 20 % du contenu analysé. Lorsque les femmes sont représentées de manière dégradante, elles sont majoritairement humiliées. Les rapports de couples stéréotypés sont majoritairement dans les contenus humoristiques et de divertissement. Il n’est pas rare que les hommes exploitent parfois la dynamique du couple hétérosexuel traditionnel pour ridiculiser leur femme.

Nous pouvons observer des scénarios où l’homme crée du désordre dans la maison, puis la femme rentre et s’énerve, perçue comme hystérique, sousentendant ainsi qu’il est de sa responsabilité de nettoyer le désordre. Il s’agit de stéréotypes classiques que nous combattons au quotidien, mais qui trouvent une résonance massive sur cette plateforme auprès d’une audience majoritairement mineure et alors même que nous tentons de faire changer leur mentalité par l’éducation à l’égalité. Comme vous le voyez, les contenus diffusés sur cette plateforme sont loin d’être anodins. J’aurais également pu évoquer les contenus qui sexualisent à outrance les femmes, voire les présentent comme de simples objets du désir sexuel des hommes pour aller jusqu’à promouvoir pour certains la pornographie, comme le compte d’AD Laurent récemment interdit.

Certains contenus engendrent aussi des effets néfastes sur la santé mentale des jeunes et plus particulièrement des jeunes filles. Je laisserai le soin aux professionnels de santé que vous auditionnerez et qui connaissent mieux le sujet que nous de vous présenter les différents effets néfastes d’une utilisation disproportionnée de ces applications. Mais je veux tout de même évoquer avec vous quelques pistes de réflexion. Les enfants et les jeunes qui regardent des contenus liés à la santé mentale sur leur fil « Pour toi » de TikTok sont rapidement entraînés dans des spirales de contenus qui idéalisent et encouragent les pensées dépressives, l’automutilation et le suicide. Lorsqu’un utilisateur montre un intérêt pour un contenu en lien avec la santé mentale, au bout de cinq ou six heures passées sur la plateforme, près d’une vidéo sur deux parle de ce sujet de manière potentiellement nocive. C’est dix fois plus que ce qui est présenté aux comptes n’ayant indiqué aucun intérêt pour la santé mentale.

Un autre rapport de Common Sense Media a découvert que 69 % des filles adolescentes présentant des symptômes de dépression élevés ont été exposées au moins une fois par mois à du contenu lié au suicide, qui est poussé par l’algorithme de TikTok. De plus, 45 % des filles interrogées ont aussi avoué être addicts, dépendantes, à la plateforme. Ces risques sont encore plus grands quand une jeune femme tombe sur des contenus promouvant la minceur extrême. De jeunes femmes y diffusent des régimes drastiques, des routines sportives excessives et des messages culpabilisants : « Tu n’es pas moche, tu es juste grosse », « Plaisir éphémère, regret éternel ». Ce discours, qui valorise la restriction alimentaire extrême et stigmatise la prise de poids, participe activement à la normalisation des troubles du comportement.

Au-delà de l’exposition à des images de corps dénutris et de conseils alimentaires dangereux, ces contenus exploitent la vulnérabilité des jeunes en quête de repères, de validation sociale ou d’identité corporelle. L’algorithme de TikTok, accusé de créer des bulles de contenus homogènes, renforce cette exposition et aggrave l’isolement dans des spirales toxiques. Si le rapport du Haut Conseil à l’égalité que j’ai cité précédemment ne se concentre pas exclusivement sur les effets néfastes des réseaux sociaux, nous avons tout de même pu en analyser certains éléments.

Ce sujet, tant il est grave et influence grandement l’avenir de notre société par les valeurs que ses plateformes peuvent inculquer à nos enfants, mériterait certainement un rapport complet et dédié. À ce titre, votre commission a toute sa légitimité et je serais ravie de répondre à vos questions.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Vous avez déjà évoqué ce sujet, mais le rapport rendu en novembre 2023, qui portait sur la femme et le numérique, mettait déjà en évidence ce sujet des contenus, notamment sexistes, que l’on peut trouver sur TikTok. Considérez-vous que les plateformes numériques, et particulièrement TikTok, exploitent ces contenus dans le cadre de leur modèle économique ?

Mme Bérangère Couillard. Oui, certainement. À partir du moment où un algorithme propose toujours le même thème, l’objectif porte sur des fins aussi commerciales. Nous connaissons bien la stratégie qui est portée par les réseaux sociaux en général et particulièrement par la plateforme Meta, qui consiste à utiliser les données pour promouvoir l’intelligence artificielle (IA) et un certain nombre de contenus. L’objectif consiste bien à maintenir les consommateurs, c’est-à-dire nos jeunes, le plus longtemps possible sur la plateforme, en générant un certain nombre de contenus qui les rendent dépendants, pour pouvoir ensuite leur commercialiser des contenus.

Mme Laure Miller, rapporteure. Dans ce même rapport, une de vos recommandations consistait à créer un cadre éthique commun pour le calibrage des algorithmes, comme cela est envisagé à l’échelon européen. Pourriez-vous nous en dire plus ? Comment pourrions-nous rendre cette recommandation effective ?

Mme Bérangère Couillard. La recommandation du HCEFH consiste à mettre en place des comités mixtes qui permettraient de fixer des normes claires communes à tous les algorithmes pour faire disparaître les biais de genre dans leur calibrage, mais aussi de réaliser des audits « sexués » de ces données, afin d’en limiter au maximum les biais. Ces normes seraient vraiment des conditions minimales à la mise en œuvre d’un algorithme permettant le respect des droits fondamentaux des utilisateurs et des utilisatrices. Cela permettrait de limiter notamment des contenus violents, sexistes et dégradants pour les femmes diffusés quotidiennement.

Mme Laure Miller, rapporteure. À ce titre, le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) fournit un cadre qui nous permet d’avancer. Pour autant, dans nombre de nos auditions, nous entendons qu’il existe une espèce de zone grise sur ces contenus, notamment sexistes, qui ne permettent pas d’obtenir leur retrait de la part des plateformes. Menez-vous une réflexion pour mieux qualifier ces contenus et ensuite plus facilement obtenir leur régulation et leur retrait, le cas échéant ?

Mme Bérangère Couillard. Il existe une totale impunité de la part des plateformes qui considèrent qu’il s’agit d’un domaine privé, sur lequel elles sont entièrement libres d’instaurer telle ou telle contrainte. Depuis l’élection du président Donald Trump, ce phénomène de recul est particulièrement observable sur Meta. Nous l’avions déjà connu lorsque M. Elon Musk avait pris la tête de X, anciennement Twitter. Pourtant, les réseaux sociaux régissent aujourd’hui nos vies, particulièrement la vie de nos plus jeunes.

Le HCEFH propose de mettre en place des obligations au niveau européen, pour obliger l’établissement de signaleurs de contenus et, à défaut, des signaleurs de confiance qui pourraient relever d’une organisation aux niveaux européen ou français. Ils pourraient signaler des contenus, pour procéder ensuite à leur retrait. Il faudrait évidemment établir des critères. Il est par exemple plus difficile de retirer des contenus sexistes que des contenus racistes, car il existe aujourd’hui un cadre légal beaucoup plus clair sur le racisme que le sexisme. Le droit doit donc évoluer, en instaurant notamment un délit de sexisme, comme le propose le Haut Conseil à l’égalité dans différents rapports. Au-delà du cadre légal, ces signaleurs de confiance permettraient notamment d’analyser ce qu’il se passe sur les très grandes plateformes comme TikTok et la suppression des contenus, qu’il convient d’avoir définis.

Lorsque nous avons publié le rapport sur la pornocriminalité, nous avons préconisé de pouvoir faire supprimer très rapidement des contenus qui dégradent évidemment l’image de la femme dans les vidéos pornographiques. Selon la procureure de la République de Paris, plus de 90 % des contenus pornographiques sont passibles du code pénal au titre de l’incitation au viol ou de différentes violences. Il faut en effet rappeler que 50 % de la bande passante internet est consommée par des vidéos pornographiques.

Mme Laure Miller, rapporteure. Quel regard portez-vous sur les politiques de sensibilisation au numérique ? Comment les relier à cette question du sexisme et de l’égalité entre les hommes et les femmes ? Pensez-vous qu’il faille agir plus en ce sens auprès de nos plus jeunes publics ?

Mme Bérangère Couillard. C’est une évidence. Le HCEFH recommande depuis de nombreuses années l’application des cours d’éducation à la vie affective et relationnelle, et à la sexualité (Evars), adaptés à chaque âge. Nous subissons à ce titre des tentatives de déstabilisation des plus conservateurs sur cette question. Il n’a jamais été question, comme je l’entends parfois de manière horrible, d’apprendre la masturbation à un enfant de 5 ans. C’est une aberration.

Ces cours sont adaptés, dès le plus jeune âge. Il s’agit d’apprendre le respect de son corps, à déceler des possibles violences sexuelles, ce qu’il est possible de faire ou non. À ce titre, les annonces effectuées par la ministre d’État, ministre de l’éducation nationale, sont très importantes. Elles répondent aux exigences de la mise en œuvre des Evars partout dans le pays.

En effet, cette mise en œuvre souffrait de fragilités depuis les années 2000. D’abord, il n’y avait pas de contenus généralisés ; ils étaient réalisés par chaque association qui acceptait de venir dans les établissements. À partir du moment où il existe un programme commun, vous avez la certitude que le contenu est adapté à l’âge de l’enfant – de la maternelle jusqu’au lycée –, car il a été travaillé avec le personnel de l’éducation nationale et les parents. En proposant et en formant du personnel de l’éducation nationale, depuis les infirmiers scolaires jusqu’aux professeurs et aux conseillers principaux d’éducation, il devient possible de répondre aux besoins des établissements, partout en France.

Le numérique fait partie des sujets qui doivent être abordés parce qu’il n’est pas uniquement question de sexualité, quand vient l’âge d’en parler. Mais nous abordons également les sujets d’inégalité à l’école. À titre d’exemple, de nombreuses filières, comme les filières scientifiques, demeurent boudées par les filles parce qu’elles ne sont pas préparées, ni incitées à les rejoindre. Or les filières scientifiques numériques sont des filières dites d’avenir.

Il s’agit donc d’inciter les jeunes femmes à rejoindre le numérique, mais aussi de parler des conséquences du numérique et de certains contenus sur TikTok, évoquer les algorithmes et la manière dont ils sont générés, les ingérences des puissances étrangères qui viennent modifier les contenus. Il est essentiel d’expliquer ce modèle aux enfants ou aux plus jeunes, parce qu’ils ne s’en rendent pas forcément compte. De fait, l’éducation nationale porte ainsi un grand nombre de responsabilités, mais celles-ci sont nécessaires.

M. le président Arthur Delaporte. Je cède la parole aux collègues connectés en visioconférence.

M. Thierry Perez (RN). Je vous ai écoutée avec attention, mais vous avoue ma gêne à l’égard d’une partie de votre discours. Vous évoquez des contenus sexistes masculinistes, qui sont totalement indéniables. En revanche, vous passez sous silence ces nombreuses femmes influenceuses françaises ou étrangères qui ont défrayé la chronique ces dernières années, qui font valoir avant tout l’esthétique, prônent la chirurgie esthétique auprès des plus jeunes et des plus jeunes filles. À mon sens, elles sont tout aussi potentiellement dangereuses, notamment pour les jeunes filles qui, selon les propos recueillis lors des auditions précédentes, sont encore plus addicts que les garçons aux réseaux sociaux et notamment à TikTok.

Mme Bérangère Couillard. Monsieur le député, il n’a pas été question de passer sous silence quoi que ce soit. J’ai surtout accentué mon propos sur les contenus qui promeuvent la minceur, voire la très grande maigreur des jeunes filles. Je pourrais tout autant parler des contenus qui appellent à avoir recours à la chirurgie esthétique. Mais je n’ai eu que dix minutes pour vous transmettre un certain nombre d’éléments. De fait, des contenus générés particulièrement par le public féminin incitent à recourir à la chirurgie esthétique, à promouvoir la chirurgie esthétique dans ses excès. Je les dénonce tout autant que vous. Un certain nombre de contenus devraient être davantage contrôlés. En aucun cas, il n’était question pour moi d’occulter cet aspect.

M. le président Arthur Delaporte. La recommandation numéro 4 du rapport, en page 83, évoque un certain nombre d’incriminations existantes, par exemple l’interdiction du harcèlement sexuel défini par l’article 222-33 du code pénal comme « le fait d’imposer à une personne, de façon répétée, des propos ou comportements à connotation sexuelle ou sexiste qui soit portent atteinte à sa dignité en raison de leur caractère dégradant ou humiliant, soit créent à son encontre une situation intimidante, hostile ou offensante ».

Il me semble que dans le cadre d’une interprétation extensive, de nombreux propos visibles sur un certain nombre de comptes entrent dans le cadre de cet article. Qu’en pensez-vous ? Faut-il envisager une modification législative ?

Mme Bérangère Couillard. Aujourd’hui, l’outrage sexiste existe ; mais il n’existe pas de délit de sexisme. Si un propos sexiste est tenu dans les médias, seule l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) peut sanctionner la chaîne en question, mais une forme de répétition est nécessaire.

Pour autant, nous assistons à une banalisation des propos sexistes, qui ne sont pas sanctionnés, quand les propos racistes le sont par la loi. Ce n’est pas le cas pour les propos sexistes : vous pouvez faire des blagues lourdes, sexistes ; tenir régulièrement des propos qui stéréotypent les femmes dans un rôle, mais personne ne vous sanctionnera. C’est la raison pour laquelle le Haut Conseil à l’égalité invite à mettre en place un délit de sexisme.

M. le président Arthur Delaporte. Selon l’article R. 625-8-3, « est puni de l’amende prévue pour les contraventions de la 5e classe le fait, hors les cas prévus aux articles 222-13, 222-32, 222-33, 222-33-1-1, 222-33-2-2 et 2223323, d’imposer à une personne tout propos ou comportement à connotation sexuelle ou sexiste qui soit porte atteinte à sa dignité en raison de son caractère dégradant ou humiliant, soit crée à son encontre une situation intimidante, hostile ou offensante ». Des propos ne rentreraient-ils pas dans le cadre de cet article ?

Mme Bérangère Couillard. Tout dépend de l’interprétation de la loi. Il est arrivé régulièrement de produire des lois bien dédiées pour s’assurer que l’interprétation soit très claire pour les juges. Quoi qu’il en soit, il est urgent de le refaire savoir, parce que cela n’est pas le cas aujourd’hui. Je ne connais pas aujourd’hui de sanction qui ait été prononcée pour un délit de sexisme ou quelque chose qui s’y apparente.

M. le président Arthur Delaporte. Cette information est importante. Il nous a été indiqué à plusieurs reprises que les plateformes ne retirent pas de tels contenus, car elles considèrent qu’ils ne contreviennent pas à la législation en vigueur. Pourtant, le pays d’origine, la France, peut imposer des règles spécifiques au réseau sans même tenir compte du cadre du DSA, notamment pour des motifs d’ordre public. En l’occurrence, le sexisme entre dans ce cadre. Il faut sans doute creuser cet aspect ou, à tout le moins, faire connaître le cadre légal.

Échangez-vous avec les plateformes sur des guidelines, des recommandations qu’elles pourraient conduire en termes de modération des contenus ?

Mme Bérangère Couillard. Nous n’avons pas échangé depuis la parution de ce rapport. Il faut également souligner que les politiques des plateformes ont changé. Si nous parlions aujourd’hui aux représentants de Meta, ils ne tiendraient pas les mêmes propos qu’il y a deux ans ; ils seraient bien moins allants.

Mme Laure Miller, rapporteure. Il y a quelques jours, Le Figaro faisait part d’une note du ministère de l’intérieur qui portait sur l’influence de certains prédicateurs, notamment sur TikTok, lesquels prônent le port du voile chez les très jeunes filles. Vous êtes-vous penchée sur ce sujet ? Quel est, selon vous l’impact sur la santé mentale du visionnage en boucle de vidéos qui circulent sur ce sujet ?

Mme Bérangère Couillard. Nous ne nous sommes pas penchés spécifiquement sur ce sujet. Cependant, il s’avère que lorsque l’on écrit « Islam » dans la barre de recherche sur TikTok, on accède à certains contenus. Comme je l’indiquais dans mes propos liminaires, si vous regardez des vidéos sur une thématique, au bout de quelques heures, vous recevez très rapidement des contenus radicalisés. Cela peut concerner la religion, mais aussi bien d’autres sujets, comme la maigreur, les régimes, ou la chirurgie esthétique, qu’évoquait votre collègue un peu plus tôt.

Lorsqu’un utilisateur s’intéresse à un sujet, il reçoit une multiplication de vidéos sur cette même thématique, qui deviennent de plus en plus radicales ou violentes. Je ne suis évidemment pas surprise qu’il existe de nombreux contenus qui appellent à un islam le plus radical lorsqu'on s'intéresse à la religion. C’est tout à fait la façon dont procèdent ces plateformes, et particulièrement TikTok.

M. le président Arthur Delaporte. Nous achevons notre audition. Souhaitez-vous apporter un mot de conclusion ? Si vous étiez face aux représentants de TikTok, que leur demanderiez-vous ?

Mme Bérangère Couillard. Je leur demanderais de collaborer avec les instances européennes, pour mettre en œuvre un certain nombre d’éléments. Aujourd’hui, ils se défilent, mais ils portent une très grande responsabilité.

M. le président Arthur Delaporte. Je vous remercie. Vous pourrez nous communiquer tout élément complémentaire par courriel.

35.   Audition de Mme Justine Atlan, directrice générale de l’association E‑enfance, M. Samuel Comblez, directeur général adjoint, et Mme Inès Legendre, chargée de plaidoyer (mardi 27 mai 2025)

La commission auditionne ensuite Mme Justine Atlan, directrice générale de l’association E-enfance, M. Samuel Comblez, directeur général adjoint, et Mme Inès Legendre, chargée de plaidoyer ([34]).

M. le président Arthur Delaporte. Mes chers collègues, nous recevons aujourd’hui l’association e-Enfance, représentée par Mme Justine Atlan, directrice générale, M. Samuel Comblez, directeur général adjoint, et Mme Inès Legendre, chargée de plaidoyer. Je vous remercie d’avoir bien voulu prendre le temps de répondre à notre invitation et vous prie également de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations, par exemple si vous recevez de l’argent des plateformes du numérique.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mmes Atlan, Legendre et M. Comblez prêtent serment.)

Mme Justine Atlan, directrice générale de l’association e-Enfance. Aucun de nous n’a d’intérêts éventuellement en conflit, à titre individuel. En revanche, effectivement, nous sommes salariés de l’association e-Enfance, qui reçoit des financements publics et privés, des subventions publiques et du mécénat d’entreprises privées. À ce titre, elle reçoit depuis de nombreuses années des financements de plusieurs plateformes, dont celle qui est évoquée par votre commission d’enquête, c’est-à-dire TikTok.

En 2024, notre financement est constitué à 55 % de mécénats privés et à 45 % de subventions publiques françaises et européennes. Le budget de l’association en 2024 s’établissait 3,4 millions d’euros et TikTok nous versait 70 000 euros, soit 2 % dudit budget. Dans le cadre de nos échanges avec les plateformes, nous sommes aussi membres d’un certain nombre de leurs safety boards, c’est-à-dire des comités d’experts certains étant dédiés aux mineurs, d’autres à la sécurité en général. Nous étions membres du safety board de Twitter, qui l’a depuis fermé ; nous sommes membres de celui de Snapchat et l’avons été également chez TikTok, mais cela n’est plus le cas depuis 2024.

M. le président Arthur Delaporte. Pour quelles raisons ?

Mme Justine Atlan. Pour différentes raisons. La principale était d’ordre éthique. Je siégeais à ce comité, mais il était difficile de continuer à demeurer dans ce cadre de réflexions, dont les échanges étaient très intéressants, mais qui n’aboutissait finalement pas à des grandes nouveautés en termes de sécurité des enfants sur Internet. En tant qu’experts, nous pouvions partager nos étonnements – vous avez déjà évoqué dans votre commission la façon dont les algorithmes poussent un certain nombre de contenus défavorables à la santé mentale des mineurs. Mais nous avons fait le constat que leur cœur de problème réside dans leur modèle économique et que leurs algorithmes n’étaient absolument pas contestés et travaillés. Nous passions notre temps à « colmater les brèches », sans toucher le cœur du problème. À partir d’un moment, cette forme de participation à des échanges qui n’étaient pas très constructifs quant à leur résultat était assez difficile à gérer. Pour autant, je n’ai pas ressenti de pression lorsque j’y siégeais.

Je souhaite à présent vous présenter rapidement l’association e-Enfance, association d’intérêt général. Nous faisons également partie des 2 % d’associations françaises reconnues d’utilité publique. Nous sommes donc soumis à deux obligations très particulières : publier chaque année nos comptes au Journal officiel de la République et obtenir la validation du Conseil d’État pour tous les changements effectués dans nos statuts.

L’objet social de l’association, créée le 2 septembre 2005, concerne la protection des mineurs sur Internet et plus spécifiquement contre tous les risques liés à l’utilisation des technologies de l’information et de la communication. Notre acte fondateur a été la charte des fournisseurs d’accès à Internet en 2005 les obligeant à proposer un contrat parental gratuit à tous les abonnés. Cette démarche était très novatrice, la France était le seul pays du monde à le pratiquer à l’époque. Nous étions en charge de tests que nous menions chaque année au regard des risques comme l’exposition des mineurs à la pornographie, déjà le risque majeur en 2005 ; la prédation sexuelle sur des outils de communication comme MSN et des questions liées aux jeux vidéo. Le grand bouleversement est intervenu au moment où ont été créés simultanément les réseaux sociaux avec Facebook et le smartphone, avec l’iPhone. Cette « mauvaise rencontre » est à la source des problèmes que rencontrent les jeunes aujourd’hui et la dissociation de ces deux usages serait certainement vertueuse.

L’association e-Enfance emploie cinquante-deux salariés. Elle mène trois actions principales pour garantir l’effectivité des droits des enfants dans l’espace numérique : la prévention sur le terrain, le numéro 3018 et le plaidoyer que nous menons depuis de nombreuses années. En ce qui concerne notre prévention sur le terrain, l’association e-Enfance est agréée par le ministère de l’éducation nationale et s’appuie sur une équipe d’une vingtaine d’animateurs salariés qui interviennent chaque année partout en France dans les écoles, les collèges et les lycées.

Nous rencontrons physiquement 200 000 jeunes, parents et professionnels chaque année pour les sensibiliser aux usages responsables et aux dangers du numérique. Nous avons également une convention avec d’autres ministères, qui accueillent également des jeunes dans des centres d’éducation, c’est-à-dire le ministère de l’agriculture et également le ministère des sports. Dans le cadre de nos échanges avec l’éducation nationale, un agrément nous permet d’intervenir dans les établissements scolaires, et nous avons également établi une convention depuis 2012 sur la lutte contre le cyberharcèlement entre élèves, qui a donné lieu au numéro de téléphone sur lequel nous reviendrons. Nous travaillons avec des acteurs de l’éducation numérique comme le Centre de liaison de l’enseignement et des médias d’information (Clemi). Nous avons participé à l’élaboration de Pix, Pix primaire et Pix parents. Nous accompagnons également les établissements qui veulent s’équiper en contrôle parental et nous travaillons également avec la direction du numérique pour l’éducation, pour accompagner le développement du numérique dans les établissements scolaires.

En termes de plaidoyer, nous avons accompagné depuis 2005 les évolutions des usages numériques des jeunes. Nous sommes intervenus régulièrement dans la régulation proposée en France et au niveau européen. Nous sommes notamment acteurs de la politique publique de lutte contre le cyberharcèlement depuis 2011 et avons œuvré afin que ce cyberharcèlement constitue une circonstance aggravante du harcèlement, ce qui est le cas depuis la loi n° 2014-873 du 4 août 2014 pour l’égalité réelle entre les femmes et les hommes.

Nous avons également participé aux travaux sur le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) en France et avons milité également afin que l’âge de 15 ans – celui de la majorité sexuelle en France – soit retenu et que le consentement des parents, qui devait avoir lieu avant 15 ans, soit immédiatement associé au consentement de l’enfant. Nous avons également œuvré dans la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique afin que le revenge porn soit pris en considération : on n’est jamais responsable de la circulation par des tiers malveillants d’un contenu que l’on a pu poster une fois.

Nous avons agi avec Mme Marlène Schiappa sur une loi sur les raids numériques : le cyberharcèlement, punissable par la loi, intervient dès un seul acte en ligne, à partir du moment où il s’inscrit dans une chaîne d’actes, qui peuvent s’assimiler à une forme de « lapidation numérique ». Nous militons très fermement depuis plusieurs années auprès des différents acteurs politiques français et européens pour mettre en place une vérification d’âge sur Internet, clé de voûte de la protection de l’enfance sur Internet. Les plateformes ont mis en place du contrôle parental intégré, des fonctionnalités adaptées aux jeunes. Mais ces fonctionnalités ne rencontrent jamais leur cible puisque les enfants mentent sur leur âge et les parents y participent largement.

Enfin, notre troisième activité, celle qui va sans doute davantage vous intéresser aujourd’hui, concerne l’opération du numéro 3018, le numéro unique de lutte contre le harcèlement et les violences numériques faites aux enfants. Il est gratuit, anonyme et confidentiel, ouvert sept jours sur sept, toute l’année, de 9 heures à 23 heures. Une application 3018 a été lancée en 2022 et permet de nous envoyer via un coffre-fort numérique sécurisé des éléments constitutifs du harcèlement ou du séparatisme, dont les utilisateurs peuvent être victimes. Actuellement, nous disposons de vingt-deux écoutants salariés juristes et psychologues, qui sont coordonnés par une coordonnatrice et une coordonnatrice adjointe. Dès la semaine prochaine, elles seront rejointes par une superviseure directrice de l’Observatoire du 3018, qui est l’ancien chef de la stratégie de l’Office mineurs, Véronique Béchu.

Le 3018 est une initiative de la Commission européenne qui, dans le cadre de son programme Safer Internet, dès la fin des années 2010, a prévu la création en Europe des helplines. Il s’agit de lignes d’appel disponibles pour les enfants, les adolescents, les professionnels et les parents, pour les aider à régler ces questions qui commençaient à émerger des usages numériques. Au préalable, le danger était surtout perçu comme émanant d’adultes qui pouvaient vouloir du mal aux enfants. Les réseaux sociaux ont changé la donne en établissant des usages nouveaux, dont le nomadisme, qui peuvent concerner les enfants dès le plus jeune âge. En effet, malgré leurs conditions générales d’utilisation (CGU), les réseaux sociaux n’ont rien mis en place d’emblée pour ne pas accepter les moins de 13 ans. En conséquence, il est également apparu que les jeunes pouvaient utiliser ces outils de communication pour se faire du mal entre eux.

Aujourd’hui, nous parlons d’une troisième époque où les plateformes elles-mêmes peuvent faire du mal aux jeunes. Dès 2010, nous avons pu créer avec Facebook, puis en 2011 avec YouTube, des points de signalement privilégiés avec les plateformes pour leur signaler des contenus illicites ou préjudiciables à des jeunes. À partir de ce préalable, les autres plateformes ont mis en place avec nous ces systèmes de signalement prioritaire que nous traitions en direct avec leurs services de modération.

En 2017, ByteDance a racheté l’application Musical.ly pour la fusionner en 2018 avec TikTok. Musical.ly était déjà assez présent auprès des jeunes et des enfants et disposait de 100 millions d’utilisateurs en Europe. À l’époque, les parents n’avaient absolument pas conscience qu’il s’agissait d’un réseau social, ni des dangers éventuels. TikTok est ensuite entré en contact avec nous et nous avons agrégé une vingtaine de plateformes avec lesquelles nous avons établi ces signalements prioritaires. Le confinement de 2020 a fait exploser les usages et a permis à TikTok de prendre une place prépondérante auprès des enfants et des adolescents qui, pour l’instant, n’est pas menacée. À la suite de ce confinement, nous avons établi le numéro 3018, décliné ensuite en une application.

Enfin, depuis le plan interministériel de lutte contre le harcèlement de 2023, nous sommes devenus le numéro unique de lutte contre le harcèlement sous toutes ses formes et de toutes les autres violences numériques faites aux enfants.

M. Samuel Comblez, directeur général adjoint de l’association e-Enfance. Durant l’année 2024, le 3018 a reçu 160 000 sollicitations émanant de jeunes, de leurs parents et de professionnels. La ligne est ouverte, bien sûr, aux mineurs, aux enfants, aux adolescents. Nous constatons un rajeunissement des utilisateurs qui nous contactent sur le 3018, bien avant l’entrée au collège : à peu près 25 % de nos utilisateurs sont des enfants très jeunes qui manifestent parfois des difficultés dans le cadre de leur utilisation de TikTok.

Des signalements sont envoyés tous les jours aux plateformes pour faire retirer des contenus. Les plateformes peuvent y répondre de différentes manières : la suppression des contenus, la fermeture des comptes ou tout au moins un avertissement envoyé à l’utilisateur, mais aussi, malheureusement, une absence de réaction de certaines plateformes à nos sollicitations, ni même de retour.

Nos écoutants sont des salariés dotés de compétences techniques suffisantes pour adresser des signalements de qualité. L’année dernière, nous avons adressé à peu près 4 000 signalements à l’ensemble des plateformes. Sur ces 4 000 signalements, le taux de contenus illicites s’établit autour de 96 % contre 4 % pour le taux de contenus préjudiciables. En 2025, nous avons procédé à 1 100 signalements depuis le 1er janvier (87 % de contenus illicites et 12 % de contenus préjudiciables).

Les contenus préjudiciables sont des contenus qui ne questionnent pas forcément le droit français, mais qui ont un impact sur le bien-être et l’état psychique du jeune et qui, à notre sens, méritent de pouvoir être remontés aux plateformes. En termes de thématiques, la principale remontée concerne « l’extorsion sexuelle » d’enfants qui sont sollicités pour obtenir des contenus à caractère sexuel. Depuis le 1er janvier 2025, nous avons déjà effectué 250 signalements de la sorte. La deuxième thématique la plus signalée concerne le cyberharcèlement avec notamment des insultes, des moqueries, des contenus textes, vidéos ou photos dégradants pour l’enfant ou l’adolescent. En 2025, nous en avons déclaré pour l’instant 237 à l’ensemble des réseaux sociaux avec lesquels nous travaillons. La troisième thématique concerne le revenge porn, c’est-à-dire des contenus à caractère sexuel envoyés à des fins de vengeance (83 depuis le 1er janvier 2025). Viennent ensuite des contenus à caractère pédocriminel. Les trois premières thématiques sont stables depuis les trois dernières années.

En termes de catégorie d’âge, 27 % de nos utilisateurs ont moins de 11 ans, 31 % sont âgés de 12 à 14 ans et 27 % ont entre 15 et 17 ans. Nous observons une légère baisse au cours du temps du nombre de collégiens qui nous appellent, mais une augmentation très marquée du nombre d’enfants en primaire, la part des lycéens étant stable. De nombreux parents, professionnels du corps enseignant et du secteur sanitaire et social font appel à nous. Les délais de réponse des réseaux sociaux à nos signalements sont très variables, chaque réseau social ayant des procédés différents, contribuant à compliquer notre tâche. Nous avons pu observer un temps moyen de retrait d’un contenu de soixante heures à partir de notre signalement.

S’agissant plus particulièrement de TikTok, nous recevons un accusé de réception à la suite d’un signalement, ainsi qu’un mail lorsque les équipes de TikTok ont réagi sur la plateforme. Dans le détail, les données sont les suivantes : une suppression des contenus dans 39 % des cas ; un avertissement qui est envoyé à l’auteur des faits (28 %) ; aucune action engagée par la plateforme (28 %) et une absence de réponse (4 %).

À partir du moment où un signalement est envoyé par le signaleur de confiance, devraient s’ensuivre une réaction et une information de qualité systématiques pour nous permettre de les transmettre aux utilisateurs, mais cela n’est pas toujours le cas. De plus, le délai de réponse reste à nos yeux insatisfaisant : si le temps moyen de retrait d’un contenu est de soixante heures ; il peut s’allonger jusqu’à cinq voire six jours, induisant évidemment un impact sur la santé mentale des jeunes qui peut être extrêmement important.

M. le président Arthur Delaporte. Y a-t-il des spécificités en la matière pour TikTok par rapport aux autres plateformes ?

M. Samuel Comblez. TikTok fait partie des plateformes dont le taux de réponse est satisfaisant à nos yeux.

M. le président Arthur Delaporte. Quels sont délais moyens par plateforme ?

M. Samuel Comblez. Snapchat et Instagram font partie des plateformes qui réagissent le plus vite, parfois en une vingtaine de minutes. Les délais sont très variables pour TikTok, de quelques heures à plusieurs jours. Les plateformes X et YouTube sont celles dont le temps de réaction est le plus long puisqu’il est de plusieurs jours.

Mme Justine Atlan. Au-delà, les plateformes ne réagissent pas de la même façon selon la nature des contenus que nous leur signalons. Nous parlons « d’urgence vitale » quand nous considérons que le contenu ou le compte que nous demandons de bloquer crée un problème de santé mentale tellement élevé chez le jeune qu’il peut provoquer un suicide. Dans ce cas, elles réagissent plus rapidement. À l’inverse, elles traitent moins rapidement les usurpations d’identité ou les piratages de compte, dont elles apprécient elles-mêmes le caractère prioritaire, alors même que ces phénomènes peuvent porter extrêmement préjudice à la santé mentale des jeunes qui en sont victimes.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Vous avez indiqué que vous touchez 200 000 jeunes par an à travers vos politiques de prévention et de sensibilisation. Mon interrogation porte plus sur les parents. Les percevez-vous plus conscients des dangers ? Faudrait-il mener une politique nationale à destination de ces parents, mais également du personnel éducatif ?

En matière de harcèlement et de contenus illicites, TikTok présente-t-il des singularités par rapport aux autres réseaux sociaux ? Nous observons par ailleurs l’existence d’une « zone grise », c’est-à-dire des contenus problématiques, mais qui ne tombent pas forcément sous le coup de la loi. Des outils comme le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) permettraient-ils davantage de les cibler et de les retirer plus efficacement ? Devons-nous renforcer notre arsenal juridique interne sur ce sujet ?

Ensuite, comment faire pour vérifier de manière effective l’âge sur Internet ? Enfin, quelles sont vos préconisations afin de protéger davantage les mineurs face aux trop nombreux contenus problématiques qui subsistent malgré le DSA ?

Mme Justine Atlan. Nous rencontrons également les parents, mais ceux qui viennent sont déjà sensibilisés. Il est plus difficile d’intéresser ceux qui le sont moins. Il s’agit là d’un véritable angle mort de la prévention depuis des années. D’un point de vue global, nous constatons néanmoins qu’aujourd’hui, les parents sont relativement inquiets face à un phénomène qui est quand même relayé par les médias. Simultanément, si on ne leur propose pas de solutions, certains préfèrent rester dans le déni plutôt que d’affronter la réalité des risques qu’encourent leurs enfants. Il existe une pression sociale très marquée sur l’équipement des jeunes en smartphones, de plus en plus jeunes. À titre d’exemple, nous nous sommes rendus dans une classe de CP où la moitié des élèves en disposaient déjà.

Le discours ambiant porte sur la nécessité de socialisation des enfants et des adolescents avec leurs pairs, laquelle passerait aussi forcément par les réseaux sociaux et le smartphone. Les priver de smartphones et de réseaux sociaux reviendrait ainsi à les priver de socialisation, conduisant les parents à une forme de culpabilité. Les parents témoignent aussi souvent de leurs difficultés à gérer l’absence de doctrine de l’éducation nationale concernant le numérique. De plus, quand bien même ils aimeraient établir des limites d’équipement ou d’âge, l’école les oblige à en installer, à un moment.

Honnêtement, les parents portent seuls depuis vingt ans cette arrivée massive des usages numériques dans la vie de tous, y compris de leurs enfants et adolescents. On ne cesse de leur répéter que cela relève de leur responsabilité. Personne, dans le monde adulte encadrant, ne les aide dans ce rôle-là. À l’inverse, il existe une interdiction très claire de vendre de l’alcool ou du tabac aux mineurs. À ce titre, il est vraiment temps de responsabiliser les plateformes et de leur demander de jouer leur rôle d’adultes. Les parents confient leurs enfants à l’école plusieurs heures par jour. Ils devraient pouvoir confier leurs adolescents aux plateformes avec le même niveau de confiance. Si l’école est perfectible, les plateformes le sont bien plus encore. Il est temps d’apporter des solutions concrètes aux parents et d’arrêter de leur demander de tout porter seuls.

M. Samuel Comblez. Les parents ont conscience des risques, mais nous demandent des outils, des moyens pour pouvoir dialoguer avec les jeunes. Nous remarquons depuis plusieurs années une augmentation très importante du nombre de demandes d’intervention auprès des enseignants, mais aussi en dehors du monde scolaire, c’est-à-dire les coachs sportifs, le monde sanitaire et social, les psychologues, les psychiatres qui travaillent au contact des jeunes. À ce titre, nous intervenons auprès des professionnels qui travaillent dans les maisons des adolescents et portons un programme de sensibilisation de ces professionnels à la sphère numérique. Les professionnels ont besoin de recevoir, dès leur formation initiale, des formations concrètes, qui doivent également être réactualisées au fil du temps, tant l’univers numérique est très mouvant.

Mme Inès Legendre, chargée de plaidoyer de l’association e-Enfance. De grandes lignes directrices pour une meilleure protection des mineurs prometteuses ont été publiées dans le cadre du DSA. Elles ne sont pas encore adoptées définitivement et font l’objet d’une consultation publique, à laquelle nous convions tout le monde à contribuer. Ces grandes lignes visent à encadrer les comptes pour les mineurs, à partir d’une protection par défaut, pour éviter le profilage comportemental.

Mais le préalable consiste à mettre en place un contrôle systématique de l’âge protecteur de la vie privée et de la sûreté des mineurs. Il faudrait également renforcer la modération locale et humaine sur les plateformes, qui fait encore défaut. Cette modération devrait également être proportionnée au nombre d’utilisateurs actifs dans chaque pays et aux chiffres d’affaires générés par la plateforme.

Mme Laure Miller, rapporteure. Si vous étiez ministre du numérique ou commissaire européen sur ce sujet, quelles seraient vos préconisations concrètes ?

Mme Justine Atlan. Il est aujourd’hui beaucoup question d’une interdiction des réseaux sociaux pour les moins de 15 ans. Ce seuil, qui correspond par ailleurs à la majorité sexuelle et à l’entrée au lycée, nous semble pertinent. De façon très pragmatique, nous aimerions déjà que les plateformes appliquent leur propre restriction, qui porte sur les moins de 13 ans. Aujourd’hui, l’agrégation de différents seuils d’âge – 13 ans, 15 ans et 18 ans – est très compliquée à gérer pour les parents.

Il faut simultanément souligner que nous nous heurtons aussi à un manque d’harmonie sur cet âge au niveau européen, lequel constitue la faille du RGPD depuis 2018 et dont profitent les plateformes pour ne rien mettre en place. Comme nous l’avons déjà indiqué, la problématique concerne conjointement les réseaux sociaux et le smartphone, dont ont conscience les jeunes un peu plus âgés, les jeunes adultes, lorsque nous les interrogeons. Ils nous disent ainsi que la simple interdiction des réseaux sociaux au moins de 15 ans en ne changeant rien sur le smartphone ne réglerait pas tout le problème. Nous serions donc favorables à l’interdiction de la vente des smartphones aux moins de 15 ans.

Il nous faut, jeunes et moins jeunes, réinterroger les usages de cet outil. Nous avons été pris de court par une invention extraordinaire dans laquelle nous nous sommes plongés, mais qui nous empêche de réfléchir, notamment à chacun de ses usages distincts. Nous devons être capables de sélectionner pour un enfant ou un adolescent les usages réellement nécessaires, comme le téléphone, les SMS, les services de géolocalisation par exemple.

Il nous paraît également important de repenser effectivement les alternatives au numérique. Depuis quinze ans, nous n’arrivons plus à créer du lien, à nous parler, à nous informer autrement que par le numérique. Les jeunes en pâtissent largement. Il faudrait donc créer des alternatives plus fortes, réinvestir dans des infrastructures d’offres d’activités sportives, culturelles, artistiques, des lieux d’échange, de partage d’activités, implantées partout localement.

Les parents peuvent succomber à la facilité et la praticité d’un outil numérique qui ne prend pas de place et qui donne accès à une très large gamme de services. Mais in fine, l’enfant se retrouve seul devant cet écran. Aujourd’hui, ce n’est pas tant l’écran en lui-même, mais « l’excès d’écran » qui pose problème. Nous estimons nécessaire de poser une norme de modération obligatoire pour ces systèmes de communication en ligne. Les plateformes doivent être pénalisées si elles ne le font pas d’emblée.

Par ailleurs, il faut conduire le chantier de la doctrine de l’éducation nationale. Il s’agit non seulement d’éduquer évidemment les jeunes aux médias et à l’information, mais aussi de les informer sur leurs droits. Dès le plus jeune âge, il faut également permettre à l’enfant d’avoir conscience de son corps, y compris ses aspects psychiques et son fonctionnement neurologique. Pour pouvoir être des utilisateurs éclairés du numérique, il est nécessaire de comprendre comment fonctionne notre cerveau, les besoins fondamentaux d’un être humain, ses réactions aux stimuli et ses interactions, éléments sur lesquels sont fondés les modèles des plateformes.

Plus largement, nous portons des recommandations visant à traiter les usages numériques avec les mêmes avertissements que ceux relatifs à la santé ou aux jeux d’argent. Il peut s’agir par exemple pour toutes les campagnes de publicité, de promotion, de vente d’outils numériques, de prévoir des bandeaux d’information systématiquement obligatoires sur les risques, sur les âges, sur les numéros comme le 3018 ou l’application associée. Ces dispositifs ne sont pas coûteux à mettre en œuvre. Nous disposons d’autres propositions, mais le temps nous manque pour les évoquer ; nous vous les adresserons.

M. le président Arthur Delaporte. Nous allons recevoir après votre audition l’ancien commissaire européen au marché intérieur Thierry Breton. Selon vous, les procédures et sanctions actuellement appliquées aux plateformes sont-elles adaptées, pertinentes et suffisamment rapides ? Échangez-vous avec les régulateurs européen ou français ?

Mme Justine Atlan. Nous échangeons effectivement avec ces deux régulateurs. Le régulateur européen nous saisit systématiquement quand il ouvre une enquête sur une plateforme, afin d’obtenir des informations.

L’Europe s’est malgré tout relativement saisie de ce sujet et a ouvert de telles enquêtes assez rapidement. La difficulté réside peut-être dans les moyens disponibles pour les mettre en œuvre le plus rapidement possible.

Pour l’instant, nous ne contestons pas le montant des sanctions qui est quand même assez significatif, s’il est réellement appliqué. Il est absolument nécessaire de mettre en œuvre le DSA et nous travaillons en ce sens, de manière quasiment quotidienne avec l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), pour partager notre expérience et l’aider à faire appliquer le DSA.

J’estime que l’Europe doit appliquer systématiquement, mais aussi répétitivement les amendes, lorsque les plateformes contreviennent aux obligations.

M. le président Arthur Delaporte. Je vous remercie. Vous pouvez nous adresser tout complément écrit que vous considérez utile.

36.   Audition de M. Thierry Breton, ancien commissaire européen au marché intérieur (mardi 27 mai 2025)

La commission auditionne ensuite M. Thierry Breton, ancien commissaire européen au marché intérieur ([35]).

M. le président Arthur Delaporte. Nous recevons M. Thierry Breton, ancien commissaire européen au marché intérieur, chargé également de la politique industrielle, du tourisme, du numérique, de l’audiovisuel, de la défense et de l’espace. Monsieur Breton, votre témoignage sera précieux, puisque vous avez été au cœur de la mise en œuvre du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA). Je vous remercie d’avoir pris le temps de répondre à notre invitation, mais également de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Breton prête serment.)

M. Thierry Breton, ancien commissaire européen au marché intérieur. Je vous remercie de m’avoir convié à votre commission d’enquête parlementaire sur TikTok. Je relève que vous auriez également pu vous intéresser à d’autres plateformes. Je rappelle que la Commission européenne est la seule institution à disposer du pouvoir de proposer des textes législatifs, directives ou règlements. Dès mon arrivée, je me suis attaché à travailler pour établir un marché numérique unifié. Nous avions, jusqu’à il y a quelques années, vingt-sept marchés numériques en Europe, contre un seul aux États-Unis et en Chine.

L’histoire commence dans ce domaine au début du siècle. C’est en se fondant sur les données personnelles que les premières plateformes sont progressivement arrivées. La première d’entre elles a été Facebook, qui a bénéficié immédiatement d’une profondeur de 330 millions de consommateurs américains. L’Europe n’a pas pu agir de la sorte, étant caractérisée par vingt-sept marchés et autant de régulations, mais aussi quinze langues.

En ma qualité de commissaire, je me suis donc attaché à proposer aux colégislateurs un ensemble de règlements et non de directives, de façon à lutter contre cette fragmentation. Avec mes équipes, nous avons travaillé sur cinq règlements différents : le règlement sur la gouvernance des données (Data governance act ou DGA) ; le règlement sur les données (Data act), qui permet de savoir à qui appartiennent les données ; le DSA pour organiser la vie sur les réseaux ; le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA) pour organiser une saine concurrence économique dans cet espace informationnel et, enfin, le règlement européen sur l’intelligence artificielle (AI Act).

Ces textes ont ensuite été soutenus par la plus grande approbation de la part de nos colégislateurs. Le Conseil les a approuvés à l’unanimité et seuls 10 % des parlementaires européens s’y sont opposés. Nous disposons aujourd’hui d’un corpus législatif extrêmement puissant, centré sur un seul régulateur, une seule loi et un marché intérieur digital unifié, qui nous avait fait défaut au début des années 2000 et avait ainsi contribué à notre retard. Cette unicité doit permettre à nos entreprises de se saisir de la formidable opportunité que constitue notre marché de 450 millions de consommateurs, à partir d’une règle enfin unifiée.

Dans ce contexte, le DSA représente notre « vivre ensemble » sur les réseaux. Il s’agit d’une loi horizontale, qui offre un cadre permettant d’agir vite. À partir de ce cadre, il est désormais possible de connecter des éléments supplémentaires, d’intégrer des éléments nouveaux. On résume souvent à tort le DSA en indiquant qu’il s’agit d’une loi qui interdit la liberté d’expression. C’est totalement faux : nous n’aurions jamais obtenu le soutien de 90 % du Parlement européen s’il avait été attentatoire à la liberté d’expression. En revanche, nous n’avons pas tout prévu. Les législateurs peuvent décider de sanctionner par des lois supplémentaires certains harcèlements ou comportements déviants – comme l’incitation au suicide – qui circulent sur les réseaux ; et de les connecter au DSA.

Je souhaite également rendre hommage aux deux colégislateurs, en particulier au Parlement européen. En compagnie de mes collaborateurs, nous avons effectué de très nombreuses consultations publiques auprès du monde entier, de toutes les plateformes et entreprises qui étaient intéressées, de tous les gouvernements, des ONG, des organisations syndicales, et du monde académique, afin qu’ils soient associés à nos réflexions. Ensuite, nous avons pris des décisions et formulé nos propositions. Le Parlement s’est emparé de ces sujets, certains parlementaires se sont ainsi spécialisés sur ces questions et ont développé de très grandes compétences dans ces domaines.

TikTok représente une plateforme particulière, selon deux aspects assez singuliers. D’une part, elle est extraordinairement populaire chez les jeunes ; d’autre part, elle est chinoise, mais la Chine en a interdit son usage. Lorsque j’ai travaillé sur ce dossier, cet élément m’a surpris et j’invite donc la commission à se questionner à ce propos. Peut-être serait-il intéressant d’interroger ceux qui ne voudraient rien répondre à la commission sur cette question. Pour ma part, je n’ai jamais obtenu de réponse. Ensuite, compte tenu de son audience auprès des jeunes, cette plateforme requiert évidemment une attention toute particulière.

En élargissant la question, nous pouvons considérer que nous vivons un moment singulier, inédit. Pour la première fois dans l’histoire de l’humanité, deux éléments nouveaux voient le jour. En premier lieu, nous laissons, de manière consciente ou inconsciente, dans l’espace informationnel une trace qui est désormais indélébile. L’ensemble des informations que nous générons quotidiennement, volontairement ou non, dans l’espace informationnel, représente aujourd’hui une trace personnalisée qui va constituer quelque part une sorte de double numérique, certains parleront d’avatar. Or lorsqu’elles sont agrégées, récupérées, compactées, elles disent beaucoup de ce que nous sommes.

Le deuxième élément inédit tient au fait que sur ces plateformes, les paquets d’informations sont poussés par des algorithmes. Il s’agit là d’une deuxième singularité par rapport à tout ce qui existait auparavant, où l’on restait dans le cadre du one-on-one, ou du one-to-many, c’est-à-dire une situation sans intermédiaire entre celui qui était à l’origine du message et celui qui le recevait.

Ces deux éléments ont figuré au cœur de notre travail ; nous y avons consacré beaucoup de temps, en nous interrogeant sur les questions clés. Quelles données m’appartiennent ? Quelles sont celles qui peuvent être partagées, utilisées à mon insu ? Comment disposer d’une transparence sur les algorithmes ? Cette transparence constitue un élément clé, sur lequel je voulais attirer l’attention de la commission, et qu’il faudra sans doute creuser en particulier pour parler de la plateforme TikTok, des contenus qu’elle pousse, selon quelle manière et à partir de quelle information.

Encore une fois, le DSA ne prive personne de la parole. Il respecte l’ensemble de notre corpus législatif, tout particulièrement la liberté d’expression, qui est une valeur cardinale et l’équivalent du 1er amendement aux États-Unis.

M. le président Arthur Delaporte. Vous avez évoqué l’idée que notre commission d’enquête aurait pu s’intéresser à d’autres plateformes. Nous avons choisi de concentrer nos travaux sur la plateforme TikTok, sans oublier les autres. Simplement, aux yeux des députés présents lors des débats sur la création de cette commission d’enquête, TikTok concentrait un certain nombre de problématiques que vous avez rappelées, à la fois sur les questions de l’algorithme et de la vulnérabilité de son public, puisqu’elle est la plateforme la plus fréquentée par les jeunes. Les préconisations que madame la rapporteure formulera dans son rapport seront élargies à d’autres plateformes.

M. Thierry Breton. Il ne s’agissait pas pour moi de formuler une critique. Je suis sensible à votre argument sur la jeunesse et la nécessité d’agir vite en matière d’enquête, précisément à ce titre.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Je vous remercie pour ce propos introductif, qui nous permet de mesurer l’ampleur de l’avancée permise par le DSA. À ce titre, pouvez-vous nous indiquer à partir de quand vous avez commencé à aborder le sujet ?

Ensuite, dans le cadre de ces négociations, quelles relations avez-vous pu entretenir avec les différentes plateformes ? Étaient-elles à l’écoute ? Vous ont-elles donné le sentiment de vouloir coopérer ?

Par ailleurs, la question du changement de la nature de la responsabilité des plateformes s’est-elle posée ? Nous savons que le débat entre éditeur et hébergeur est souvent prégnant. La question d’un contrôle a priori plutôt qu’a posteriori a-t-elle été envisagée ? Elle est aujourd’hui mise en lumière par les délais inhérents au signalement et à la suppression de contenus très problématiques.

De plus, nous avons reçu des familles de victimes qui ont évoqué la problématique du contrôle de l’âge, qui n’est absolument pas aujourd’hui respecté ; des contenus illicites qui ne sont pas suffisamment modérés ou des délais de modération qui ne sont vraiment pas satisfaisants. Des zones grises nous rendent parfois impuissants face à des contenus très problématiques, mais qu’il est compliqué de faire retirer. Quel regard portez-vous à ce sujet ? Faut-il accélérer l’application du DSA ?

M. Thierry Breton. S’agissant de la genèse, il faut rappeler que le travail a été très difficile pour parvenir à une architecture intégrant l’ensemble des éléments évoqués. Il me semble que le DSA répond à toute la problématique. Désormais, l’enjeu porte sur l’exécution, qui ne m’appartient plus puisque j’ai démissionné de la Commission européenne le 16 septembre 2024, pour des raisons qui m’étaient propres. Depuis, je ne sais pas ce qui se passe.

Nous avons recruté des équipes, qui regroupent près de 200 personnes, toutes extrêmement compétentes. Le DSA établit l’obligation de produire des rapports, qui peuvent provenir des signaleurs de confiance établis par loi, ou de l’ensemble des régulateurs nationaux. Nous avons en effet organisé un conseil, appelé le DSA board. Le système mis en place est donc très harmonisé, homogène, et peut travailler efficacement. Lorsque les équipes constatent l’existence d’un certain nombre de questions et que les réponses sont insatisfaisantes, elles proposent au commissaire d’ouvrir une enquête. C’est à ce titre que j’ai accepté que deux enquêtes soient ouvertes, sur TikTok et ensuite sur d’autres plateformes.

S’agissant de la genèse du règlement, j’ai été personnellement ciblé de manière très directe par des lobbyistes, certains cherchant à m’affaiblir, afin que ce règlement ne voie pas le jour. Mais nous avons surmonté ces obstacles, sans naïveté. Je rappelle que 1 200 lobbyistes exercent à Bruxelles ; j’ai dû affronter des campagnes de désinformation cherchant à me déstabiliser. Je tiens à rappeler ces difficultés, que nous avons su dépasser. Notre texte a été proposé au collège des commissaires, puis transmis au Parlement, qui a lui aussi subi des pressions, au même titre que les États membres.

Aujourd’hui, ce texte existe néanmoins ; il est opérationnel et doit désormais être mis en exécution avec la plus grande vigueur et le maximum de célérité. Je précise que nous avons veillé à mener des interactions et des échanges préalables avec les acteurs concernés. Dans le rôle de régulateur qui était le mien, j’ai consacré beaucoup de temps à expliquer le contenu du texte, à rencontrer l’ensemble des plateformes dont nous pressentions qu’elles allaient devenir des plateformes systémiques, c’est-à-dire celles qui ont plus de 45 millions d’utilisateurs, pour bien leur expliquer ce qui allait se passer.

Il s’agit de régulations ex ante. Les entreprises qui veulent bénéficier de notre marché intérieur doivent respecter les lois qui s’y appliquent. J’ai donc rencontré longuement ces plateformes pour leur expliquer à plusieurs reprises ce qu’elles devaient faire pour se préparer à la mise en place de notre réglementation. À mon initiative, nous avons même proposé de réaliser des tests « en blanc » avant que la loi ne rentre en vigueur. En effet, je souhaitais que celle-ci puisse s’appliquer le plus rapidement possible, car elle a pour objet de protéger nos enfants. Il ne s’agit pas de sanctionner pour le plaisir ou d’essayer de récupérer telle ou telle somme d’argent.

Cette loi répond à une très grande partie de toutes les questions que vous vous posez, me semble-t-il, au sein de la commission. Mais elle doit être exécutée. Il n’est plus possible d’attendre un an avant d’obtenir les résultats. Naturellement, il est nécessaire de respecter le principe du contradictoire et les cas doivent être solides. Mais compte tenu de l’urgence, il faut être en mesure d’appliquer la loi. Faut-il pour autant la changer ? Non. Plutôt que de produire une nouvelle loi, il faut appliquer pleinement et intégralement celle qui existe.

Ensuite, les législateurs que vous êtes pouvez ressentir le besoin d’ajouter des éléments nouveaux, pour transposer des interdictions régulant la vie physique à la vie numérique. Dans certains cas, il convient d’ailleurs d’agir et de réagir, de manière urgente.

La question de l’âge est extrêmement compliquée et peut faire l’objet de contournements. En tant que commissaire, j’ai milité pour l’instauration de la e-identité, du ewallet. Le travail a été très difficile, mais il a été accompli. Ici aussi, les Gafam se sont opposées à notre action. Vous n’imaginez pas le nombre de réunions que j’ai conduites à ce titre, y compris avec les autorités des États-Unis. Elles se plaignaient, estimant que j’en voulais aux grandes entreprises américaines. Je leur répondais que je ne faisais qu’appliquer le mandat confié par nos colégislateurs pour mieux protéger dans l’espace européen nos enfants, nos concitoyens, nos entreprises.

Il est dans l’intérêt des Gafam que la fragmentation actuelle perdure, car elle évite l’émergence de champions européens. Certaines d’entre elles se sont considérées à un moment, ou se considèrent peut-être encore aujourd’hui, comme des entités supranationales qui se substituent à la défaillance des États, épousant ici la doxa des libertariens. Elles veulent tout offrir, y compris des fonctions régaliennes, comme frapper monnaie ou se charger de l’identité numérique, du passeport numérique.

Je me suis opposé à ces tentatives, me suis battu et j’ai réussi à convaincre mes collègues de proposer un texte, désormais en discussion. Grâce à celui-ci, il sera enfin possible de contrôler de façon réelle qui est qui dans l’espace informationnel. Il devrait être publié en 2026, mais tout ce que vous pourrez entreprendre pour inciter Bruxelles à aller plus vite ira dans le bon sens, selon moi.

Mme Laure Miller, rapporteure. Lors de vos travaux, vous êtes-vous questionné sur la nature de la responsabilité des plateformes ? Ensuite, quels sont les facteurs de blocage à l’application des textes dont vous soulignez qu’ils ont fait l’objet qu’une quasi-unanimité au Parlement européen ?

M. Thierry Breton. Nous avons traité la question de la responsabilité en nous fondant sur les algorithmes. Ces algorithmes sont en effet opaques et peuvent pousser des contenus à forte viralité. Dans le cadre de la fonction de pédagogie qui était aussi la mienne, j’ai voulu, en permanence, alerter les patrons de ces plateformes sur cette responsabilité.

Un événement à forte viralité, comme le drame du 7 octobre 2023, peut engendrer des tsunamis d’informations sur les réseaux, et générer des commentaires, des contenus additionnels qui risquent d’être poussés ensuite par les algorithmes et se transformer progressivement en désinformations massives, fake news, ou informations en dehors du champ de la loi qu’un législateur a proposée dans son propre espace physique. Un réseau est par définition mondial et nous n’en régulons qu’une partie. Or les individus qui sont concernés par cette régulation sont localisés dans un espace qui n’est plus seulement territorial, mais également celui de l’appartenance à une communauté. Dès la survenue de la tragédie du 7 octobre, j’ai immédiatement écrit à l’ensemble des grandes entreprises du numérique en leur demandant de réguler plus que jamais leurs plateformes.

Lorsque le 12 août 2024, M. Elon Musk, propriétaire de Twitter devenu X, a annoncé qu’il offrirait l’accès à sa plateforme à M. Donald Trump, candidat à la présidence des États-Unis, il expliquait qu’il pratiquerait à cet effet des stress tests techniques pour vérifier que l’infrastructure technique était en mesure de supporter les connexions simultanées qui devaient être générées. J’ai alors écrit qu’un événement à la forte viralité potentielle nécessitait également des stress tests en matière de régulation.

Pour répondre à votre question, le sujet est maintenant traité. Une plateforme s’envisage par ses usagers, son accès à des informations et ses algorithmes. La régulation traite désormais de la neutralité nécessaire de ces plateformes. Je me suis battu pour que l’on puisse enfin accéder à ces algorithmes, ce qui est désormais possible pour ceux qui disposent des compétences idoines. Il s’agit du cœur du sujet, qui permettra de réguler ce qui se passe et forcer les plateformes à respecter l’engagement à respecter la loi européenne, lorsqu’elles opèrent en Europe.

Mais vous savez bien mieux que moi : pour être effective, une loi doit être appliquée, et le plus rapidement possible.

Mme Laure Miller, rapporteure. Je me permets de réitérer ma question : quels sont les facteurs de blocage, puisque la volonté politique semble exister ? Pourquoi certaines enquêtes n’ont-elles toujours pas abouti ?

M. Thierry Breton. Si vous me le permettez madame la rapporteure, je retournerais la question à ceux qui m’ont succédé.

M. Stéphane Vojetta (EPR). La question de TikTok tient particulièrement à cœur à notre commission d’enquête, dans la mesure où il s’agit de la plateforme préférée des enfants et des adolescents.

Je reconnais certains des défis que vous avez mentionnés, notamment le biais favorable des Gafam pour la fragmentation réglementaire en Europe, qui les favorise. Vous nous encouragez à inciter Bruxelles à agir. Je souhaite à ce titre évoquer l’initiative parlementaire que nous avions prise avec M. le président afin de créer une régulation et encadrer en France ce qu’on appelait l’influence commerciale, notamment afin d’attirer l’attention de Bruxelles sur ce sujet, qui était insuffisamment traité par le DSA et le DMA, selon nous.

À cette occasion, nous avions souffert de la contradiction que nous avait apportée la Commission, à laquelle vous apparteniez à l’époque. Celle-ci avait en effet demandé de manière assez ferme que notre texte soit a minima modifié, voire idéalement abrogé. Avec l’appui du gouvernement français, nous avions réussi à établir une négociation qui nous a permis d’aboutir à une modification du texte, notamment pour revenir en arrière sur l’étendue géographique des règles que nous mettions en place. Cette loi sur les influenceurs est entrée en vigueur ; elle est désormais modifiée.

Cependant, compte tenu de votre perspective d’ancien commissaire européen, comment pouvons-nous, en tant que législateurs nationaux, forcer Bruxelles à agir sur les éléments qui restent à accomplir dans le cadre de la régulation européenne, notamment sur la vérification d’âge ? Il s’agit notamment d’imposer de nouvelles obligations à des plateformes quand les règles de fonctionnement de l’Union européenne nous retirent de facto cette prérogative et nous empêchent de nous prononcer par voie législative sur les obligations qui devraient peser sur les plateformes.

Ma deuxième question est liée à votre expérience. Vous avez parlé à juste titre de l’effort de lobbying des Gafam, un effort qui pèse surtout sur Bruxelles. Vous avez ainsi évoqué les pressions dont vous aviez été l’objet. Avez-vous connaissance des plateformes qui étaient impliquées dans ce lobbying ? TikTok en faisait-elle partie ? De quel type de pressions s’agissait-il ?

Par ailleurs, M. Mark Zuckerberg s’est réjoui de l’élection d’un nouveau président américain, considérant qu’il l’aidera à lutter contre les amendes que souhaite imposer l’Union européenne à ceux qui oseraient ne pas respecter les règles qu’elle a édictées. Comment réagissez-vous à ces propos ?

M. Thierry Breton. Je connais bien M. Mark Zuckerberg, qui a longtemps financé le parti démocrate. Visiblement, il a changé d’avis entre le mois de novembre 2024 et le mois de janvier 2025. Cela peut arriver à tout le monde et je n’ai pas d’autre commentaire à formuler à ce sujet. J’ai passé beaucoup de temps avec lui. Je suis allé le rencontrer avec mes équipes, nous avons réalisé des tests en blanc ; il était très positif et très réactif, comprenait parfaitement ce que nous faisions.

S’agissant du lobbying, je ne veux pas rentrer dans le détail, au-delà de ce qui a été rendu public. Des journaux ont par exemple découvert certains documents de Google qui ont révélé que l’entreprise m’avait ciblé de façon très précise et la stratégie employée pour m’empêcher de mener à terme le travail que m’avaient confié les colégislateurs.

Lorsque nous nous sommes lancés dans cette tâche, nous avons immédiatement ambitionné d’atteindre une dimension européenne, à la hauteur des 450 millions d’habitants de l’Union européenne. Nous nous sommes battus pour mettre en œuvre le plus rapidement possible des règlements, c’est-à-dire d’application directe, et non des directives. Il ne s’agissait pas d’empêcher les législateurs nationaux de travailler, mais d’éviter de reproduire des phénomènes de fragmentation. Nous avons donc fait en sorte de travailler en amont avec ces législateurs nationaux.

Le règlement a ainsi été adopté, mais les parlements nationaux peuvent ensuite affiner et apporter des éclaircissements, à partir d’un cadre transverse. Les régulateurs nationaux travaillent ensemble, en dépit des difficultés que cela a suscitées. Désormais, le DSA board existe et se réunit pratiquement tous les mois.

Au-delà, les sujets que nous abordons aujourd’hui sont techniques, compliqués, mais essentiels pour notre vie à tous et pour le travail parlementaire qui va progressivement s’approprier cet espace informationnel. Précédemment, il a été fait mention de la marchandisation sur TikTok. Grâce au DSA, j’ai découvert lorsque j’étais commissaire que la plateforme s’apprêtait à lancer l’application TikTok Lite. Celle-ci, qui ciblait particulièrement les plus jeunes, avait pour objet de donner aux utilisateurs des points en fonction du nombre d’heures passées sur l’application et de « récompenser » les plus assidus par des cadeaux.

Lorsque nous avons eu vent de ce projet, nous avons immédiatement pris contact avec la plateforme, dans la mesure où il était en contradiction absolue avec les règles du DSA. La discussion a été très animée, très violente, mais en vingtquatre heures, l’application a été retirée. De fait, un régulateur doit être capable d’exercer cette puissance, cette pression et de communiquer, comme je l’ai fait fréquemment lorsque j’étais régulateur.

J’ai également écrit à l’ensemble des ministres de l’éducation de l’Union européenne pour leur indiquer qu’il me semblait indispensable que les enfants et les parents sachent que l’espace informationnel est contrôlé. Il n’y a plus d’impunité, on ne peut plus faire n’importe quoi, on ne peut plus harceler n’importe qui en se cachant derrière un pseudo. J’avais ainsi proposé de créer dans chaque établissement scolaire un « référent DSA », de la même manière qu’il existe des psychologues. J’ai reçu des retours à ce sujet et sais que la démarche a débuté ; il serait peut-être souhaitable qu’elle se poursuive.

Je n’ai absolument pas de conseil à donner à mes successeurs, ni à qui que ce soit ; je ne m’inscris pas dans cette logique. Simplement, notre intérêt général consiste à faire en sorte que cette loi s’applique le plus rapidement possible. Comme toutes les nouvelles lois, elle n’est pas parfaite et il importe que vous puissiez progressivement la faire progresser, l’améliorer. Le cadre le permet.

M. le président Arthur Delaporte. Vous avez insisté à juste titre sur le caractère central des algorithmes. Le DSA indique que le dispositif de l’algorithme peut être mis à disposition des autorités pour les contrôles. Mais cette transparence est toute relative ; elle reste extrêmement elliptique et très souvent insuffisante. Finalement, aujourd’hui, l’algorithme n’est pas vraiment plus transparent pour le citoyen qu’il ne l’était hier. Je n’ai pas non plus l’impression que les plateformes le mettent à la disposition des autorités de contrôle.

M. Thierry Breton. Sur ces questions, je suis soumis à certaines obligations et ne dispose plus d’aucune information depuis que j’ai quitté la Commission. L’ensemble des enquêtes qui ont été lancées ont été annoncées publiquement. Un rapport d’étape avait été rédigé à la fin 2023, au tout début de l’application du règlement. Je vous mentirais en vous disant qu’il n’existait pas un certain nombre de suspicions, mais puisque des enquêtes sont en cours, je ne peux évoquer ce sujet de manière plus détaillée. À mon époque, elles n’avaient pas été lancées formellement. Si tel avait été le cas, j’aurais rendu public ce rapport.

La Commission a recruté des personnes aux compétences extrêmement fortes sur ces questions. Il s’agit par exemple d’Européens partis travailler dans la Silicon Valley avant de revenir sur leur continent et contribuer à notre action. Audelà, il me semble opportun de démontrer que nous pouvons faire usage des moyens qui sont donnés, y compris coercitifs, dans la mesure où la nécessité s’exprime sur ces questions.

M. Emmanuel Fouquart (RN). Nos différentes auditions témoignent de l’urgence de la situation vis-à-vis des mineurs. De quelle manière pourrons-nous appliquer les futures recommandations qui seront formulées au niveau européen ?

M. Thierry Breton. Je rappelle que l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) est compétente sur ces sujets et fait partie du DSA board. À ce titre, elle est en mesure d’agréger l’information et de la partager.

Nous vivons un contexte politique et géopolitique particulier, mais il me semble nécessaire d’en faire abstraction parce qu’il s’agit surtout d’appliquer les lois qui ont été votées par notre démocratie – en particulier sur TikTok – dont vous êtes les représentants, au même titre que vos collègues européens. À mon sens, l’erreur serait d’accepter de rentrer dans des calculs de négociation comme je peux le lire ici ou là, un arbitrage entre réduction des droits de douane en échange de la révision de certaines lois. Si tel était le cas – je sors ici de mon champ de compétences –, cela voudrait dire que notre intégrité territoriale et démocratique est à vendre. Il s’agirait là d’un tout autre projet pour nous en Europe.

M. le président Arthur Delaporte. Je vous remercie. Nous sommes à votre disposition pour toute information complémentaire que vous souhaiteriez fournir par écrit à la commission d’enquête. Je précise que madame la rapporteure et moi-même, nous nous rendrons à Bruxelles pour rencontrer les services de la Commission européenne mercredi 4 juin. Nous avons par ailleurs auditionné l’Arcom mardi dernier.

37.   Audition de Mme Cécile Augeraud, commissaire divisionnaire, chef‑adjoint à l’Office anti cybercriminalité (OFAC) (mardi 27 mai 2025)

La commission auditionne ensuite Mme Cécile Augeraud, commissaire divisionnaire, chef-adjoint à l’Office anti cybercriminalité (OFAC) ([36]).

M. le président Arthur Delaporte. Nous accueillons à l’instant Mme Cécile Augereau, commissaire divisionnaire et chef adjoint à l’Office anti‑cybercriminalité (Ofac). Madame, je vous remercie de prendre le temps de répondre à notre invitation, mais également de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mme Augeraud prête serment.)

Mme Cécile Augeraud, commissaire divisionnaire, chef-adjoint à l’Office anti-cybercriminalité (Ofac). J’interviens effectivement au nom de l’Office anti‑cybercriminalité, un office relevant de la Direction nationale de la police judiciaire. Issu de structures relativement anciennes, l’Ofac n’existe sous sa forme actuelle que depuis le 1er décembre 2023, sur le fondement d’un décret du 23 novembre 2023. Cet office est une structure centrale, dotée d’un effectif de 167 personnels, d’un maillage territorial avec onze antennes, auquel il faut ajouter ce jour dix-huit détachements constituant un effectif de 226 personnels. À l’horizon 2027, l’Ofac devrait comporter quarante-cinq détachements.

L’Office gère le budget cyber de la police nationale et a vocation à intégrer des policiers, des gendarmes et des douaniers. Il est chargé de la déclinaison des trente-sept mesures du plan cyber de la police nationale pour une police plus cyber, une cyberpolice plus efficace qui détecte, qui partage et qui protège.

L’Ofac remplit quatre missions essentielles : enquêter, appuyer, renseigner et détecter. Dans cette dernière mission, nous sommes confrontés à des contenus issus de TikTok ; à travers Pharos, la plateforme d’harmonisation, d’analyse, de recrutement et d’orientation des signalements. Pharos a été ouverte au public en 2009, très rapidement après l’essor des réseaux sociaux. Cet outil est destiné à centraliser les signalements en un point unique, aux fins de recoupement, mais également pour une meilleure compréhension et une détection plus rapide des phénomènes. Pharos est une entité qui ne peut recevoir que les contenus illicites, publics et en ligne, avec une exception notable, qui porte sur le traitement des urgences vitales. En cas d’urgence vitale, le signalement est traité même si les critères précités ne sont pas respectés.

La force principale de cette plateforme réside dans sa double capacité d’action. Il s’agit d’abord d’une capacité d’action judiciaire : Pharos peut initier des procédures sur le fondement des signalements qui y sont faits, sous l’autorité du Pôle national de lutte contre la haine en ligne, pour tout ce qui relève de la haine en ligne ; et sous l’autorité du parquet de Nanterre pour les autres types de mesures. Pharos dispose aussi de pouvoirs administratifs forts qui donnent à son action un rôle encore plus conséquent.

Cette plateforme fonctionne sept jours sur sept, vingt-quatre heures sur vingt-quatre, depuis janvier 2021. Elle réunit à ce jour quarante-quatre enquêteurs, policiers et gendarmes, qui sont répartis en quatre entités : une cellule qui traite les signalements dits généralistes ; une cellule de lutte contre la haine en ligne – soit les signalements les plus complexes à caractériser et dont les prescriptions ne sont pas forcément les mêmes que celles des autres infractions – ; une cellule consistant en un pôle rôle judiciaire ; une cellule des mesures administratives chargée de mettre en œuvre l’article 6-1 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), pour le retrait des contenus pédocriminels et apologétiques du terrorisme. Désormais, Pharos a aussi en charge les contenus relatifs aux actes de torture et de barbarie en matière administrative. Enfin, cette cellule administrative met en place les mesures de l’article 6-1-1 de la LCEN, c’est‑à-dire celles qui sont issues du règlement sur les contenus terroristes en ligne (terrorist content online ou TCO). Les pouvoirs exorbitants de cette cellule sont néanmoins contrôlés par la personnalité qualifiée de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), qui examine chacune des demandes de retrait des mesures formulées par la cellule administrative de Pharos.

M. le président Arthur Delaporte. Je vous remercie. En compagnie de M. Stéphane Vojetta ici présent, j’ai eu l’occasion de visiter les services de l’Ofac il y a deux ans. Nous avions pu y observer le professionnalisme, l’engagement des agents, mais également la faiblesse des moyens qui étaient les vôtres par rapport aux enjeux de la régulation du numérique.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Je souhaiterais que vous puissiez évoquer en détail le bilan des contenus qui ont été portés à votre connaissance sur TikTok dans les années précédentes et dont Pharos a demandé aux hébergeurs le retrait ou la limitation de la visibilité. Avez-vous des liens directs avec TikTok ? Quelle est la part des contenus qui ont pu être retirés après signalement ? Quel est votre jugement sur l’évolution de la modération, particulièrement dans le cadre européen aujourd’hui à notre disposition à travers le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) ? La modération est-elle plus soutenue ou à l’inverse, les contenus problématiques non modérés sont-ils encore très présents ?

Mme Cécile Augeraud. En 2024, Pharos a reçu 9 027 signalements concernant 5 554 contenus distincts hébergés sur TikTok ; sur un total de plus de 222 000 signalements. Les signalements liés à des contenus présents sur TikTok représentent donc environ 4 % du total des signalements reçus par la plateforme. Par rapport à 2023, il s’agit quasiment d’un doublement du nombre de signalements de contenus issus de TikTok, puisqu’ils s’établissaient alors à 5 010, sur un total d’environ 211 000 signalements.

S’agissant de la nature de ces signalements, plusieurs grandes catégories ressortent et représentent à elles seules 70 % du total. Il s’agit d’abord des discriminations, qui relèvent plutôt de la provocation publique à la haine et à la discrimination raciale, ethnique ou religieuse, ainsi que des injures et diffamations xénophobes ou discriminatoires. Nous recevons également des signalements concernant des menaces, des révélations de faits connus hors Internet, par exemple des annonces de troubles à l’ordre public ; mais aussi des vidéos de violences sur la voie publique mises en ligne. La dernière grande catégorie concerne les faits relatifs au terrorisme.

S’agissant de 2025, nous avons reçu à la mi-mai 4 441 signalements sur Pharos, sur 3 145 contenus différents et rapporté 80 000 signalements reçus sur la plateforme pour la même période. Il s’agit donc d’une proportion plus élevée encore que l’année précédente, puisqu’elle atteint 5,5 % contre 4 % en 2024. Les quatre grandes catégories restent également les mêmes pour cette année. En revanche, nous constatons une baisse de la proportion de contenus terroristes : ils représentaient 15,6 % des signalements en 2024, contre 10,5 % pour ce début d’année 2025.

En revanche, en dehors des principales catégories, nous observons une très forte hausse des atteintes aux mineurs, passant de 3,15 % en 2024 à 7,5 % en 2025. Il ne s’agit pas de pédocriminalité, mais de contenus provenant de mineurs qui vont être détournés, comme des images détournées d’enfants jouant sur la plage, des contenus s’inscrivant dans des campagnes très spécifiques. Je pense par exemple à l’émoji « pizza », qui renvoie ceux qui les consultent vers des messageries privées, essentiellement Telegram, pour permettre des échanges pédocriminels.

Je souhaite également apporter un éclairage sur les contenus d’atteintes corporelles, puisque le hashtag SkinnyTok a été évoqué à de multiples reprises. Les signalements que nous avons reçus en la matière sont demeurés malgré tout dans des proportions relativement réduites. Parmi les derniers signalements reçus, les enquêteurs de la plateforme ont toutefois relevé le compte d’une jeune femme anorexique qui montre son quotidien en incitant à l’anorexie. Ce type de contenu existait déjà sur les blogs avant l’explosion des réseaux sociaux, mais il inquiète encore plus sur TikTok en raison de l’algorithme particulièrement puissant de cette plateforme.

Concernant la haine en ligne hors terrorisme, Pharos a procédé à 195 notifications au titre de l’article 6, qui ont été adressées à TikTok pour lui signaler qu’elle hébergeait des contenus illicites. Des retraits ont été effectués par TikTok dans à peu près 60 % des cas.

S’agissant des signalements qui nous sont adressés en lien avec des contenus TikTok, les enquêteurs sont également soumis à deux difficultés. D’abord, nous sont parfois signalés des commentaires haineux intervenant sous certaines publications, qui elles ne sont pas problématiques. Or il peut être parfois difficile de retrouver ces contenus-là pour procéder aux constatations. Ensuite, se pose également le problème de propos tenus dans le cadre de lives qui sont diffusés sur TikTok, où par définition, nous arrivons trop tard pour procéder à des constatations.

Pharos dispose de pouvoirs administratifs forts, notamment en matière de pédocriminalité et de terrorisme. À ce titre, 750 contenus présents sur TikTok ont fait l’objet en 2024 de demandes de retrait au titre de l’article 6-1 de la LCEN. Sur cette même année 2024, Pharos a procédé à 87 410 demandes de retrait au total. En conséquence, ces demandes de retrait représentent moins de 1 % des demandes de retrait formulées au total.

Il faut cependant relever que la répartition est particulièrement parlante, puisque sur ces demandes, 749 demandes l’ont été pour des faits relevant du terrorisme, soit 11 % des demandes de retrait formulées par la plateforme, qui en a formulé 6 679 en 2024. Pharos a souhaité, en quelque sorte, « marquer le coup » et utiliser largement l’article 6-1-1 de la LCEN, en lien avec le règlement TCO sur les contenus relevant du terrorisme. À ce titre, 134 injonctions de retrait TCO ont été formulées par Pharos pour des contenus présents sur TikTok, sur un total de 159 injonctions de retrait TCO. La très grande majorité de nos injonctions TCO concernent donc des contenus présents sur TikTok. C’est peut-être aussi une des explications que l’on peut donner au changement de proportion entre le terrorisme et les atteintes aux mineurs constatées entre 2024 et 2025, la plateforme ayant sans doute plus pris conscience de notre très grande attention.

Enfin, 76 contenus ont été traités en urgence vitale par Pharos pour des contenus présents sur TikTok, sur un total de 690 urgences vitales traitées en tout au titre de l’année 2024. J’ajoute également que vingt procédures judiciaires ont été ouvertes depuis le début de l’année 2025 sur le fondement de signalement de contenus présents sur TikTok.

Vous m’avez également interrogée sur nos relations avec TikTok. Depuis déjà un certain temps, nous avons fait le constat d’un besoin accru de contact et de coopération avec les fournisseurs de services Internet. À ce titre, le bureau d’aide à l’enquête numérique (BAEN) a été créé en 2014. En dehors de la préfecture de police de Paris, ce bureau est identifié par les fournisseurs comme l’interlocuteur unique pour la police nationale. Il sert d’intermédiaire entre les enquêteurs et les fournisseurs, dont TikTok, qui désignent chacun en leur sein un contact réservé.

Ce contact réservé est particulièrement réactif et proactif. Il réagit à nos demandes et les enquêteurs ne signalent aucune difficulté particulière le concernant, à la réserve près du suivi de nos notifications au titre de l’article 6. S’agissant de Pharos, TikTok prend assez rapidement en compte les demandes de retrait que nous formulons, essentiellement au titre de l’article 6-1. Au titre du 6-1-1, toutes nos inventions de retrait ont été suivies d’effet. Comme je vous l’indiquais, au titre de l’article 6, nous sommes plus limités quant au suivi assuré par TikTok. Par ailleurs, au titre de l’article 18 du DSA et de la notification de soupçon d’infraction pénale avec menace pour la vie ou la sécurité des personnes, TikTok effectue également des signalements à Pharos ; 33 en 2024, mais déjà 51 pour ce début d’année 2025.

Enfin, l’Ofac ne dispose pas d’une vision globale sur l’action des réseaux sociaux pour pouvoir s’exprimer sur le respect par ses derniers de leurs obligations issues de la réglementation européenne en matière de modération. Cependant, la modération mise en place par TikTok se mesure au nombre de signalements effectués sur Pharos. Or nous constatons une augmentation régulière du nombre de ces signalements. Nous resterons donc très attentifs à la poursuite de cette augmentation et au traitement particulier sur les signalements issus de contenus provenant de TikTok.

M. le président Arthur Delaporte. Vous indiquez avoir effectué environ 750 demandes de retrait en 2024 au titre de l’article 6-1 de la LCEN. De son côté, le rapport de transparence de TikTok en mentionne seulement 250 au deuxième semestre et environ 170 au premier semestre. Je m’interroge sur cette différence, ainsi que sur la catégorisation des demandes de retrait venant du Gouvernement, qui sont inférieures aux chiffres que vous avez indiqués. Sur le deuxième semestre 2024, sont ainsi dénombrées 197 demandes de retrait de contenus terroristes, une d’exploitation sexuelle de mineurs, une trentaine d’appels à la haine, quatre contenus relatifs aux crimes organisés ou violents. Nous sommes loin des 750 demandes que vous évoquez. Comment l’expliquez-vous ?

Mme Cécile Augeraud. Je n’ai aucune explication concernant les chiffres fournis par TikTok dans son rapport de transparence. L’outil Pharos n’est pas un outil statistique, notre comptabilisation est essentiellement manuelle. Nous allons modifier bientôt notre outil, ce qui nous permettra à l’avenir d’être beaucoup plus précis dans nos chiffres. En revanche, les chiffres sont comptabilisés uniquement par les membres de la cellule de blocages et sont suivis par la personnalité qualifiée de l’Arcom. Je pourrai vous communiquer à l’issue de cette audition l’infographie qui reprend nos différents chiffres.

Mme Laure Miller, rapporteure. Avez-vous une idée de la proportion des contenus que vous signalez qui concernent des mineurs ? Estimez-vous que la loi française devrait changer, pour permettre d’incriminer des contenus qui ne sont pas aujourd’hui sanctionnés ?

Mme Cécile Augeraud. Quand nous traitons un contenu, nous ne savons pas qui nous le signale. Nous qualifions ensuite ces contenus, dont certains concernent les mineurs, sans que je puisse pour autant vous donner des proportions. En revanche, les signalements de pédocriminalité sont très limités, puisque nous n’avons fait qu’une notification à ce titre pour l’année 2024.

S’agissant des contenus signalés, sur Pharos, nous nous efforçons de trouver une qualification pénale qui pourrait correspondre à une exposition particulière. Je pense par exemple aux incitations au suicide qui peuvent particulièrement toucher des adolescents. Nous avons ainsi reçu 14 signalements pour ce type de fait en 2024, pour 10 contenus différents. Cependant, pour pouvoir traiter ces contenus à ce titre, il faut qu’une tentative de suicide soit intervenue. Nous les envisageons aussi sous l’angle du harcèlement, pour pouvoir prendre en compte un signalement et le traiter.

M. le président Arthur Delaporte. Estimez-vous que les effectifs dont vous disposez devraient être augmentés ?

Mme Cécile Augeraud. En toute matière, on est forcément plus pertinents si l’on est plus nombreux. Je rappelle cependant que puisque Pharos fonctionne vingt-quatre heures sur vingt-quatre et sept jours sur sept, nous pouvons traiter un maximum de signalements. À ce titre, l’Ofac est surtout attentive à l’extension des pouvoirs de Pharos, notamment de la cellule des mesures administratives, composée de quatre agents qui traitent les demandes de retrait de contenus pédocriminels, terroristes et au titre du TCO. Dans le cadre du projet de loi visant à sortir la France du piège du narcotrafic, les pouvoirs de Pharos seront encore plus étendus pour pouvoir mieux détecter les contenus en lien avec les stupéfiants.

Cette augmentation du nombre de missions nous imposera d’être particulièrement attentifs quant à la charge de travail et la capacité de la plateforme d’être toujours aussi efficiente pour pouvoir répondre dans des délais très courts, sans obérer naturellement le traitement des urgences vitales.

M. le président Arthur Delaporte. Si vous deviez comparer l’attitude de TikTok et celles des autres plateformes en termes de célérité et d’efficacité, comment la qualifieriez-vous ?

Mme Cécile Augeraud. Cela dépend des contenus. Pour certains d’entre eux, la rapidité est réelle et le suivi effectif. Nous le constatons sur les injonctions TCO, pour lesquelles les contenus ont tous été retirés dans l’heure, conformément au texte. En revanche, nous sommes confrontés à de plus grandes difficultés sur les contenus liés à la discrimination avec l’ensemble des réseaux sociaux, dans la mesure où cette matière pose le plus de difficultés en termes de qualification et où les plateformes examinent les demandes avec leur propre prisme. Par exemple, les plateformes américaines portent un regard très particulier sur la discrimination et la liberté d’expression, qui n’est pas forcément identique à celui que nous pourrions avoir en France. Certaines plateformes américaines sont donc beaucoup moins promptes encore que TikTok à traiter et suivre ce genre de signalement. Je pense qu’à ce titre, TikTok se situe dans une moyenne acceptable.

M. le président Arthur Delaporte. Vous évoquez vos discussions avec les services de modération sur les retraits de contenus problématiques, notamment liés à la protection des mineurs. Pouvez-vous nous donner plus de détails sur des flous juridiques ou des différences d’interprétation ? Cela impliquerait-il de faire évoluer le droit pour le rendre plus explicite et faciliter les échanges avec les plateformes ?

Mme Cécile Augeraud. Nous n’identifions pas aujourd’hui de véritables failles dans la législation qui nous empêcheraient réellement d’agir. Les plateformes sont surtout incitées à agir face au risque de l’application de sanctions financières en cas de non-suivi des demandes de retrait ou des injonctions de retrait, ces sanctions financières étant particulièrement conséquentes. Un autre enjeu pour les plateformes concerne leur image. Elles sont très attachées à donner une image la plus lisse possible sur certains types de contenus, essentiellement sur les contenus pédocriminels. Il faudrait les sensibiliser également sur le préjudice d’image au‑delà des contenus pédocriminels, pour tout ce qui concerne les mineurs, mais aussi parfois communiquer davantage sur les absences de retrait ou sur les divergences d’interprétation en temps réel.

M. le président Arthur Delaporte. Je vous remercie pour vos propos et plus largement, pour le travail que vous réalisez avec vos collègues au sein de l’Ofac. Vous pourrez nous communiquer tout élément complémentaire si vous le souhaitez.

38.   Audition de M. Nicolas Deffieux, directeur du Pôle d’expertise de la régulation numérique (PEReN) (mardi 27 mai 2025)

La commission auditionne enfin, à huis clos, M. Nicolas Deffieux, directeur du Pôle d’expertise de la régulation numérique (PEReN).

M. le président Arthur Delaporte. Nous recevons M. Nicolas Deffieux, directeur du Pôle d’expertise de la régulation numérique (Peren). M. Deffieux, cette audition se déroulant à huis clos, vous aurez la possibilité, si vous le souhaitez, de retrancher une partie de vos propos du compte rendu qui sera publié sur le site de l’Assemblée. Nous serons peut-être amenés à suspendre brièvement en raison de la loi relative au droit à l’aide à mourir, le temps d’aller voter. Je vous souhaite la bienvenue et vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Deffieux prête serment.)

M. Nicolas Deffieux, directeur du Pôle d’expertise de la régulation numérique (Peren). Directeur du Peren rapidement après sa création en août 2020, je suis fonctionnaire et j’ai travaillé d’abord à l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) pendant onze ans, puis à l’Autorité de la concurrence pendant huit ans, en tant que rapporteur général adjoint dans les services d’instruction, plus spécifiquement sur les plateformes numériques et les télécommunications.

Le Pôle d’expertise de la régulation numérique est un service à compétence nationale d’expertise technique mutualisé entre différents services de l’État. Il est également à la disposition de certaines autorités administratives indépendantes et d’autorités publiques indépendantes qui conduisent des missions de régulation des plateformes numériques. Nous disposons aussi d’un accord de partenariat avec la Commission européenne, qui est régulateur du numérique dans le cadre du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) et du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA). La Commission a la possibilité de faire appel à nos services dans un cadre qui est soumis à des causes de confidentialité.

Le Peren est né à la suite des États généraux du numérique de 2019, qui avait constaté que les services de l’État n’étaient pas forcément bien armés face aux grandes plateformes, en particulier en termes d’analyse des données et d’expertise numérique. Il avait donc été décidé de tester un schéma dans lequel, au lieu de rajouter quelques data scientists à chaque régulateur, il fallait plutôt mettre en place un pôle d’expertise à la disposition de l’ensemble des régulateurs. En effet, même si les champs juridiques sont extrêmement différents, la réponse technique, informatique ou même mathématique peut être la même, soulignant l’intérêt de mutualiser les moyens.

Le Peren comprend une trentaine de personnes. Certaines disposent d’une expertise technique et informatique, développent du code informatique pour aider les régulateurs à mettre en œuvre la régulation, à détecter des phénomènes. Mais nous assurons également un rôle d’aide à la conception de la régulation, pour évaluer si certaines règles sont parfois ambiguës d’un point de vue technique, voire si elles ne peuvent pas être transposées techniquement.

Dans le champ de la protection des mineurs, plusieurs travaux ont été réalisés. Nous avons ainsi œuvré à l’assistance technique sur le contrôle parental et notamment le « décret Studer ». Nous sommes aujourd’hui mobilisés dans le cadre des travaux sur le contrôle parental par le groupe des régulateurs qui a été créé par la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique dite loi SREN. Nous vérifions ainsi que les modalités pratiques de contrôle parental qui sont mises en œuvre sur différents smartphones sont suffisamment fonctionnelles et ne peuvent pas être contournées trop facilement en fonction des générations de smartphones et des différents systèmes d’exploitation utilisés.

Nous avons également fourni une assistance technique sur les sujets de vérification d’âge. En compagnie de la Commission nationale de l’informatique et des libertés (Cnil) et de l’École polytechnique, nous avons créé un prototype de transmission de la preuve d’âge en double anonymat. Nous avons travaillé ensuite en coordination avec l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) et la Cnil sur la détermination du référentiel qui a été publié par l’Arcom.

Des travaux ont également été initiés sur l’économie de l’attention et les différents éléments d’interface ou algorithmiques qui conduisent les utilisateurs à rester le plus longtemps possible sur une application. Nous avons également travaillé avec le secrétariat général des affaires européennes pour fournir un appui technique sur les questions de chiffrement et notamment la détection de contenus pédocriminels sur les messageries chiffrées de bout en bout.

Par ailleurs, nous avons élaboré un concept avec l’Arcom, une plateforme de signalement destinée aux signaleurs de confiance : les dates de signalement sont enregistrées, afin que l’Arcom dispose de données sur les délais de traitement des signalements par les plateformes. Enfin, nous avons conduit des travaux pour la Commission européenne dans le cadre de ses investigations sur le DSA. En particulier, nos apports concernent l’établissement de méthodologies de démonstrations robustes et utilisables dans les contentieux.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Avez-vous examiné l’algorithme de recommandation de TikTok, qui apparaît particulièrement performant ? Pouvez-vous nous livrer votre analyse à ce sujet ? Entretenez-vous des liens quotidiens avec les plateformes et les réseaux sociaux ?

M. Nicolas Deffieux. Nous avons conduit plusieurs travaux sur TikTok, dont notamment une analyse de bulles de filtre. Lors d’une expérimentation, nous avons instrumenté des smartphones pour simuler l’intérêt d’un utilisateur virtuel pour une thématique de vidéos. Cela nous a permis d’obtenir des données quantitatives sur la vitesse à laquelle l’algorithme de TikTok détectait un intérêt pour un sujet, mais aussi un changement d’intérêt vers une thématique différente. Il apparaît que l’algorithme de TikTok est vraiment très puissant et rapide et détecte ces phénomènes. Ce premier travail a été transmis à la Commission en 2023, lorsqu’elle avait inauguré son centre d’analyse sur la transparence algorithmique, avec lequel nous travaillons.

Nous avons aussi été interrogés par la commission d’enquête du Sénat sur l’utilisation du réseau social TikTok, le fonctionnement de son algorithme, son exploitation des données, sa stratégie d’influence. À cette occasion, nous avons montré que deux types d’analyses sont possibles. Le premier type d’analyse concerne la compréhension des mécanismes de captation de l’attention intégrés à l’application, soit par des éléments d’interface, soit par une sorte de filtrage ou de fonctions qui alimentent l’algorithme et sont déjà présentes sur le smartphone. Dans le code de l’application TikTok, il existe en effet du machine learning, mais nos observations sur ce champ-là sont assez limitées.

Le premier obstacle concerne le cadre juridique approprié pour pouvoir se lancer dans ce type d’analyses. En effet, elles mobilisent des techniques de reverse engineering pour décortiquer le code, accéder à un système de traitement automatisé de données. Or il n’est pas possible d’y parvenir sans avoir été mandaté par une administration dotée de la compétence juridique, sauf à disposer nous-mêmes d’un cadre approprié.

Mais la partie la plus importante a trait aux serveurs de TikTok qui envoient les contenus sur le smartphone, par lots. Lorsque vous êtes connecté, le serveur de TikTok envoie huit vidéos en bloc, qui sont stockées sur le smartphone, avant d’être lues. Les travaux réalisables sur ces serveurs consisteraient à accéder de manière privilégiée aux données internes de l’algorithme, sur les serveurs. TikTok a mis en place des centres de transparence physiques, mais nous n’avons jamais pu les visiter. En outre, même si nous avions accès aux données internes de l’algorithme, cela ne serait pas forcément le plus utile, dans la mesure où il est difficile de les décrypter. Il serait plus intéressant de pouvoir accéder à des interfaces de test, c’est-à-dire pouvoir nous-mêmes tester l’algorithme avec nos propres algorithmes, dans des conditions bien plus efficaces que l’utilisation via des smartphones. Mais même dans ce cas, il existerait des risques de manipulation si TikTok modifiait le comportement de l’algorithme qui sert aux tests.

M. le président Arthur Delaporte. Je suspends la séance pour quelques minutes pour nous permettre d’aller voter en séance publique. Je vous prie de nous excuser pour cette contrainte indépendante de notre volonté.

L’audition est suspendue de dix-huit heures vingt-cinq à dix-huit heures trentecinq.

M. le président Arthur Delaporte. Nous reprenons notre audition.

M. Nicolas Deffieux. Laissez-moi reprendre mon intervention sur les travaux que nous menons. Je vous expliquais qu’il nous serait utile de pouvoir tester le fonctionnement de l’algorithme pour lui envoyer des requêtes et voir comment il se comporte, plutôt qu’accéder au code lui-même. À ce sujet, nous avons parfois été sollicités pour voir si nous pouvions créer des profils, par exemple d’adolescents, et étudier ce qui serait montré par TikTok de manière statistique et robuste, dans le cadre d’une expérimentation. Cependant, cela nécessite non seulement de créer des comptes avec une forme de fausse identité, mais aussi d’interagir avec la plateforme et sans doute de poster du contenu pour que l’algorithme pense qu’il est face à utilisateur réel. Or si nous maîtrisons la mécanique technique et la compétence statistique, nous ne disposons pas du cadre juridique adéquat pour mener l’expérimentation. Mais il existe quand même des possibilités.

M. le président Arthur Delaporte. À ce sujet, quelles sont les limites du cadre juridique actuel ? Que faudrait-il corriger pour pouvoir mener ce type d’expérimentation ?

M. Nicolas Deffieux. Il faut distinguer plusieurs sujets. La collecte automatisée des données est souvent interdite par les conditions générales d’utilisation (CGU) de la plateforme. Pour pouvoir outrepasser ces CGU et utiliser les données collectées dans un objectif de régulation, il faut bénéficier d’une compétence juridique spécifique, être doté de pouvoirs d’enquête. Or nous sommes un service de pure expertise technique, nous ne sommes ni régulateur, ni enquêteur et ne pouvons qu’au plus conduire des tests par nous-mêmes. De même, nous ne pouvons pas utiliser des identités d’emprunt, comme le peuvent les enquêteurs de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF).

En revanche, nous pouvons utiliser les possibilités prévues par le DSA. Le règlement prévoit en particulier que les plateformes doivent mettre à disposition des chercheurs un certain nombre d’interfaces de programmation d’application (API) pour accéder aux données. Or, depuis la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection des œuvres culturelles à l’ère numérique, le Peren exerce une mission de recherche publique. Nous sommes un organisme de recherche, enregistré au registre national des structures de recherche.

En pratique, la situation est plus compliquée ; nos demandes ont enregistré un succès variable auprès des plateformes. Par exemple, nous n’avons rencontré aucune difficulté pour accéder au registre des publicités, obligation formulée par le DSA. Dans un autre cadre, nous conduisons un projet de recherche sur la détection des discours haineux sur les réseaux sociaux et, à ce titre, nous avons demandé en avril 2024 d’accéder à une API existante, qui est proposée par TikTok aux chercheurs. Mais TikTok nous a demandé de justifier que les accès qui nous seraient fournis ne seraient pas partagés avec d’autres membres du Gouvernement. Nous avons donc dû effectuer des réponses très complètes, pour expliquer le fonctionnement du Peren en termes de sécurité des données et apporter des garanties éthiques, au titre de notre mission de recherche. Depuis un an, nous échangeons à ce titre et la semaine dernière, TikTok nous a adressé une nouvelle salve de questions pour fournir des justifications sur les statuts et soumettre un nouveau projet de recherche. La plateforme nous a demandé de lui apporter la garantie que nous respections les conditions de l’article 40, paragraphe 8 du DSA, qui ne concerne pas les projets de recherche généraux, mais les projets de recherche des chercheurs agréés au sens du DSA.

En résumé, la démarche est difficile, les projets de recherche sont vérifiés par les plateformes quand nous formulons des demandes d’accès, et nos réponses ne les ont pas satisfaites. La prochaine étape consisterait pour nous à porter ces éléments à la connaissance de l’Arcom et de la Commission européenne. Mais nous n’avons pas insisté sur cette question, dans la mesure où la loi SREN de 2024 a fait évoluer la rédaction de la mission de recherche pour le Peren. Un décret est en cours de finalisation et nous reprendrons nos demandes dès le nouveau cadre adopté.

M. le président Arthur Delaporte. Vous avez également évoqué la base de données publicitaires. Il y a un mois et demi est intervenue à Sciences Po Paris une série de « sprints » réunissant des chercheurs qui essayaient d’explorer les différentes bases de données. Il est apparu à cette occasion que la base de données de TikTok était très faiblement exploitable. La Commission européenne s’en est d’ailleurs saisie pour ouvrir une enquête à ce propos. Quelles leçons en avez-vous tiré ?

M. Nicolas Deffieux. Nous avons participé aux sprints et avons notamment animé l’un d’entre eux. Nous avons formulé les constats que vous avez évoqués.

Cela signifie bien que les difficultés rencontrées pour accéder à l’API ne préjugent pas de la qualité des données disponibles lorsque nous parvenons finalement à y accéder. Il est très facile de formuler une demande et d’accéder à l’API sur les registres publicitaires de TikTok. En revanche, ensuite, de nombreuses fonctionnalités sont manquantes. En outre, nous ne pouvons même pas juger du contenu de l’API pour laquelle nous avons effectué une demande il y a an, puisque l’accès ne nous a pas été donné.

M. le président Arthur Delaporte. Dans ce cadre, nous sommes preneurs de suggestions de modifications que vous pourriez nous adresser par écrit concernant la base légale, afin que nous puissions les évoquer dans notre rapport.

M. Nicolas Deffieux. Ce sujet est très délicat. Depuis le DSA, qui est quand même un règlement d’harmonisation maximale, il est très difficile d’établir une quelconque obligation supplémentaire qui viendrait peser sur les plateformes. La Commission exerce à ce titre une grande vigilance. À titre d’exemple, certaines dispositions de la loi SREN nous concernaient. La Commission nous a demandé d’apporter des garanties et de réécrire un certain nombre d’éléments pour s’assurer qu’ils ne contreviendraient pas au DSA.

M. le président Arthur Delaporte. Je vous ai interrompu dans vos propos. Vous étiez en train d’évoquer les différentes études.

M. Nicolas Deffieux. S’agissant du fonctionnement de l’algorithme de TikTok, je souhaite apporter un certain nombre d’éléments supplémentaires. TikTok ou ByteDance ont eux-mêmes publié des informations sur un algorithme de recommandation qui est décrit dans la presse comme « l’algorithme de TikTok ». Il s’agit effectivement d’un algorithme de ByteDance, mais nous ne savons pas s’il s’agit de celui qui est effectivement utilisé sur le service grand public, que tout le monde utilise. En effet, au même titre que Google, TikTok mène une activité commerciale dans laquelle la plateforme vend l’algorithme de recommandation. Cependant, en dépit de cette incertitude, cet algorithme fournit quand même des informations sur la manière dont TikTok code.

Cet algorithme s’appelle « BytePlus Recommend », le système porte le nom de Monolith. Il fonctionne dans le cadre d’un entraînement continu, un apprentissage quotidien. TikTok soutient qu’il constitue un avantage concurrentiel par rapport à d’autres systèmes. Il est donc possible d’imaginer qu’il figurerait également dans l’algorithme de l’application TikTok. La plateforme met en avant la fraîcheur des contenus pour l’algorithme : l’algorithme n’a pas une mémoire très profonde, mais place une prime sur les contenus très récents. L’index étant très récent, cela peut induire une viralité plus grande, en l’absence d’effet d’inertie ou de long historique.

En résumé, le contenu récent est davantage est promu et mis en avant par cet algorithme. Encore une fois, nous ne sommes pas certains que cet algorithme soit strictement identique à celui qui est utilisé concrètement. Nous ne disposons pas d’informations certaines sur l’algorithme du TikTok.

M. le président Arthur Delaporte. Pensez-vous que nous pourrions poser aux responsables de TikTok une question précise pour savoir s’il s’agit bien de l’algorithme qui est réellement utilisé par l’application ?

M. Nicolas Deffieux. Il serait effectivement très utile qu’ils précisent si l’algorithme est le même, ou à défaut les différences et les paramètres spécifiques.

M. le président Arthur Delaporte. Cet algorithme a-t-il été rendu public ? L’avez-vous analysé ? Ou ne s’agit-il que d’une analyse à partir de critères que TikTok a elle-même fournis dans un rapport ?

M. Nicolas Deffieux. Nous n’avons pas conduit une analyse par nous‑mêmes. Je rapporte les éléments saillants d’une publication effectuée par TikTok. Nous pourrons vous adresser la référence.

M. le président Arthur Delaporte. Je vous remercie, nous serions évidemment preneurs.

M. Nicolas Deffieux. Je souhaite également répondre à l’une de vos autres questions concernant nos échanges avec les réseaux sociaux et TikTok. Nous communiquons très rarement de manière directe avec les plateformes. Ces interactions ont cependant lieu dans le cadre de différentes instances. Des échanges directs sont ainsi intervenus à l’occasion d’un panorama que nous avons réalisé sur les systèmes de vérification ou d’estimation d’âge auxquels les plateformes ont recours. Nous avons interrogé Meta, Google et X, en direct. TikTok avait refusé un entretien, mais nous a communiqué des éléments par écrit, nous indiquant qu’elle se fondait simplement sur la date de naissance déclarée par l’utilisateur au moment de la connexion. Elle a également précisé que ses modérateurs s’intéressent à certains utilisateurs lorsque quelque chose de louche apparaît à leurs yeux. Lorsque tel est le cas, ils formulent une demande de vérification d’âge formelle, soit par transmission de carte d’identité, soit en passant par un site tiers comme Yoti.

Par ailleurs, nous avons également interagi avec les plateformes dans le cadre d’expérimentations que nous avons menées. Par exemple, nous avons eu des relations avec Snapchat sur la fonctionnalité « My AI ». Snapchat ne nous a pas laissés faire facilement et nous a même menacés de poursuite si un problème survenait, ce qui n’a pas été le cas. Nous avons également conduit quelques expérimentations, notamment concernant les questions de personnalisation sur YouTube, qui se montre plutôt coopératif. À chaque fois que nous procédons de la sorte, nous agissons dans un cadre assez formel. Nous sollicitons les plateformes pour savoir si nos expérimentations peuvent entraîner des problèmes de sécurité ou pour leurs utilisateurs.

J’ai déjà évoqué plus tôt nos demandes auprès de TikTok sur les API académiques, qui n’ont pas été couronnées de succès. Il y a quelques années, Google nous a bénévolement laissés tester son système de recommandations. Nous avons ainsi pu emmagasiner de l’expérience sur l’état de l’art en ayant accès aux deux côtés de l’algorithme. Nous pouvions ainsi programmer nous-mêmes des paramètres de l’algorithme et observer les effets du côté des utilisateurs. Cela nous a permis de développer des outils pour mieux comprendre le fonctionnement de ces algorithmes.

Tels sont en résumé nos contacts directs avec les plateformes de réseaux sociaux. Globalement, nos relations s’exercent surtout avec les administrations qui nous adressent des questions et qui, ensuite, interagissent éventuellement avec les plateformes.

Mme Laure Miller, rapporteure. Lorsque nous avons auditionné les familles dont les enfants ont été victimes de TikTok, elles nous ont régulièrement indiqué que le contrôle parental était très facilement contournable. En outre, certains parents éprouvent des difficultés à le paramétrer et le mettre en œuvre. Avez-vous déjà analysé les différents systèmes qui existent aujourd’hui ? Avez-vous des préconisations pour renforcer ces systèmes parentaux ?

Par ailleurs, vos travaux sont-ils publics ou uniquement destinés à l’instance qui vous les commande ?

M. Nicolas Deffieux. Je réponds tout d’abord à votre deuxième question. Lors de chaque projet, nous effectuons un cadrage et demandons quel est le statut de confidentialité des travaux qui nous sont demandés. Nous sommes favorables à des publications, afin de rendre notre travail plus visible, mais cela intervient rarement. Dans le domaine du contrôle parental, cela me semblerait d’autant plus pertinent.

Ensuite, vous mentionnez le fait que les contrôles parentaux n’étaient pas efficaces et simultanément facilement contournés, mais ces éléments ne ressortent pas de nos observations pour l’instant. J’ignore si vous avez interrogé l’Agence nationale des fréquences (ANFR), qui est compétente pour vérifier si les obligations introduites par la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet, dite « loi Studer », sont bien respectées par les plateformes. L’Agence a produit un rapport juste avant l’entrée en vigueur de la loi et en publiera un nouveau, précisément pour répondre à cette question de la bonne application de la loi au sens strict.

De notre côté, nous travaillons sur un champ différent. Nous nous intéressons également aux smartphones plus anciens que ceux qui ont été produits depuis la loi. En effet, il arrive fréquemment que les parents donnent un ancien smartphone à leur adolescent plutôt que de leur en acheter un neuf. Il est donc important de connaître l’état du contrôle parental sur des dispositifs qui sont encore en circulation, mais qui ne sont pas visés par l’obligation.

Mais en résumé, à titre d’observation préliminaire, nous n’avons pas observé que les systèmes étaient mal faits, insuffisants ou faciles à contourner. Peut-être sont-ils mal connus ou difficiles à configurer. En revanche, lorsqu’ils sont bien configurés, ils sont malgré tout relativement efficaces.

Mme Laure Miller, rapporteure. Pourrions-nous obtenir les travaux que vous avez déjà réalisés, ou vous en demander certains qui n’ont pas été rendus publics ? Je rappelle que, dans le cadre d’une commission d’enquête, le rapporteur dispose d’un certain nombre de pouvoirs pour obtenir des pièces auprès des administrations.

M. le président Arthur Delaporte. Mme la rapporteure a tout à fait raison. Demander la liste de tous les travaux que vous avez pu réaliser fait partie de ses prérogatives. Parmi cette liste, elle pourra demander la communication de certains travaux dans le cadre de la commission d’enquête.

M. Nicolas Deffieux. Bien sûr. Je précise néanmoins que certains rapports sont encore en cours de rédaction.

M. le président Arthur Delaporte. Nous ne vous demanderons naturellement pas de nous communiquer un rapport qui n’a pas été encore rédigé. Simplement, à l’occasion de votre audition, nous avons découvert des études dont nous n’avions pas connaissance. Nous sommes preneurs de tout élément, y compris non finalisé, nous permettant de mieux comprendre la question de l’algorithme.

Précédemment, nous avons auditionné Thierry Breton, ancien commissaire européen au marché intérieur, qui mentionnait l’importance de la transparence de l’algorithme. Mais quand nous sommes rentrés dans le détail des demandes de la Commission en termes de contenus, il n’a pas été en mesure de nous l’indiquer, soit parce que le dossier est en cours, soit parce qu’il ne savait pas. En conséquence, nous souhaitons vraiment mieux comprendre l’algorithme, l’applicabilité des mesures de vérification d’âge et les différents dispositifs qui existent ou qui pourraient exister, selon votre expertise.

M. Nicolas Deffieux. Nous menons également des travaux assez théoriques sur cette question, pour savoir s’il est possible d’auditer un algorithme de plateforme. L’un de nos doctorants a travaillé sur la question de savoir si une plateforme parfaitement efficace et efficiente est toujours capable de tromper un auditeur. Cela peut arriver, dans des cas limités. Or des audits produisent des effets de masse, qui permettent de déceler certaines informations. Par ailleurs, nous n’avons pas démontré que les plateformes voulaient absolument mentir.

Ensuite, il existe une réelle difficulté pour mener des audits concernant TikTok. Cette difficulté tient au nombre de boucles de rétroaction : chaque élément que l’on regarde entraîne un effet sur d’autres éléments. Les paramètres sont tellement nombreux que lorsque nous agissons sur un aspect, l’ensemble de la structure évolue. Par exemple, un sujet est-il « naturellement » viral, entraînant les influenceurs à s’en emparer ou est-ce parce qu’un influenceur l’a évoqué qu’il devient viral ? Ou est-ce le rôle de l’algorithme ? Ce dilemme de « la poule et l’œuf » n’est pas facile à résoudre. Les interdépendances rendent les objets complexes à analyser.

Cependant, lorsque les questions sont simples et que l’on sait isoler des points particuliers, nous parvenons à répondre statistiquement à des questions, à condition d’avoir un minimum d’accès à des données. Il est quasiment impossible de comprendre le fonctionnement de l’algorithme dans sa généralité à travers un reverse engineering. En revanche, nous savons traiter des questions précises qui intéressent les régulateurs.

Mme Laure Miller, rapporteure. Lors de nos auditions, revient souvent le sentiment que la modération n’est pas satisfaisante, a fortiori sur le réseau social TikTok, que certains contenus problématiques peuvent être retirés, mais qu’ils ne le sont pas tous. Nous pourrions donc être tentés de conclure que tout dépend de la bonne ou mauvaise volonté de TikTok et que par ailleurs les utilisateurs – notamment les jeunes – peuvent être amenés à contourner certains mots-clés avec des émojis pour essayer d’accéder quand même à un contenu de façon détournée.

Pouvez-vous nous confirmer que, techniquement, une plateforme est en capacité si elle le veut de modérer en temps réel ce type de contenu problématique ? Si ces contenus demeurent malgré tout, s’agit-il donc bien de mauvaise volonté ?

M. Nicolas Deffieux. Je ne dispose pas assez d’éléments pour répondre à cette question. Le niveau de complexité est réel, et nous rencontrons des difficultés à effectuer la mesure de cette bonne ou mauvaise volonté. Notre projet sur la haine en ligne visait précisément à répondre à cette question. Il existe des éléments de contexte, des éléments dynamiques, comme des émojis au sens caché que seuls des initiés comprennent, qui semblent a priori difficiles à programmer.

Mme Laure Miller, rapporteure. Je comprends. Cependant, il existe des contenus suffisamment médiatisés, comme la tendance hashtag SkinnyTok qui prône l’anorexie. Un autre exemple est celui de la scarification, où l’on sait que l’émoji zèbre conduit à des contenus de ce type sans avoir besoin de taper le mot‑clé. Les équipes des plateformes sont informées et, techniquement, elles semblent pouvoir être en mesure de réagir.

M. Nicolas Deffieux. Je précise ma réponse. Dans certains cas, il est facile de faire la lumière sur des contenus qui ne devraient plus être mis en avant. Mais cela ne signifie pas que la modération soit simple. À partir du moment où TikTok va interdire les zèbres, un autre hashtag sera créé dans la minute. Il faudra ensuite un certain temps avant que la plateforme comprenne qu’une autre association permet de trouver les contenus, même si elle produit des efforts. Cela ne signifie pas que ces efforts ne doivent pas être entrepris ; ce genre de contenus ne devraient pas subsister pendant longtemps.

Au-delà, cette matière est extrêmement compliquée à traiter, car elle concerne la liberté d’expression. A posteriori, il existe cependant de nombreuses occurrences où il aurait été facile de modérer automatiquement en fonction de certains mots-clés.

M. le président Arthur Delaporte. Compte tenu de l’ampleur de la tâche qui vous est confiée, estimez-vous que les moyens à votre disposition sont à la hauteur des enjeux ?

M. Nicolas Deffieux. Nous ne sommes pas en prise directe sur ces sujets. Nos moyens dépendent surtout des sollicitations formulées par les régulateurs. À l’heure actuelle, nous sommes en mesure de répondre aux sollicitations qui nous sont adressées. Trente personnes s’y consacrent. Il peut nous arriver de refuser certains projets, mais lorsque cela est le cas, les administrations le conçoivent et cela ne crée pas de problème. Nous n’avons jamais refusé des projets considérés comme extrêmement stratégiques par les administrations qui nous sollicitent.

Si nos moyens sont relativement modestes par rapport à ceux dont disposent la Commission et d’autres services, j’estime que nous sommes extrêmement performants. Je salue le travail réalisé par l’équipe.

M. le président Arthur Delaporte. Nous le saluons également, même si une partie de ce travail nous est à ce stade inconnu. Encore une fois, nous serions preneurs de tous les éléments que vous pourriez nous communiquer, au-delà du questionnaire qui vous a été transmis.

39.   Audition de Mme Karine de Leusse, psychologue spécialiste de l’addiction aux écrans, du Docteur Anne-Hélia Roure, médecin psychiatre, et du Docteur Philippe Babe, chef de service des urgences psychiatriques à l’Hôpital pédiatrique universitaire Lenval (mercredi 28 mai 2025)

La commission auditionne conjointement Mme Karine de Leusse, psychologue spécialiste de l’addiction aux écrans, le Docteur Anne-Hélia Roure, médecin psychiatre, et le Docteur Philippe Babe, chef de service des urgences psychiatriques à l’Hôpital pédiatrique universitaire Lenval ([37]).

M. le président Arthur Delaporte. Mes chers collègues, nous reprenons nos auditions cet après-midi en recevant en visioconférence Mme Karine de Leusse, psychologue, Mme Anne-Hélia Roure, médecin psychiatre, et M. Philippe Babe, chef de service des urgences psychiatriques de l’hôpital pédiatrique universitaire Lenval. Je vous remercie de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mmes de Leusse, Hélia Roure et M. Babe prêtent serment.)

Mme Karine de Leusse, psychologue. Je précise en préambule que je n’ai aucun conflit d’intérêt. Psychothérapeute clinicienne spécialisée dans les effets inconscients du numérique, je travaille depuis vingt ans avec des enfants, des adolescents et leurs familles, de plus en plus débordés, démunis, face à une hyperconnexion qui dépasse largement la simple question de l’addiction aux écrans. Chaque semaine, depuis des années, j’effectue trente à quarante consultations hebdomadaires uniquement sur cette problématique. Je reçois des enfants qui ne supportent plus de s’ennuyer, ne savent plus manger sans un bruit, dorment avec leur téléphone comme l’on dormirait avec un doudou.

Aujourd’hui, TikTok n’est pas simplement un divertissement mal encadré, mais un espace qui désorganise en profondeur le rapport au temps, au corps, à soi, aux autres. C’est un outil de déconstruction psychique. On parle de jeunes comme des « utilisateurs » de TikTok, mais ils ne l’utilisent pas. Ils s’y projettent, ils s’y perdent. Ces enfants, ces adolescents, ne regardent pas TikTok, ils « font » du TikTok, selon leurs propres mots, comme on fait une fugue, comme on entre dans un rêve éveillé. Ils me disent qu’ils ne regardent même plus les vidéos, pourtant déjà très courtes (deux minutes), car elles sont trop longues à leurs yeux. Ils « scrollent », encore et encore.

Le scroll est devenu un geste réflexe, un toc numérique, compulsif, une caresse, un tic, un apaisement. TikTok porte bien son nom ; il vient à la fois créer et calmer l’angoisse. Il est un tic et un toc, à la fois au sens clinique. Dans TikTok, ils s’y mettent en scène pour exister ; ce n’est plus un loisir, mais une scène identitaire, une activité à part entière. On est ici dans le syndrome du personnage principal : l’adolescent ne vit plus l’expérience, il la scénarise ; il devient spectateur lui-même, mais sans narration et sans continuité, sans temporalité et sans intériorité.

TikTok n’est pas juste une captation de l’attention, mais une dissociation du corps et du temps. TikTok installe une temporalité sans seuil, sans début ni fin. On passe d’une image à l’autre, comme on sauterait de monde en monde. Pour un jeune en construction, il constitue un régime de confusion. Chez les filles, je vois une sursexualisation précoce, très précoce ; des adolescentes qui s’inquiètent de leur profil, de leur silhouette, de leurs faux-cils. Chaque semaine, je reçois des adolescentes qui suivent un courant d’influenceuses avec ce regard lourd de maquillage et qui me disent qu’elles se sentent prisonnières de leur image, de leurs faux-cils, de leurs faux ongles, de leur faux « self », qu’elles n’osent plus quitter quand elles sortent. Elles n’habitent plus leur corps, elles le décorent. Chez les garçons, c’est l’effet inverse. Il se traduit par une hypervirilité, une crispation, un besoin de contrôle sur l’image et une compensation.

Dans les deux cas, le corps devient un objet à montrer, et non à vivre. Soyons lucides : ce dont nous parlons est beaucoup plus vaste qu’une simple captation de l’attention. TikTok expose aussi à des contenus violents, sexualisés, dangereux. Il collecte des données de façon préoccupante, mais cela ne s’arrête pas là. Il reconfigure en profondeur le rapport au monde, le lien au corps, le lien à l’autre, le lien à l’émotion, le lien au désir. Ce que nous voyons – troubles de l’attention, isolement, fatigue mentale – ne sont que les symptômes visibles d’un basculement plus profond, un déplacement du lien, de l’intime, de la construction de soi.

Tant que nous ne poserons pas ce diagnostic, tant que nous ne toucherons pas à cette part psychique du phénomène, nous passerons à côté de l’essentiel et nous courrons vers un drame en termes de santé mentale et pour la société entière. Chaque semaine, j’entends des parents insultés, menacés, frappés, parce qu’ils ont tenté de poser une limite ; des parents qui subissent des menaces.

Je ne l’entends pas une fois de temps en temps, mais plusieurs fois par semaine, et chaque semaine davantage. Les enfants sont devenus les terroristes de la maison et les parents ont peur pour leurs enfants et peur pour eux-mêmes. Ce n’est pas seulement que les jeunes sont dépendants, c’est qu’ils fuient. Ils fuient l’ennui, ils fuient leur corps, ils fuient le réel. Ils fuient une temporalité qu’ils ne supportent plus parce qu’elle n’a plus de consistance. La logique a été inversée : le monde réel est devenu l’intrus. Manger, aller à l’école, dormir, tout cela vient interrompre quelque chose de plus absorbant, de plus intense.

En conclusion, je souhaite poser une question simple et essentielle : pourquoi TikTok est-il accessible vingt-quatre heures sur vingt-quatre ? Est-ce normal qu’un lieu massivement fréquenté par des mineurs soit ouvert tout le temps, nuit et jour, sans aucune régulation ? On ne laisse pas un bar ouvert vingt‑quatre heures sur vingt-quatre, ni un casino. Alors pourquoi TikTok échapperait-il à cette règle de bon sens ? Je propose donc que l’on impose des horaires collectifs à TikTok, je propose de réintroduire le rythme du jour, de la nuit, des pauses, du souffle, du réel.

Mme Anne-Hélia Roure, médecin psychiatre. Je précise à mon tour n’avoir aucun conflit d’intérêt. Je vais également évoquer un retour sur mon expérience de cabinet libéral, où je reçois aussi environ quarante à cinquante adolescents par semaine. Je tiens à vous faire part de ce dont je suis témoin parce que cela m’apparaît absolument terrifiant. L’influence des réseaux sociaux et de TikTok en particulier sur le psychisme et le développement neurologique des jeunes est alarmante.

Je voudrais vous parler par exemple de Gaspard, que j’ai reçu la semaine dernière. Âgé de 16 ans, il passe 90 heures par semaine sur son téléphone et reçoit plus de 1 000 notifications sur son téléphone. Sur ces 90 heures, 75 heures sont passées sur TikTok. C’est un jeune anxieux, qui dit que son cerveau est « grillé »  il s’est présenté initialement à ma consultation pour des troubles de l’attention. Il est incapable de dormir, tellement il craint de manquer quelque chose. Ce jeune allait bien avant de consulter les réseaux sociaux et TikTok. Il n’avait jamais eu besoin de consulter. Il s’agit d’un bon élève, qui vit dans un environnement familial sain.

J’ai reçu Léa, qui se scarifie tous les soirs sur TikTok, soutenue et encouragée par une communauté, sans que ses parents n’aient la moindre idée de ce qui se passe, alors que de nombreux jeunes à l’école le savent pertinemment. J’ai reçu plusieurs jeunes qui ont été victimes d’un « challenge MMA » pendant les deux dernières semaines – ce sont des comportements extrêmement dangereux d’étranglement. J’ai reçu des jeunes filles et des jeunes hommes dont la sexualité est très influencée par TikTok de façon dangereuse, en particulier par des pratiques d’étranglement  le choking – pendant les relations intimes. La banalisation, la normalisation de la violence sont extrêmement préoccupantes.

Je voudrais aussi parler des troubles du comportement alimentaire. Combien de petites filles ai-je vu arriver qui avaient commencé par regarder des vidéos sur la beauté, mais qui en sont arrivées finalement à apprendre à se faire vomir, à avoir une image de leur corps déformée, à faire des challenges pour arrêter de manger pendant plusieurs heures. J’ai également reçu des jeunes filles de 15 ans au visage angélique qui veulent « faire du Botox » ou recevoir des injections pour ressembler à des personnages qu’elles voient dans cette réalité alternative.

Ce réseau social est le plus dangereux parce qu’il s’agit du plus puissant, celui dont l’algorithme est le plus addictif. Beaucoup disent : « TikTok me comprend ». Toutes ces heures passées sur TikTok, en moyenne cinquante à soixante-dix heures par semaine, sont des heures passées seuls, loin des autres. TikTok sabote notre jeunesse, car c’est un bloqueur d’expérience. Il les empêche de se rencontrer, de vivre, d’apprendre, de pouvoir évoluer et se développer émotionnellement et intellectuellement.

J’observe depuis plusieurs années des troubles mentaux profonds liés à son utilisation chez les garçons et les filles. Ils se caractérisent par une intolérance à l’ennui, à l’effort. Tout doit être hyper intéressant, hyper stimulant tout le temps, et ce qui ne l’est pas – une conversation, un cours, un exercice à faire – devient insupportable. On observe également des troubles anxieux, de l’isolement. On constate un réel abêtissement dont les jeunes prennent conscience. Ils n’arrivent plus à écouter un cours, à lire un livre, à regarder un film. Une telle activité devient impossible. Il faut également mentionner la privation de sommeil. Pourtant, le sommeil est indispensable pour le cerveau chez un adulte, mais encore plus pour un enfant qui se développe et qui doit mémoriser des apprentissages.

Je suis préoccupée par l’exposition des garçons à la violence, à sa normalisation à travers les challenges de MMA et à la pornographie actuelle. Par ailleurs, l’investissement des jeunes filles dans une réalité complètement virtuelle est particulièrement inquiétant. La réalité est désinvestie, elle est fuie, dans la mesure où elles présentent toutes des troubles de l’image de soi, une perte de confiance en elles : 100 % des jeunes filles que je reçois ont perdu confiance en elles après s’être inscrites sur les réseaux sociaux.

En conclusion, il importe de pouvoir réguler le cadre qui permet le développement de toutes ces maladies psychiques profondes. Aujourd’hui, on peut être tenté de pointer du doigt un jeune en disant qu’il était peut-être plus vulnérable ou plus sensible aux addictions. Mais l’essentiel est ailleurs : le jeune développe des troubles mentaux profonds, des maladies psychiques graves, dont il ne peut pas se remettre comme il pourrait se rétablir après une grippe. L’après n’est pas l’avant en matière de troubles psychiques. Ce faisant, on vient pathologiser des enfants alors qu’en réalité, le cadre de société a aussi permis que ces enfants tombent malades.

M. Philippe Babe, chef de service des urgences pédiatriques de l’hôpital pédiatrique universitaire CHU Lenval de la ville de Nice. Je précise également ne pas être soumis à un conflit d’intérêt. Je suis pédiatre, chef de service du cinquième service d’urgences pédiatriques de France, puisque nous recevons 55 000 enfants par an sur la ville de Nice.

En très peu d’années, je dirais même sur ces deux dernières années, nous avons reçu de façon beaucoup plus importante aux urgences pédiatriques un grand nombre d’enfants qui présentent des troubles provoqués par les réseaux sociaux et en particulier TikTok. De plus, l’âge de ces jeunes a baissé, passant de 16-18 ans il y a cinq ans à 12-14 ans, voire moins encore aujourd’hui.

Le phénomène des challenges sur TikTok a généré des conduites extrêmement problématiques, à la fois sur le plan physique, sur le plan sexuel et sur le plan psychologique et psychiatrique chez nos jeunes. Par exemple, en lien avec le « challenge paracétamol », les intoxications volontaires au paracétamol ayant suscité un recours à nos services ont été multipliées par sept depuis le début de l’année. La dernière enfant que nous avons reçue pour ce problème était âgée de 13 ans. C’est une autre camarade qui a amené à l’école le médicament pour le distribuer et lui permettre de « suivre » ce challenge.

Parmi les autres challenges, il faut mentionner ceux qui engendrent des comportements violents. Des jeunes de 12, 13, 14 ans sont effectivement victimes de tentatives de strangulation, font des malaises et sont conduits aux urgences. Dans ce service, nous accueillons aussi des jeunes en proie à des troubles du comportement, qui « explosent » si leurs parents veulent leur retirer le portable. Certains en viennent à appeler le 15 pour signaler des actes de maltraitance lorsqu’on les empêche d’accéder aux réseaux sociaux.

Je tiens ainsi à témoigner de cette accélération des phénomènes liés aux réseaux sociaux. Nous devons tous nous interroger sur les mesures à mettre en place en termes de prévention. Les adolescents que nous recevons ont en effet une pratique bien établie des réseaux sociaux qui remonte déjà à plusieurs années.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Hier, nous avons reçu la directrice générale d’e-Enfance, selon laquelle le grand bouleversement porte sur la combinaison entre les réseaux sociaux et les smartphones, cette mauvaise rencontre étant selon elle à la source des problèmes rencontrés par les jeunes aujourd’hui. Je souhaitais obtenir votre point de vue sur « l’outil » smartphone en tant que tel.

Ensuite, dans le cadre de notre commission d’enquête, nous réfléchissons particulièrement au sujet de la modération, notamment des contenus, dans la mesure où certains sont illicites et bien souvent très problématiques. Même si nous parvenions demain à un monde parfait où TikTok modérerait l’intégralité de ses contenus dangereux, à vous entendre, j’ai le sentiment quand même que la plateforme est en elle-même sujette à caution, tant elle capture l’attention des jeunes, en leur proposant notamment des mesures de récompenses.

Vous avez évoqué le rapport au temps, à l’ennui, la peur de manquer quelque chose, et l’anxiété que cela peut susciter. Quel que soit le contenu qu’ils véhiculent, diriez-vous que les réseaux sociaux ont par nature un impact sur la santé mentale de nos jeunes ?

Pourriez-vous évoquer également le sujet des parents ? Nous avons auditionné des familles dont les enfants ont malheureusement perdu la vie, en particulier en raison de l’usage de TikTok. Ils nous expliquaient que pendant ces moments de tourmente, ils s’étaient sentis seuls, totalement démunis, exclus des rapports qui pouvaient exister entre leurs enfants et les professionnels de santé. Ils regrettaient que personne ne leur ait donné d’outil pour « gérer » leurs enfants lorsqu’ils étaient chez eux. Associez-vous les parents dans votre pratique ?

M. Philippe Babe. Je fais partie du groupe de pédiatrie générale, une société savante qui dépend de la Société française de pédiatrie (SFP). Il y a dix ans, nous avions organisé une journée sur l’enfant et les écrans et nous avions déjà essayé d’émettre des recommandations sur cette problématique.

Aujourd’hui, le smartphone fait partie du quotidien des parents et des enfants. Il ne me semble pas envisageable d’interdire les écrans avant 15 ans ; ce n’est pas de cette manière que nous parviendrons à gérer cette situation. Il s’agit plutôt de réfléchir sur le mode éducatif qu’il sera possible de mettre en place, à la fois pour les jeunes, mais aussi pour les parents. Il convient d’agir dès la maternelle et le primaire ; dans la mesure où il est déjà trop tard au collège.

Poser des interdits à l’égard des enfants ne constituera pas une réponse, dans la mesure où les parents ne sont pas non plus exemplaires dans leur usage du smartphone.

Mme Karine de Leusse. L’objet smartphone, de petite taille, favorise la régression et l’usage régressif. Les enfants, les adolescents adorent partir dans leur chambre, se mettre sur leur lit en position presque fœtale pour consulter les réseaux sociaux sur leur téléphone, qui correspond en quelque sorte à un « biberon » numérique. Ils s’abreuvent de ce biberon et, comme un bébé, hurlent quand on leur retire. En résumé, l’utilisation, au-delà du contenu de TikTok, vient aussi favoriser l’usage excessif.

Ensuite, je reçois toujours les adolescents avec les parents lors de la première séance. Si les parents ne comprennent pas les règles qu’ils doivent mettre en place, ils ne pourront pas les tenir.

Mme Anne-Hélia Roure. Le smartphone est un outil extrêmement puissant. Il permet, via les réseaux sociaux, d’envoyer un contenu, une photo, au monde entier. Comme d’autres outils puissants, il est nécessaire de mettre en place une régulation tenant compte de l’âge d’utilisation. Je ne donnerais pas les clefs de ma voiture à mon fils de 8 ans. Je crois qu’il faut être prêt, avoir construit son intelligence, avoir développé ses capacités de concentration, d’organisation, d’apprentissage, ses capacités humaines et sociales avant de pouvoir disposer d’un smartphone. Cette expérience est nécessaire pour pouvoir gérer l’outil sans être absorbé pendant des heures et saboter sa vie avant qu’elle n’ait commencé.

Ensuite, je travaille aussi fréquemment avec les parents. Beaucoup redoutent que leurs enfants se retrouvent seuls s’ils leur retiraient le téléphone, les réseaux. Il y a là un paradoxe, puisque selon les chiffres fournis par M. Mark Zuckerberg, seuls 10 % à 20 % de l’usage des réseaux sociaux servent à communiquer avec des gens que l’enfant ou l’adolescent connaît réellement, dans la réalité. Je dis aux parents que cela revient en quelque sorte à laisser traîner leur enfant la nuit, je ne sais où, avec je ne sais qui.

Mme Laure Miller, rapporteure. Ne pensez-vous pas malgré tout que poser une limite d’âge – même si nous connaissons les risques de contournement  pour l’accès aux réseaux sociaux peut constituer un outil à destination du grand public, mais aussi des parents ?

Mme Anne-Hélia Roure. Je pense qu’une telle mesure serait effectivement utile, car nous constatons réellement des troubles mentaux profonds liés à l’utilisation des smartphones et des réseaux sociaux. Cette initiative permettrait de fournir un cadre aux parents et préserverait les enfants au moins quelques années de plus en leur donnant le temps de se construire. J’estime qu’un parent qui donne trop tôt à son enfant un smartphone ou le laisse sur les réseaux sociaux compromet ses chances pour l’avenir.

M. Philippe Babe. Il sera compliqué de définir les âges auxquels s’appliquera l’interdiction. Un travail pluridisciplinaire sera sans doute nécessaire, à ce titre. Appliquer l’interdiction aux enfants en école primaire semble évident. Je retiens la proposition de Madame de Leusse sur l’instauration d’horaires d’ouverture et de fermeture, comme pour un établissement. Cela me paraît être une très bonne idée, qui sera sans doute plus entendue qu’une interdiction pure et dure avec un âge barrière. Les parents recevront favorablement ce message, selon moi. La maturité diffère beaucoup selon les enfants d’une même tranche d’âge.

Mme Karine de Leusse. L’instauration d’une limite d’âge est intéressante, surtout pour les parents, car elle leur permettra de légitimer le cadre qu’ils proposeront aux enfants. Cependant, cette mesure ne sera pas suffisante, raison pour laquelle je préconise d’établir un cadre horaire, qui permet d’ancrer l’usage dans le réel. À l’instar des lieux publics dont aucun n’est ouvert toute la nuit à l’exception des distributeurs de billets automatiques, l’accès à la plateforme doit être encadré par des horaires. Cette mesure sera d’une grande aide pour les parents et les enfants.

M. le président Arthur Delaporte. Je vous remercie et vous invite à compléter nos échanges en transmettant à notre secrétariat tout complément d’information que vous jugeriez pertinent pour les travaux de cette commission, au-delà du questionnaire qui vous a été adressé.

40.   Audition de Mme Marietta Karamanli, députée, Mme Isabelle Rauch, députée, ancienne présidente de la commission des affaires culturelles et de l’éducation, et M. Bruno Studer, ancien député, ancien président de la commission des affaires culturelles et de l’éducation (mercredi 28 mai 2025)

Puis la commission auditionne, conjointement Mme Marietta Karamanli, députée, Mme Isabelle Rauch, députée, ancienne présidente de la commission des affaires culturelles et de l’éducation, et M. Bruno Studer, ancien député, ancien président de la commission des affaires culturelles et de l’éducation ([38]).

M. le président Arthur Delaporte. Nous recevons à présent des collègues parlementaires, actuels ou anciens. Permettez-moi de saluer très chaleureusement M. Bruno Studer, ancien député, qui a été également présidé la commission des affaires culturelles et de l’éducation, et qui est l’auteur de la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à Internet, et de celle n° 2024-120 du 19 février 2024 visant à garantir le respect du droit à l’image des enfants. Nous saluons également Mme Marietta Karamanli, députée, co-auteure avec Mme Isabelle Rauch, députée et ancienne présidente de la commission des affaires culturelles et de l’éducation d’une proposition de résolution européenne visant à lutter contre les addictions numériques chez les enfants.

Je vous remercie, chers collègues, d’avoir pris le temps de répondre à notre invitation. Comme il est d’usage, je vous demande de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations. Je vous rappelle également que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mmes Karamanli et Rauch et M. Studer prêtent serment.)

M. Bruno Studer, ancien député, ancien président de la commission des affaires culturelles et de l’éducation. Je vous remercie pour votre convocation à venir m’exprimer devant vous. Vous avez eu l’amabilité de rappeler mes travaux sur la question de la protection de l’enfance en ligne, auxquels je rajoute la loi n° 2020-1266 du 19 octobre 2020 visant à encadrer l’exploitation commerciale de l’image d'enfants de moins de seize ans sur les plateformes en ligne, que vous avez utilement complétés par la suite concernant les influenceurs de manière générale. Il s’agit en réalité d’un triptyque de régulation : une régulation socioéconomique, une régulation plus technique à travers la loi sur le contrôle parental et une réglementation plus sociale à travers une modification du code civil. Cette dernière réglementation vise à rappeler aux parents détenteurs du droit d’image de leurs enfants qu’ils en sont avant tout les protecteurs avant d’en être les utilisateurs.

Je me réjouis que l’Assemblée nationale s’empare effectivement du sujet qui nous réunit aujourd’hui. Je ne suis pas un expert du réseau social TikTok, ni des sciences cognitives. Mon expertise est surtout celle d’un ancien parlementaire, fonction que j’ai exercée pendant sept années. Il me semble intéressant de rappeler en avant-propos que le législateur que je suis voulait aller plus loin en rendant possibles l’installation et l’activation par défaut du contrôle parental sur tout appareil permettant de consulter des contenus sur internet. Finalement, nous avons modifié le contenu pour aboutir à une version votée à l’unanimité des deux chambres, qui oblige les fabricants de matériels permettant de consulter des contenus à préinstaller un contrôle parental, l’activation étant proposée dès le premier usage de l’appareil.

Avant de pouvoir être promulguée et de faire l’objet d’un décret d’application, cette loi a dû subir un parcours du combattant face à la Commission européenne, puisqu’elle mettait évidemment un frein à la liberté de circulation des services et des marchandises dans l’espace européen. Si nous avions pu le faire, nous serions certainement allés plus loin. Je n’ai pas aujourd’hui connaissance que d’autres pays de l’Union européenne (UE) aient établi une législation similaire.

J’entends la volonté d’aller plus loin, mais le chemin est étroit. La régulation des communications en ligne est une affaire complexe. J’en parle en connaissance de cause, ayant été co-rapporteur de la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, qui musclait sensiblement les dispositions légales pour lutter contre la désinformation. En matière de régulation sur Internet, nous évoluons en effet sur une ligne de crête permanente.

Les effets des réseaux sociaux sur les jeunes nous préoccupent à juste titre, dans la mesure où leur cerveau est en plein développement. Si je devais résumer ce que je perçois de la politique de TikTok, je dirais que la plateforme cherche à faire de nos jeunes européens des idiots. Il suffit pour cela de comparer les algorithmes de TikTok en Chine avec ceux de TikTok en France. Dans ce cadre, il faut s’interroger sur la capacité du législateur français et européen à agir.

Mme Marietta Karamanli, députée. Il est établi que l’utilisation sans limite de réseaux numériques est néfaste pour la santé, notamment pour les plus jeunes. Nous savons également que les grandes entreprises propriétaires des plateformes d’accès et de diffusion sont informées des effets néfastes de leur utilisation. Elles ont volontairement laissé prospérer des fonctionnalités qui encouragent cette addiction. Je pense par exemple à des notifications à toute heure, y compris en pleine nuit, la possibilité de vidéos apparaissant automatiquement et faisant perdre la notion du temps, des filtres embellissant les images et distordant l’appréciation des corps humains, qui sont particulièrement présents sur TikTok.

L’objectif consiste donc à maintenir le public sur la plateforme pour en faire des prisonniers des contenus, et affirmer une puissance par le nombre d’utilisateurs, des temps d’utilisation et des données à vendre et à commercialiser. La naïveté politique, qui a plutôt été jusqu’à présent à l’œuvre, consiste donc à considérer que les grandes plateformes seront raisonnables et s’autoréguleront. Or grâce aux moyens évoqués précédemment, elles cherchent toujours à affirmer leur puissance via leur nombre d’utilisateurs, et les temps d’utilisation et la quantité des données personnelles à commercialiser. Les enjeux commerciaux, économiques et financiers sont immenses.

L’Union européenne a développé de ce point de vue une position particulière et a établi des instruments juridiques contraignants pour assurer la protection des consommateurs, associant une dimension éthique, une certaine transparence et une concurrence.

Aux États-Unis, les procureurs des États fédérés ont engagé des actions contre les plateformes Meta et TikTok. De son côté, la Commission européenne a également lancé des enquêtes contre Twitter puis TikTok. La commission du marché intérieur et de la protection des consommateurs du Parlement européen a pour sa part adopté un rapport demandant instamment des mesures dans le sens d’une protection accrue des enfants et des jeunes non-majeurs. Ce rapport adopté à une large majorité vise à rendre les plateformes numériques moins addictives.

La proposition de résolution que j’ai portée avec Mme Isabelle Rauch invite le gouvernement français à défendre la proposition visant à demander à la Commission européenne de faire siens les objectifs de ce rapport, à rechercher des convergences avec d’autres législateurs pour définir des normes industrielles de sécurité et non pas seulement à s’en remettre comme aujourd’hui à la bonne volonté et à l’autodiscipline des plateformes, qui sont naturellement mues par la recherche de profit.

Nous demandons également aux plateformes de mettre en œuvre des outils indispensables pour prévenir l’utilisation compulsive et prolongée de leurs applications de services et sites. Il s’agit aussi de déterminer quelles législations ou initiatives politiques existantes peuvent être utilisées pour lutter contre les conceptions addictives. L’objectif consiste bien à mobiliser les pouvoirs publics, l’opinion publique et à conscientiser quelque part les familles et les plus jeunes sur les risques. Mais il s’agit bien aussi d’enjeux de loyauté et de transparence, de droit et de liberté.

Aujourd’hui, le sujet des addictions créées par les plateformes relève du droit européen, ce qui a constitué pour nous un obstacle lorsque nous avons porté ce texte. Il importe donc que les autorités européennes et le Gouvernement défendent la position adoptée par l’Assemblée nationale, qui concerne les populations françaises et européennes, les consommateurs, et en particulier les jeunes.

Comment est née l’idée d’une loi de protection face aux écrans ? En tant que députée depuis maintenant de nombreuses années, j’ai porté de nombreux travaux sur le numérique à l’Assemblée nationale, comme le marché unique numérique ou les initiatives pour l’encadrement des plateformes ou la fiscalité du numérique. J’étais également la rapporteure pour avis de la commission des affaires européennes sur le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), qui poursuit un objectif d’apparence simple, mais ô combien complexe et pratique : il rend illégal en ligne ce qui est illégal hors ligne. Le texte oblige les fournisseurs à prendre des mesures supplémentaires pour lutter contre les contenus illicites et préjudiciables, qu’il s’agisse de la haine en ligne, de la pédopornographie ou de la désinformation.

De son côté, le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA) vise à renforcer la contestabilité des positions dominantes acquises par les géants du numérique. Je pense notamment à Apple, qui restreint l’accès des utilisateurs vers d’autres développeurs d’applications aujourd’hui. À l’occasion des travaux conduits depuis plusieurs années dans le cadre de la commission des affaires européennes et grâce à mes contacts au sein du Conseil de l’Europe, j’ai pu travailler avec d’autres pays comme l’Espagne, l’Angleterre ou la Grèce. Nous avons pu aboutir à un texte qui a été adopté de manière transpartisane, à l’unanimité.

Mme Isabelle Rauch, députée, ancienne présidente de la commission des affaires culturelles et de l’éducation. Vous avez devant vous des législateurs engagés dans ces problématiques depuis de nombreuses années, tant par les travaux que par les auditions menées. En tant que présidente de la commission des affaires culturelles et de l’éducation, j’ai eu à cœur de mener un certain nombre d’auditions pour montrer l’implication des réseaux sociaux et des Gafam dans la vie quotidienne en particulier des enfants, mais pas uniquement.

En tant que co-rapporteure avec Mme Marietta Karamanli, j’ai eu l’occasion de mener d’autres auditions concernant les pratiques addictives et la capacité de ces réseaux sociaux, TikTok en particulier, à produire des algorithmes addictifs. Ces travaux font apparaître que les Gafam ne sont pas des philanthropes. Leur business model est celui de l’économie de l’attention, parce qu’elle rapporte de l’argent.

À ce titre, nous sommes peut-être confrontés à deux phénomènes éventuellement cumulatifs : un modèle économique, afin de gagner le plus d’argent possible et un projet politique, dans le but d’instrumentaliser un certain nombre d’éléments, dans le cadre d’ingérences. Dans ces conditions, il est impérieux de continuer à se préoccuper de ces problématiques, étant entendu qu’un certain nombre de députés sont moteurs et acteurs dans ce domaine depuis déjà un certain nombre d’années.

Même si nous pouvons dénoncer l’explosion des troubles anxieux, des troubles de l’image corporelle, de l’attention, des dépressions et des pensées suicidaires, nous ne pouvons plus nous contenter de dénoncer. Il est plus qu’urgent de renforcer la prise de conscience pour pouvoir agir et repenser l’équilibre des responsabilités, et notamment de donner à chaque institution des moyens d’agir pour les enfants.

Lors de mon mandat de présidente de la commission des affaires culturelles et de l’éducation, j’ai dû faire face à de nombreuses demandes de rendez-vous très insistantes de la part de TikTok. Lorsque nous avons auditionné les représentants de cette entreprise en compagnie de mon co-rapporteur M. Iñaki Echaniz dans le cadre de la mission d’information sur la loi n° 2016-1524 du 14 novembre 2016 visant à renforcer la liberté, l’indépendance et le pluralisme des médias, dite loi Bloch, leur communication était très rodée. Ces derniers nous disaient que la régulation et la modération étaient parfaites.

En conséquence, nous avons vraiment besoin que votre commission d’enquête puisse établir des propositions fortes et trouver des pistes de solutions pour protéger nos enfants, même s’ils ne sont pas les seuls touchés. On observe en effet des phénomènes très dommageables chez les seniors, qui peuvent scroller toute la nuit et être affectés par des troubles alimentaires et du sommeil.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Je vous remercie d’avoir accepté de nous livrer votre expérience et votre éclairage.

Monsieur Studer, pouvez-vous nous détailler ce que vous avez qualifié de « parcours du combattant » auprès de la Commission européenne, après la promulgation de la loi, au moment des décrets d’application ? Quel regard portezvous sur l’évolution de la situation depuis le vote et la promulgation des lois que nous avons évoqués ?

De manière plus générale, le rapport entre élus et concitoyens est fréquemment affecté par un sentiment d’impuissance. Certains concitoyens estiment ainsi que nous n’arrivons pas à trouver de solutions, que nos démarches sont très lentes, renforçant par là même leur désintérêt vis-à-vis de la politique et de leurs représentants.

À ce titre, nous ne voulons pas décevoir, dans le cadre des recommandations que formulera la commission d’enquête. Si le DSA constitue une avancée notable dont nous devons nous réjouir, nous constatons néanmoins qu’il n’est pas pleinement en application aujourd’hui, trois ans après son élaboration. Dès lors, la régulation n’est pas encore pleinement effective. Comment pouvons-nous en France nous approprier le sujet et peut-être prendre de l’avance sur le droit européen dans ce domaine ? Il s’agit en effet de sujets de santé publique, qui relèvent de la compétence interne de chacun des États membres de l’Union européenne.

M. Bruno Studer. Il s’agit effectivement d’un sujet de santé publique, qui nécessitera de recueillir les résultats de travaux collégiaux produits par des sociétés savantes, indispensables dans une démocratie comme la nôtre. De fait, sur le sujet de l’impact des réseaux sociaux, TikTok en l’occurrence, la science doit véritablement s’emparer du sujet.

De votre côté, des messages politiques doivent également être transmis sur ces sujets. TikTok peut également induire des effets très positifs. Par exemple, elle peut aider des jeunes à s’extraire d’un enfermement familial dû à leur orientation sexuelle. En parallèle, la situation n’en sera pas pour autant améliorée si elle implique un autre enfermement algorithmique. Le danger est bien là. Au moment de la loi sur les enfants influenceurs, j’avais relevé l’existence de nouvelles formes d’activité, de médiation, qui n’étaient pas toutes inutiles. Simplement, il faut rappeler la définition du droit et sa vocation à protéger les plus faibles. Il importe de continuer le travail, dans la durée, face à l’arrivée très rapide de ces outils dans la vie quotidienne des jeunes. J’insiste sur cet aspect : de telles applications portent aussi des effets positifs qui permettent de prendre confiance en soi, de se rendre compte que l’on n’est pas seuls à exprimer une pensée et que l’on peut obtenir des réponses que l’on n’aurait pas trouvées ailleurs.

Ensuite, la loi sur le contrôle parental a effectivement été un parcours du combattant auprès de la Commission européenne. Différentes notifications ont été adressées à la Commission avant même que le texte ne soit examiné, une fois qu’il a été déposé et après les modifications substantielles apportées par la commission mixte paritaire. De la même manière, le décret d’application a fait l’objet d’une notification, raison pour laquelle il n’est paru que plusieurs mois après la promulgation de la loi, qui a été soutenue à l’époque par l’ensemble du pouvoir exécutif français, ministre et président de la République compris.

Puisque vous avez l’élégance de me demander mes suggestions ou recommandations, j’estime que la loi sur le contrôle parental que j’ai portée devrait être évaluée, au même titre que celle sur les enfants influenceurs, dont l’article 3 n’a toujours pas de décret d’application. Cette évaluation permettra au Parlement de rappeler le pouvoir exécutif à son devoir. J’ai toujours conçu la loi sur le contrôle parental comme un outil de dialogue familial et un moyen de limiter le plus possible les « mauvaises » rencontres de nos enfants sur internet. Celui-ci permettrait également de moduler le contrôle en fonction de l’âge de l’enfant, d’un niveau strict quand il est très jeune à une désactivation complète quand l’enfant grandit et devient autonome. La loi précise que les opérations de paramétrage doivent pouvoir être réalisées très facilement. Je crois que l’Assemblée a par ailleurs voté une majorité numérique à 15 ans, ce qui correspond à peu près à la fin du collège. Le législateur partageait la même préoccupation lorsqu’il avait interdit le téléphone portable à l’école et au collège.

L’évaluation de la loi sera utile pour connaître son impact, au-delà de la nécessaire médiatisation qu’il avait suscitée à l’époque. Il me semble que le contrôle parental, en raison de la loi et de sa reprise médiatique, est devenu un outil plus utilisé qu’auparavant.

Mme Isabelle Rauch. Il est vrai que les réseaux sociaux peuvent engendrer des effets positifs. Néanmoins, ils profitent des mécanismes d’addiction, qui sont au cœur de leur modèle économique fondé sur le nombre de vues, le nombre de clics, quel que soit le contenu. La responsabilité des plateformes dans la diffusion des contenus doit être interrogée, en termes de régulation, d’autant plus qu’elles ne se considèrent que comme des « tuyaux ». Tant que des sanctions économiques ne seront pas instaurées, nous ne parviendrons pas à maintenir la régulation. À chaque fois que des sanctions financières ont été prononcées, elles ont prouvé leur efficacité. Les mécanismes que nous avons pu imaginer et voter ont ainsi pu être mis en place ou respectés.

Ensuite, en tant qu’ancienne présidente de la commission des affaires culturelles et de l’éducation, je partage avec M. Studer la conviction qu’il faut impérativement évaluer les dispositifs que nous votons et mettons en place.

Mme Marietta Karamanli. Je partage les points de vue de Mme Isabelle Rauch et M. Bruno Studer, leurs constats et les difficultés qu’ils ont rencontrées. Pour mener à bien ce travail, il faut à la fois disposer de temps, formuler des explications et faire preuve de conviction. Ainsi, la résolution que nous avons portée avec Mme Isabelle Rauch ne vise pas les usagers, mais les grandes entreprises du numérique qui, de façon industrielle et par des fonctionnalités apparentes ou cachées, rendent leurs utilisateurs dépendants. Ici, nous nous heurtons à de grandes difficultés, que d’autres initiatives législatives ont également éprouvées : le droit national ne peut régir des domaines qui relèvent du droit européen.

Afin d’être efficaces, il faut agir directement sur les plateformes, en nous inspirant des régulations mises en place à l’encontre des producteurs de tabac, dont la démarche est comparable. Je rappelle ainsi que ces producteurs ajoutaient des substances, comme l’ammoniaque, qui amplifiaient la dépendance à la nicotine. Nous devons donc utiliser le même angle d’attaque vis-à-vis des grandes plateformes numériques.

L’Union européenne a justement initié de véritables mécanismes législatifs pour protéger les plus vulnérables. À ce titre, la résolution du Parlement européen sur la conception addictive des services en ligne et la protection des consommateurs sur le marché unique de l’Union européenne, adoptée en novembre 2023, me réjouit particulièrement. Je pense en effet qu’il faut d’une part combattre la conception addictive des services en ligne, et d’autre part élaborer une législation adaptée. Il s’agit de dépasser la question de l’autorégulation, qui n’est pas suffisante.

Ensuite, en réponse à Mme la rapporteure, j’estime qu’il faut travailler à l’échelle européenne sur une telle loi, en essayant de convaincre les autres parlements, au-delà de l’exécutif. En compagnie de Mme Isabelle Rauch, nous nous efforçons d’agir de la sorte dans le cadre de notre proposition de résolution. J’envisage d’ailleurs la tenue d’une conférence interparlementaire avec plusieurs États qui portent actuellement le sujet, comme la Grèce par exemple. L’objectif consiste à faire en sorte que plusieurs États membres de l’Union européenne portent la même proposition, la même dynamique. Votre rapport pourrait aussi contribuer à accroître la pression exercée sur l’UE pour qu’elle accélère la mise en place des sanctions financières et qu’elle porte les enjeux dans le cadre des règlements DSA et DMA.

Il s’agit là selon moi d’un angle d’attaque pertinent, puisque le droit national est limité face au droit européen. En revanche, le droit national n’est pas non plus démuni pour s’adresser aux jeunes, aux parents, et éviter les addictions, dans le cadre d’une cohérence éducative et sociétale. L’école joue ici un rôle essentiel.

Au-delà, le modèle politique économique du « tout numérique » dans nos sociétés pourrait également être questionné. Lors de son audition devant nous, M. Thomas Rohmer, le directeur et fondateur de l’Observatoire de la parentalité et de l’éducation numérique (Open) a souligné la nécessité pour les parents de s’intéresser aux contenus visibles sur les écrans, plutôt que d’être de simples régulateurs du temps passé par leurs enfants devant ces derniers. Parallèlement, dans le cadre d’une démarche progressive et adaptée, il insiste sur l’importance d’établir les paliers suivants : pas d’écran avant trois ans, un écran partagé entre trois et six ans, éveil créatif de six à neuf ans, meilleur contrôle entre neuf et douze ans. Les recommandations élaborées par les spécialistes peuvent être mises en place au fur et à mesure, à travers le droit national, l’éducation nationale et tous les acteurs qui peuvent jouer un rôle concernant le numérique et l’accès aux écrans.

La démarche doit s’inscrire dans le cadre de l’Union européenne (UE), puisque le droit numérique relève du droit européen et les sanctions doivent être au cœur des dispositifs.

J’ajoute que je répondrai à chacune des questions que vous m’avez adressées dans votre questionnaire et vous adresserai également les travaux réalisés dans le cadre du rapport que nous avons remis, notamment sur les addictions, leurs raisons et conséquences.

M. le président Arthur Delaporte. Je vous remercie, nous les recevrons volontiers. Je constate que le vote de textes par le législateur est parfois insuffisamment suivi d’effets, faute d’implication de l’administration pour leur application. Dans la loi sur les influenceurs, nous avions créé un mécanisme de contrôle et d’absence de publicité sur les applications afin d’empêcher les mineurs de voir un certain nombre de contenus promotionnels. Malheureusement, le décret n’est pas sorti. En outre, cette situation donne l’impression d’une impuissance du législateur dont l’intervention se placerait davantage dans la prévention que dans l’action visant à faire évoluer les modalités de contrôle des plateformes.

Mme Isabelle Rauch. Il importe de bien établir une différence entre les parents et les plateformes. Beaucoup souhaitent « placer les parents devant leurs responsabilités », mais les plateformes sont en premier celles qui doivent porter ce poids : on ne peut pas faire uniquement reposer sur les parents ou l’éducation nationale la responsabilité d’une régulation ou d’une autorégulation de l’enfant ou des familles. Les jeunes savent pertinemment qu’ils ne devraient pas passer autant de temps devant l’écran. De leur côté, les parents sont conscients qu’ils devraient être plus vigilants. Cependant, l’effet addictif est tel que la responsabilité des plateformes ne peut être ignorée. Pour prendre une autre analogie, l’accidentologie a prouvé que la vitesse tue. C’est bien en abaissant la vitesse et en établissant des contrôles que le nombre de morts sur la route a diminué.

Mme Marietta Karamanli. Je partage naturellement ces propos. Il est important de ne pas pointer du doigt les parents, qui ont exprimé leur lassitude à cet égard, car ils n’ont plus de maîtrise sur un certain nombre d’éléments. Je partage également la frustration du législateur mentionnée par M. Studer et M. le président face à la lenteur de la mise en œuvre des décrets d’application. Mais encore une fois, l’action vis-à-vis des plateformes passe d’abord par le droit européen. Je réitère la nécessité d’instaurer des mécanismes au niveau de l’UE. À ce titre, il serait également pertinent d’évaluer les enquêtes et procès initiés par l’Union européenne.

M. le président Arthur Delaporte. Je précise à ce titre que la commission d’enquête se rendra la semaine prochaine à Bruxelles et aura l’occasion d’évoquer, dans le respect du secret de l’enquête, l’avancement de ces différentes procédures.

M. Bruno Studer. Je souligne néanmoins que ces domaines sont juridiquement neufs. Si la question du contrôle de l’âge en ligne était simple, le problème aurait déjà été résolu.

Ensuite, je partage également l’idée qu’il n’y a pas de salut en dehors du cadre européen, sauf à considérer que 60 millions de consommateurs parviendraient à faire plier à eux seuls des entreprises privées, de nationalité américaine ou chinoise comme TikTok. Lorsque j’ai présidé la commission des affaires culturelles et de l’éducation, nous avons voté la loi n° 2019-775 du 24 juillet 2019 tendant à créer un droit voisin au profit des agences de presse et des éditeurs de presse, mais avons attendu d’avoir une directive européenne. Nous ne voulions pas subir la même mésaventure que l’Espagne quelques mois auparavant. L’Espagne avait ainsi voté une loi sur les droits voisins et en rétorsion, Google avait décidé de déréférencer toutes les publications des quotidiens espagnols.

Je me réjouis de votre déplacement à Bruxelles. Il importe également de fédérer les actions des parlementaires des autres pays.

S’agissant de l’école, il sera néanmoins nécessaire de nous donner enfin les moyens d’avoir une vraie discipline d’éducation civique à l’information, à plus forte en raison avec l’émergence de l’intelligence artificielle.

S’agissant des parents, j’ai établi en 2008 un rapport de mission d’information sur l’école dans la société du numérique et j’ai formulé un certain nombre de propositions à l’occasion des États généraux sur le numérique éducatif. On ne peut pas tout demander aux parents, à plus forte raison s’ils ignorent tout. Je vous soumets une proposition que j’avais formulée lorsque nous réfléchissions à la question du harcèlement. Aujourd’hui, le contenu posté par un enfant peut être considéré comme du cyberharcèlement par un tiers de confiance comme le 3018 et être à ce titre supprimé. Mais le parent de cet enfant n’est pas informé de la gravité de son acte. J’avais donc demandé la mise en place d’une structure équivalente à la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (Hadopi) pour le cyberharcèlement ou la cyberhaine.

Je suis conscient de la complexité de mise en œuvre d’un tel dispositif. Cependant, quand un phénomène massif est constaté, il faut y apporter des réponses massives. Lorsque le contenu est supprimé, le parent titulaire de l’abonnement pourrait ainsi recevoir un courrier indiquant que son abonnement a servi à commettre en ligne un délit qui pourrait être passible de poursuites civiles et pénales. Il faut évidemment expliquer aux parents qu’un contrôle parental n’est pas un outil miracle, qu’il faut continuer à discuter avec leur enfant. Pour pouvoir agir de la sorte, encore faut-il être informé.

Mme Laure Miller, rapporteure. Il apparaît que de nombreux contenus appartiennent à une zone grise, difficile à qualifier et sur laquelle les plateformes s’appuient pour modérer encore moins aisément ce genre de contenus. Je pense notamment au hashtag SkinnyTok ou à des contenus qui font l’apologie du suicide, mais qui ne peuvent être retirés que lorsque la victime a réellement tenté de se suicider.

Estimez-vous que le Parlement français peut malgré tout agir pour faire évoluer la qualification de ces contenus et donner des armes aux régulateurs, faciliter a minima la modération ? Hier, Mme Bérangère Couillard, présidente du Haut Conseil à l’égalité entre les femmes et les hommes (HCEFH) nous disait qu’il était bien plus facile d’agir sur les contenus racistes que les contenus sexistes, en l’absence d’un arsenal juridique adapté.

Par ailleurs, les plateformes sont quand même toujours qualifiées de simples hébergeurs de contenus. Or par la puissance de leur algorithme, notamment celui de TikTok, ces derniers « poussent » et éditorialisent des contenus auprès de leurs utilisateurs. Comment expliquez-vous que nous ne parvenions pas à évoluer sur ce sujet et à modifier la nature de leurs responsabilités ?

M. Bruno Studer. D’abord, dans une démocratie, la liberté d’expression se contrôle toujours a posteriori. Il est extrêmement compliqué de réguler a posteriori des contenus publiés par des milliards d’octets chaque seconde. Il existe donc là un vrai défi, entre les mains du législateur.

Ensuite, vous avez raison de mentionner l’apologie au suicide, mais d’aucuns pourraient rétorquer avec mauvaise foi que Les Souffrances du jeune Werther ou Le cercle des poètes disparus constituent également une forme d’apologie du suicide. Le suicide a toujours été un sujet de romans, de films, de séries. Le suicide demeure par ailleurs la deuxième cause de mortalité chez les jeunes, après les accidents de la route. Comment gérer ces problèmes, de manière définitive ? Très sincèrement, je ne sais pas.

Mme Isabelle Rauch. Je ne peux que souscrire à ces propos, notamment vis-à-vis de la liberté d’expression. En revanche, il ne revient pas aux plateformes d’accomplir le travail du législateur, qui doit toujours garder la main dans ce domaine. Ces plateformes ne peuvent établir des règles qui ne seraient plus en accord avec nos lois nationales.

Ensuite, le défi concerne l’enfermement algorithmique et la capacité addictive que les plateformes mettent en place. Nous devons agir ; tel est d’ailleurs le sens de la proposition de résolution européenne. Nous devons concentrer nos efforts au niveau européen, ce qui ne nous exonère pas d’entreprendre au niveau national et en partenariat avec les parents, l’éducation nationale. À plusieurs reprises, lors de la précédente législature, j’ai rappelé à ce titre l’importance de la transformation des programmes de l’éducation nationale pour prendre réellement en compte ces nouvelles formes de communication. Il s’agit également de prendre appui sur les apports de la recherche sur les sciences de l’éducation et les sciences cognitives. À ce titre, je vous indique que nous allons porter avec Mme Marietta Karamanli une proposition de résolution européenne sur la recherche européenne pour accompagner les enseignants, les parents ou toute personne intervenant auprès des enfants.

Mme Marietta Karamanli. En conclusion, je vous remercie de nous avoir permis de contribuer à vos travaux. Il faut rappeler l’existence d’une réglementation européenne qui s’applique désormais sur le plan national, dont nous devons évaluer l’efficacité et l’effectivité. En effet, produire toujours plus de réglementation sans évaluation fait courir le risque d’une surabondance et d’une fausse sécurité. Il est également nécessaire de démultiplier nos initiatives avec d’autres pays. En compagnie de Mme Isabelle Rauch, nous restons de notre côté attentives et disponibles aux initiatives des autres collègues, comme celles de cette commission d’enquête. Ce n’est qu’ensemble, et de manière répétitive, que nous pourrons véritablement agir. En effet, nous faisons œuvre pédagogique et la répétition est, à ce titre, essentielle.

M. le président Arthur Delaporte. Je vous remercie pour le temps que vous avez consacré à cette audition, et au-delà, à la protection des jeunes face aux écrans.

41.   Audition de Mme Anne Savinel-Barras, présidente de Amnesty international, et Mme Katia Roux, chargée de plaidoyer (mercredi 28 mai 2025)

Enfin la commission auditionne Mme Anne Savinel-Barras, présidente de Amnesty international, et Mme Katia Roux, chargée de plaidoyer ([39]).

M. le président Arthur Delaporte. Mes chers collègues, nous reprenons à l’instant notre séance pour recevoir Mme Anne Savinel-Barras, présidente d’Amnesty international France, et Mme Katia Roux, chargée de plaidoyer. Le rapport que vous avez produit sur la question de TikTok nous intéresse particulièrement. Il semble par ailleurs que vous travaillez à un nouveau rapport, dont vous pourrez également nous faire part au cours de l’audition.

Je vous remercie de déclarer auprès de nous tout intérêt public ou privé qui serait de nature à influencer vos déclarations, par exemple, si vous avez, à titre personnel ou au titre de l’organisation, perçu ou collecté des fonds provenant notamment de réseaux sociaux.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mmes Anne Savinel-Barras et Roux prêtent serment.)

Mme Anne Savinel-Barras, présidente d’Amnesty International France. Je vous remercie de nous auditionner et d’entendre la position d’Amnesty International sur le sujet qui nous préoccupe.

Jamais les grandes entreprises technologiques et les États qui ont recours aux nouvelles technologies n’ont eu autant de pouvoir qu’à ce jour. Si les technologies numériques offrent d’immenses possibilités dans de nombreux domaines de l’activité humaine, elles peuvent aussi malheureusement porter atteinte aux libertés civiles et politiques, ainsi qu’aux droits sociaux et économiques. Depuis plusieurs années, Amnesty International engage une réflexion au sujet de l’impact sur les droits humains du fonctionnement des grandes plateformes du numérique et notamment des entreprises de réseaux sociaux. Notre objectif vise à faire en sorte que ces plateformes en ligne soient des espaces sûrs, sains et encourageants, notamment pour les enfants et les jeunes.

Aujourd’hui, nous dénonçons le modèle économique des entreprises des réseaux sociaux pour plusieurs raisons essentielles. D’abord, le modèle économique des plateformes du numérique est fondé sur un profilage intrusif et la publicité ciblée. Les plateformes cherchent notamment à collecter de manière constante de nouvelles informations sur les utilisateurs et utilisatrices afin d’établir des profils aussi précis que possible qu’elles pourront ensuite vendre à des publicitaires.

Ce modèle économique alimente la diffusion de contenus néfastes. Les systèmes algorithmiques sont conçus pour garder les personnes sur la plateforme. Plus ces personnes sont impliquées, plus les recettes publicitaires sont élevées. En conséquence, ces systèmes mettent en avant les contenus les plus virulents, clivants et néfastes, car ceux-ci sont les plus susceptibles de garantir l’implication des utilisateurs et utilisatrices. L’impact de ce modèle sur les jeunes publics est préoccupant, car ces derniers présentent une dépendance à ces plateformes et sont impuissants face à la collecte de leurs données personnelles.

Mme Katia Roux, chargée de plaidoyer à Amnesty international France. L’impact sur les jeunes et les enfants précisément, a conduit Amnesty International à se concentrer sur la plateforme TikTok. Ces dernières années, et notamment depuis le Covid-19, nous avons en effet constaté que la plateforme était devenue la plateforme préférée des jeunes et des enfants. Elle rassemble en effet plusieurs centaines de millions de jeunes et d’enfants, notamment grâce à son design addictif qui suscite l’intérêt massif des jeunes. Il apparaît clairement que TikTok a poussé au maximum cette logique addictive.

Si je devais résumer dans ce propos liminaire la conclusion de notre enquête menée fin 2023 à l’aide d’une méthodologie assez innovante sur le sujet, je dirais que TikTok peut être un espace toxique et addictif pour les jeunes et les enfants, en raison d’une part du système de recommandation algorithmique de la plateforme, et d’autre part de ses pratiques très intrusives de collecte de données personnelles.

Nous disposons aujourd’hui de suffisamment de recul grâce aux différents travaux menés sur le sujet. TikTok s’immisce dans la vie privée de ses utilisateurs et utilisatrices en pistant littéralement toutes les activités en ligne, les contenus visualisés, partagés, commentés, aimés par les jeunes utilisateurs. L’objectif de l’outil consiste ici à deviner leurs centres d’intérêt, leur état émotionnel, leur niveau de bien-être, puis de diffuser des contenus ultrapersonnalisés dans le fil « Pour toi » de la plateforme, qui s’appuie sur la collecte massive de données personnelles.

Notre enquête montre que les enfants, les jeunes qui regardent des contenus relatifs à la santé mentale, sur la page « Pour toi » vont facilement tomber dans des spirales de contenus néfastes, de contenus potentiellement dangereux, notamment des vidéos qui viennent banaliser, voire idéaliser la dépression, l’automutilation ou le suicide. Selon notre enquête technique à partir de comptes que nous avons gérés manuellement, il ne faut qu’entre trois et vingt minutes pour que les fils « Pour toi » soient inondés de ces vidéos qui peuvent aller jusqu’à encourager le suicide.

Concrètement, le système algorithmique de TikTok expose des jeunes, des enfants, à de graves risques de santé mentale grâce à une conception addictive, qui exploite leurs vulnérabilités psychologiques afin de maximiser leur participation en ligne et, finalement, maximiser ses profits. Il s’agit là du fameux modèle économique que nous avons mentionné en introduction.

Or, l’exposition des jeunes et des enfants, déjà en proie à des symptômes dépressifs ou des fragilités psychologiques, à de nombreuses vidéos banalisant le suicide aggrave incontestablement leur santé mentale. En outre, elle peut entraîner des conséquences dramatiques dans la vie réelle.

Je crois qu’à ce titre, la commission a déjà entendu des familles de victimes, qui ont fait part de témoignages extrêmement forts sur le sujet.

À Amnesty International, nous considérons que les utilisateurs et utilisatrices de TikTok doivent pouvoir jouir d’une réelle capacité de choix et de contrôle. Aujourd’hui, ce n’est pas le cas : TikTok collecte des données personnelles sensibles et opère des déductions sur les intérêts, les états émotionnels et le niveau de bien-être des utilisateurs et utilisatrices, dans le but de personnaliser l’expérience en ligne, recommander des contenus et cibler les publicités.

L’une de nos principales demandes à l’égard de l’entreprise concerne le changement de modèle économique et, surtout, la prise en compte des risques systémiques liés à l’utilisation de la plateforme. Or aujourd’hui, notre demande n’est absolument pas prise en compte. Depuis novembre 2003, nous avons été en contact avec TikTok. Nous avions déjà intégré dans nos rapports les réponses de l’entreprise au moment de nos travaux. Depuis leur parution, nous avons continué à demander des comptes sur les mesures qui avaient été mises en œuvre par l’entreprise pour atténuer les risques et pour répondre à ces dangers que l’on pointait.

Les réponses de TikTok sur un certain nombre de mesures de « bien-être » et ne sont clairement pas à la hauteur des enjeux dont nous allons discuter aujourd’hui. Nous appelons l’entreprise à assumer ses responsabilités, à prendre en compte les risques systémiques liés à son modèle d’activité. Si tel n’était pas le cas, les risques sur la santé mentale des jeunes perdureront et il ne sera pas possible de mettre en place des mesures pour lutter contre une addiction, qui est en réalité créée par la plateforme elle-même.

Dans ces conditions, nous sommes très heureuses de pouvoir nous entretenir avec vous et de contribuer aux travaux de la commission, afin de faire en sorte qu’une bonne fois pour toutes, TikTok prenne en compte ce risque systémique et cesse d’ignorer ses responsabilités au regard du droit international.

M. le président Arthur Delaporte. Pouvez-vous décrire plus précisément la nature ce que vous reprochiez à TikTok, les réponses qui vous ont été apportées et les raisons pour lesquelles vous considérez que celles-ci sont à ce stade insatisfaisantes.

Mme Katia Roux. Lorsque nous avons mené l’enquête en 2023, nous avons diffusé en amont, selon la méthodologie classique d’Amnesty, toutes les conclusions de notre enquête avant même sa publication. Les réponses de TikTok ont été très largement en deçà des attentes, puisque l’entreprise n’a pas reconnu sa responsabilité en termes de risques systémiques. Depuis, nous n’avons cessé de demander des comptes à l’entreprise.

Celle-ci nous a répondu récemment à travers deux lettres que nous avons rendues publiques sur le site d’Amnesty. L’entreprise explique qu’il est désormais possible de filtrer, par mots-clés les recherches, de filtrer par hashtag et donc de rafraîchir complètement son fil « Pour toi ». Elle ajoute qu’il existe des mesures de redirection vers des associations, des professionnels de la santé mentale qui peuvent proposer une aide et un accompagnement. Cependant, elle continue très largement d’ignorer les risques systémiques que nous avons pointés.

C’était déjà le cas lors de l’évaluation sur les risques que TikTok a publiée fin 2024, puisque dans le cadre du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), les très grandes plateformes sont obligées de publier une évaluation des risques. S’agissant des contenus problématiques en ligne, l’entreprise rejette directement la responsabilité sur les utilisateurs et les utilisatrices. Elle a pris l’exemple de ces fameux défis qui sont lancés sur la plateforme, qui deviennent viraux et peuvent être dangereux. Elle se retranche derrière l’argument selon lequel les jeunes postent eux-mêmes ces contenus, sans même se poser la question de la manière dont ils sont promus par le système algorithmique de la plateforme. Ce faisant, elle ignore complètement le risque systémique et la responsabilité qui lui incombe au regard du DSA.

L’entreprise évoque donc des mesures de bien-être, de possibilités de filtrage, de rafraîchissement, de redirection vers tel ou tel organisme, alors même qu’il s’agit ici d’une conception addictive, de choix systémiques. Quels que soient les dangers, l’objectif de TikTok consiste à réaliser des profits et donc mettre en avant des contenus qui vont maximiser l’engagement. Or nous disposons désormais de suffisamment de recul pour observer l’impact sur les jeunes utilisateurs.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Considérez-vous qu’aujourd’hui, en 2025, d’autres réseaux sociaux que TikTok posent ou poseraient les mêmes difficultés ?

En favorisant la circulation de contenus sur la santé mentale, notamment dépressifs, le fonctionnement de TikTok encourage-t-il les utilisateurs à produire ce type de contenu ? Pensez-vous que la plateforme cible particulièrement les plus jeunes, précisément en raison des fragilités inhérentes à l’adolescence ou à l’enfance ?

Pouvez-vous également évoquer la manière dont vos rapports ont circulé dans un cadre institutionnel un peu plus large ? Avez-vous échangé avec d’autres partenaires, d’autres États, la Commission européenne, le Parlement européen, des ministres ? Comment avez-vous réussi à alimenter les décideurs publics au sens large avec vos contributions ?

Mme Katia Roux. Nous avons mené de nombreuses recherches sur plusieurs réseaux sociaux. Au-delà de cette approche, nous nous sommes intéressés au modèle de développement économique des grandes plateformes du numérique depuis 2018-2019. Nous avions déjà publié en 2018 un premier rapport intitulé « Toxic Twitter », qui faisait état du harcèlement en ligne des femmes qui était lié au modèle de développement de la plateforme. Ensuite, un rapport de 2019 a porté sur les géants du numérique et la publicité ciblée en ligne. En effet, l’ensemble des réseaux sociaux a épousé ce modèle de développement économique, même si TikTok a poussé à l’extrême la logique de l’addiction et du design addictif. Un grand nombre de réseaux sociaux a également imité TikTok sur le format de vidéos courtes, qui vont devenir virales.

Nous avons aussi travaillé sur Meta, en montrant la responsabilité de la plateforme dans les violences ethniques et notamment le nettoyage ethnique des Rohingyas au Myanmar en 2017. En effet, l’algorithme amplifie des contenus extrêmement nocifs et peut engendrer des impacts dramatiques dans la vie réelle. Nous avons mené une enquête similaire l’année d’après en Éthiopie, où la même logique était à l’œuvre à l’égard des populations tigréennes. Nous en avons déduit une responsabilité juridique de l’entreprise au regard du droit international relatif aux droits humains.

Les dernières recherches en 2023 sur TikTok se sont effectivement concentrées sur les jeunes et les enfants. La question de la santé mentale n’a pas émergé par hasard. Elle fait suite à une étude de cadrage sous la forme d’un questionnaire en ligne que nous avons diffusé très largement. Y ont répondu plus de 550 personnes, entre 13 et 24 ans provenant plus de quarantecinq pays. Les questions étaient assez larges. Elles portaient sur ce qu’ils et elles aimaient en ligne, leur expérience sur TikTok, ce qui leur posait problème, ce qui les questionnait. C’est ici que la question de la santé mentale a largement émergé comme un enjeu très fort pour eux. En effet, ces jeunes nous révélaient à la fois leur dépendance très forte vis-à-vis de la plateforme et en même temps leur impuissance totale face à la collecte massive des données.

Nous avons décidé aujourd’hui de nous concentrer à nouveau sur TikTok, qui combine cette logique maximale d’addiction et d’économie de l’attention. Mais toutes les entreprises des réseaux sociaux rivalisent pour capter l’attention des utilisateurs et utilisatrices.

Ensuite, existe-t-il un ciblage plus spécifique en direction des jeunes ? L’intention est évidente pour TikTok, qui s’est imposé au moment du Covid. Tout dans l’outil est conçu pour capter l’attention, aller vite, susciter la viralité. Initialement, le réseau prônait le divertissement, la créativité, le partage d’expériences, avec des promesses plutôt positives. En réalité, les choix de conception et de collecte de données et les choix algorithmiques ont véritablement transformé ce réseau social.

Sur le réseau, les utilisateurs peuvent très rapidement basculer dans ces espaces de contenus toxiques. Des jeunes, qui peuvent être plus sensibles, plus influençables et a fortiori ceux qui présentent des problèmes de santé mentale, sont beaucoup plus vulnérables et vont être littéralement entraînés dans des spirales de contenu toxique, des « rabbit’s holes » dont il est extrêmement difficile de s’extraire.

Il faut bien comprendre que l’algorithme de TikTok n’est pas conçu en soi pour promouvoir des contenus liés à la dépression, à l’automutilation ou le suicide. En revanche, dès lors que l’algorithme identifie qu’un utilisateur ou une utilisatrice éprouve un intérêt pour une question, il recommandera systématiquement des contenus associés, car l’enjeu consiste à les maintenir sur la plateforme, collecter des données personnelles pour établir des profils ultrapersonnalisés et générer des revenus publicitaires.

S’agissant de votre dernière question, nous avons naturellement partagé notre travail, qui a été mené au niveau international, avec l’ensemble des décideurs. À ce sujet, il existe une véritable différence entre l’Union européenne et le reste du monde dans l’approche de la protection des jeunes utilisateurs et utilisatrices. Nous avons évidemment conduit des discussions avec les institutions européennes. Amnesty a par exemple été extrêmement mobilisée au moment des négociations sur le DSA et nous le demeurons sur son application et sa mise en œuvre.

Cette année, nous entendons poursuivre notre mobilisation et notamment mener une campagne publique sur le sujet pour sensibiliser les jeunes, les parents, mais aussi pour interpeller les dirigeants. S’il n’est pas parfait, nous nous efforçons d’utiliser au mieux le levier du DSA, la première réglementation qui vise véritablement à encadrer les Big Tech pour obtenir des résultats et responsabiliser les entreprises.

Mme Laure Miller, rapporteure. Lors de vos propos introductifs, vous indiquiez que le modèle économique de TikTok en tant que tel affecte le bien-être et la santé de nos jeunes. Lors de nos auditions, de nombreuses personnes recommandent plus de modération ou un meilleur contrôle de l’âge. Mais nous pouvons avoir le sentiment que ces souhaits resteront vains compte tenu des intérêts complètement divergents de la plateforme, dont le fonctionnement reste opaque. Votre position a-t-elle évolué depuis vos premières recommandations ? Portez-vous un message plus « radical » à l’égard des autorités, notamment françaises ? Partagez-vous l’idée d’une interdiction des réseaux sociaux avant un certain âge ?

Mme Katia Roux. Nous nous réjouissons que le sujet soit pris à bras le corps par les autorités nationales et européennes. Nous avons effectivement formulé un certain nombre de recommandations dans le cadre de nos enquêtes. La première concerne la prise en compte des risques systémiques liés au modèle de développement économique de la plateforme. La deuxième porte sur l’arrêt de la maximisation de la participation des utilisateurs à partir de la collecte de données personnelles. Il conviendrait de revoir les éléments de conception qui encouragent justement une utilisation addictive de la plateforme, de prendre en compte la parole des personnes concernées, notamment les jeunes, qui ont beaucoup à dire sur le sujet.

Très concrètement on peut tout à fait imaginer une refonte de modèles à partir d’un fil qui ne soit pas fondé sur le profilage par défaut. Ensuite, nous sommes favorables à l’interdiction de la publicité ciblée à destination des mineurs dans le cadre du DSA européen, qu’il faudrait étendre à l’échelle du globe. La fin de cette collecte de données personnelles en vue d’ultra personnaliser le fil « Pour toi » de la plateforme changerait très concrètement l’impact et les contenus que les jeunes reçoivent.

Par ailleurs, de nombreuses autres mesures sont évoquées dans le débat public, dont l’interdiction d’accès en deçà d’un certain âge. Nous estimons cependant que si l’on ne change pas la cause profonde et le système même, nous risquons de ne pas régler fondamentalement le problème. Pour autant, nous ne considérons pas que certaines nouvelles mesures sont inutiles. Cependant, en lieu et place d’une interdiction, nous appelons les États à accroître la réglementation pour renforcer la protection de la vie privée. Cette mesure est le seul moyen de protéger les droits des jeunes et des enfants. Une interdiction totale ferait davantage peser le poids des pratiques commerciales et nocives des entreprises sur les jeunes au lieu de le faire endosser par les entreprises. Or ces dernières sont responsables et fautives en premier lieu.

En dehors du cadre européen qui est un espace démocratique, l’interdiction pourrait entraîner un impact sur d’autres droits, comme le droit à la liberté d’expression, le droit à l’information. En effet, dans certaines régions du monde, les réseaux sociaux permettent de partager un certain nombre d’informations cruciales et de sortir certains groupes marginalisés de l’isolement. Or ces pratiques diverses pourraient être mises en danger par une interdiction.

En résumé, nous ne demandons pas l’interdiction. D’une part, cette mesure comporte des risques au regard d’autres droits fondamentaux, et d’autre part, elle ne permettra pas toujours de régler le véritable problème. Concernant le modèle économique, il existe un consensus sur le besoin de s’attaquer aux causes profondes et systémiques. Amnesty International concentre son action sur cet enjeu.

M. le président Arthur Delaporte. Je vous remercie. Vos propos rejoignent en tout point mes propres réflexions. Par ailleurs, dans votre rapport, l’analyse est assez large et ne s’intéresse pas spécifiquement au cas des jeunes mineurs français. Avez-vous envisagé de mener des travaux sur ce sujet ?

Mme Katia Roux. Pour le moment, ce n’est effectivement pas le cas. En revanche, cette année, nous devrions mener une campagne publique pour sensibiliser davantage les jeunes utilisateurs et utilisatrices en France sur ces aspects, mais également pour contribuer le plus possible au débat national et européen, aux travaux de la Commission sur le DSA. Les pistes contentieuses sont toujours intéressantes et nous n’excluons aucune action. Malheureusement, à ce jour, nous ne disposons pas d’éléments concrets à partager comme cela pouvait être le cas à la fin 2023. Quoi qu’il en soit, le sujet demeure une priorité pour nous.

M. le président Arthur Delaporte. Je me permets de rebondir sur votre propos concernant l’application du DSA, en lien avec la Commission européenne. Pouvez-vous revenir sur la manière dont vous utilisez la procédure du DSA pour effectuer des signalements ou pour apporter des éléments à la Commission dans différentes procédures ? Comment cela se passetil concrètement ? Avez-vous des contacts directs ? Pourraient-ils être facilités ?

Mme Katia Roux. Nous en sommes pour le moment aux débuts, dans une phase de recueil des informations. Pour mémoire, nous avons été très mobilisés au moment des discussions autour du DSA pour exposer un certain nombre de nos recommandations. Nous avons salué son adoption en 2022. En effet, un certain nombre de mesures telles que l’interdiction de la publicité ciblée, la prise en compte des risques systémiques, les mesures d’atténuation à mettre en place, les audits indépendants obligatoires, le fait de proposer un fil qui ne soit pas personnalisé, nous semblent aller dans le bon sens.

Le texte comporte aussi des limites. Selon nous, il ne va pas assez loin concernant le fil par défaut et la publicité ciblée n’est pas interdite pour tous et toutes. Le modèle économique que nous dénonçons n’est pas non plus interdit. Pour le moment, l’efficacité du DSA reste encore à prouver, dans la mesure où il n’est entré pleinement en vigueur que l’année dernière.

Nous étudions la possibilité d’utiliser le DSA pour pouvoir lancer des enquêtes aboutissant idéalement à des sanctions et, à tout le moins, appeler les entreprises à leurs responsabilités. Encore une fois, avec les autres sections d’Amnesty International, nous sommes pour le moment à la phase de récolte de preuves, de données, de recherches.

Il n’en demeure pas moins que de notre point de vue, ce texte est à ce jour le plus protecteur, notamment à l’égard des mineurs et nous espérons qu’il pourra inspirer d’autres acteurs, d’autres États, d’autres régions du monde. Encore faut-il que les entreprises du numérique se prêtent au jeu. Or comme je l’indiquais plus tôt, la première publication de son rapport d’évaluation par TikTok était très en deçà des attentes et passait complètement à côté des risques systémiques de la plateforme.

M. le président Arthur Delaporte. Nous aurons l’occasion de poursuivre ces échanges avec TikTok, que nous recevrons le 12 juin prochain. Nous nous appuierons notamment sur les documents que vous avez publiés ou tous ceux que vous pourrez nous communiquer. À ce titre, notre commission reste évidemment disponible pour prolonger les échanges, surtout par écrit, notamment en lien avec le questionnaire qui vous a été adressé par Mme la rapporteure.

42.   Audition de Mme Marie-Laure Denis, présidente de la Commission nationale de l’informatique et des libertés (CNIL), M. Mathias Moulin, secrétaire général adjoint, et Mme Chirine Berrichi, conseillère pour les questions parlementaires et institutionnelles (lundi 2 juin 2025)

La commission auditionne, à huis clos, Mme Marie-Laure Denis, présidente de la Commission nationale de l’informatique et des libertés (CNIL), M. Mathias Moulin, secrétaire général adjoint, et Mme Chirine Berrichi, conseillère pour les questions parlementaires et institutionnelles ([40]).

M. le président Arthur Delaporte. Nous recevons, à huis clos, les représentants de la Commission nationale de l’informatique et des libertés (Cnil) : Mme Marie-Laure Denis, présidente, M. Mathias Moulin, secrétaire général adjoint et Mme Chirine Berrichi, conseillère pour les questions parlementaires et institutionnelles.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations. Je rappelle également que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Marie-Laure Denis, M. Mathias Moulin et Mme Chirine Berrichi prêtent successivement serment.)

Mme Marie-Laure Denis, présidente de la Cnil. Je n’ai aucun intérêt susceptible d’influencer ma position sur TikTok à déclarer. Je vous remercie de l’attention que votre commission d’enquête prête à l’action de la Cnil.

De nombreux travaux, y compris parlementaires, mettent en avant la collecte massive de données opérée par TikTok, l’opacité des algorithmes utilisés mais aussi des enjeux de santé publique, parmi lesquels les effets psychologiques, surtout chez les jeunes, de la captation de l’attention et de la mise en avant de contenus dangereux, le temps excessif passé sur l’application ainsi que l’insuffisance du contrôle de l’âge des utilisateurs. Il semblerait que 45 % des Français de 11 à 12 ans soient inscrits sur TikTok, dans lequel ils voient un outil de socialisation.

La Cnil n’a pas d’expertise en matière psychologique mais ses missions de régulateur horizontal de la donnée lui permettent d’appréhender le fonctionnement de ce réseau social et de définir les modalités d’une régulation protectrice de l’espace numérique.

Je commencerai par le fonctionnement de TikTok que vous connaissez très bien. Le point de départ de la réflexion de la Cnil est la collecte massive de données personnelles, lesquelles sont ensuite combinées et se voient appliquer un algorithme aux fins de proposer en temps réel des contenus et des publicités personnalisés. La particularité de TikTok par rapport aux autres réseaux sociaux tient au flux continu de contenus, couplé à une analyse en temps réel des réactions de l’utilisateur. En combinant les données, qui font l’objet d’une catégorisation par TikTok – temps passé, partage, likes –, le réseau social peut déduire ce à quoi l’utilisateur est sensible, voire son état émotionnel.

Par ailleurs, contrairement à d’autres types d’application, sur TikTok la communication avec l’autre est secondaire. Les adolescents que nous avons rencontrés sur le terrain font état d’une consommation essentiellement unilatérale du contenu de TikTok, qui est notamment à l’origine du succès de TikTok Shop, concept inconnu des autres plateformes. TikTok mêle les caractéristiques traditionnelles de la télévision – un flux continu unilatéral qu’on ne contrôle pas – et les caractéristiques des médias les plus contemporains – un algorithme dont l’objectif est de maintenir le plus longtemps possible les utilisateurs sur la plateforme.

L’algorithme se nourrit des données liées à la création du compte, de toutes les interactions avec l’application et des centres d’intérêt renseignés par les personnes ainsi que des achats, informations de paiement et d’expédition.

Pour procéder au traitement de ces données, la plateforme invoque différentes bases légales telles que le consentement pour les traceurs, la nécessité contractuelle pour la gestion des comptes ou encore l’intérêt légitime pour améliorer l’expérience utilisateur. L’algorithme vise à favoriser la viralité. Les ressources de TikTok proviennent essentiellement de la publicité et, dans une moindre mesure, des achats. Le modèle économique repose donc sur l’exploitation des données personnelles des utilisateurs.

Quels sont les risques ? D’une manière générale, le ciblage algorithmique et le profilage intensif permettent de déduire les intérêts, les préférences ou les caractéristiques personnelles des jeunes, ce qui pose la question du contrôle des personnes sur leurs données personnelles. À cela s’ajoute le fait que les algorithmes favorisent l’enfermement des jeunes dans une bulle de filtre, ayant pour effet de renforcer leurs opinions et limiter l’accès à la diversité des idées, ce qui peut contribuer à leur isolement et à leur radicalisation.

Ensuite, c’est la raison d’être de votre commission, les jeunes sont un public vulnérable – le considérant 75 du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) le reconnaît ; ils sont plus susceptibles d’être influencés par le fonctionnement des algorithmes et des contenus proposés.

Je mentionne l’exemple récent de l’utilisation détournée de TikTok au profit du candidat pro-russe lors de l’élection présidentielle roumaine, qui a conduit la Cour constitutionnelle à annuler le premier tour de scrutin.

En outre, la vitesse d’adaptation de l’algorithme de TikTok est un facteur de maximisation de la capacité d’influence. Une étude menée par le Wall Street Journal en 2021 met en évidence la réactivité de l’algorithme pour prendre en compte une modification d’usage. Dès que ma pratique révèle mon intérêt pour un nouveau thème, dans un laps de temps très court, on me propose des contenus correspondant à celui-ci, au détriment des contenus qui m’intéressaient jusqu’alors.

Cela peut créer une spirale infernale – ce que la littérature scientifique appelle le rabbit hole effect – et pousser des personnes à des tentatives de suicide, des scarifications, des comportements anorexiques.

Un rapport, publié en 2022 par le Center for Countering Digital Hate, une ONG anglo-saxonne, révélait qu’il fallait moins de dix minutes en moyenne pour que TikTok propose des contenus relatifs au suicide ou à des troubles du comportement alimentaire.

La France n’est pas épargnée par cette réalité : vous le connaissez certainement, le collectif Algos Victima regroupe des familles ayant lancé une action en justice contre TikTok qu’elles accusent d’être responsable de la dégradation de la santé d’adolescents.

Quels sont les moyens d’action dont dispose la Cnil pour réguler TikTok ?

Il faut reconnaître que la Cnil n’a qu’une compétence limitée au titre de la législation sur la protection des données à caractère personnel. Elle est compétente sur le fondement du RGPD et de la directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques, dite directive ePrivacy, qui lui permet de réguler tout ce qui concerne les cookies et les traceurs publicitaires. La Cnil n’est donc pas compétente pour faire respecter la réglementation relative à la régulation des contenus, qui relève de l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique), ni celle sur les pratiques commerciales, qui relève de la DGCCRF (direction générale de la concurrence, de la consommation et de la répression des fraudes).

S’agissant de la compétence de la Cnil en matière de protection des données, il faut distinguer la situation avant et après juillet 2020. Depuis juillet 2020, TikTok dispose d’un établissement principal en Europe. Attiré par le climat irlandais, il a implanté celui-ci à Dublin, en conséquence de quoi c’est l’autorité de protection des données irlandaises – la Data Protection Commission (DPC) – qui est compétente, en application du système de guichet unique prévu par le RGPD. Cela ne veut pas dire pour autant que la Cnil ne fait pas valoir son point de vue auprès de la DPC et qu’elle ne lui transmet pas des plaintes. Les décisions de la Cnil irlandaise font l’objet d’une analyse de la part de ses homologues, qui peuvent in fine la contraindre à modifier, le cas échéant, sa position.

À compter de mai 2020, la Cnil avait mené plusieurs contrôles, dont elle a dû transférer le fruit à la DPC. En septembre 2021, la DPC a lancé deux enquêtes distinctes : une première sur le respect par TikTok de ses obligations d’information et de protection par défaut des données des mineurs ; une seconde sur le transfert des données hors Union européenne. La première procédure a abouti, en septembre 2023, à une amende de 345 millions d’euros. La seconde a très récemment donné lieu à une amende de 530 millions d’euros.

Depuis juillet 2020, la Cnil ne prend plus directement de décisions sur d’éventuels manquements au RGPD de la part de TikTok. Lorsqu’elle reçoit des plaintes, elle procède à des vérifications de conformité : elle adresse ainsi en première intention un courrier à TikTok dans le cadre d’une procédure d’instruction préliminaire. Nous sommes convenus de fonctionner ainsi avec le régulateur irlandais, dans le but de donner une réponse plus rapide, le mécanisme du guichet unique prenant plus de temps.

Si, à l’issue de cet échange préliminaire avec TikTok, la Cnil constate que le responsable de traitement s’est conformé au RGPD – par exemple, TikTok nous apporte une preuve de l’effacement des données de telle ou telle personne qui nous a saisis en ce sens –, la réclamation n’a plus lieu d’être transmise à notre homologue irlandais.

Depuis la création du réseau social, la Cnil a reçu environ 150 plaintes, dont la très grande majorité porte sur des demandes d’effacement de comptes, de contenus ou de commentaires. Huit plaintes sont en cours d’instruction et une seule d’entre elles concerne les données d’un mineur.

À défaut de pouvoir directement faire appliquer le RGPD, la Cnil veille au respect des obligations de la directive ePrivacy. Elle a mené des investigations en ce sens, qui concernaient tous les Gafam, au terme desquelles elle a constaté que les internautes n’avaient pas la possibilité de refuser les cookies publicitaires aussi facilement qu’ils pouvaient les accepter. TikTok s’est mis en conformité et a été sanctionné d’une amende de 5 millions d’euros à l’issue de la procédure, qui visait le site internet et non l’application puisqu’à l’époque, la régulation sur les cookies concernait la navigation sur internet. Aujourd’hui, nous avons lancé une autre phase de la régulation, qui concerne les applications mobiles.

Je veux souligner que l’action du régulateur ne doit pas se limiter à des procédures répressives. C’est la raison pour laquelle la Cnil développe, depuis plus de douze ans, un programme ambitieux d’éducation numérique et de protection des mineurs en ligne, notamment pour prévenir les risques sur les réseaux sociaux. Cette mission fait partie des chantiers prioritaires qui ont été définis dans le plan stratégique 2025-2028.

La Cnil a noué des partenariats avec la communauté éducative, les associations, les collectivités locales et les médias. Ensemble, nous sensibilisons non seulement les enfants mais aussi les parents et les professionnels aux risques du numérique. Nous sommes convaincus que l’éducation numérique doit commencer dès le plus jeune âge. C’est dans cet esprit que la Cnil a créé, en 2013, le collectif Educnum, qui rassemble une soixantaine d’acteurs engagés dans l’éducation à la citoyenneté numérique.

Entre 2022 et 2023, la Cnil a mené plus de 120 actions pédagogiques dans neuf régions métropolitaines, notamment dans des classes allant du CM2 à l’enseignement supérieur. Nous avons produit de nombreuses ressources à destination des 8-10 ans en 2022 et des 11-15 ans en 2024. Nous concevons actuellement une application mobile, dénommée FantomApp, pensée par et pour les adolescents afin de les aider à mieux protéger leur vie privée en ligne. Cette application, en partie financée par des fonds européens, comprendra, parmi ses fonctionnalités, des liens vers des formulaires d’exercice des droits que les mineurs détiennent sur leurs données sur les principaux réseaux sociaux. Elle contiendra également des ressources pour obtenir de l’aide, par exemple auprès de l’association e-Enfance, ainsi que des outils concrets pour sécuriser ses comptes en ligne. Elle sera disponible dans les principaux magasins d’applications à la fin de cette année.

La Cnil s’assure de l’adéquation entre ses productions et les besoins des jeunes. En 2024, nous avons ainsi conduit une enquête intitulée « Numérique adolescent et vie privée » auprès de collégiens et de leurs parents pour connaître les usages des jeunes et identifier les risques. Votre commission a eu l’occasion d’auditionner les deux agents de la Cnil, Mme Jennifer Elbaz et M. Mehdi Arfaoui qui ont mené cette enquête. Je ne reviendrai pas sur leurs constats, si ce n’est pour souligner que les adolescents comprennent de mieux en mieux le fonctionnement des algorithmes mais n’ont pas encore conscience de tous les risques. Leur appropriation du numérique évolue par étapes. Si TikTok est souvent stigmatisé, quitter une telle plateforme représente visiblement pour eux un coût social élevé. Deux tiers des utilisateurs que nous avons interrogés se sentent piégés par l’application et préféreraient utiliser d’autres plateformes, mais ils manquent souvent d’un accompagnement pour sauter le pas.

J’en viens à la régulation des plateformes, qui nécessite de mobiliser plusieurs régulateurs au plan national et d’activer des procédures au plan européen.

La vérification de l’âge en ligne illustre la mise en œuvre d’une régulation efficace par le biais d’une approche coordonnée entre la Cnil et l’Arcom. En ce qui concerne TikTok, la mention de l’âge est purement déclarative. Plusieurs mesures y sont attachées : le blocage de l’utilisateur s’il renseigne un âge inférieur à 13 ans, un système d’alerte pour signaler qu’un utilisateur aurait moins de 13 ans, l’identification d’un usager de moins de 13 ans par l’analyse de son profil. Mais ces mesures restent insuffisantes à l’épreuve de la réalité – nos échanges sur le terrain le montrent, un grand nombre de mineurs de moins de 13 ans utilisent l’application.

Il n’existe pas de consensus sur les solutions pour contrôler l’âge sur les plateformes mais plusieurs moyens techniques sont disponibles, dont certains sont compatibles avec la protection des données personnelles des utilisateurs – ce point est important pour la Cnil : il ne s’agit pas de communiquer les cartes d’identité des jeunes voire de leurs parents à un réseau social. C’est bien l’Arcom qui a une compétence directe en la matière, le rôle de la Cnil se limitant à vérifier que les solutions de contrôle de l’âge utilisées par les sites respectent le RGPD. C’est ainsi que dans le cadre de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique, dite Sren, la Cnil a apporté son expertise à l’Arcom en vue d’élaborer le référentiel technique encadrant les systèmes de vérification de l’âge. Une part importante des préconisations qu’elle a formulées ont été reprises dans le référentiel, parmi lesquelles le recours à un tiers vérificateur indépendant pour protéger les données personnelles et une solution dite de double anonymat imposée aux sites concernés. Ce référentiel ne s’applique qu’aux sites à caractère pornographique et ne concerne pas les réseaux sociaux. La Cnil a mis beaucoup d’elle-même pour chercher à concilier protection de la vie privée et protection des mineurs.

Cette solution associant tiers vérificateur et double anonymat pourrait utilement être dupliquée pour l’accès aux réseaux sociaux et ainsi venir compléter le contrôle parental et l’éducation au numérique.

Une autre solution devrait venir de la révision du règlement relatif à l’identité numérique et les services de confiance (eIdas). Le portefeuille européen d’identité numérique devrait permettre de répondre au défi du contrôle de l’âge en ligne mais son déploiement massif ne devrait intervenir qu’à la fin de l’année prochaine.

Dans cette attente, le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) offre de nouveaux outils de régulation, qui permettent d’imposer des obligations inédites aux plateformes. L’article 28 leur enjoint ainsi de prendre des mesures appropriées et proportionnées pour garantir un niveau élevé de protection des mineurs.

Le 25 avril 2023, la Commission européenne a désigné TikTok comme une très grande plateforme au sens de l’article 33 du DSA. Cette qualification a pour conséquence notamment l’interdiction de la publicité ciblée sur le profilage des données personnelles des mineurs. La loi Sren, qui a adapté le droit français au DSA, a confié de nouvelles missions à la Cnil, parmi lesquelles le fait de veiller au respect de cette interdiction.

D’une manière générale, l’effectivité du nouveau dispositif repose nécessairement sur une articulation efficace entre les autorités compétentes, l’Arcom pour les contenus, la DGCCRF pour la protection des consommateurs et la Cnil pour l’exploitation des données et le ciblage. À cette fin, les trois institutions ont signé, en juin 2024, une convention qui prévoit le partage d’informations, une coopération aux enquêtes et au traitement des plaintes ainsi qu’une mutualisation des expertises.

Parallèlement, en vue de l’application de l’article 28 du DSA, la Commission européenne a récemment mis en consultation des lignes directrices, qui composent un cadre destiné à guider les plateformes dans leur mise en œuvre concrète de la protection des mineurs. La vérification de l’âge est ainsi exigée pour l’accès aux contenus les plus préjudiciables, en distinguant les plateformes à hauts risques et celles à risques modérés. Toutefois, à ce stade, nous regrettons que les lignes directrices de la Commission européenne soient moins protectrices que le référentiel de l’Arcom.

Enfin, en 2024, la Commission européenne a engagé des procédures à l’encontre de TikTok et Meta en raison de leur action insuffisante pour protéger les mineurs. Elle enquête sur la conception d’interfaces exploitant les faiblesses des mineurs et stimulant des comportements addictifs ainsi que sur les outils de vérification de l’âge. Nul doute que la décision finale aura des effets structurants.

Je conclurai par un mot sur les conséquences que pourrait avoir sur TikTok le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (RIA), en lui imposant des obligations strictes de transparence, de sécurité et de responsabilité sur l’usage des algorithmes et des outils d’intelligence artificielle (IA), notamment ceux qui influencent le comportement des utilisateurs. À cet égard, le RIA interdit la mise sur le marché ou l’utilisation d’une IA reposant sur des techniques subliminales ou manipulatrices, qui altèrent le comportement ou la capacité de décision. Le RIA proscrit également l’utilisation d’une IA exploitant les vulnérabilités liées à l’âge, au handicap ou à la situation sociale. Donc, concrètement, TikTok devra évaluer et maîtriser les risques liés à ses systèmes d’intelligence artificielle, en particulier ceux générant des effets addictifs ou portant atteinte à la santé mentale des jeunes. TikTok devra également démontrer que ses algorithmes ne manipulent pas indûment les utilisateurs et ne favorisent pas la désinformation ni la discrimination.

Le cadre européen fournit des outils de régulation adaptés à TikTok, à condition d’assurer une mise en œuvre cohérente et une coordination efficace entre les autorités. C’est le cas, me semble-t-il, pour le RGPD, comme pour le DSA et le RIA.

Mme Laure Miller, rapporteure. Quelle part avez-vous prise à l’élaboration des lignes directrices ? La Cnil a-t-elle pu ou pourra-t-elle apporter sa contribution ? Pouvez-vous préciser votre appréciation sur leur moindre ambition en comparaison du référentiel de l’Arcom ?

Pouvez-vous également nous présenter de manière plus détaillée le projet d’identité numérique européenne ? Là encore, avez-vous été consultés ?

Mme Marie-Laure Denis. S’agissant de l’élaboration des lignes directrices de la Commission européenne, avant de vous répondre, je préfère vérifier si la Cnil y a contribué et de quelle manière. Le comité européen de la protection des données (CEPD), qui réunit l’ensemble des Cnil européennes, va rendre un avis sur ces lignes directrices.

Nous considérons qu’elles sont moins satisfaisantes que le référentiel de l’Arcom car elles ne retiennent ni le tiers vérificateur indépendant, qui, de notre point de vue, permet vraiment de concilier protection des données et protection des mineurs et de garantir un contrôle de l’âge efficace, ni le double anonymat.

Quant à l’identité numérique, je fonde des espoirs sur cette solution. Nous sommes très impliqués dans les travaux menés au niveau européen, qui sont assez complexes, assez techniques. À la faveur de la révision du règlement eIdas, l’idée est de créer un portefeuille numérique, ou wallet, qui présente le grand avantage de pouvoir décliner votre identité de façon sélective. C’est ce que l’on appelle les attributs : je peux prouver mon âge sans avoir à donner mon identité ; pour bénéficier d’une réduction à la piscine de ma commune, je peux prouver que j’y réside sans avoir à dire mon nom ni mon âge. Ce dispositif, très protecteur de la vie privée, apparaît comme une solution prometteuse et robuste pour contrôler l’âge.

La France fait partie des trois pays que la Commission européenne a désignés pour expérimenter, dès la fin de ce semestre, le portefeuille numérique.

Mme Laure Miller, rapporteure. Quel regard portez-vous sur l’exploitation des données personnelles des utilisateurs par TikTok ? Y a-t-il une singularité par rapport aux autres réseaux sociaux ?

Pouvez-vous en dire davantage sur les 150 plaintes que vous avez reçues l’année dernière, si j’ai bien compris ? Ce chiffre a-t-il évolué ? Quels sont les motifs des plaintes ? Les mineurs en sont-ils souvent l’objet, ou seulement de manière marginale ?

Mme Marie-Laure Denis. De mon point de vue, la singularité de TikTok réside dans le déroulement continu d’un flux de contenus que les utilisateurs ingèrent passivement, à tel point que la plateforme donne l’impression de ne pas vraiment être un réseau social. Sur d’autres réseaux, la communication avec des tiers a davantage d’importance. TikTok propose aussi des fonctionnalités qui n’existent pas ailleurs, comme TikTok Shop ou TikTok Lite. Enfin, son algorithme semble être d’une efficacité redoutable.

La Cnil a reçu 150 plaintes visant TikTok depuis la création de ce dernier. Les plaintes qui sont en cours d’instruction par nos services sont de deux types.

Les premières, au nombre de vingt-cinq, proviennent de sociétés qui contestent des transferts de données vers la Chine. L’outil TikTok Analytics, en particulier, engendrerait des transferts de données à caractère personnel en dehors de l’Union européenne, notamment vers la Chine, la Malaisie, les États-Unis, Singapour, le Brésil ou encore l’Australie. La DPC, notre homologue irlandaise, vient de prononcer une sanction à l’encontre de TikTok pour ce motif, assortie de l’injonction de se mettre en conformité avec le RGPD dans un délai de six mois.

Les plaintes de la seconde catégorie, au nombre de huit, portent sur des demandes d’effacement de comptes ou de contenus. Certains utilisateurs souhaitent revenir sur leur décision de diffuser des contenus qui les concernent ou qui concernent des proches ; ils ont perdu leur identifiant et n’arrivent pas à les effacer.

D’autres utilisateurs s’aperçoivent que des contenus dans lesquels leur image apparaît sont diffusés sans leur consentement afin de leur porter préjudice.

En première intention, les services de la Cnil adressent généralement un courrier à TikTok pour effectuer des vérifications préliminaires et préparer les dossiers en vue d’un éventuel transfert à l’autorité de contrôle cheffe de file, notre homologue en Irlande. Dans certains cas, cela permet de répondre plus rapidement aux plaignants. Nous transmettons la majorité des plaintes à la DPC.

Mme Laure Miller, rapporteure. Avez-vous un interlocuteur dédié chez TikTok, avec lequel vous pouvez parler de ces plaintes ?

M. Mathias Moulin, secrétaire général adjoint de la Cnil. Nous sommes convenus avec l’autorité irlandaise de la procédure qui vient d’être décrite, appelée preliminary vetting, pour travailler en circuit court. Avec Google cette procédure fonctionne très bien.

M. le président Arthur Delaporte. Ce point de contact est-il une adresse e-mail ou une personne identifiée ?

M. Mathias Moulin. C’est une adresse e-mail, sauf erreur de ma part.

M. le président Arthur Delaporte. Vous n’avez donc pas d’échanges de vive voix avec des responsables de TikTok ?

M. Mathias Moulin. Notre présidente s’est rendue en Irlande récemment, mais TikTok ne fait pas partie des interlocuteurs avec lesquels nous avons un dialogue régulier, me semble-t-il.

Mme Marie-Laure Denis. J’ai rencontré le directeur juridique monde et le responsable France de TikTok en mars 2023, de mémoire, à leur demande.

M. Mathias Moulin. Il s’agissait d’une première rencontre assez protocolaire durant laquelle TikTok a exposé sa stratégie de façon générique et globale, étant entendu que nous ne sommes pas son autorité de régulation au quotidien. Pour le reste, nos services n’ont pas d’échanges réguliers et structurés avec lui, y compris dans le cadre de l’instruction des dossiers, car, une fois encore, nous ne sommes pas son autorité référente et compétente.

Nous partageons avec d’autres acteurs le souhait de rendre le preliminary vetting plus efficace. Nous en parlerons avec notre homologue irlandais lors de la réunion du CEPD du 3 juin. L’objectif est de faire davantage pression sur les sites, a fortiori sur TikTok, afin que le circuit court fonctionne mieux.

Quant aux mineurs, ils nous sollicitent assez peu : il ne leur paraît pas naturel de déposer une plainte auprès de la Cnil. C’est la raison pour laquelle nous avons souhaité développer l’outil FantomApp. Les jeunes y trouveront des liens pour exercer leurs droits auprès de TikTok, contacter l’association e-Enfance en cas d’urgence et porter plainte auprès de nos services ; ils auront accès à une procédure simplifiée de demande de retrait de contenus. Cet outil répondra donc à leurs besoins.

Mme Marie-Laure Denis. Je serais étonnée que nous n’ayons pas un interlocuteur chez TikTok. Lorsque nous avons élaboré la charte Studer avec l’Arcom, nous avons voulu pouvoir agir rapidement auprès des plateformes et il me semble que nous avons des interlocuteurs auprès de chacune ; TikTok doit en faire partie, mais je ne peux pas l’affirmer.

Je précise que j’ai rencontré TikTok et Google à Dublin il y a quelques semaines, avec le président de l’Arcom, dans le sillage d’un voyage de la ministre chargée du numérique et de l’intelligence artificielle ; nous avons abordé la question du contrôle de l’âge des utilisateurs.

La Cnil contribue activement, avec le CEPD – la Cnil des institutions européennes – à l’élaboration de lignes directrices sur la protection des données des enfants. Ces lignes directrices abordent certains points clés relatifs au traitement des données sur les plateformes et sur internet : identification des responsables qui traitent les données de mineurs – qui doivent appliquer une protection adéquate –, vérification de l’âge, contrôle parental, exercice des droits, en particulier du droit à l’effacement.

Mme Anne Genetet (EPR). Pourquoi n’obtenez-vous presque jamais de réponse de TikTok ? Quelles mesures faudrait-il prendre pour le contraindre à répondre ?

S’agissant de la vérification de l’âge, je comprends qu’il faille préserver la vie privée, mais la protection des mineurs ne nécessite-t-elle pas des mesures particulières ? Le portefeuille d’identité numérique européen ne sera pas développé avant 2026, et nous risquons d’attendre très longtemps les outils prévus par la Commission européenne. Pourquoi n’utiliserions-nous pas l’application France Identité, qui fonctionne très bien ?

Mme Marie-Laure Denis. De fait, TikTok traite avec la DPC.

Nous entretenons avec cette dernière des relations beaucoup plus constructives que lorsque le RGPD est entré en vigueur. Nous sommes convenus d’une procédure informelle de bon sens : si TikTok nous répond et que nous pouvons résoudre une demande d’effacement de contenu, tant mieux, cela évite de remonter le problème à la DPC. Ce fonctionnement est toutefois informel, et TikTok n’est pas tenu de nous répondre. Nous n’avons aucun moyen de le contraindre, même si nous coopérons avec la DPC.

Mme Anne Genetet (EPR). Vous avez signalé que cette procédure fonctionnait bien avec d’autres opérateurs comme Google, vis-à-vis desquels la Cnil n’est pas non plus compétente. Comment expliquer cette différence de comportement ?

Mme Marie-Laure Denis. Je vous confirme que Google nous répond.

Mme Anne Genetet (EPR). Un élément de droit – la menace d’être considéré comme un éditeur, par exemple – explique-t-il que Google soit vigilant et réagisse différemment ?

Mme Marie-Laure Denis. La Cnil a des relations anciennes avec Google, notamment au sujet du droit à l’oubli ; nous avons eu des actions très volontaristes à son égard, et des décisions de justice sont venues cadrer les choses.

M. Mathias Moulin. La procédure de preliminary vetting, c'est-à-dire la possibilité de contacter un opérateur qui relève de l’autorité irlandaise sans passer par cette dernière, est informelle. Elle nous a paru souhaitable pour les mineurs et pour les cas les plus simples, qui demandent d’agir vite et qui ne nécessitent pas une analyse juridique ou des investigations particulières. Le canal direct que nous ouvrons avec les réseaux sociaux et les grandes plateformes est de l’ordre de la convention, du gentlemen’s agreement. Si un acteur refuse de nous répondre et nous renvoie à l’autorité irlandaise en vertu du mécanisme du guichet unique, nous n’avons pas le choix. Il se trouve que ce gentlemen’s agreement fonctionne plutôt bien avec Google, avec lequel nous avons des relations historiques, ainsi qu’avec Microsoft. TikTok nous fait entrer dans un cadre formel, avec des procédures plus longues. Les leviers dont nous disposons dépendent alors de notre relation avec la DPC.

Mme Marie-Laure Denis. On peut en tout cas constater que les plateformes ont des stratégies relationnelles différentes vis-à-vis du régulateur français.

J’en viens à France Identité. Jusqu'à présent, la Cnil et l’Arcom ont abordé le contrôle de l’âge sous l’angle de l’accès aux sites pornographiques, et non de l’accès aux réseaux sociaux. Or je ne suis pas sûre que les personnes qui se connectent à des sites pornographiques aient très envie de passer par un site officiel du gouvernement français comme France Identité, estampillé bleu blanc rouge ; un frein psychologique entre en ligne de compte.

À cela s’ajoutent des questions techniques. Je ne suis pas certaine que France Identité puisse gérer de façon fine et sélective les différents attributs de l’identité – âge, nom, domicile, etc. –, comme le fait le portefeuille européen. N’étant pas experte, je me garderai de l’affirmer. Je pourrai en revanche vous transmettre des éléments sur le sujet, si vous le souhaitez.

Il me semble aussi que si nous voulions contrôler l’âge des utilisateurs grâce à France Identité, TikTok devrait développer une API (interface de programmation d’application) pour le partage des données, ce qui serait assez complexe. Il doit y avoir de bonnes raisons à ce que cela n’ait pas été mis en place. Quoi qu’il en soit, la direction interministérielle du numérique (Dinum) ou France Identité – voire les deux, c’est à vérifier – vont déployer l’EU mini wallet dans le cadre de l’expérimentation qui aura lieu en France, et bénéficieront d’un accompagnement à cette fin. Un prototype est attendu fin juin.

M. le président Arthur Delaporte. L’article 28 du DSA impose aux fournisseurs de plateformes en ligne accessibles aux mineurs de mettre en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service. Nous avons beaucoup parlé de la limite d’âge de 13 ans, mais comment les plateformes contrôlent-elles la minorité de leurs utilisateurs ?

M. Mathias Moulin. TikTok analyse certains paramètres des comptes pour identifier les utilisateurs susceptibles d’avoir moins de 13 ans, et se fonde sur des éléments déclaratifs. Cependant, la base légale de l’inscription à un réseau social reste le contrat. Le droit français prévoit qu’un mineur n’a pas besoin de l’accord de ses parents pour accomplir les actes de la vie courante – acheter une baguette de pain par exemple – mais qu’il doit l’obtenir pour les autres actes. Il reste à savoir si la souscription contractuelle à un réseau social relève de la vie courante, et quels outils de contrôle parental peuvent être appliqués.

Nous ne sommes pas compétents pour interpréter le contrat par lequel les utilisateurs souscrivent à TikTok ; en revanche, nous pouvons lui demander de minimiser les données collectées pour vérifier l’âge et de respecter le double anonymat. Si un opérateur de réseau social veut instaurer un dispositif de contrôle de l’âge – qu’il fixe la limite à 13 ou 15 ans – reposant sur le double anonymat, cela ne nous pose pas de difficulté. Une solution conjuguant le contrôle parental et le contrôle de l’âge, dans le respect du double anonymat, serait parfaitement légitime, puisqu’elle minimiserait les données. Nous passerions d’un enjeu de protection des données à un enjeu contractuel reposant sur l’opérateur, celui-ci ayant la légitimité d’appliquer un tel dispositif.

Mme Anne Genetet (EPR). Deux amendes ont été infligées à TikTok en 2023 et 2025 pour des faits passés. Cela signifie-t-il que nous pourrions mettre TikTok à l’amende chaque année pour les mêmes motifs s’il ne réagit pas ?

Mme Marie-Laure Denis. Si TikTok ne remédiait pas aux manquements qui sont sanctionnés par ces amendes, oui. La seconde amende, relative à des transferts de données vers la Chine, vient d’intervenir ; TikTok a six mois pour montrer à notre homologue irlandais qu’il s’est mis en conformité. La Cnil a pris une part très importante dans la transmission des plaintes et a beaucoup échangé avec la DPC. Les premières années suivant l’entrée en vigueur du RGPD, il a fallu contraindre cette dernière à réguler TikTok, entre autres, et à prononcer des amendes significatives. Depuis, l’autorité irlandaise est beaucoup plus constructive.

Mme Anne Genetet (EPR). Qu’adviendra-t-il si TikTok ne se soumet pas à l’injonction de la DPC de se mettre en conformité avec le RGPD ?

Mme Marie-Laure Denis. De nouveaux contrôles peuvent intervenir, donnant lieu à de nouvelles sanctions. Les amendes qui ont été infligées à TikTok ne sont pas négligeables ; la preuve en est que les sanctions récemment prononcées par la Commission européenne contre deux Gafam sont inférieures aux deux amendes additionnées de TikTok. Les autorités de régulation européennes ont infligé des milliards d’euros d’amende depuis la mise en œuvre du RGPD ; à l’échelle de la France, la Cnil n’est pas en reste. Les injonctions faites aux plateformes de se mettre en conformité avec le RGPD importent encore davantage.

M. le président Arthur Delaporte. Nous vous remercions.

43.   Audition de M. Gilles Babinet, coprésident du Conseil national du numérique, et M. Jean Cattan, secrétaire général (lundi 2 juin 2025)

Puis la commission auditionne M. Gilles Babinet, coprésident du Conseil national du numérique, et M. Jean Cattan, secrétaire général ([41]).

M. le président Arthur Delaporte. Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Gilles Babinet et M. Jean Cattan prêtent serment.)

M. Gilles Babinet, coprésident du Conseil national du numérique. Je vous remercie d’avoir organisé cette audition sur le sujet des réseaux sociaux, et plus particulièrement de TikTok, que nous considérons comme fondamental. TikTok se distingue par deux caractéristiques majeures : son origine chinoise, qui soulève des interrogations quant au respect de la confidentialité des données, et sa cinématique particulière, représentative d’une nouvelle génération de réseaux sociaux. Cette dernière caractéristique est désormais partagée par d’autres plateformes telles que YouTube, Instagram ou Snapchat, qui permettent un traitement massif de données par des algorithmes d’intelligence artificielle, intensifiant considérablement l’interaction entre l’utilisateur et la plateforme.

Le Conseil national du numérique (CNNUM) estime que l’enjeu dépasse largement TikTok et concerne l’ensemble des réseaux sociaux et leur impact sur notre société. Nous nous appuyons notamment sur les travaux de M. Robert Putnam, sociologue et économiste américain, qui a étudié l’évolution du temps d’écran. Ses observations montrent une augmentation significative du temps consacré aux écrans, qui est passé de deux heures par jour à près de quatre heures aux États-Unis entre 1980 et 1988, pour atteindre aujourd’hui sept heures et quart aux États-Unis et environ cinq heures quarante en France.

Cette évolution entraîne des conséquences profondes sur notre société. Elle réduit ce que M. Putnam appelle les « conversations désagréables », c’est-à-dire les confrontations avec des personnes que nous n’avons pas choisies dans la vie réelle. De nombreux lieux de médiation sociale, tels que le café du village, l’église, la place publique, le service militaire ou les services publics disparaissent. M. Putnam recense ainsi une douzaine de lieux fortement affectés par l’émergence des écrans et des techniques de captation de l’attention qui y sont associées.

Nous sommes face à des modèles d’affaires reposant sur cette captation de l’attention, où le citoyen-consommateur n’a aucune maîtrise sur le contenu qui lui est présenté, celui-ci étant imposé par des algorithmes opaques. Cette dynamique pose un défi fondamental pour la démocratie car nous estimons que les réseaux sociaux, sous leur forme actuelle, ne sont pas compatibles avec un fonctionnement démocratique sain. Nous assistons à une altération profonde du débat démocratique, avec une prédominance des propos à l’emporte-pièce au détriment des discours nuancés et complexes, qui ne correspondent pas aux critères de stickiness privilégiés par les algorithmes des plateformes. Le risque, à terme, est que seuls les discours radicaux trouvent leur place, contaminant ainsi le débat public et politique, et menaçant notre capacité à vivre ensemble.

M. Jean Cattan, secrétaire général du Conseil national du numérique. Dans la continuité des propos précédents, il me semble nécessaire de réfléchir à des solutions structurelles et de repenser l’architecture globale des réseaux sociaux. TikTok est aujourd’hui à l’avant-garde en matière d’outils de captologie, qui visent à maximiser la monétisation de l’attention des utilisateurs. Il est donc impératif d’envisager des remèdes qui dépassent à la fois la structure de la plateforme et le cadre actuel règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) mis en œuvre par la Commission européenne.

Nous proposons plusieurs pistes de réflexion. Tout d’abord, il faut envisager une véritable portabilité des données, imposée aux entreprises et non limitée à un simple droit pour les utilisateurs. Ensuite, nous préconisons le développement de l’interopérabilité, à la fois horizontale, comme le laisse entrevoir le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA) et verticale. Il est également nécessaire d’accroître la capacité des utilisateurs à paramétrer la structure des plateformes.

Bien que le débat sur les mineurs soit un excellent point de départ pour réfléchir à ces outils, nous pensons qu’ils devraient être étendus à l’ensemble de la population, car c’est notre conception même de la démocratie qui est en jeu. La mise en place de ces solutions nécessite toutefois de repenser fondamentalement notre vision des réseaux sociaux, que nous devons considérer non plus comme des monopoles sur l’ensemble de leurs fonctionnalités, mais comme des infrastructures sur lesquelles d’autres acteurs (entreprises, associations, services publics) pourraient se greffer.

En résumé, préserver l’intégrité de notre tissu social et de notre système démocratique nécessite de reconsidérer notre conception des réseaux sociaux.

Nous devons également renouer avec une tradition d’intervention étatique dans l’économie, qui a notamment fait le succès de secteurs organisés en réseau tels que les télécommunications. Cette approche implique d’accepter que, pour garantir une société et une démocratie ouvertes, l’État doit intervenir afin d’ouvrir les infrastructures en situation de domination. C’est précisément dans ce contexte que les remèdes précédemment évoqués prennent tout leur sens.

Actuellement, force est de constater que la Commission européenne, qui détient quasiment le monopole de la mise en œuvre des règles concernant les très grandes plateformes, dont les principaux réseaux sociaux, n’a pas encore endossé ce rôle de régulateur d’infrastructures. Elle se positionne davantage comme une entité de contrôle, vérifiant simplement que les entreprises ont correctement évalué les risques qu’elles sont susceptibles de propager, ce qui est fondamentalement différent. Il est donc impératif que la Commission opère une transition, en passant d’une posture de forteresse, agissant comme un simple contrôleur d’entreprises responsables de leur propre gestion des risques, à celle de véritable chef d’orchestre. Elle doit s’impliquer activement dans la structuration des infrastructures sociales que représentent les réseaux sociaux. Cette évolution constitue une orientation majeure à promouvoir et un prérequis indispensable à toute intervention efficace des autorités publiques sur le marché des réseaux sociaux.

Nous devons enfin nous interroger sur le rôle que peuvent jouer les États membres, parallèlement aux actions de la Commission. Un débat est en cours concernant leur marge de manœuvre au niveau national, notamment à la suite de l’arrêt Google Ireland du 9 novembre 2023, qui interprète la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur dite directive e-commerce. Je considère personnellement que cet arrêt ouvre de nouvelles opportunités pour les États, en ce qu’il leur permet d’agir de manière ciblée sur certaines plateformes telles que TikTok en proposant des solutions spécifiques et proportionnées. Cette commission d’enquête pourrait ainsi constituer le point de départ d’une nouvelle approche, potentiellement applicable tant au niveau européen que national. C’est pourquoi nous sommes particulièrement enthousiastes à l’idée d’y contribuer.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Vous avez parfaitement raison, monsieur Babinet, de souligner que la problématique des réseaux sociaux ne se limite ni à TikTok ni au jeune public. Notre décision de circonscrire cette commission d’enquête à un objet précis découle des contraintes inhérentes au fonctionnement parlementaire. Le temps imparti pour mener une commission d’enquête étant limité, il nous a semblé judicieux de nous concentrer sur un sujet bien défini. Cette approche nous permet d’apporter des réponses aussi efficaces que possible, tout en nous réservant la possibilité d’élargir ultérieurement nos recommandations à d’autres aspects. Nous avons donc jugé plus pertinent de nous focaliser sur un sujet spécifique, d’où notre choix de nous concentrer à la fois sur TikTok et sur les mineurs, tout en étant pleinement conscients que la problématique est bien plus vaste.

Le CNNUM a-t-il été amené à se prononcer ou à contribuer à l’élaboration et à la mise en œuvre du DSA au niveau européen ? Quelle a été votre implication dans ce processus ?

Par ailleurs, quel regard portez-vous sur nos politiques d’éducation au numérique ? La sensibilisation apparaît comme un élément essentiel de nos politiques publiques actuelles. Après avoir auditionné de nombreux acteurs intervenant dans les écoles et plus généralement dans l’éducation au numérique, l’impression qui se dégage est celle d’une certaine dispersion des efforts. Quelle est votre analyse à ce sujet ? Faut-il intensifier ces actions ? Serait-il préférable de les centraliser autour d’un acteur unique dans un objectif de clarté ?

Enfin, pourriez-vous développer davantage votre point de vue sur la nécessité d’une approche plus interventionniste, notamment à l’échelle de la Commission européenne ? Je partage votre opinion sur l’existence d’une marge de manœuvre pour les États membres de l’Union européenne, permettant des interventions individuelles. Pourriez-vous détailler cette perspective et nous faire part de vos idées concernant une possible intervention nationale dans la régulation de ces plateformes ?

M. Jean Cattan. Concernant le DSA, un travail de fond a été mené sur une période d’environ dix ans. Les premiers rapports du CNNUM traitant de l’imposition d’obligations de non-discrimination aux plateformes remontent aux années 2014, 2015 et 2016. Un travail approfondi sur l’interopérabilité a également été réalisé en 2020.

Au cours de la mandature désignée en 2021, coprésidée par M. Gilles Babinet, un rapport particulièrement marquant sur l’économie de l’attention a été publié début 2022 (Votre attention, s’il vous plaît ! Quels leviers face à l’économie de l’attention ?). Ce document a significativement influencé les débats et a renforcé notre capacité de dialogue avec les autres entités, puisqu’il nous a permis d’aborder la question de la régulation économique sous l’angle de ses finalités sociétales. Cette contribution a ouvert la voie à des échanges plus soutenus avec le gouvernement, ainsi qu’à des interactions qui se sont déroulées de manière informelle, au fil des discussions parlementaires, grâce aux liens étroits entretenus entre le cabinet des ministres et le CNNUM.

Par ailleurs, notre participation à la Task Force Platform, qui réunit mensuellement les acteurs ministériels, nous permet de partager régulièrement nos points de vue. Le pilotage de la négociation est assuré par le ministère de l’économie et des finances, qui dispose d’un pôle dédié à la régulation des plateformes. L’approche interministérielle adoptée a considérablement renforcé la position française dans les négociations du DSA.

Certains aspects, notamment en matière de gouvernance, ont été tranchés à un niveau politique très élevé, comme la décision de placer la Commission au centre du dispositif. Le choix effectué a permis l’aboutissement du texte, ce qu’il convient de reconnaître. Aujourd’hui, ce texte finalisé pourrait nous permettre d’avancer vers une forme de fédéralisation de la démarche et de l’action, mobilisant ainsi toutes les forces nationales prêtes à s’investir sur ces questions à travers l’Europe.

Concernant la mobilisation des forces, un travail considérable reste à accomplir en termes de cohésion de l’action territoriale menée par de nombreux acteurs. Cette réalité s’est particulièrement manifestée lors du pilotage du Conseil national de la refondation (CNR) numérique par le CNNUM, notamment sur le volet dédié à l’apaisement de l’espace en ligne. Nous avons constaté à la fois un grand dynamisme et une opportunité pour l’État de jouer un rôle fédérateur en rassemblant et en soutenant un écosystème, assurant ainsi une cohésion que les acteurs associatifs ne peuvent intégrer seuls dans leur activité quotidienne.

Dans la continuité des travaux du CNNUM, notamment l’ouvrage Civilisation numérique rédigé par M. Gilles Babinet et Mme Françoise Mercadal-Delasalles, nous estimons que l’État doit jouer un rôle essentiel de soutien à l’action citoyenne. Cette nouvelle mission étatique est essentielle car, si l’État n’agit pas nécessairement directement, il crée les conditions propices à l’action.

Enfin, concernant les marges d’action nationale, en lien avec le champ de votre commission d’enquête particulièrement pertinent au regard de la jurisprudence européenne, l’action législative nationale ne peut être que ponctuelle, ciblant des acteurs spécifiques, voire un seul acteur occasionnellement, sur des questions précises, afin d’assurer des solutions proportionnées. Dans cette optique, nous pouvons par exemple envisager, dans la continuité des initiatives de nombreux acteurs, des mesures sur le contrôle de l’âge. Ces discussions sont en cours, mais il convient d’explorer d’autres pistes bénéfiques pour l’ensemble de la société.

À cet égard, les lignes directrices mises en consultation par la Commission européenne sur la protection de la jeunesse offrent de nombreuses idées, notamment dans leur seconde partie qui ne traite pas du contrôle de l’âge. Le droit au paramétrage, sporadiquement présent dans le DMA et le DSA, pourrait être approfondi afin de renforcer la liberté de choix de l’utilisateur et faciliter l’accès à certaines fonctionnalités.

Une plus grande ouverture des interfaces de programmation (API) pourrait également être envisagée, notamment pour la recherche et les tiers proposant des services de modération alternatifs, non basés sur l’économie de l’attention. Des acteurs français comme Bodyguard, qui appliquent des surcouches sur les réseaux sociaux, mériteraient un accès plus large à ces API.

Enfin, obtenir de simples informations sur les flux économiques et la valorisation des données par les réseaux sociaux permettrait de développer des arsenaux législatifs plus pertinents à l’avenir. Cette approche ne vise pas la contrainte, mais plutôt la collecte d’informations pour élaborer des dispositifs législatifs plus adaptés.

M. Gilles Babinet. Les plateformes traitent généralement les textes européens de manière peu transparente. L’accès aux données de recherche, par exemple, n’est pas conforme aux dispositions prévues par les textes. De même, l’accès aux API, aux algorithmes, la portabilité des données et la récupération des données dans le cadre du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) sont rendus particulièrement difficiles, avec une expérience utilisateur très limitée. Le champ d’application des dispositions existantes reste donc considérable, avec une interprétation actuellement largement favorable aux plateformes.

Concernant l’éducation, ce sujet, bien qu’ancien, demeure d’une importance capitale. Dans les années 2000, avant même l’avènement des réseaux sociaux, on parlait déjà de « nétiquette », un code de conduite pour internet. Malgré les efforts de l’éducation nationale pour diffuser ces connaissances, directement ou par l’intermédiaire des associations, le défi reste entier.

La nature mouvante et rapide de ces systèmes, notamment avec l’émergence de l’intelligence artificielle générative qui impacte déjà les réseaux sociaux, nécessite un savoir extrêmement flexible, ce qui ne correspond pas à l’organisation actuelle de l’éducation nationale.

Dans ce contexte, nous avons lancé l’initiative Café IA, un projet de rencontre citoyenne à grande échelle. Nous venons d’ailleurs de rencontrer la ministre pour donner toute l’ampleur nécessaire à ce dispositif. Nous estimons qu’il est essentiel de mettre en place des mécanismes structurels de concertation citoyenne pour assurer la résilience d’un État démocratique. Cette réflexion, bien qu’elle intervienne en amont, nous semble indispensable pour préserver un État démocratique fonctionnel. Une forme d’agora citoyenne sur ces sujets permettrait aux individus de s’accorder sur des pratiques communes et de démystifier les perceptions souvent fantasmées des possibilités offertes par la technologie et l’intelligence artificielle.

Ainsi, au-delà des efforts nécessaires au niveau de l’éducation nationale, c’est un effort sociétal global qui nous permettra de continuer à vivre ensemble dans un contexte où l’algorithmisation de la société crée une opacification structurelle entre l’État, les acteurs économiques et les citoyens.

Mme Laure Miller, rapporteure. Le débat s’est récemment cristallisé autour de l’idée d’une interdiction d’accès aux plateformes pour les jeunes, en dessous de quinze ou seize ans. Cette proposition a même été évoquée par le chef de l’État, qui va jusqu’à envisager un référendum sur la question. Considérez-vous que cette idée d’interdiction d’accès aux plateformes avant un certain âge pourrait constituer une solution parmi d’autres ? Bien que nous soyons conscients qu’il ne s’agit pas d’une solution miracle, quelle est votre analyse sur cette proposition ?

M. Gilles Babinet. De nombreuses études sur la cognition, particulièrement chez les très jeunes enfants, soulignent la nécessité d’une supervision lors de l’utilisation des écrans. Je ne m’oppose pas à leur usage, même en bas âge, mais uniquement dans un cadre supervisé. Malheureusement, la majorité des utilisations ne respecte pas cette condition. Une interdiction jusqu’à six ans pourrait être envisagée.

L’interdiction jusqu’à quinze ans pose toutefois un problème, car elle laisse entendre qu’au-delà de cet âge, l’utilisation des réseaux sociaux ne présenterait aucun risque et que les adolescents possèderaient toute la maturité nécessaire. Cette approche tend à cautionner les pratiques délétères de ces plateformes, nocives pour notre démocratie et notre cohésion sociale. Ma principale critique est que les plateformes s’engouffrent dans ce débat. Cela revient à affirmer que la cigarette n’est dangereuse qu’avant quinze ans, alors qu’elle reste mortelle bien au-delà. Or nous avons su mettre en place de nombreuses politiques publiques visant à réduire la consommation de tabac.

Mme Laure Miller, rapporteure. En matière de prévention contre le tabagisme, nous avons jugé nécessaire de mener de vastes campagnes de prévention, toujours d’actualité, pour démontrer la nocivité du tabac et ses enjeux de santé publique. Néanmoins, nous avons également estimé indispensable d’en interdire strictement l’usage avant un certain âge, envoyant ainsi un signal fort à la société. Si nous associons le message d’interdiction à une campagne de prévention destinée à l’ensemble de la population, soulignant les dangers et appelant à la vigilance, ne pensez-vous pas que cela pourrait transmettre un message plus clair qu’actuellement ?

M. Gilles Babinet. Je pense qu’une partie du problème réside dans le fait que notre société a actuellement besoin de retrouver des messages d’autorité. Elle se satisfait trop rapidement d’une simple interdiction comme finalité de toute politique publique concernant les réseaux sociaux, alors que cette approche ne traite qu’une infime partie du problème. En réalité, elle risque même de l’aggraver en laissant croire que toutes les autres pratiques sont acceptables.

Je considère, par exemple, que le comportement des parents sur les réseaux sociaux est un enjeu primordial pour le bien-être des enfants. Or cet aspect est pourtant négligé. Les études menées sur la perception des réseaux sociaux par les enfants révèlent que leur principale préoccupation est la distance créée avec leurs parents, non pas à cause de leur propre utilisation excessive, mais en raison du temps considérable que leurs parents y consacrent. Nous nous trouvons dans une situation paradoxale et je pense que le débat est mal orienté.

M. Jean Cattan. Nous ne devons pas, en effet, nous dispenser de réfléchir à toutes les questions annexes. Comment appréhendons-nous la relation des parents aux écrans, mais également au travail et à sa numérisation ? Comment abordons-nous la perméabilité entre les environnements professionnels et familiaux ? Comment concevons-nous des espaces publics où les enfants ont encore leur place ? Nous vous transmettrons une note reprenant nos éléments partagés notamment avec la mission Enfants et écrans. À la recherche du temps perdu, dans le prolongement de certains écrits tels que l’article du docteur Serge Tisseron paru dans Le Monde et intitulé « Où sont passés les enfants des villes ? » qui, bien que datant un peu, reste très pertinent. Quelle place accordons-nous au jeu, à l’accompagnement des enfants dans un collectif, en milieu urbain ou non ? La question de l’environnement de vie se pose. L’interdiction n’empêche certes pas de réfléchir à tout cela, mais le risque est que la réflexion s’arrête là, ce qu’il faut absolument éviter.

Concernant les plateformes, c’est l’enjeu d’infrastructure qui doit être traité, et ce indépendamment de l’âge. À titre d’exemple, le dernier rapport du Centre for Countering Digital Age sur les contenus pro-anorexie concerne YouTube et je doute que la limite d’âge corresponde aux questionnements et aux états psychologiques qui entrent en jeu. Pourquoi cette relation entre certaines personnes et certains contenus existe-t-elle ? Pourquoi certaines personnes cherchent-elles des réponses à travers un outil numérique plutôt qu’ailleurs dans la société ? Ces questions doivent être posées et la limite de quinze ans ne doit pas être un blanc-seing pour des pratiques inappropriées.

Enfin, vous avez pu observer la politique du groupe Meta demandant à Apple et Google de mettre en place le contrôle de l’âge sur les systèmes d’exploitation. Cela montre que la question du contrôle de l’âge nous entraîne dans des complications technico-juridiques et des jeux d’acteurs difficilement solubles en l’état.

Un chemin a été parcouru, et il est bon de le poursuivre car les autorités fournissent un travail important, mais ne nous empêchons surtout pas de réfléchir à tous les autres aspects.

M. le président Arthur Delaporte. Ces éléments corroborent les propos de nombreux acteurs que nous avons auditionnés. La mesure d’âge peut être perçue comme une façon d’occulter l’essentiel, c’est-à-dire tout ce qui se trouve en amont. Nous tentons d’instaurer une mesure d’âge a posteriori pour protéger d’un danger que nous pourrions potentiellement éviter. Un élément marquant des auditions, notamment celles des victimes, est que certains jeunes qui se sont suicidés avaient seize ans. Une barrière d’âge à quinze ans n’aurait donc pas empêché ces drames. Ces jeunes n’avaient pas d’usage particulier des réseaux sociaux auparavant et la situation peut donc dégénérer très rapidement, en quelques mois. Comme vous l’avez mentionné précédemment, c’est effectivement l’économie de l’attention qui est à l’origine de tout le reste, bien que des réseaux sociaux vertueux puissent exister.

Concernant justement les réseaux sociaux vertueux, avez-vous observé l’émergence de modèles économiques positifs ? Est-il envisageable d’avoir des réseaux sociaux souverains ? Pourriez-vous développer votre idée du contre-modèle que nous pourrions proposer ? Est-il possible de remplacer les Gafam ?

M. Jean Cattan. Dans la continuité de notre rapport sur l’économie de l’attention, nous avons exploré ces modèles alternatifs. Il apparaît clairement que le modèle dominant actuel, celui de la plateforme centralisée agissant en monopole sur l’ensemble de ses fonctionnalités (outil de recherche, application, algorithme, service de modération), est une vision fallacieuse du réseau social, qui le place sous le contrôle exclusif de son propriétaire, ce qui a engendré de nombreuses dérives à l’échelle mondiale.

Un autre modèle de réseau social, fondé sur une logique de protocole, est cependant envisageable. Ces derniers permettent de créer des réseaux sociaux distribués et décentralisés, où le contrôle est transféré, sinon aux utilisateurs, du moins à des collectifs et à des acteurs plus sensibles aux préoccupations d’intérêt général. Parmi les réseaux sociaux développés sur ce modèle, on trouve ceux utilisant les protocoles ActivityPub et AT Protocol, tels que Mastodon et Bluesky, ce qui signifie que nous pouvons échanger selon un langage commun, tout en utilisant des outils, des applications et des interfaces aux fonctionnalités potentiellement très différentes. Dans l’écosystème Mastodon, par exemple, une vingtaine d’applications sont déjà disponibles, malgré un nombre d’utilisateurs encore limité. Cette approche permet aux utilisateurs et aux collectifs de reprendre le contrôle du réseau social, grâce à une capacité d’action accrue et à ce langage commun entre utilisateurs qu’est le protocole.

ActivityPub, utilisé par Mastodon, est un protocole entièrement libre et ouvert. Bluesky, quant à lui, utilise un modèle ouvert mais encore contrôlé par une entreprise. L’enjeu majeur réside dans le soutien au développement et à la maintenance de ces protocoles au niveau technique, afin de favoriser l’émergence d’un écosystème.

L’objectif est que le réseau social de demain ne soit plus sous le contrôle d’un seul acteur, mais accessible à tous, car c’est là que réside le véritable contre-modèle. Qu’il s’agisse de Mastodon, de Bluesky ou d’autres plateformes à venir, cette logique nous permet d’envisager un avenir ouvert, plutôt que confiné au contrôle de quelques individus sur l’ensemble des réseaux sociaux de la population mondiale.

M. le président Arthur Delaporte. D’un point de vue prospectif, et compte tenu du fait que des contre-modèles commencent à émerger, quelles actions les pouvoirs publics peuvent-ils entreprendre afin d’encourager ce développement, tant du point de vue incitatif que réglementaire ? Notre cadre de protection actuel est-il suffisant, ou faut-il envisager des mesures coercitives renforcées contre les modèles dominants ? Quel est votre point de vue sur ces questions ?

M. Jean Cattan. Concernant les actions que peuvent entreprendre les pouvoirs publics, il existe plusieurs pistes à explorer, tant dans le cadre réglementaire actuel que dans les évolutions futures.

Premièrement, il convient d’approfondir les notions de portabilité déjà présentes dans des textes comme le DMA, notamment dans ses articles 6 et 7. Bien que le RGPD ait introduit ce concept, son application actuelle, qui laisse à l’utilisateur la responsabilité de transférer ses données, s’avère peu efficace. Il faudrait plutôt s’inspirer du modèle des télécommunications, en faisant en sorte que le réseau social de destination ait l’obligation d’assurer que l’utilisateur ne perd aucune donnée lors de la migration. L’initiative Escape-X, rebaptisée HelloQuitX, démontre la faisabilité technique de cette approche. Il est essentiel d’aller plus loin dans l’application de l’article 6.9 du DMA afin de dépasser cette situation où l’utilisateur est laissé à lui-même, entre les mains de l’entreprise.

Deuxièmement, il faut promouvoir l’interopérabilité et poursuivre les travaux d’exploration sur ce sujet. Le groupe Meta utilise déjà le protocole ActivityPub pour faire communiquer ses différents réseaux sociaux entre eux, prouvant ainsi que ce qui était jugé impossible est en réalité tout à fait réalisable.

Troisièmement, l’État peut jouer un rôle direct en proposant du code informatique et des fonctionnalités, à l’instar de ce qui se fait déjà en France ou en Allemagne avec la Sovereign Tech Agency. La suite numérique de l’État, développée sur la base de logiciels ouverts, démontre notre capacité à proposer des services et des fonctionnalités qui surpassent souvent ceux des grandes entreprises du numérique.

Quatrièmement, il est essentiel de soutenir un écosystème qui développera et maintiendra des fonctionnalités alternatives à celles proposées par les réseaux sociaux dominants. Par exemple, Bluesky propose déjà un service de recommandations algorithmiques potentiellement plus vertueux que ceux des plateformes établies. Cela démontre que nous sommes tout à fait capables de proposer d’autres formes de recommandations, de modération et d’environnements applicatifs.

En conclusion, il est essentiel de passer à l’action concrète, parallèlement à un débat législatif argumenté. Cela permettra de démontrer que des alternatives viables aux modèles dominants actuels sont non seulement possibles, mais déjà en cours de développement.

M. Gilles Babinet. L’État doit être capable d’intervenir dans les algorithmes des institutions publiques, sous peine de les voir marginalisées. Nous constatons d’ailleurs que les plateformes ont une capacité infinie à dévoyer le droit en proposant des dark patterns ou des expériences utilisateurs déficientes.

En pratique, nous sommes tous contraints de cliquer sur « accepter » car personne ne prend le temps de régler en détail les paramètres des cookies. Un législateur doté d’une pensée orientée code aurait imposé une expérience utilisateur, probablement intégrée au navigateur, permettant de régler une fois pour toutes nos préférences en matière d’acceptation ou de refus.

Il existe de nombreux autres exemples. Dans le cadre du RGPD, la manière dont Meta fournit les données personnelles aux utilisateurs qui souhaitent les récupérer est scandaleuse. Ces données arrivent sous un format .zip inexploitable sans expertise en code ou sans outils spécifiques. Il est temps d’aller au-delà de la simple législation, de proposer des repositories sur des plateformes de partage de code et de garantir une expérience utilisateur optimale.

À mon sens, cela relève pleinement de la démocratie car, lorsque des systèmes vous imposent des algorithmes ou une certaine forme de navigation sur leurs services, l’esprit de la loi n’est plus du tout respecté.

M. le président Arthur Delaporte. Dans le cadre de la préparation de l’audition de TikTok, prévue le 12 juin prochain, quelles questions souhaiteriez‑vous que nous leur posions ?

M. Jean Cattan. Concernant la transparence de l’algorithme, qui nous semble être le sujet central, nous avions publié un premier élément en 2022. Par une coïncidence totale, une rencontre avait eu lieu entre le gouvernement français de l’époque et M. Elon Musk. Je crois que c’est cette discussion qui avait mis sur la table la question de l’ouverture de l’algorithme de Twitter. Cela a été réalisé de manière quelque peu fallacieuse, avec un repository certes intéressant mais très partiel. La première question à poser à TikTok serait donc : sont-ils prêts à jouer le jeu de l’ouverture et de la transparence ?

Cette interrogation s’inscrit dans la lignée de la législation actuelle. Il est regrettable que seules les autorités européennes, à travers les articles 67, 68 et 69 du DSA, aient la capacité de mener des investigations approfondies auprès des réseaux sociaux. Dans le cadre de cette commission d’enquête, posons la question de l’ouverture de l’algorithme de TikTok, bien au-delà de ce qu’avait fait Twitter à l’époque.

Ensuite, dans la mesure où TikTok diffuse de nombreuses publicités affirmant que l’utilisateur est maître de son expérience, il serait pertinent de lancer un travail contributif, collectif et ouvert sur ce que signifie réellement avoir le contrôle de son expérience en tant qu’utilisateur. Cela concernerait l’expérience de signalement, les choix offerts ou encore le design de l’application. L’objectif serait d’établir une liste de ce qui serait souhaitable et de s’engager dans un travail ouvert et contributif. TikTok, comme les autres réseaux sociaux, est-il prêt à jouer le jeu de l’ouverture et de la contribution collective, ou se considère-t-il encore comme une forteresse centralisée, en monopole sur l’ensemble de ses fonctionnalités ?

M. le président Arthur Delaporte. Je précise que nous auditionnerons également les autres plateformes ultérieurement, et que nous pourrons leur poser les mêmes questions.

M. Gilles Babinet. Nous tenons à vous remercier pour cette initiative, que nous jugeons salutaire et centrale, qui permet de dépasser les débats réducteurs auxquels nous sommes habitués avec ce genre de sujets.

M. le président Arthur Delaporte. N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.

J’en profite pour vous informer que nous avons souhaité adopter une approche ouverte pour cette commission d’enquête. Nous avons ainsi lancé une grande consultation qui a recueilli plus de 30 000 participations, ce qui témoigne de l’intérêt du public pour nos travaux et, plus largement, pour la question des réseaux sociaux et de la santé mentale, qui est un véritable sujet de société.

44.   Audition de M. Miloude Baraka, co‑fondateur de Live’up Agency (mardi 3 juin 2025)

La commission auditionne M. Miloude Baraka, co-fondateur de Live’up Agency ([42]).

M. le président Arthur Delaporte. Nous recevons l’agence Live’up Agency, qui accompagne des créateurs de contenus sur les réseaux sociaux, particulièrement sur TikTok et TikTok Live.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Miloude Baraka prête serment.)

M. Miloude Baraka., co-fondateur de Live’up Agency. Je déclare n’être ni employé ni représentant de TikTok, bien que TikTok fasse partie de mes clients.

M. le président Arthur Delaporte. Pouvez-vous préciser si cette relation client implique des rémunérations de leur part ?

M. Miloude Baraka. Effectivement, nous facturons nos services à TikTok qui nous rémunère en conséquence.

Mon parcours dans le digital s’étend sur plus de huit ans, avec une focalisation sur les réseaux sociaux depuis environ cinq ans. Notre aventure a débuté sur Instagram avant de s’orienter vers TikTok il y a deux ans et demi, en réponse à l’émergence du marché du live.

L’agence Live’up Agency, fondée il y a deux ans et demi, poursuit deux objectifs principaux : accompagner les créateurs de contenus dans la professionnalisation de leur approche sur TikTok Live et offrir à nos clients une visibilité adaptée à leurs projets et leurs besoins spécifiques. Cette industrie étant encore jeune, nous contribuons activement à sa structuration et son développement.

Un document est projeté en séance.

Ma présentation contient une frise chronologique de nos réalisations. Notre agence a reçu huit nominations, qui témoignent de la reconnaissance de notre travail aux niveaux national, européen et international. Notre plus récente distinction, obtenue en mars dernier, est le prix de l’agence live MCN of the year (Multi-Channel Network), récompensant la diversité de notre offre de contenu sur TikTok. Cette reconnaissance, décernée en présence de plus de quatre-vingts agences leaders sur le marché européen, témoigne de l’aboutissement de notre travail ces deux dernières années.

Je souhaite également mettre en lumière quatre aspects essentiels de notre méthodologie d’accompagnement et de pédagogie, développée bien avant les débats actuels. Fin 2023, face à l’expansion du marché et à l’arrivée de nombreux acteurs, nous avons pris l’initiative d’élaborer la première charte déontologique du live. Ce document d’une quinzaine de pages, rédigé avec l’aide d’experts du domaine, aborde les questions éthiques et la protection des mineurs. Nous sommes actuellement en train de recueillir des signatures d’autres agences désireuses de collaborer avec nous sur ces principes.

Nous avons par ailleurs mis en place des process rigoureux pour former les créateurs de contenu, souvent novices dans ce domaine. Notre objectif est de leur enseigner les fondamentaux de la communication en direct, les bonnes pratiques à respecter et les lignes directrices essentielles pour une présence professionnelle sur les plateformes de live. Nous mettons également en place des formations continues et hebdomadaires pour nos créateurs de contenu. Lorsque de nouvelles personnes souhaitent intégrer notre agence, nous leur expliquons clairement les conditions requises, notamment le sérieux et l’engagement nécessaires.

Concernant spécifiquement la protection des mineurs sur TikTok, la plateforme a mis en place des mesures strictes puisque, par exemple, toute transaction financière, même minime, nécessite désormais une vérification d’identité avec présentation d’une pièce d’identité. Nous avons constaté que l’intelligence artificielle de TikTok est particulièrement vigilante. À titre d’illustration, si l’un de nos créateurs modifie sa voix pour la rendre plus enfantine dans le but d’amuser son audience, il risque un bannissement immédiat de la plateforme. Dans ce cas, nous devons fournir des justificatifs pour lever la sanction.

En tant qu’agence, nous avons une responsabilité importante vis-à-vis de TikTok concernant la qualité du contenu diffusé par nos créateurs, car la plateforme a mis en place un système de score de santé et d’amendes pour les agences. Ces pénalités sont calculées en fonction du nombre de créateurs actifs, avec un seuil de tolérance fixé à 0,8 %. Le système est complexe, mais il faut retenir qu’une agence dont le score de santé descend en dessous de 50 peut se voir interdire d’exercer sur TikTok.

Concernant l’industrie du live, bien que le concept existe depuis longtemps, l’approche de TikTok est novatrice. Nous avons identifié un besoin réel de formation, tant pour les créateurs de contenu que pour les agences souhaitant se lancer sur ce marché. C’est un domaine relativement nouveau, existant depuis seulement deux ans, ce qui explique l’absence de diplômes spécifiques. Cette nouvelle industrie crée des opportunités professionnelles inédites. Nous travaillons actuellement sur un projet d’Académie Live, dont l’ouverture est prévue pour septembre. Notre objectif est de permettre aux influenceurs de devenir salariés d’une entreprise, tout en les formant à communiquer efficacement et à produire du contenu pertinent.

Cependant, malgré nos efforts de formation et d’accompagnement, nous ne pouvons pas être tenus responsables des propos tenus par un créateur, notamment s’il diffuse du contenu inapproprié en dehors des heures de travail habituelles. C’est pourquoi nous réfléchissons à un modèle où les créateurs seraient salariés et travailleraient sur des horaires de bureau, permettant ainsi un meilleur contrôle et un respect plus strict de notre charte.

Pour améliorer leur accompagnement, nous avons développé des logiciels spécifiques. Le premier, nommé Live Success, offre une expérience gamifiée, centralise les formations, facilite le contact avec le manager et propose des missions quotidiennes, encourageant ainsi l’implication positive des influenceurs dans la démarche.

Concernant la protection des mineurs, je suis favorable à une forme de discrimination positive en proposant des contenus adaptés, car il manque des contenus éducatifs spécialisés pour les jeunes sur les plateformes, similaires à ce que proposaient des émissions comme « C’est pas sorcier » à la télévision. Cette diversité de contenus adaptés et attractifs pourrait contribuer à réduire l’exposition des mineurs à des contenus inappropriés.

La prévention auprès des parents est également essentielle, dans l’objectif de limiter le temps d’écran des enfants, quel que soit le support. J’approuve également l’idée de faire des écoles des sanctuaires d’interactions sociales réelles, en proposant par exemple que les élèves déposent leurs téléphones dans des casiers à l’entrée de l’établissement.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Pourriez-vous nous expliquer plus en détail le fonctionnement des lives et des live-matchs ainsi que leurs objectifs ?

Concernant la charte déontologique que vous avez mentionnée, serait-il possible de nous la transmettre pour que nous puissions en prendre connaissance ? Est-elle obligatoire pour les TikTokeurs que vous accompagnez ? Avez-vous déjà rencontré des cas de non-respect de cette charte et, le cas échéant, quelles mesures avez-vous prises ?

Vous avez indiqué être tenu responsable par TikTok de la qualité des contenus diffusés. Pourriez-vous nous en dire plus sur le score de santé que vous avez mentionné ? Quels sont les critères imposés par TikTok ? Avez-vous déjà eu des retours de la plateforme concernant des contenus jugés inappropriés ?

Enfin, concernant votre modèle économique, vous indiquez sur votre site internet que vous n’avez pas de lien de rémunération direct avec les créateurs que vous accompagnez, ces derniers conservant l’intégralité des revenus générés sur le réseau social. Comment vous rémunérez-vous ? TikTok est-il votre seule source de revenus actuellement ?

M. Miloude Baraka. Il existe plusieurs catégories de lives : les liveguests, les livegaming, les live-matchs, ainsi que d’autres types comme les lives artistiques. L’objectif des live-matchs est de mettre en scène deux influenceurs sur un même live, en face à face. Chacun amène sa propre communauté et le but est de soutenir son influenceur favori pendant cinq minutes, que ce soit par des tapotages, des partages, des likes, des commentaires ou des dons. Cette durée est limitée mais, si l’influenceur ou sa communauté souhaite poursuivre, ils peuvent relancer un match et continuer le live pour discuter, échanger sur divers sujets ou se lancer des défis.

Mme Laure Miller, rapporteure. Pourquoi vous êtes-vous spécialisé dans ce domaine ? Est-ce en raison de la rémunération générée par les dons ? Quel est l’intérêt pour un utilisateur TikTok de privilégier le live par rapport à d’autres formes de publication ?

M. Miloude Baraka. Notre spécialisation ne se limite pas aux live-matchs, mais concerne le live en général. Il faut comprendre que TikTok a transposé dans le monde numérique ce qui se passait autrefois dans la rue avec les artistes de rue, qui posaient leur chapeau et étaient soutenus par les passants selon leur bon vouloir. Aujourd’hui, TikTok permet de faire cela grâce à un smartphone. Les spectateurs peuvent interagir en s’abonnant, en aimant, en partageant, ou parfois en faisant un don allant d’un dixième de centime d’euro à plusieurs euros.

M. le président Arthur Delaporte. Voire à plusieurs centaines d’euros.

M. Miloude Baraka. En effet, cela dépend de la volonté et du budget des utilisateurs.

M. le président Arthur Delaporte. Pour filer cette métaphore, l’artiste de rue n’était généralement pas millionnaire. Parmi les personnes que vous accompagnez, quels sont les revenus mensuels les plus élevés générés par l’activité live ?

M. Miloude Baraka. Les revenus varient considérablement. Les influenceurs débutants gagnent entre 10 et 15 euros par mois. Comme dans toute activité, il y a une élite très restreinte qui performe exceptionnellement bien. Aujourd’hui, un TikTokeur très performant sur le live peut générer entre 10 000 et 20 000 euros par mois.

M. le président Arthur Delaporte. Parmi les personnes que vous accompagnez, qui dégage les revenus les plus importants ?

M. Miloude Baraka. Actuellement, les influenceurs spécialisés dans les jeux vidéo sont les plus performants. L’intérêt du live réside dans le fait que ces personnes ne sont pas nécessairement des célébrités avec des millions d’abonnés. Beaucoup de nos influenceurs gagnent plusieurs milliers d’euros et en font leur profession, avec seulement 20 000 à 30 000 abonnés. Notre meilleur performeur n’a que 150 000 abonnés. Cela remet en question l’économie traditionnelle des influenceurs, car le nombre d’abonnés n’est pas corrélé aux revenus générés en live. L’essentiel est d’avoir des spectateurs qui restent et interagissent pendant le live.

Mme Laure Miller, rapporteure. Pouvez-vous nous détailler votre méthode de formation ? Quels conseils donnez-vous pour réussir un live ?

M. Miloude Baraka. Notre approche s’intéresse tout d’abord à la motivation sincère de l’aspirant, qui peut être soit une curiosité et un désir d’apprendre, soit l’ambition d’en faire son métier. Ces intentions correspondent aux valeurs de Live’up. Ensuite, nous les guidons dans ce parcours exigeant, où la qualité du contenu est primordiale pour se démarquer, sur un marché qui n’en est encore qu’à ses balbutiements. Nos conseils de base incluent une posture correcte, un bon éclairage, une connexion internet stable et la préparation de sujets de discussion captivants. L’objectif est de créer une communauté engagée autour de sujets intéressants, ce qui est fondamental pour capter l’attention du public.

Mme Laure Miller, rapporteure. Concernant le contenu, donnez-vous des conseils sur les sujets à aborder ou la manière de se comporter pour capter rapidement l’attention ?

M. Miloude Baraka. Notre approche est progressive. Pour les débutants, nous insistons sur les bases que sont une présentation soignée, un bon éclairage et des sujets qui les passionnent. Notre rôle est d’être un baromètre de la société. Nous ne dictons pas le contenu à nos influenceurs mais identifions ce que le public apprécie, car c’est l’utilisateur qui décide ultimement quel contenu consommer. Grâce à notre large réseau d’influenceurs, nous pouvons déterminer les types de contenus qui suscitent le plus d’interactions.

M. le président Arthur Delaporte. Comment mesurez-vous cela ?

M. Miloude Baraka. Nous disposons d’une équipe de dizaines de managers en contact quotidien avec nos influenceurs. Avec 600 à 800 influenceurs actifs chaque jour, nous recueillons des données en temps réel sur les performances des lives. Dès qu’un live rencontre un succès particulier, nous analysons les facteurs de réussite, qu’il s’agisse d’un nouveau jeu créé ou d’une interview intéressante. Nous partageons ensuite ces constats avec d’autres influenceurs, favorisant ainsi l’innovation et la création de liens. Notre rôle n’est pas d’inventer les sujets de discussion, mais d’identifier et de promouvoir ce qui fonctionne le mieux auprès du public.

Mme Laure Miller, rapporteure. Pouvez-vous nous donner des exemples récents de lives qui ont particulièrement bien fonctionné ?

M. Miloude Baraka. La définition d’un live performant dépend des critères d’évaluation choisis. Pouvez-vous préciser ce que vous entendez par un live qui fonctionne bien ?

M. le président Arthur Delaporte. C’est à vous de nous éclairer sur ce point.

M. Miloude Baraka. Il existe en réalité plusieurs critères de succès, qui varient selon les objectifs spécifiques de chaque influenceur, indépendamment de l’agence. L’influenceur conserve son autonomie décisionnelle et, s’il souhaite mettre fin à sa collaboration avec l’agence, il peut le faire en toute liberté, avec un préavis de trente jours et ce, même si nous l’avons accompagné et formé pendant une année entière, lui permettant ainsi d’accroître significativement ses revenus. Cette flexibilité contractuelle explique pourquoi nous n’avons pas de lien financier direct avec l’influenceur : il conserve l’intégralité des gains générés lors de ses lives, sans que nous ne prélevions de commission sur ces revenus.

M. le président Arthur Delaporte. Vous percevez néanmoins un pourcentage sur les revenus additionnels qu’il génère, n’est-ce pas ?

M. Miloude Baraka. En réalité, notre modèle économique prévoit que pour chaque euro dépensé sur TikTok Live, 50 centimes reviennent à l’influenceur et 50 centimes à TikTok. C’est sur cette part de TikTok qu’une commission minime est reversée à l’agence.

M. le président Arthur Delaporte. Votre rémunération est donc proportionnelle aux dépenses effectuées sur un live pour financer un influenceur. En d’autres termes, vos revenus sont corrélés à ceux de l’influenceur. Est-ce bien cela ?

M. Miloude Baraka. La réalité est plus complexe, mais votre analyse comporte une part de vérité.

M. le président Arthur Delaporte. Pouvez-vous expliciter cette complexité ? Notre objectif est précisément de comprendre les mécanismes de financement dans ce domaine.

M. Miloude Baraka. TikTok établit les règles du jeu et utilise des algorithmes spécifiques pour calculer les rémunérations. Pour simplifier, il existe effectivement une corrélation entre la performance d’une agence, mesurée en termes de vues ou de diamants sur TikTok, et sa rémunération. Cependant, d’autres indicateurs de performance entrent en jeu. Une agence qui sous-performe par rapport au marché ou qui n’apporte pas de valeur ajoutée significative verra sa rémunération impactée. Notre capacité à accompagner efficacement les créateurs débutants est particulièrement importante. Une agence doit constamment démontrer sa compétitivité, notamment auprès des petits créateurs de contenu. C’est pourquoi il est difficile d’établir une règle générale. En résumé, bien qu’il existe une corrélation entre le chiffre d’affaires généré par un influenceur et la commission perçue par l’agence intermédiaire, cette relation n’est ni directe ni simple à quantifier.

Mme Laure Miller, rapporteure. Pourriez-vous nous donner des exemples concrets de lives que vous avez jugés particulièrement réussis récemment, tout en reconnaissant que les critères de succès peuvent varier selon les perspectives ?

M. Miloude Baraka. Nous évaluons le succès d’un live selon deux métriques principales qui sont le nombre de vues et le soutien apporté par la communauté à l’influenceur. Concernant les vues, les interviews sur des sujets d’actualité sont particulièrement performantes sur TikTok. Dès qu’un sujet devient viral, si un influenceur parvient à s’entretenir avec une personne concernée, cela génère immédiatement un fort engouement. Ces lives peuvent accueillir jusqu’à huit participants simultanément et atteindre rapidement 1 200 à 1 300 spectateurs en temps réel.

Pour ce qui est du soutien de la communauté, l’aspect divertissement est primordial. Un influenceur capable de captiver son audience, par exemple en proposant un one-man-show humoristique de qualité, aura un fort potentiel de monétisation sur TikTok. Les spectateurs appréciant le contenu seront enclins à soutenir financièrement le créateur, même pour des montants modestes. La capacité à performer, au sens littéral du terme, est centrale. Certains influenceurs excellent dans l’interaction avec leur communauté, notamment dans le domaine des jeux vidéo, en impliquant les spectateurs dans le gameplay. Cette interaction crée un lien de proximité et incite les spectateurs à participer activement.

Les liveurs professionnels les plus performants adoptent une approche similaire à celle des présentateurs télé, en établissant des horaires de diffusion réguliers et en proposant une programmation planifiée, permettant ainsi à leur audience de les retrouver à des moments précis. Ce niveau de professionnalisme se caractérise par une discipline irréprochable.

Un autre facteur clé de succès réside dans la cocréation de contenu avec la communauté. Les influenceurs les plus performants interagissent constamment avec leurs abonnés, sollicitant leur avis sur les futurs contenus et adaptant leur programmation en fonction des retours reçus. Cette approche collaborative renforce l’engagement de la communauté et assure que le contenu proposé corresponde aux attentes du public.

M. le président Arthur Delaporte. Vous avez précédemment évoqué l’importance de créer un sentiment de proximité, presque d’amitié, entre l’influenceur et son public. Dans le cadre de notre commission d’enquête, nous nous interrogeons sur les potentiels effets néfastes de ces relations parasociales, notamment en termes de dépendance ou d’addiction. De plus, les mécanismes de gamification que vous avez mentionnés peuvent également favoriser des comportements addictifs. Êtes-vous conscient de ces risques ? N’existe-t-il pas un danger que certains spectateurs, dans leur désir d’établir une relation amicale avec l’influenceur, se retrouvent indirectement exploités en donnant de l’argent ?

M. Miloude Baraka. Je considère tout excès comme néfaste. Notre première expérience problématique remonte à environ deux ans, impliquant une influenceuse extérieure à notre agence qui aurait feint des relations amoureuses avec certains fans pour des gains financiers. Cet incident a été révélateur et a conduit à une réflexion approfondie sur notre approche des lives. Face à cette situation, qui a entraîné des conséquences graves pour la victime manipulée émotionnellement, nous avons instauré des limites claires au sein de l’agence. Nous insistons désormais auprès de nos influenceurs pour que leurs interactions avec leur communauté se cantonnent strictement aux lives TikTok.

Nous sommes conscients de la détresse sociale omniprésente sur les réseaux sociaux, puisque nos influenceurs reçoivent fréquemment des messages de personnes en difficulté sollicitant de l’aide. Il est d’ailleurs essentiel de préserver également la santé mentale de nos influenceurs, qui pourraient être tentés d’intervenir par empathie. Cependant, l’expérience montre que les interactions qui débordent du cadre de TikTok se terminent généralement mal, malgré de bonnes intentions initiales.

Notre directive est claire : les influenceurs doivent se comporter en professionnels sur TikTok, faire preuve de bienveillance lors des lives et répondre aux questions, mais ne jamais sortir de ce cadre. En cas de situation délicate, nous leur recommandons une réponse type : « Je comprends votre situation difficile. Je vous encourage à vous tourner vers vos proches ou des amis. Si nécessaire, n’hésitez pas à consulter un expert dans le domaine. » Cette approche vise à gérer les interactions potentiellement problématiques ou malsaines.

Mme Laure Miller, rapporteure. Pouvez-vous préciser si la charte déontologique est respectée par l’ensemble de vos influenceurs et, le cas échéant, quelles sont les conséquences en cas de non-respect ? Vous avez mentionné être tenu responsable par TikTok de la qualité du contenu produit par vos influenceurs. Pourriez-vous développer ce point, notamment en ce qui concerne les amendes et le score de santé, ainsi que leurs implications concrètes ?

M. Miloude Baraka. L’objectif principal de la charte est de fédérer les différents acteurs du live pour qu’ils s’efforcent de l’appliquer à leurs créateurs de contenu. Il faut comprendre que nous gérons plus de 2 800 influenceurs, dont environ 1 200 actifs. Il est humainement impossible de garantir le respect absolu de la charte par chacun d’entre eux.

Cette charte déontologique vise donc avant tout à établir un consensus pour professionnaliser la démarche au niveau des agences. Notre stratégie consiste à collaborer avec les directeurs d’agences, qui gèrent collectivement entre 10 000 et 20 000 influenceurs, pour mettre en place des outils pédagogiques similaires aux nôtres. C’est ainsi que nous pourrons être le plus efficaces.

Quant aux conséquences du non-respect, notre seul pouvoir juridique est l’exclusion de l’agence. Nous procédons à un nettoyage mensuel, en supprimant entre 20 et 100 créateurs de contenu qui ne répondent pas à nos critères. C’est notre unique moyen d’action concret.

M. le président Arthur Delaporte. Cela signifie que vous écartez approximativement 10 % de votre effectif de 1 200 influenceurs chaque mois.

M. Miloude Baraka. C’est une estimation correcte, en effet.

M. le président Arthur Delaporte. Ce chiffre révèle l’existence de dérives significatives parmi les créateurs.

M. Miloude Baraka. Il s’agit plutôt d’une question d’adéquation avec les intérêts et la vision de l’agence. Si un influenceur ne s’implique pas suffisamment ou ne partage pas notre approche, nous préférons ne pas poursuivre la collaboration. Cela ne signifie pas nécessairement que son comportement soit problématique.

Notre approche est similaire à celle d’un coach sportif envers ses athlètes. Nous établissons avec chaque influenceur professionnel un calendrier de lives dont le non-respect répété entraîne des avertissements, puis potentiellement une exclusion. Cette rigueur s’applique également aux rendez-vous manqués ou aux comportements inappropriés sur TikTok.

Les motifs d’exclusion peuvent être aussi simples que des absences répétées lors de sessions prévues, ou aussi graves que des contenus irrespectueux ou des propos déplacés sur la plateforme. Notre objectif est de maintenir un niveau de professionnalisme et de respect conforme à nos standards.

Mme Laure Miller, rapporteure. Pouvez-vous préciser l’effectif de votre agence ?

M. Miloude Baraka. Notre entreprise est exclusivement composée de prestataires de services travaillant à temps partiel. Grâce à l’automatisation que nous avons mise en place, chaque intervenant ne consacre que quatre à cinq heures par semaine maximum à ses tâches. Leur rôle principal consiste à assurer un suivi psychologique et à répondre aux questions que notre logiciel ne peut traiter. Cette approche nous permet d’être particulièrement performants en créant une expérience gamifiée.

Il nous est matériellement impossible de surveiller en permanence tous les lives de l’ensemble de nos influenceurs. Avec 800 influenceurs actifs simultanément, nous ne disposons ni des ressources humaines ni des infrastructures nécessaires pour un tel contrôle. Cependant, notre force réside dans la communication naturelle entre les influenceurs au sein de l’agence. Ce réseau nous permet d’être alertés rapidement sur les points nécessitant une vigilance particulière. Chaque manager est responsable d’une équipe d’influenceurs. Dans la majorité des cas, après une formation initiale et un accompagnement de deux à trois mois, l’influenceur devient autonome et performant. Notre intervention se limite alors à un audit mensuel d’une heure. Lors de cet entretien, nous analysons les statistiques, évaluons le ressenti de l’influenceur et définissons les objectifs à venir.

Mme Laure Miller, rapporteure. Pouvez-vous nous éclairer sur l’attitude de TikTok face aux contenus jugés inappropriés ?

M. Miloude Baraka. Sur ce point, je considère que de nombreux progrès restent à faire. TikTok adopte une approche excessivement punitive envers les agences, ce qui pose des problèmes au quotidien. Nous sommes confrontés à des amendes parfois injustifiées, tant dans leur principe que dans leur montant. Il semble que TikTok utilise une intelligence artificielle pour détecter les contenus potentiellement problématiques, mais ce système manque cruellement de nuance, notamment en ce qui concerne la compréhension de l’humour et des expressions idiomatiques.

Je peux vous citer un exemple récent et frappant. Un de nos influenceurs a été banni définitivement, sans possibilité de recours, pour avoir utilisé l’expression « je n’aime pas quand il y a des blancs comme ça » en parlant d’un silence dans une conversation. L’IA a interprété cela comme un propos raciste, ignorant totalement le contexte et le sens réel de l’expression. L’utilisation de l’expression « on n’a qu’à se suicider avec des andouillettes », une formule humoristique du sud de la France, a également été sanctionnée. Ces exemples montrent à quel point le système de modération automatique de TikTok peut être déconnecté des réalités linguistiques et culturelles et illustrent les défis quotidiens auxquels nous sommes confrontés.

Ainsi, malgré notre formation approfondie et notre accompagnement des influenceurs, nous recevons en moyenne quinze à vingt signalements automatiques par mois de la part de TikTok. Ces signalements concernent notre base de 1 200 influenceurs, dont environ 1 000 sont actifs. Je précise ici que je fais uniquement référence aux signalements émanant de l’algorithme de TikTok, et non à ceux effectués par les utilisateurs.

M. le président Arthur Delaporte. Lorsqu’un influenceur reçoit un signalement, en êtes-vous systématiquement informés ? Avez-vous accès à ces notifications concernant les contenus de vos influenceurs ?

M. Miloude Baraka. En règle générale, nous sommes effectivement notifiés des signalements émis par le système de TikTok, malgré quelques dysfonctionnements occasionnels. En revanche, nous ne recevons aucune information concernant les signalements effectués par les utilisateurs.

M. le président Arthur Delaporte. Vous n’avez donc aucune visibilité sur les actions des spectateurs envers vos influenceurs ?

M. Miloude Baraka. Effectivement, nous n’avons accès qu’au résultat final. Nous recevons un rapport uniquement lorsqu’un influenceur accumule un certain nombre de signalements aboutissant à un bannissement. Nous contactons alors TikTok pour obtenir des éclaircissements sur la situation, en demandant si le bannissement est justifié ou non. TikTok procède alors à une vérification humaine de la diffusion en question. Si le bannissement s’avère injustifié, le compte est rétabli.

Mme Laure Miller, rapporteure. Pouvez-vous expliciter le score de santé et nous indiquer combien d’amendes vous avez déjà reçues de la part de TikTok ?

M. Miloude Baraka. Le système de score de santé, qui est un mécanisme particulièrement strict, a été mis en place par TikTok il y a environ neuf mois. Sans entrer dans les détails techniques, toutes les infractions de contenu sont classifiées et pondérées selon leur gravité. Le seuil critique est fixé à 0,8 % de bannissements effectifs sur l’ensemble des influenceurs d’une agence, qu’ils soient actifs ou non, sur une période d’un mois. TikTok a également introduit une variable de récurrence, ce qui signifie qu’une agence peut se voir infliger une amende conséquente même si elle reste sous le seuil de 0,8 %, dans le cas où un même influenceur accumulerait trois signalements.

Le score de santé est noté de 0 à 100. Si une agence descend en dessous de 50, elle perd le droit d’opérer sur TikTok. Un tel résultat ne peut être atteint que si l’agence néglige totalement la gestion de ses influenceurs. TikTok nous accorde environ deux semaines pour fournir des preuves de notre accompagnement des influenceurs concernés, mais je dois admettre que ces preuves sont systématiquement rejetées, même lorsque nous démontrons la participation des influenceurs à nos formations.

Les différents types de signalements sont hiérarchisés selon leur gravité. Par exemple, les sollicitations non authentiques sont considérées comme moins graves que les abus, les contenus sexuels inappropriés, l’homophobie ou les propos religieux extrémistes. Chaque infraction entraîne une perte de points pour l’agence et une récurrence excessive peut conduire à l’interdiction d’exercer sur TikTok.

Pour répondre directement à votre question, oui, nous avons déjà reçu des amendes de la part de TikTok.

Mme Anne Genetet (EPR). Quel est l’intérêt de TikTok dans ces interactions entre l’influenceur et sa communauté ? Comment la plateforme génère-t-elle des revenus dans ce contexte ? S’agit-il d’insertion publicitaire ou d’orientation des utilisateurs vers des plateformes de vente ? Je ne parviens pas à cerner clairement le modèle économique.

M. Miloude Baraka. À ce jour, les lives TikTok ne comportent pas de publicités payantes ou sponsorisées. J’ai uniquement observé l’apparition de petites bannières promotionnelles qui défilent discrètement mais ne s’apparentent en rien aux publicités que l’on peut voir sur d’autres plateformes comme Twitch, où des spots publicitaires interrompent le flux vidéo pendant plusieurs secondes. Sur TikTok, ce type de publicité intrusive n’existe pas et n’a jamais été mis en place.

M. le président Arthur Delaporte. Le modèle de rémunération de TikTok repose essentiellement sur les cadeaux virtuels offerts par les utilisateurs.

Mme Anne Genetet (EPR). La collecte de données constitue également une source de revenus pour TikTok.

M. Miloude Baraka. En tant qu’entrepreneur du numérique, je ne peux parler au nom de TikTok, mais je peux partager ma vision. Le live représente une industrie en pleine expansion, offrant de nombreuses opportunités. C’est précisément pour cette raison que j’ai créé mon agence et que je participe à ces échanges aujourd’hui. Nous sommes face à un secteur naissant, avec ses aspects positifs et négatifs. Notre défi consiste à trouver le juste équilibre dans cette zone grise, afin de garantir que toutes les parties prenantes puissent en tirer profit.

M. Stéphane Vojetta (EPR). Si nous ignorons les mécanismes précis de monétisation de TikTok, nous savons en revanche que les influenceurs tirent leurs revenus des cadeaux virtuels. J’aimerais savoir si certains influenceurs pratiquent le placement de produits durant leurs lives. Par ailleurs, certains redirigent-ils leur audience vers d’autres plateformes, comme OnlyFans ou des canaux Telegram, pour d’autres types de promotions ? Enfin, avez-vous dans votre portefeuille des influenceurs anciens « influvoleurs » qui, à la suite des récentes contraintes légales sur leur activité promotionnelle, se tournent vers TikTok Live pour générer des revenus ?

M. Miloude Baraka. TikTok a mis en place des mesures dissuasives concernant le placement de produits ou la redirection vers d’autres sites pendant les lives. Ainsi, dès qu’un influenceur mentionne des mots-clés comme « aller sur » suivi d’une référence externe à TikTok, sa visibilité chute immédiatement. Cette pratique n’est donc pas recommandée et s’avère inefficace. Quant à la promotion de plateformes telles qu’OnlyFans ou Telegram, TikTok est extrêmement vigilant. Toute évocation orale ou tentative de redirection vers des contenus pour adultes entraîne un bannissement quasi instantané, généralement en moins de vingt-quatre heures. Les créateurs sont ainsi contraints d’utiliser des stratégies détournées, comme passer par Instagram où la modération est moins stricte. TikTok se distingue par sa rigueur en matière de contenus sexualisés, puisque même des activités sportives impliquant une nudité partielle font l’objet d’une modération attentive, nécessitant parfois des justifications de la part des créateurs. Je tiens à souligner l’efficacité de TikTok dans ce domaine, car il est pratiquement impossible d’y promouvoir du contenu pour adultes ou de rediriger vers de telles plateformes.

M. Stéphane Vojetta (EPR). Comptez-vous, au sein de votre portefeuille d’influenceurs, des personnes qui, auparavant, se concentraient sur la promotion de produits et qui cherchent maintenant à générer des revenus principalement grâce aux lives ?

M. Miloude Baraka. Les agences live TikTok sont principalement conçues pour accompagner des créateurs débutants dans leur professionnalisation. Les règles de TikTok limitent strictement notre capacité à recruter des influenceurs déjà établis. Pour intégrer un créateur ayant plus de 150 000 abonnés, nous devons obtenir une autorisation spéciale de TikTok et prouver l’existence d’un contrat antérieur à leur présence sur la plateforme. Dans mon agence, le créateur le plus suivi compte environ 300 000 abonnés, mais la majorité de nos talents sont des nouveaux venus qui cherchent à se construire une audience. Ils se tournent vers le live comme moyen de développer leur passion et leur base de fans.

Mme Laure Miller, rapporteure. Étant donné que notre commission d’enquête se concentre sur l’impact des réseaux sociaux sur la santé mentale des mineurs, disposez-vous d’un moyen de vérifier ou d’estimer la proportion d’audience mineure pour chaque live ?

M. Miloude Baraka. Cette question est particulièrement pertinente. Lors de nos tentatives de collaboration avec des marques, qui s’intéressent principalement au pouvoir d’achat de l’audience, nous avons cherché à obtenir des données démographiques précises, mais TikTok nous a informés que la collecte de données sur les mineurs est interdite par la législation européenne. Par conséquent, il nous est impossible d’obtenir des statistiques fiables sur la proportion de mineurs dans notre audience.

Nos créateurs sont toutefois sensibilisés à cette problématique et adoptent une approche responsable. Lorsqu’un utilisateur mentionne son jeune âge, nos influenceurs les encouragent généralement à privilégier leur scolarité, particulièrement en fonction de l’heure de diffusion. Certains vont jusqu’à bannir les utilisateurs identifiés comme mineurs. De plus, TikTok offre aux créateurs la possibilité d’activer un filtre « interdit aux moins de dix-huit ans » pour leurs lives. Cette option est fréquemment utilisée, notamment pour les diffusions tardives ou abordant des sujets plus matures, bien que restant dans les limites de la bienséance.

M. le président Arthur Delaporte. Ces discussions plus matures sontelles particulièrement lucratives ?

M. Miloude Baraka. Elles attirent effectivement des spectateurs, mais ne génèrent pas de revenus significatifs.

M. le président Arthur Delaporte. Sur d’autres plateformes, notamment Instagram, il est possible d’obtenir des données précises sur la proportion de mineurs parmi les abonnés. TikTok, en revanche, ne fournit pas suffisamment de données à ce sujet. Pouvez-vous clarifier cette situation ?

M. Miloude Baraka. Il ne s’agit pas d’un sujet que j’aborde à titre personnel. Comme je l’ai mentionné précédemment, si je collabore avec une marque, c’est pour cibler un public disposant d’un pouvoir d’achat. Dans les tableaux de bord auxquels j’ai accès pour mes influenceurs, je n’ai jamais vu de graphique mentionnant spécifiquement les mineurs. Je ne dispose même pas d’informations sur la répartition homme-femme de l’audience des lives. En revanche, j’ai accès à toutes les autres données telle que le nombre de vues, d’impressions, de passages, ainsi que le temps de visionnage moyen, qui est particulièrement remarquable pour les lives. Alors que les vidéos classiques sont visionnées en moyenne cinq secondes, nos lives captent l’attention des spectateurs pendant deux à trois minutes en moyenne. Cela démontre que les gens sont naturellement plus engagés par les lives aujourd’hui, en raison de leur authenticité, comparativement à une vidéo standard.

M. le président Arthur Delaporte. Vous n’accompagnez donc pas la création d’autres types de contenus, comme des vidéos classiques par exemple ?

M. Miloude Baraka. Live’up Agency se concentre en effet exclusivement sur le live.

M. le président Arthur Delaporte. En dehors de cette activité, proposezvous d’autres services d’accompagnement pour les influenceurs, à l’image d’une agence traditionnelle ?

M. Miloude Baraka. En réalité, notre accompagnement ne cible pas directement les influenceurs, mais plutôt les marques.

M. le président Arthur Delaporte. Vous accompagnez donc des marques pour du placement de produits par le biais des influenceurs sur TikTok, Instagram ou Snapchat. Ce sont ces marques qui vous ont exprimé leur réticence à cibler les mineurs, est-ce bien cela ?

M. Miloude Baraka. Effectivement. Pour contextualiser, le live fait l’objet de nombreuses controverses, comme en témoigne cette commission. Ces discussions créent un environnement anxiogène que les marques, qui exigent un cadre propre et sécurisé pour travailler sereinement, cherchent à éviter. En tant qu’entrepreneur, je mobilise mon réseau et je mets en avant les avantages du live, notamment le temps de visionnage élevé, ce qui n’empêche pas les marques d’hésiter à s’engager en raison des nombreuses incertitudes, notamment concernant la rentabilité. Pour étayer mon argumentation, je souligne que notre audience est composée de personnes avisées, disposant d’un pouvoir d’achat, et non de mineurs, ce que je constate à travers les interactions et les retours que je reçois.

M. le président Arthur Delaporte. Pouvez-vous préciser le taux de rentabilité d’un live sur TikTok ?

M. Miloude Baraka. À ce stade, aucune marque n’a encore osé s’engager pleinement, ce qui m’empêche de fournir des chiffres précis sur la rentabilité. Nous n’avons pas encore réalisé de placement de produit, les marques restant prudentes. Je peux toutefois établir un parallèle avec le fonctionnement d’une chaîne de télévision, qui se base sur des parts d’audience et un temps de visionnage, tout comme le live TikTok. Si je parviens à capter 100 000 spectateurs qui restent plus de trois minutes sur mon live, j’obtiens une part d’audience significative, c’est aussi simple que cela.

M. le président Arthur Delaporte. N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.

45.   Audition de M. Hugo Travers (mardi 3 juin 2025)

Puis la commission auditionne M. Hugo Travers ([43]).

M. le président Arthur Delaporte. Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Hugo Travers prête serment.)

M. Hugo Travers, journaliste et vidéaste (HugoDécrypte). Le sujet de la santé mentale, et plus spécifiquement de la santé mentale des jeunes et des mineurs, me tient particulièrement à cœur, pour de nombreuses raisons, et je sais qu’il est également central pour l’ensemble de l’équipe de HugoDécrypte. Nous tentons en effet de le mettre en lumière depuis plusieurs années sur notre chaîne, notamment lors du confinement, période au cours de laquelle il a émergé aux yeux de certains médias, même s’il était déjà présent auparavant.

Notre média étant aujourd’hui très actif sur TikTok, je suis en mesure de vous partager des éléments de contexte sur notre activité actuelle sur cette plateforme.

TikTok a véritablement émergé en France en 2020, à l’occasion du premier confinement, et c’est à peu près à cette période que nous avons rejoint la plateforme. Nous y produisons aujourd’hui des contenus d’actualité, avec un traitement journalistique directement adapté au format de ce réseau social. Nous y publions en moyenne entre trois et dix vidéos par jour, qui sont également diffusées sur d’autres plateformes. Ils sont préparés par notre rédaction, qui compte dix journalistes professionnels travaillant à temps plein, tous titulaires de la carte de presse, qui se consacrent à ce travail.

Lorsque j’évoque les contenus d’actualité généraliste, j’entends des sujets politiques, culturels ou encore d’autres thématiques variées que nous couvrons au quotidien, principalement sous forme de vidéos, avec parfois également des directs, même si nous en réalisons moins aujourd’hui.

Dans ce cadre, il existe un programme de monétisation sur TikTok, dont le fonctionnement a beaucoup évolué et dont les modalités demeurent parfois assez floues, y compris pour nous. Ce que nous savons, c’est qu’une partie des contenus que nous diffusons sur la plateforme donne lieu à une rémunération, bien que celle‑ci demeure faible au regard du volume d’audience que nous générons. Nous comptons en effet plus de 7 millions d’abonnés sur TikTok, et enregistrons près de deux milliards de vues par an. Malgré ce volume important, la rémunération associée reste proportionnellement modeste par rapport à d’autres plateformes, même s’il existe bien un dispositif en ce sens.

Pour terminer, je précise que nous avons collaboré avec TikTok en 2024 dans le cadre d’un partenariat éditorial à l’occasion du Festival de Cannes.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Depuis quand êtes-vous présent sur TikTok et avez-vous observé une évolution de la plateforme depuis vos débuts ? Je serais également intéressée de connaître la part de mineurs, voire de très jeunes utilisateurs, au sein de votre audience. Enfin, quelle perception avez-vous du rôle de l’algorithme ? De quelle manière l’utilisez-vous pour valoriser vos contenus ? Avez-vous le sentiment que l’algorithme de TikTok favorise les contenus problématiques au détriment des contenus à visée informationnelle ?

M. Hugo Travers. Nous sommes présents sur la plateforme depuis 2020, vraisemblablement depuis mars ou avril, soit pendant ou juste après le premier confinement.

Depuis nos débuts, nous avons toujours proposé des contenus d’information, même si nous avons expérimenté différentes approches. Nous avons d’abord tenté de republier ce que nous diffusions déjà sur YouTube, puis nous avons développé des formats spécifiquement adaptés à TikTok. Aujourd’hui, les contenus que nous publions sur TikTok sont également diffusés sur Instagram, sous forme de Réels, ainsi que sur YouTube, dans le format Shorts. Nous avons également commencé, ces dernières semaines, à publier sur TikTok des vidéos relativement longues, de sept ou huit minutes, initialement destinées à YouTube. De manière assez surprenante, ce sont des vidéos qui rencontrent un certain succès, parfois plusieurs millions de vues, alors même qu’elles sont longues et portent souvent sur des sujets sérieux.

Concernant l’algorithme, il s’agit, comme pour la plupart des réseaux sociaux, d’une sorte de boîte noire. Nous testons régulièrement différentes approches afin d’en comprendre le fonctionnement par nous-mêmes. Ce qui nous paraît certain, c’est que, comme beaucoup d’autres plateformes, TikTok cherche à maximiser le temps passé par les utilisateurs sur les contenus. Il existe donc un enjeu fort de personnalisation, puisque les vidéos proposées varient selon l’utilisateur qui les consulte. Il s’agit également d’un enjeu évident de rétention, puisque nous avons le sentiment, au regard des contenus que nous produisons, que TikTok met en avant les vidéos qui sont visionnées non seulement quelques secondes, mais aussi de manière prolongée, idéalement jusqu’à leur terme. Ce sont des éléments que nous avons pu constater assez clairement à travers notre expérience de publication.

Concernant l’audience de notre chaîne sur les réseaux sociaux, et plus particulièrement sur TikTok, notre cœur de cible se compose principalement de jeunes âgés de dix-huit à vingt-quatre ans. Cependant, bien que j’aie initialement lancé la chaîne il y a près d’une décennie pour rendre l’actualité accessible aux jeunes, notre audience s’est progressivement élargie, en raison de l’adoption croissante des réseaux sociaux par toutes les tranches d’âge. Sur YouTube, par exemple, nous constatons que nos contenus sont souvent consultés en famille, les jeunes générations ayant introduit nos formats à leurs parents et grands-parents.

Dans le cas spécifique de TikTok, nous rencontrons une difficulté majeure qui est l’impossibilité d’accéder aux statistiques concernant les utilisateurs mineurs. Nos données indiquent une prédominance des dix-huit à vingt-quatre ans, suivis des vingt-cinq à trente-quatre ans, mais l’absence d’informations sur les mineurs biaise inévitablement ces chiffres. Bien que nous soyons conscients de leur présence parmi notre audience, comme en témoignent les nombreuses questions reçues sur des sujets tels que les examens, le baccalauréat ou le brevet, nous ne disposons malheureusement pas de chiffres précis à ce sujet.

Quant à l’évolution de nos contenus sur TikTok, nous avons fait notre entrée sur la plateforme en 2020, à une époque où elle était principalement dédiée au divertissement, notamment à la musique ou aux défis de danse. Fidèles à notre mission de rendre l’actualité accessible au plus grand nombre, nous avons saisi l’opportunité d’être présents sur cette plateforme malgré son orientation initiale vers le divertissement. Notre défi a consisté à comprendre le fonctionnement de TikTok et à adapter nos formats pour proposer un contenu journalistique pertinent.

Au fil du temps, la diversité des contenus sur TikTok s’est considérablement élargie. D’autres médias ont rejoint la plateforme, et nous avons observé une diversification des tranches d’âge des utilisateurs. Bien que TikTok attire de nombreux jeunes, son utilisation s’est également répandue parmi les tranches d’âge plus élevées. Cette évolution soulève des questions importantes, notamment en termes d’impact psychologique et de santé mentale, qui concernent un public bien plus large que les seuls jeunes utilisateurs.

L’introduction du format live sur TikTok a également contribué à diversifier les types de contenus disponibles. Aujourd’hui, la plateforme offre une variété d’options, allant de l’information au divertissement, en passant par des résumés sportifs diffusés par les détenteurs de droits. Cette diversification a considérablement élargi l’éventail des contenus accessibles.

M. le président Arthur Delaporte. Pouvez-vous approfondir la question des algorithmes ? En tant que créateur de contenu, vos revenus dépendent en partie de la manière dont l’algorithme vous permet d’atteindre votre public cible. Bien que cela puisse être bénéfique pour la diffusion de contenus informatifs, nos auditions ont révélé que les contenus polémiques ou violents tendent à être davantage mis en avant par l’algorithme que les contenus à caractère informatif. Confirmez-vous ces biais ? Avez-vous observé d’autres formes de valorisation mises en œuvre par TikTok ? Constatez-vous des différences dans le traitement algorithmique entre TikTok et les autres plateformes ?

M. Hugo Travers. TikTok a effectivement introduit une approche novatrice dans le fonctionnement des algorithmes de réseaux sociaux. Contrairement aux plateformes qui, jusqu’en 2020-2021, reposaient principalement sur un système d’abonnement, TikTok privilégie la pertinence du contenu par rapport à son public. Cette approche permet à un nouveau compte de générer potentiellement des millions de vues dès sa première vidéo si celle-ci suscite l’intérêt des utilisateurs. Ce fonctionnement révolutionne la dynamique de création de contenu, rendant possible l’émergence rapide de créateurs amateurs capables d’atteindre une large audience.

Cette approche algorithmique présente des avantages certains, comme celui de permettre une personnalisation accrue des contenus proposés en fonction des intérêts ponctuels de l’utilisateur. Par exemple, si je m’intéresse à un événement sportif particulier le temps d’un week-end, l’algorithme détectera cet intérêt et me proposera des contenus pertinents, même si je ne suis pas abonné aux comptes spécialisés dans ce domaine. Il est important de noter que cette approche algorithmique commence à être adoptée par d’autres réseaux sociaux, étendant ainsi son influence au-delà de TikTok. Cependant, ce système comporte également des risques significatifs qui méritent une analyse approfondie.

M. le président Arthur Delaporte. Comment appréhendez-vous ces risques en tant que créateur de contenu ?

M. Hugo Travers. Le fonctionnement de l’algorithme de TikTok soulève plusieurs questions. Tout d’abord, il bouleverse la dynamique traditionnelle de création de contenu en permettant à n’importe qui d’obtenir une visibilité importante. Cette démocratisation de la visibilité présente des avantages, offrant à chacun la possibilité de partager sa passion, mais comporte également des risques non négligeables. Un contenu publié sans réflexion approfondie peut soudainement atteindre des millions de vues, parfois à l’insu ou contre la volonté de son créateur. J’ai personnellement observé des cas où des vidéos de personnes âgées, par exemple, sont devenues virales simplement parce qu’elles ont intrigué les utilisateurs. Bien que ces situations soient souvent anodines, elles soulignent la puissance et l’imprévisibilité de la viralité sur cette plateforme.

En tant que média, nous sommes confrontés à des défis spécifiques liés à la modération des contenus sur TikTok, puisque l’opacité de l’algorithme nous oblige à naviguer dans une zone grise, sans règles précises sur ce qui est acceptable ou non. Nous avons constaté que certains sujets sont considérés comme sensibles par la plateforme et peuvent être automatiquement supprimés ou rendus invisibles. Par exemple, le simple mot « cigarette » peut déclencher une modération automatique, entraînant la suppression du contenu ou son invisibilisation (shadow ban). Nous avons également rencontré des difficultés lors de la couverture en direct de manifestations, où des situations jugées dangereuses ou violentes par l’algorithme ont entraîné la suspension automatique de nos diffusions.

Pour contourner ces obstacles et conformément à notre volonté d’informer le plus grand nombre, nous avons adopté des stratégies de contournent ou d’adaptation. Nous modifions parfois l’orthographe de certains mots sensibles ou utilisons des astérisques pour éviter la détection automatique et nous assurer que les contenus restent visibles. Cependant, nous ne sommes pas certains de l’efficacité réelle de ces méthodes, ce qui nous place dans une position délicate entre notre devoir d’informer et la nécessité de nous conformer aux règles de la plateforme. Cette situation soulève des questions fondamentales sur le droit à l’information et sur notre capacité à informer efficacement, en particulier un public jeune, sur des sujets parfois sensibles mais cruciaux. Nous sommes constamment en train d’ajuster nos pratiques, sur la base du principe de précaution, pour trouver un équilibre entre la nécessité d’informer et le respect des contraintes imposées par la plateforme.

Concernant les contenus potentiellement violents, nous adoptons une approche nuancée. Si nous jugeons qu’une image violente est essentielle à la compréhension d’un sujet d’importance, nous la diffusons. Dans le cas contraire, nous optons pour le floutage ou l’omission afin de garantir la diffusion de l’information sans enfreindre les règles de la plateforme.

Mme Laure Miller, rapporteure. Vous publiez régulièrement des contenus qui dénoncent des pratiques néfastes. Comment parvenez-vous à éviter les sanctions de la plateforme et à diffuser ces messages de sensibilisation, particulièrement auprès du jeune public ?

M. Hugo Travers. Avant de répondre à votre question, je souhaite apporter des précisions sur un sujet fréquemment évoqué, y compris par notre public et les journalistes qui s’intéressent à notre travail, qui est celui de la censure potentielle de certains sujets par TikTok.

Bien que nous ne connaissions pas les détails précis du fonctionnement de l’algorithme, notre expérience nous permet d’affirmer que nous avons pu traiter une grande variété de sujets sérieux, y compris des conflits mondiaux et des questions sensibles liées à la Chine, comme la situation des Ouïghours et les droits de l’homme. Nous avons produit des dizaines de contenus sur ces sujets, qui nous semblent importants à aborder sur TikTok, et ces vidéos ont systématiquement atteint un large public, avec plusieurs millions de vues.

À notre connaissance, nous n’avons jamais été confrontés à une censure politique ou à des restrictions liées à l’appartenance de TikTok à un groupe chinois. Cependant, nous avons observé que pour les sujets jugés sensibles ou violents, une modération automatique peut parfois s’appliquer, ce qui peut entraver notre mission d’information. C’est là que résident les enjeux que j’évoquais précédemment.

Concernant les défis potentiellement dangereux qui circulent sur la plateforme, nous nous efforçons de jouer un rôle de sensibilisation et n’avons jamais rencontré de problèmes de censure pour ces vidéos de prévention. Nous sommes conscients de notre responsabilité d’alerter sur ces défis lorsqu’ils surviennent, tout en veillant à ne pas donner une visibilité excessive à des phénomènes marginaux.

Cette approche équilibrée s’applique également à la gestion des fausses informations. Nous évitons de produire une vidéo qui pourrait atteindre des millions de vues pour démentir une information erronée qui n’a été vue que par quelques centaines de personnes. Notre méthode consiste à surveiller attentivement les commentaires et à nous appuyer sur notre communauté qui nous alerte souvent sur des vidéos ou des informations potentiellement fausses. Si nous constatons qu’une question revient fréquemment dans les commentaires de nos vidéos, nous produisons alors un contenu pour vérifier ou démentir l’information en question.

J’attire d’ailleurs également votre attention sur un risque particulièrement préoccupant qui est celui de l’automatisation de la production de fausses informations. Depuis quelques mois, nous observons l’émergence de comptes qui imitent le style de comptes d’information comme le nôtre, utilisant des voix générées par intelligence artificielle pour diffuser des fausses informations. Ces vidéos peuvent atteindre des centaines de milliers de vues, souvent en annonçant de fausses modifications législatives, généralement liées à des restrictions de liberté. Leur stratégie consiste à mélanger des éléments véridiques, comme d’anciennes déclarations de ministres, avec des informations erronées, créant ainsi une apparence de crédibilité.

Face à ce défi, nous sommes de plus en plus impliqués dans la vérification de ces contenus et dans la diffusion de démentis, notamment sur des sujets d’actualité comme les déclarations de revenus.

Un autre problème auquel nous sommes confrontés, et qui n’est pas spécifique à TikTok, est l’utilisation de l’intelligence artificielle pour cloner nos voix et créer de faux contenus imitant notre style. Lorsque nous détectons de tels cas, nous les signalons rapidement à TikTok pour obtenir leur suppression, car il s’agit d’une usurpation d’identité.

Enfin, nous avons également constaté la réapparition de vidéos anciennes sorties de leur contexte, comme des annonces de reconfinement datant de 2020 ou 2021 qui resurgissent et sont interprétées comme actuelles. Dans ces cas, nous intervenons dans les commentaires pour clarifier la situation et replacer l’information dans son contexte temporel correct.

Mme Laure Miller, rapporteure. Avez-vous constaté une réactivité satisfaisante de la part de TikTok lorsque vous signalez des cas d’usurpation d’identité ?

M. Hugo Travers. Il existe un système de signalement intégré à la plateforme, accessible à tous les utilisateurs, mais qui peut parfois prendre du temps.

Notre statut de compte parmi les plus suivis en France sur TikTok nous confère l’avantage de disposer d’un contact direct au sein de l’entreprise. Cela nous permet, en cas d’urgence ou de problème important, d’envoyer un courriel à cette personne pour signaler rapidement la situation et obtenir une réponse rapide. Cette voie de communication privilégiée nous aide à gérer efficacement les situations critiques qui peuvent survenir sur la plateforme.

M. le président Arthur Delaporte. Avez-vous également établi un partenariat avec eux visant à promouvoir certains types de contenus, notamment ceux relevant de l’information de qualité ou bénéficiant d’une mise en valeur spécifique ?

M. Hugo Travers. TikTok cherche à diversifier les types de contenus présents sur sa plateforme, au-delà du simple divertissement. Nous observons cette tendance à travers leur système de monétisation, qu’ils préfèrent qualifier de « système de récompense ». Deux critères principaux semblent être mis en avant dans ce système. Premièrement, la durée des contenus, les vidéos de plus d’une minute étant généralement privilégiées pour la monétisation, ce qui encourage la production de contenus plus longs et plus approfondis. Deuxièmement, TikTok affirme vouloir valoriser des contenus plus qualitatifs et originaux, même si la définition exacte de ces termes reste floue.

Il est clair que TikTok cherche à élargir son offre de contenus et, par conséquent, à diversifier son audience, afin d’attirer un public différent, intéressé par des contenus allant au-delà du simple divertissement.

M. le président Arthur Delaporte. Pour prolonger cette réflexion, seriez‑vous favorable à la mise en place d’un système de labellisation pour les créateurs de contenus de qualité ?

M. Hugo Travers. Je ne suis pas favorable à la labellisation des créateurs de contenu, cette démarche étant particulièrement complexe et délicate. En effet, si je considère mon propre parcours et celui de mon équipe actuelle, je n’aurais probablement pas obtenu de label de créateur de contenu sérieux à mes débuts, bien que j’estime avoir produit un travail journalistique de qualité sur les réseaux sociaux en tant qu’étudiant. J’éprouve donc des réticences face à ce type de catégorisation, car il me paraît délicat de définir des critères pertinents.

M. le président Arthur Delaporte. Avec le député Stéphane Vojetta, nous avons élaboré la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux. Certains créateurs, dont vous-même parfois, réalisent des collaborations commerciales. Vous êtes-vous interrogé sur l’impact potentiel de ces partenariats sur la réception ou l’orientation du contenu ? Quelle est votre réflexion à ce sujet, notamment concernant la dépendance éventuelle des créateurs vis-à-vis des placements de produits dans leurs publications ?

M. Hugo Travers. J’ai le sentiment que la loi en question a considérablement fait évoluer les pratiques et clarifié les obligations concernant les contenus réalisés en collaboration commerciale par les créateurs. Même si certaines règles existaient déjà, cette législation a permis de préciser les modalités à respecter dans différents contextes.

Notre fonctionnement s’apparente davantage à celui d’un média traditionnel avec, d’une part, des journalistes qui produisent un contenu éditorial indépendant et, d’autre part, une équipe dédiée aux contenus réalisés en partenariat avec des marques. Ces derniers sont systématiquement identifiés comme tels, conformément aux obligations légales.

Nous sommes particulièrement vigilants quant à la nature des contenus produits dans chaque cadre, y compris pour les collaborations avec des marques. Il est difficile de généraliser sur la prise de conscience de tous les créateurs de contenus à ce sujet, mais je pense que c’est une question importante.

Je constate en outre que les utilisateurs sont désormais très attentifs à l’identification des contenus sponsorisés. D’ailleurs, lorsqu’un créateur omet de mentionner une collaboration commerciale, le public le fait généralement remarquer dans les commentaires. Il existe donc une forme de vigilance collective sur ce point.

Mme Anne Genetet (EPR). Vous venez d’exprimer vos réserves quant à la labellisation des contenus, ce qui est compréhensible. Cependant, vous avez précédemment expliqué que TikTok semble considérer certains contenus comme sensibles, citant des mots tels que « fumée », « cigarette » ou « drogues ». Serait-il envisageable, à l’inverse, d’établir des critères pour définir les sujets sensibles ? Avez-vous connaissance de ces critères ? Les avez-vous découverts à travers vos propres productions ? Existe-t-il une liste officielle de sujets sensibles dans les conditions d’utilisation de TikTok ? Si ce n’est pas le cas, pensez-vous qu’il serait pertinent que nous, en tant que législateurs, proposions une telle liste ? N’y aurait‑il pas des limites légales à cette approche, notamment en termes de liberté d’expression ?

M. Hugo Travers. Concernant l’existence d’une liste officielle, je dois avouer mon ignorance. Il est probable que les conditions d’utilisation de la plateforme abordent ces éléments, mais j’ignore dans quelle mesure ils sont précisés ou s’il s’agit d’une formulation générale laissant place à l’interprétation.

La difficulté réside dans la tension entre le droit à l’information sur certains sujets et les enjeux de modération auxquels sont confrontées les plateformes telles que TikTok. Par exemple, lorsque l’un de nos contenus traitant de la cigarette est invisibilisé, cela pose un problème pour nous, même si nous comprenons la nécessité pour la plateforme de prévenir la promotion de substances nocives par certains utilisateurs.

Quant à l’idée de certifier certains médias pour leur permettre d’aborder des sujets sensibles, bien que je puisse percevoir les avantages potentiels pour un média comme le nôtre, je reste réticent à l’idée de catégoriser les créateurs de contenu. Je trouve cette démarche délicate car il serait difficile d’établir des critères objectifs pour certifier certains créateurs, comptes ou médias plutôt que d’autres. De plus, la question se pose de savoir qui serait légitime pour prendre ces décisions : une institution publique ou le réseau social lui-même ? Dans ce dernier cas, est-il souhaitable de confier une telle responsabilité à la plateforme ? Je préfèrerais personnellement explorer d’autres mécanismes pour aborder ces enjeux.

Cette réflexion s’applique également à la diffusion de fausses informations, dont la régulation sur les réseaux sociaux soulève de nombreuses interrogations. Qui doit assumer cette responsabilité ? Est-ce l’entreprise privée ? Cela comporte des risques de dérives et d’arbitrages potentiellement problématiques. Est-ce un organisme public ? Cette option soulève également des questions sur les critères de régulation et les risques de dérives antidémocratiques ou autoritaires en cas de mauvaise utilisation de cette autorité. Ou est-ce la communauté des utilisateurs elle-même ? Bien que cette approche, mise en œuvre depuis près de deux ans sur X avec l’arrivée de M. Elon Musk, puisse sembler séduisante sur le principe, nous constatons dans la pratique que les vérifications sur X interviennent souvent trop tardivement, voire pas du tout. Force est donc de constater qu’il n’existe pas de solution miracle à cette problématique complexe.

M. Stéphane Vojetta (EPR). Sur quelle plateforme vos contenus fonctionnent-ils le mieux ? Comment expliquez-vous le succès de vos contenus informationnels par rapport à ceux de vos concurrents ?

M. Hugo Travers. Concernant nos activités sur les différentes plateformes, il est difficile d’établir une hiérarchie claire. Si l’on considère uniquement le nombre d’abonnés, TikTok arrive en tête. En termes de vues, nous atteignons près de deux milliards par an sur TikTok, avec des chiffres similaires sur Instagram. Il faut cependant noter que ces plateformes privilégient des contenus courts, permettant à un utilisateur de visionner potentiellement dix de nos vidéos en une journée. Sur YouTube, en revanche, la durée moyenne de visionnage est nettement plus longue, ce qui modifie la nature de l’engagement. Bien que TikTok occupe une place importante, nous considérons, au vu de nos audiences, qu’il n’est pas plus prépondérant qu’Instagram ou YouTube dans notre stratégie globale.

Concernant notre approche éditoriale, j’ai initialement lancé la chaîne sur YouTube, avec pour objectif clair de rendre l’actualité accessible au plus grand nombre. Cette démarche est née d’un constat personnel de jeune bachelier qui ressentait un décalage entre les médias traditionnels et les attentes des jeunes désireux de s’informer sur l’actualité, notamment politique. Les émissions télévisées semblaient souvent s’adresser davantage aux experts qu’aux jeunes en quête d’information.

Aujourd’hui, notre succès, avec plus de 20 millions d’abonnés cumulés sur les différents réseaux sociaux, s’explique par l’attention particulière que nous portons à la forme, adaptée aux codes des réseaux sociaux, tout en maintenant la volonté de proposer un contenu accessible. Nous nous efforçons de rendre chaque vidéo compréhensible pour un novice, même sur des sujets récurrents comme la guerre en Ukraine.

Il est important de souligner que l’intérêt des jeunes pour l’actualité ne se limite pas aux contenus courts. Sur YouTube, nous avons récemment publié une interview de M. Fabrice Arfi, journaliste chez Mediapart, sur l’affaire M. Nicolas Sarkozy et Kadhafi. Cette vidéo d’une heure et demie a atteint près de deux millions de vues, démontrant un réel intérêt du public jeune pour des contenus approfondis sur des sujets politiques complexes.

Notre présence sur TikTok, initiée en 2020, vise à toucher un public encore plus jeune, potentiellement des collégiens, en les sensibilisant à certains sujets tout en maintenant une rigueur journalistique. Notre objectif est d’informer dès le plus jeune âge, en adaptant notre approche à chaque plateforme.

M. le président Arthur Delaporte. Abordons maintenant la question de la monétisation des contenus, un sujet central mais souvent opaque. Pourriez-vous nous donner une idée plus précise des revenus générés par les vues sur ces plateformes ?

M. Hugo Travers. Je ne suis pas certain de pouvoir communiquer publiquement les chiffres précis, mais je pourrai vous transmettre certains éléments. Malgré les près de deux milliards de vues annuelles que nous générons sur la plateforme, les revenus générés sont loin d’être suffisants pour rémunérer une équipe de journalistes. En comparaison, YouTube dispose d’un programme de monétisation beaucoup plus abouti et lucratif. Sur YouTube, le créateur de contenu perçoit environ la moitié des revenus publicitaires générés par les annonces diffusées avant la vidéo, l’autre moitié revenant à Google. Ce système, basé sur des enchères d’annonceurs, est relativement transparent. En revanche, TikTok fonctionne différemment. Les publicités n’apparaissent pas avant une vidéo spécifique, mais entre les vidéos, ce qui complique le calcul de la rémunération. TikTok a par ailleurs lancé son programme de monétisation il y a deux ou trois ans, et nous avons constaté que le revenu pour 1 000 vues a considérablement fluctué au fil du temps, probablement en raison d’expérimentations de leur part.

M. le président Arthur Delaporte. Il semble que certains influenceurs parviennent à générer des dizaines de milliers d’euros par mois sur la plateforme, peut-être davantage grâce aux diffusions en direct.

M. Hugo Travers. Nos revenus sont nettement inférieurs à ces montants. Deux facteurs peuvent expliquer cette disparité. Premièrement, les diffusions en direct, que nous pratiquons peu, semblent effectivement plus lucratives que la simple publication de vidéos, qui constitue l’essentiel de notre activité. Deuxièmement, notre structure est fondamentalement différente de celle d’un créateur de contenu individuel, puisque nous employons une équipe de trente personnes, dont dix journalistes. Par conséquent, notre modèle économique et nos besoins financiers ne sont pas comparables à ceux d’un créateur indépendant qui perçoit l’intégralité des revenus générés.

Il est important de souligner que les mécanismes de cette monétisation restent opaques pour nous. Nous savons simplement que les vidéos de plus d’une minute ont tendance à être monétisées, contrairement à celles de moins d’une minute, mais nos connaissances s’arrêtent là.

M. le président Arthur Delaporte. Dans le débat public, circule actuellement l’idée d’interdire l’accès aux réseaux sociaux aux moins de quinze ans. Quel est votre point de vue sur cette proposition ?

M. Hugo Travers. Je dois avouer que cette idée me met mal à l’aise, et ce pour deux raisons principales. Tout d’abord, je m’interroge sur la faisabilité pratique et technique d’une telle mesure et doute de sa réelle applicabilité. Même si nous parvenions à mettre en place un système efficace sur une plateforme donnée, ne risquerait-on pas de voir les utilisateurs se tourner simplement vers d’autres plateformes ? D’un point de vue technique, j’ai donc du mal à concevoir la mise en œuvre concrète de cette proposition.

Sur le plan des principes, bien que je comprenne l’intention de minimiser les risques pour les mineurs, j’ai le sentiment que cette approche pourrait nous détourner d’enjeux plus larges. Les problématiques liées à la santé mentale, à l’impact psychologique ou à la désinformation ne se limitent pas aux jeunes. Dans certains cas, notamment concernant la propagation de fausses informations, ces phénomènes peuvent même être plus prégnants dans d’autres tranches d’âge, selon les sujets abordés. Pour toutes ces raisons, cette mesure ne me semble pas nécessairement la plus efficace.

M. le président Arthur Delaporte. N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.

46.   Audition de M. Mathieu Barrère, journaliste pour Envoyé spécial (France télévisions) (mardi 3 juin 2025)

Puis la commission auditionne M. Mathieu Barrère, journaliste pour Envoyé spécial (France télévisions) ([44]).

M. le président Arthur Delaporte. Nous reprenons avec l’audition de M. Mathieu Barrère, journaliste et réalisateur pour l’émission « Envoyé Spécial » de France 2. Son documentaire intitulé OnlyFans, Mym, du porno chez nos ados sera diffusé le 19 juin prochain.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Mathieu Barrère prête serment.)

M. Mathieu Barrère, journaliste pour « Envoyé spécial » (France télévisions). Je précise, en préambule, que le reportage n’a pas encore été diffusé et que son contenu reste donc confidentiel à ce stade. Cela ne nous empêchera pas, bien entendu, d’aborder les thématiques qu’il traite.

Mon enquête, qui s’est étendue sur plusieurs mois, porte sur le phénomène de vente de contenus, principalement pornographiques, sur des plateformes telles qu’OnlyFans, une multinationale britannique, et Mym, une start-up française ayant adopté un modèle similaire. Sans entrer dans les détails du sujet, je souhaite mettre en lumière certains points saillants de cette enquête, dont certains n’ont pu être inclus dans le reportage faute de temps.

Le premier élément frappant concerne le profil des créateurs de contenus sur ces plateformes, qui sont majoritairement des jeunes femmes, âgées de dix-huit à vingt-sept ans environ. Ce qui est particulièrement notable, c’est qu’il s’agit de personnes ordinaires, très éloignées des profils d’acteurs pornographiques ou de travailleurs du sexe traditionnels, puisque l’on trouve une grande diversité de profils (étudiants, salariés, demandeurs d’emploi) issus de toute classe sociale. Certains en font leur activité principale, d’autres un complément de revenus. L’exemple récent d’une institutrice qui, en arrêt maladie, a produit des vidéos pornographiques dans l’enceinte de son école pour les monétiser sur OnlyFans illustre l’étendue du phénomène. Cette pratique de home-porn monétisé s’est aujourd’hui largement banalisée.

Un autre aspect frappant est la rupture générationnelle manifeste. Les quinze à trente ans connaissent presque tous ces deux plateformes, tandis que la majorité des plus de quarante ans en ignore jusqu’à l’existence. Le problème se pose particulièrement chez les jeunes de quinze à dix-huit ans, lycéens, qui sont tous familiers avec le fonctionnement de ces plateformes, en font des plaisanteries et connaissent les célébrités qui y sont présentes. Cette banalisation extrême contraste fortement avec l’ignorance de leurs parents ou responsables légaux.

La popularité de ces plateformes auprès des jeunes s’explique par leur stratégie de communication centrée sur les réseaux sociaux, point central de leur modèle économique. Instagram, TikTok, Snapchat et X sont tous concernés. Les plateformes y font leur propre promotion, mais ce sont surtout des stars de téléréalité et des influenceurs qui en assurent la publicité directe, notamment parce qu’ils y trouvent eux-mêmes un intérêt commercial. Des personnalités comme AD Laurent, Adixia ou Mme Manon Tanti sont fréquemment citées par les jeunes à ce sujet.

Les réseaux sociaux jouent un rôle central dans ce système, servant au recrutement des modèles, parfois même de personnes qui ne monétisaient pas auparavant ce type de contenu. C’est également sur ces plateformes qu’est effectuée la promotion des modèles, attirés par l’intermédiaire des clients et des utilisateurs, et dirigés ensuite vers les plateformes payantes grâce à de simples liens dans les biographies ou les stories.

Bien que je me sois principalement concentré sur Mym, l’entreprise française, les deux sociétés adoptent des stratégies similaires, sur la base d’une approche qui pourrait être qualifiée de « fausse transparence ». Leur communication se focalise presque exclusivement sur du contenu grand public tel que musique, jardinage, cuisine ou astrologie. Par exemple, le tennisman français Alexandre Müller est sponsorisé par OnlyFans tandis que DJ Snake fait la promotion de Mym. Cette stratégie des plateformes vise à améliorer leur image, alors qu’en réalité, la grande majorité du contenu y est érotique ou pornographique. Bien que je ne dispose pas de chiffres officiels vérifiés, plusieurs sources, notamment internes à Mym, suggèrent que 80 à 90 % du contenu de ces plateformes serait à caractère pornographique. Il existe une volonté manifeste, particulièrement de la part de Mym, de ne pas mettre en avant la nature réelle du contenu présent sur la plateforme.

Parallèlement, Mym mène une communication très active auprès des pouvoirs publics, notamment auprès des députés, de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) et d’avocats spécialisés dans la protection des mineurs. L’entreprise cherche à participer aux discussions, notamment sur la question de la protection des mineurs. J’ai même recueilli le témoignage officieux d’une personne haut placée d’un organisme officiel qui, au début de mon enquête, m’assurait de la totale conformité de Mym, alors que je disposais déjà d’éléments concrets indiquant le contraire. Il y a donc une réelle volonté d’anticiper et de maintenir une image positive auprès des autorités.

En revanche, lorsque nous avons mené notre enquête et sollicité des réponses, notamment auprès de Mym, nous avons fait face à un verrouillage complet de la communication. Toutes nos demandes ont été refusées, que ce soit par téléphone ou sur place. Les employés ont été informés de nos démarches et nous n’avons reçu que des éléments de langage génériques par courriel, sans réponse précise à nos questions.

Je m’étonne ainsi que Mym bénéficie du soutien de l’État à travers la mission « French Tech », d’autant plus que le ministère de l’économie a systématiquement refusé de répondre à mes demandes d’information concernant les raisons de cet accompagnement et les garanties exigées. Il est tout aussi surprenant de constater l’absence totale de contrôle externe sur l’activité de cette plateforme, l’Arcom se déclarant incompétente et la police ne pouvant agir sans dépôt de plainte préalable, ce qui aboutit à une situation d’autorégulation opaque de l’entreprise. Cette enquête m’a donné l’impression d’un système totalement hermétique.

Un phénomène connexe particulièrement préoccupant est l’émergence d’agents de modèles, souvent jeunes, une nouvelle profession attirée par les perspectives lucratives de ce secteur. J’ai notamment rencontré un jeune de dix‑sept ans qui, ayant abandonné ses études pour se lancer dans le Only Fan Management (OFM), génère déjà un revenu mensuel net de 1 900 à 2 000 euros. Ces agents, principalement de jeunes hommes entre dix-huit et vingt-cinq ans, sont recrutés par le biais des réseaux sociaux par des influenceurs établis qui vantent leur réussite dans ce domaine.

Des formations en ligne pour devenir agent sont facilement accessibles, avec des tarifs allant de 500 à 2 000 euros. J’ai personnellement suivi celle de M. Anthony Sirius, pionnier du secteur. Bien que ces formations transmettent de réelles compétences en management, développement personnel, marketing et fiscalité, elles sont malheureusement empreintes de références masculinistes et misogynes. Le discours véhiculé vise à conditionner les futurs agents à exploiter les émotions des femmes afin de maximiser la production de contenu, y compris le plus explicite, dans le but d’augmenter les revenus.

Ces agents forment des réseaux sur Telegram, échangeant conseils et offres d’emploi mais, surtout, ils y revendent quotidiennement des centaines de contrats de modèles du monde entier, avec une prédominance de jeunes femmes d’Amérique du Sud et d’Europe de l’Est, ainsi que des Françaises. Les contrats sont négociés entre agents, souvent à l’insu des modèles, pour des sommes allant de 300 à 500 euros. Cette pratique s’apparente à de l’exploitation, les agents percevant jusqu’à 80 % des revenus générés par le contenu pornographique des modèles. Ces dernières, souvent mal informées de leurs droits, peuvent se retrouver victimes de harcèlement ou d’emprise, avec des recours juridiques limités, principalement dans le domaine civil.

Les avocats spécialisés dans l’influence constatent une augmentation des demandes de conseil et anticipent une croissance significative des recours juridiques, principalement de la part de jeunes femmes cherchant de l’aide.

En conclusion, cette enquête révèle un secteur en pleine expansion, ciblant principalement les jeunes, fortement dépendant des réseaux sociaux, et propice à de nombreuses dérives en raison d’un manque flagrant de régulation externe. Certains pays commencent à prendre conscience de l’ampleur du problème, comme la Suède qui a récemment criminalisé l’achat de contenu spécifique sur OnlyFans.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Pourriez-vous détailler davantage le processus de recrutement des modèles ? Vous avez étudié en profondeur les mécanismes internes de ce système, pouvez-vous nous éclairer sur la manière dont ces jeunes sont appâtés ?

Par ailleurs, concernant les plateformes, et plus particulièrement TikTok qui fait l’objet de nos travaux, avez-vous connaissance de mécanismes de blocage mis en place pour empêcher le renvoi vers OnlyFans ou Mym ?

Enfin, pouvez-vous nous informer de l’existence et l’efficacité des systèmes de vérification d’âge sur ces plateformes ?

M. Mathieu Barrère. Concernant le recrutement, la communication des influenceurs joue un rôle crucial en suscitant l’intérêt des jeunes par la promesse d’argent facile. Les agents, quant à eux, utilisent une technique appelée « mass DM », consistant à contacter massivement des profils de jeunes femmes correspondant à certains critères physiques et de popularité sur les réseaux sociaux. Leur approche repose sur des promesses de gains importants et de soutien, créant une illusion de simplicité et de sécurité.

Concernant la publicité sur les réseaux sociaux, les pratiques des plateformes comme TikTok et Instagram ont largement évolué depuis la naissance de ces sites, à travers la mise en place de filtres visant à bloquer les comptes faisant explicitement mention d’OnlyFans ou Mym. Cependant, des stratégies de contournement ont émergé, telles que l’utilisation d’astérisques dans les noms (par exemple, Onl*Fans) et l’emploi d’applications de redirection vers les plateformes comme GetAllMyLinks. Bien qu’une politique de modération soit mise en place, elle est donc inefficace à ce stade. Les agents anticipent également la suppression potentielle des comptes en gérant plusieurs profils différents par modèle.

Quant aux stratégies des plateformes, Mym et OnlyFans s’appuient principalement sur l’intelligence artificielle pour le contrôle de l’âge lors de l’inscription des créateurs. L’IA utilisée par Mym présente une marge d’erreur de 1,3 an pour la tranche d’âge de treize à dix‑sept ans. Nos tests ont révélé des failles dans ce système, avec une validation rapide malgré l’utilisation d’une pièce d’identité modifiée par Photoshop.

Aujourd’hui, Mym déclare recenser 167 000 créateurs de contenus certifiés, ce qui implique, entre autres, le passage par un contrôle de l’âge. En 2021, on en comptait 8 499, 48 583 en 2022 et 104 269 en 2023. Il s’agit donc d’une progression exponentielle du nombre de comptes certifiés.

D’après les déclarations de Mym, une équipe de douze modérateurs spécialisés est chargée de la modération du contenu. Concernant spécifiquement la vérification de l’âge, ils indiquent disposer de sept agents modérateurs chargés de valider ou de refuser les certifications des créateurs. Ils ont en revanche refusé de préciser si une vérification humaine intervenait systématiquement après le passage de l’intelligence artificielle. Le seul exemple concret dont je dispose est celui de notre propre expérience, et je laisse donc à chacun la liberté d’estimer si, dans un délai de quinze minutes, une vérification humaine a réellement pu être effectuée.

Certaines sources internes m’ont par ailleurs confié que Mym aurait recours à une sous-traitance de certaines vérifications et certifications de comptes, confiée à une équipe basée au Sri Lanka, composée de quinze à dix-sept modérateurs. Je n’ai toutefois pas pu obtenir de confirmation officielle de leur part quant à l’existence de cette équipe. Il existe donc bien un système de contrôle, mais nous avons pu en identifier des failles évidentes sans avoir mené une enquête longue et approfondie, puisque notre investigation n’a duré que quatre mois.

Je précise que nous avons rencontré et discuté avec de très nombreux mineurs présents sur ces plateformes. L’une d’entre elles a même accepté de témoigner dans notre reportage, ce qui demande un réel courage, tant il est difficile de se confier sur ce sujet.

Mme Claire Marais-Beuil (RN). Existe-t-il des liens financiers entre les réseaux sociaux et ces plateformes de contenu ? Étant donné qu’une redirection vers ces plateformes génère de la monétisation, existe-t-il des accords de reversement ou d’autres types de relations financières entre eux ?

M. Mathieu Barrère. À ma connaissance, les agents ne reversent pas de bénéfices aux plateformes. Le modèle économique de ces dernières repose sur une commission de 20 % prélevée sur chaque transaction effectuée. Un créateur de contenu publie des photos ou des vidéos sur la plateforme, fixe librement le prix de l’abonnement mensuel, généralement entre 10 et 20 euros, puis les utilisateurs s’abonnent pour accéder à cette bibliothèque de médias. Il existe en parallèle un système de demandes privées où les utilisateurs peuvent solliciter du contenu spécifique auprès des modèles. Ces requêtes sont souvent tarifées à des prix élevés, allant de 15 à 500 euros selon la nature de la demande. Par exemple, une vidéo de pénétration digitale en prononçant le prénom du client peut être facturée 100 euros. D’autres actes plus extrêmes peuvent atteindre des montants allant de 500 à 700 euros. Sur chacune de ces transactions, la plateforme prélève donc une commission de 20 %.

Les agents, quant à eux, ont développé une stratégie complémentaire pour optimiser les profits. Ils recrutent des « tchateurs », principalement des hommes, qui se font passer pour les modèles dans les conversations avec les clients. Ces tchateurs, recrutés sur Telegram, souvent des francophones originaires de Madagascar, du Bénin ou de France, sont rémunérés à la commission, touchant entre 8 et 15 % sur chaque vente de contenu qu’ils parviennent à réaliser.

Dans ce système, les modèles sous contrat avec des agents se concentrent uniquement sur la création de contenu, tandis que les agents gèrent l’ensemble de la stratégie, y compris la présence sur les réseaux sociaux et les interactions avec les clients par le biais des tchateurs.

Il est important de noter que les plateformes et les agents n’ont pas de lien direct. L’objectif des plateformes est simplement de maximiser le trafic et les transactions, chacune leur rapportant 20 % de commission. À titre d’exemple, OnlyFans génère des milliards de revenus, tandis que Mym, startup française créée il y a six ans, a vu son chiffre d’affaires passer de 3 à 100 millions d’euros, sans investisseur initial. Ce modèle économique et les échanges qui s’y opèrent témoignent de l’importance des sommes en jeu dans cette industrie.

M. Stéphane Vojetta (EPR). Bien que je n’aie pas visionné votre reportage, je travaille sur ce sujet depuis plusieurs années et ai personnellement ouvert un compte OnlyFans en tant qu’utilisateur pour étudier le modèle. L’une des dérives les plus préoccupantes que j’aie observées est ce que j’appelle le rabattage, ces personnes qui envoient des messages directs à de jeunes femmes, parfois même à des adolescentes, pour les inciter à créer un compte, en leur proposant de le gérer et en minimisant initialement la nature du contenu demandé.

Notre intention est d’améliorer la régulation de ce secteur actuellement peu encadré. Nous envisageons de créer une définition légale de cette « pornographie à la demande » et de considérer potentiellement cette activité comme une forme de prostitution.

Selon vous, les actes à la demande, récemment interdits en Suède, ne constituent-ils pas une forme de prostitution 2.0 ? L’activité des agents ne s’apparente-t-elle pas à du proxénétisme moderne ? Auquel cas nous pourrions faire tomber ce modèle et le réduire drastiquement. Dans le cadre de votre enquête, avez‑vous identifié des liens entre le commerce d’images en ligne et la prostitution physique ? Il est en effet fréquent de trouver sur les sites d’annonces de prostitution des liens vers des pages OnlyFans, utilisées comme vitrine promotionnelle.

Enfin, avez-vous examiné le phénomène des modèles virtuels sur OnlyFans ou Mym ? Il s’agit d’un business consistant à créer des créatrices de contenu virtuelles, parfois en utilisant à leur insu l’image de personnes réelles, pour générer des revenus grâce à l’intelligence artificielle.

M. Mathieu Barrère. Nous avons effectivement abordé le sujet du proxénétisme 2.0 dans notre enquête et consulté des avocats spécialisés. La difficulté réside dans le fait qu’en l’état actuel, nous n’avons pas trouvé de lien direct entre ces activités en ligne et une incitation à des actes physiques monétisés et n’avons pas identifié d’agents cherchant à basculer vers la prostitution physique.

Comme vous l’avez justement souligné, l’absence d’acte physique implique qu’au regard du droit actuel, ces pratiques ne peuvent être qualifiées de prostitution. Le terme de proxénétisme 2.0 est évocateur mais, juridiquement, tant que les échanges restent numériques et que la modèle est consentante, il n’existe pas de moyen de rendre ces pratiques pénalement répréhensibles.

Les avocats que nous avons consultés ont exprimé leur frustration face à cette situation. Actuellement, les seuls recours possibles relèvent du droit civil, comme la contestation de contrats abusifs ou l’usurpation d’identité lorsque les agents s’approprient les identifiants des comptes sur les plateformes. Ces infractions semblent mineures au regard de l’ampleur du phénomène. Les juristes appellent à une évolution du droit afin de mieux encadrer ces pratiques. Cependant, la situation est complexe car la majorité des personnes impliquées sont majeures et consentantes et cette activité constitue leur source de revenus.

Nous n’avons donc pas constaté de passage à l’acte physique dans le cadre spécifique de ces plateformes. En revanche, nous avons effleuré un phénomène distinct sur Snapchat, où la vente de photos et vidéos dénudées, en dehors du cadre des plateformes comme OnlyFans et Mym, peut effectivement mener à des situations de prostitution, y compris impliquant des mineurs. Ces situations sortent toutefois du cadre de notre enquête sur les agents et les plateformes spécialisées.

Concernant votre dernière question sur les modèles générés par intelligence artificielle, l’agent de dix-sept ans que j’ai rencontré s’apprêtait à recruter sa première modèle dans la vie réelle alors qu’il opérait jusqu’alors exclusivement avec du contenu généré par IA. Ces agents parviennent à faire croire aux clients qu’ils interagissent avec une personne réelle, alors qu’en réalité, c’est l’adolescent qui répond en utilisant du contenu créé par IA. J’ai également observé sur les boucles Telegram un phénomène d’achat de packages de contenus créés par des modèles, pour un montant unitaire. Par exemple, pour 800 dollars, on acquiert une gamme complète de contenu d’un modèle spécifique. Ce contenu est ensuite modifié par IA, notamment le visage, permettant de le monétiser presque indéfiniment. Une fois le contenu acquis, il est possible de changer le visage à volonté grâce à l’IA pour le commercialiser.

Dans mes recherches, je n’ai pas eu connaissance de cas où des personnes auraient été exploitées contre leur gré. Bien que ce phénomène existe probablement, je n’ai pas été confronté à des situations où l’apparence de personnes aurait été modifiée ou leurs images utilisées à des fins lucratives sans leur consentement. Il est important de souligner que les modèles vendant ces packages sont consentantes car cette pratique permet aux modèles et aux agents de diversifier leurs activités, toujours dans l’optique de maximiser leurs revenus. L’objectif fondamental demeure la génération du plus grand profit possible.

M. Stéphane Vojetta (EPR). Est-il exact que la plateforme Mym prélève 20 % sur les revenus de ses créateurs et créatrices de contenu, et que cela s’applique à chaque transaction ?

M. Mathieu Barrère. L’entreprise prélève en effet une commission de 20 % sur chaque transaction, que ce soit un pourboire, un achat privé ou un abonnement.

Mme Anne Genetet (EPR). J’avoue faire partie de ceux qui méconnaissaient totalement ce sujet. Vos explications m’ont permis de mieux saisir l’importance des amendements proposés par mon collègue Stéphane Vojetta, que je peinais auparavant à comprendre pleinement.

Je comprends que ces plateformes utilisent, entre autres, TikTok pour attirer des utilisateurs vers leurs propres services. Selon vos recherches, quelles mesures pourraient être envisagées pour contrôler TikTok et empêcher ce phénomène de rabattage ? Quels outils devraient être déployés ? Même si nous parvenions à réguler TikTok, n’est-il pas probable que ces plateformes se tournent simplement vers d’autres supports pour poursuivre leurs activités ? En somme, que pouvons‑nous concrètement faire du côté de TikTok pour, sinon empêcher, du moins limiter ce flux ? Est-ce réalisable et souhaitable ?

M. Mathieu Barrère. Il est important de préciser que ce ne sont pas les plateformes elles-mêmes qui mettent en place des stratégies de rabattage et que Mym et OnlyFans ne ciblent pas directement les jeunes. Ce sont les agents et les célébrités de ces plateformes qui assurent une communication massive sur les réseaux sociaux, diffusant ainsi la réputation de ces services. Les plateformes, quant à elles, maintiennent une présence et une communication grand public, sans mettre en avant l’aspect pornographique ni cibler spécifiquement les jeunes. Ce sont véritablement les influenceurs et les stars des réseaux sociaux qui ont façonné la réputation de ces plateformes.

Concernant les possibilités de limitation, l’interdiction de placer des liens de redirection, quels qu’ils soient, serait déjà un pas significatif. Auparavant, les liens directs vers OnlyFans ou Mym étaient courants, et leur interdiction a conduit à la suppression de nombreux comptes, mais si nous rendions impossible la transition directe depuis les réseaux sociaux, et TikTok en particulier qui est un vecteur majeur, vers ces plateformes payantes, cela compliquerait considérablement l’accès. L’absence d’un simple clic dans la légende d’une vidéo pour accéder à la plateforme payante obligerait l’utilisateur à une démarche plus complexe : noter le nom de la personne, se rendre sur la plateforme, créer un compte, effectuer une recherche. Je pense que cela réduirait significativement le trafic quasi direct des réseaux sociaux vers ces plateformes payantes.

Au-delà de cela, la régulation du contenu est délicate car celui présent sur TikTok et Instagram ne comporte pas de nudité explicite. Sur TikTok, on trouve par exemple des lives de plusieurs heures montrant des jeunes femmes pratiquant du sport en tenue de fitness, certes suggestive, mais pas illégale en soi. La limite de ma compétence ne me permet pas de définir où placer précisément les limites, mais je pense qu’en l’état actuel, il est complexe d’interdire ce type de contenu.

Il est par ailleurs évident que dans un environnement numérique ciblant les jeunes, il existera toujours des moyens de contournement. Cependant, étant moi‑même proche de la génération des réseaux sociaux, je constate que le flux d’informations y est si intense et les phénomènes de mode si éphémères que la mise en place de freins pourrait rapidement faire oublier ces pratiques. Ainsi, en réduisant la présence de ce type de contenu et de promotion sur les réseaux sociaux, nous pourrions significativement diminuer le nombre de jeunes tentés d’y accéder.

Je pense sincèrement que si vous parvenez à réguler, ne serait-ce que partiellement, la promotion de ces plateformes, une grande partie du travail sera accomplie, particulièrement en ce qui concerne les très jeunes utilisateurs.

Comme je l’ai mentionné précédemment, les créateurs trouvent des moyens détournés pour promouvoir ces plateformes, en utilisant des abréviations ou des expressions codées telles que « retrouvez-moi sur mes plateformes privées ». Dans la tranche d’âge quinze à trente ans, ces références sont largement comprises. Il n’est donc pas nécessaire de citer explicitement le nom de la plateforme pour inciter les gens à s’y rendre.

Mme Claire Marais-Beuil (RN). Toutes ces plateformes nécessitent un paiement et nous ciblons particulièrement les très jeunes utilisateurs, dont les moyens diffèrent généralement de ceux des adultes, avec des cartes bancaires spécifiques ou des comptes bancaires identifiés comme appartenant à des jeunes. Ne serait-il pas envisageable de réguler en vérifiant le mode de paiement ? Cette question me préoccupe, car à moins qu’ils n’utilisent les moyens de paiement de leurs parents, le type de paiement utilisé devrait permettre d’identifier l’âge des jeunes accédant à ces plateformes.

M. Mathieu Barrère. Le sujet des moyens de paiement, bien que peu exploré dans mon enquête, mérite effectivement notre attention. Lors de mes échanges avec les jeunes créateurs, j’ai constaté que l’inscription sur les plateformes nécessite la fourniture d’un relevé d’identité bancaire (RIB) personnel. Si certains jeunes, modèles ou agents, impliquent leurs parents dans le processus, la majorité opère dans la clandestinité et contourne les restrictions en utilisant le RIB d’une connaissance majeure, parfois en modifiant numériquement des pièces d’identité pour faire correspondre les informations. Cette ingéniosité leur permet de percevoir les revenus générés sur les plateformes.

Concernant l’aspect bancaire, il convient de rappeler l’incident impliquant OnlyFans il y a quelques années. Une enquête de Reuters sur la présence de mineurs sur la plateforme avait alarmé le secteur bancaire, qui avait menacé de retirer son soutien en matière de paiement. En conséquence, Mym, selon mes sources internes, prospecte régulièrement de nouvelles start-up spécialisées dans les solutions de paiement. Cette démarche vise à anticiper d’éventuelles ruptures de collaboration avec leurs partenaires actuels, tant pour les transactions des clients que pour les reversements aux créateurs. Malgré leurs efforts de communication, ces plateformes sont conscientes de leur réputation controversée et de la lucidité générale quant à la nature de leur contenu. Elles font donc face à un défi réputationnel significatif dans leurs relations avec le secteur bancaire.

M. Stéphane Vojetta (EPR). Il est important de préciser que ni Mym ni OnlyFans ne collaborent avec les géants du paiement tels que Visa, MasterCard ou American Express, ces derniers refusant toute association. En conséquence, ces plateformes se tournent vers des start-up ou de petites entreprises spécialisées dans les paiements digitaux. Alors que les acteurs traditionnels tels que Visa ou MasterCard prélèveraient environ 1 % sur les transactions, ces nouvelles plateformes de paiement exigent entre 20 et 30 % des revenus pour leurs services. Cette situation illustre comment chaque intervenant du secteur cherche à maximiser ses profits. Par conséquent, les plateformes de contenu se voient contraintes de maintenir une grande flexibilité dans leur approche des systèmes de paiement.

M. Mathieu Barrère. Il est avéré que dans le milieu des agents, particulièrement lorsqu’il s’agit de jeunes profils, le recours aux cryptomonnaies pour l’achat de contrats est une pratique existante. Cette méthode permet d’éviter les transactions en monnaie traditionnelle pour des sommes conséquentes. Néanmoins, je n’ai aucune information concernant l’utilisation de cryptomonnaies dans les relations directes entre les créateurs et les plateformes.

M. le président Arthur Delaporte. Vos travaux mettent en lumière des phénomènes souvent peu visibles, même pour ceux qui s’y intéressent de près. L’opacité persistante dans certains domaines souligne l’importance de telles investigations. Nous attendons avec intérêt la diffusion de votre documentaire le 19 juin sur le service public, saluant au passage la qualité de ce type de production.

N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.

47.   Audition de M. Morgan Lechat (mardi 3 juin 2025)

Puis la commission auditionne M. Morgan Lechat ([45]).

M. le président Arthur Delaporte. Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Morgan Lechat prête serment.)

M. Morgan Lechat, professeur et vidéaste (Monsieurlechat). Je suis M. Morgan Lechat, professeur de physique-chimie et créateur de contenu scientifique sur TikTok, avec une audience de plus de 400 000 abonnés. Certains de mes contenus sont monétisés à travers le fonds des créateurs et je collabore également de manière ponctuelle avec des institutions ou des marques dans un cadre éducatif en étant rémunéré. Ces partenariats sont systématiquement signalés et n’impliquent jamais de produits spécifiquement destinés aux mineurs.

Passionné de science depuis mon plus jeune âge, j’ai eu la chance de croiser la route d’un enseignant qui m’a fait découvrir la méthode scientifique. Dès le lycée, j’ai commencé à réaliser des vidéos à des fins de passe-temps personnel, avant de poursuivre mes études vers la science et l’enseignement. Par la suite, à l’université, le doyen avait recours à la méthode de la classe inversée : il concevait des capsules vidéo destinées à ses étudiants, de sorte que nous pouvions accéder aux leçons avant même de nous rendre en salle de cours ou en amphithéâtre.

Devenu à mon tour professeur, c’est la volonté de reproduire cette approche qui m’a conduit à la création de contenu sur YouTube, permettant à mes élèves d’accéder aux notions de cours en amont des séances en classe. Cette approche s’est avérée particulièrement pertinente lors de l’enseignement à distance pendant la période du covid-19.

C’est initialement dans une optique de divertissement que j’ai découvert TikTok. Pendant les confinements, j’ai commencé à diffuser des vidéos depuis ma salle de classe vide. Ces contenus ont rapidement trouvé un écho auprès d’un public varié, incluant d’anciens élèves nostalgiques de leurs années scolaires, ce qui a engendré un effet de viralité important. Cette expérience m’a conduit à collaborer avec le média Epicurieux, porté par Jamy, une figure emblématique de ma jeunesse, qui s’était également lancé sur internet pendant la pandémie. Cette collaboration m’a ouvert les portes du secteur de l’audiovisuel et m’a amené à m’intéresser de plus près au domaine de l’influence, sur lequel vous avez légiféré il y a quelques années.

Dans une démarche de professionnalisation, j’ai opté pour un temps partiel en tant qu’enseignant afin de poursuivre mon travail de vulgarisation sur internet. Aujourd’hui, le média Monsieurlechat s’appuie sur une équipe de cinq personnes pour la création de contenus, s’inscrivant ainsi dans une véritable démarche entrepreneuriale parallèle à mon activité au sein de l’éducation nationale. Depuis la rentrée 2024, je suis en disponibilité pour des raisons de compatibilité avec cette activité entrepreneuriale, une décision prise en concertation avec mes inspecteurs.

Concernant TikTok spécifiquement, j’ai constaté que mon contenu, initialement décalé par rapport aux standards de la plateforme, a bénéficié d’un effet de surprise et d’exclusivité qui a favorisé sa viralité. Aujourd’hui, je constate que de nombreux élèves utilisent TikTok comme outil de révision, bien que je me positionne davantage comme un créateur de contenu scientifique visant un public large plutôt que comme un influenceur scolaire à proprement parler. Un phénomène qui m’interpelle particulièrement est l’utilisation de TikTok comme moteur de recherche par les jeunes, une tendance que je trouve préoccupante et potentiellement aliénante. Néanmoins, je considère que ma présence sur la plateforme offre une porte d’entrée vers la science, encourageant un public varié à s’y intéresser.

Pour les révisions scolaires, je recommande à mes élèves de se tourner vers des plateformes proposant des contenus plus approfondis et plus longs, notamment sur YouTube, en citant par exemple le travail remarquable de M. Paul Olivier en physique-chimie.

Concernant l’impact de TikTok dans la salle de classe, j’ai observé empiriquement une certaine baisse d’empathie chez les élèves, potentiellement liée à l’exposition à des contenus non hiérarchisés sur la plateforme. Le défilement continu de vidéos aux thématiques variées, allant du divertissement léger à des sujets graves tels que la guerre, en passant par des contenus éducatifs, semble affecter la capacité des jeunes à hiérarchiser l’importance des informations et à réagir de manière appropriée à leur gravité.

En tant qu’enseignant, je suis particulièrement préoccupé par plusieurs phénomènes liés à l’usage du numérique chez les jeunes. Les troubles du sommeil sont notamment fréquents, souvent causés par une consommation excessive de vidéos ou de jeux vidéo la veille et il n’est pas rare de voir des élèves arriver en classe avec les yeux rouges et gonflés, révélateurs d’une utilisation prolongée des écrans.

Un autre défi majeur concerne la difficulté des élèves à gérer le flux d’informations circulant sur internet. Nous sommes régulièrement confrontés à des situations où des élèves remettent en question l’enseignement dispensé en classe, s’appuyant sur des informations erronées ou non vérifiées trouvées sur les réseaux sociaux. Cette problématique touche l’ensemble des disciplines et souligne l’importance centrale de l’éducation aux médias et à l’information.

Je tiens cependant à souligner que les plateformes telles que TikTok peuvent également avoir des effets positifs. En tant qu’enseignant présent sur cette plateforme, j’ai pu constater qu’elle stimule la curiosité et peut même susciter des vocations. J’ai ainsi reçu de nombreux messages d’élèves et de parents me remerciant pour mon travail, certains exprimant même le désir de devenir enseignants à leur tour. C’est un aspect extrêmement gratifiant de mon engagement sur ces plateformes.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Nous avons bien noté les aspects positifs de votre présence sur TikTok, notamment en termes de vocations suscitées. Cependant, sachant que votre contenu est également disponible sur d’autres plateformes, pensez-vous que TikTok vous permet d’atteindre un public spécifique que vous ne pourriez pas toucher ailleurs ? Avez-vous observé des différences notables entre les plateformes ? Plus précisément, adaptez-vous votre contenu pour tirer parti de l’algorithme de TikTok ? Avez-vous développé des stratégies particulières pour optimiser la visibilité de vos publications sur cette plateforme ?

M. Morgan Lechat. Concernant les spécificités de TikTok par rapport aux autres plateformes telles qu’Instagram et YouTube, j’ai constaté que la concurrence a progressivement conduit à une certaine uniformisation des pratiques, effaçant les différences marquées qui existaient auparavant entre ces plateformes.

Prenons l’exemple de YouTube, qui a introduit les Shorts pour concurrencer les formats courts de TikTok et Instagram. Une caractéristique qui était auparavant propre à TikTok, à savoir la possibilité pour une vidéo de connaître un succès viral indépendamment des performances des autres contenus du même créateur, s’est désormais généralisée. Sur TikTok, Instagram Reels et même YouTube, nous observons maintenant un système de suggestion basé sur la performance individuelle de chaque contenu, plutôt que sur la fidélisation d’une audience à un créateur spécifique.

Ce système repose sur un mécanisme d’échantillonnage où une vidéo est d’abord présentée à une partie de l’audience, y compris à des utilisateurs non abonnés. L’engagement généré par cette vidéo, principalement mesuré par le taux de rétention, les likes, les commentaires et les partages, détermine ensuite sa diffusion plus large. Les partages semblent avoir un poids particulièrement important dans cet algorithme, car ils permettent d’attirer de nouveaux spectateurs et d’augmenter potentiellement la rétention.

Je précise que je base ces observations sur mon expérience en tant qu’utilisateur et créateur de contenu. Je ne suis pas un expert en ingénierie algorithmique, mais un professeur de physique-chimie qui partage son expérience pratique des plateformes.

Cette approche algorithmique peut conduire à des situations où certaines vidéos connaissent un succès viral tandis que d’autres, potentiellement tout aussi intéressantes, restent relativement peu vues si elles ne passent pas ce test initial d’engagement. Ce phénomène s’observe désormais sur l’ensemble des plateformes, y compris pour les formats longs sur YouTube.

Mme Laure Miller, rapporteure. Pourriez-vous nous en dire plus sur les caractéristiques spécifiques de l’audience que vous touchez sur TikTok ?

M. Morgan Lechat. En ce qui concerne la démographie de mon audience, j’observe une répartition relativement équilibrée entre les genres sur TikTok et Instagram, avec environ 55 % de femmes. YouTube présente une particularité avec une majorité masculine dans mon audience, un phénomène qui se retrouve même chez les créatrices de contenu scientifique, rendant plus difficile l’atteinte d’un public féminin sur cette plateforme pour les sujets scientifiques.

TikTok et Instagram se distinguent par un public globalement jeune, tandis que YouTube attire généralement une audience plus âgée. Il est intéressant de noter que, dans le cadre de mon travail avec le hashtag #apprendresurTikTok, TikTok nous a informés que 20 % des vues provenaient d’utilisateurs de plus de trente‑cinq ans, ce qui laisse supposer une forte proportion de jeunes dans les 80 % restants.

Mme Laure Miller, rapporteure. Pourriez-vous nous faire part de votre point de vue sur l’éducation au numérique, en vous appuyant sur votre double expérience d’enseignant et d’influenceur ?

M. Morgan Lechat. L’éducation au numérique comporte de multiples aspects. En tant qu’ancien professeur principal, j’y ai accordé une importance significative lors des séances de vie de classe, profitant de la liberté pédagogique dont nous disposons, en mettant en place plusieurs initiatives. Nous avons notamment fait intervenir un addictologue pour aborder les risques d’addiction chez les adolescents, incluant la problématique des écrans et des réseaux sociaux. Concernant les usages numériques, les professeurs-documentalistes bénéficient désormais d’une formation plus approfondie, ce qui n’est pas nécessairement le cas dans toutes les disciplines, puisque la formation initiale des enseignants se concentre principalement sur la didactique de leur matière, reléguant souvent l’apprentissage de la gestion de classe et de l’éducation numérique à l’expérience de terrain.

Notre approche de l’éducation numérique s’est articulée autour de plusieurs axes. Nous avons commencé par sensibiliser les élèves à l’importance de leur e‑réputation et à la sécurisation de leurs informations en ligne. Nous avons insisté sur la persistance des contenus publiés sur les réseaux sociaux, même après suppression, et sur les précautions à prendre concernant la divulgation d’informations personnelles. Ensuite, nous nous sommes attachés à développer leur capacité à identifier les discours haineux, racistes ou misogynes, afin de prévenir la normalisation de certains propos ou comportements problématiques.

Ma participation à votre commission m’a également fait prendre conscience que mon expérience personnelle des réseaux sociaux, plutôt positive, peut différer considérablement de celle de certains jeunes, pour qui ces plateformes peuvent représenter un danger pour leur santé mentale. Nous avons donc abordé des sujets tels que le cyberharcèlement, que les jeunes désignent aujourd’hui par le terme de « pressing ». Ce terme, emprunté au vocabulaire footballistique, est utilisé pour décrire une forme de pression exercée sur autrui, qui s’apparente en réalité à du harcèlement.

M. le président Arthur Delaporte. En tant qu’enseignant, avez-vous été confronté à des conflits ou des situations de harcèlement liés aux réseaux sociaux ?

M. Morgan Lechat. Fort heureusement, je n’ai pas eu à gérer de situations de harcèlement directement liées aux réseaux sociaux. J’ai cependant été confronté à des problématiques bien plus graves dans la vie réelle, notamment des cas de violences intrafamiliales et de violences sexuelles. Concernant le harcèlement, nous avons dû traiter des situations qui se limitaient à l’enceinte de l’établissement, en restant vigilants, grâce aux témoignages des élèves, pour éviter que ces comportements ne se propagent sur les réseaux sociaux.

Le seul incident lié à internet auquel j’ai été indirectement confronté concernait un de mes collègues, qui avait été filmé en classe dans une situation humiliante, avec des élèves lui lançant des boulettes de papier. Cette vidéo avait ensuite été diffusée sur Snapchat. En dehors de cet épisode, je n’ai pas eu à faire face à des cas de cyberharcèlement au cours de mes six années de carrière.

Mme Claire Marais-Beuil (RN). Vous avez qualifié votre connaissance des algorithmes de limitée, alors qu’ils sont pourtant utilisés pour vos vidéos. Adaptez-vous le contenu de vos vidéos en fonction de la tranche d’âge que vous souhaitez cibler, afin que l’algorithme les identifie et les mette en avant ? Dans votre approche, savez-vous comment créer une vidéo qui touchera plus facilement un public jeune ?

M. Morgan Lechat. La création de contenu professionnel sur les plateformes telles que TikTok repose sur trois éléments clés. Il est tout d’abord essentiel de définir le public cible de la vidéo. Je vise généralement une audience élargie, tandis que certains créateurs de contenu éducatif ciblent très spécifiquement leur audience, par exemple en s’adressant directement aux élèves préparant le brevet.

Le deuxième élément essentiel est ce que nous appelons le « hook », ou l’accroche de la vidéo. Les cinq premières secondes sont déterminantes pour capter l’attention du spectateur et l’inciter à regarder la vidéo dans son intégralité. Les créateurs de contenu, quel que soit leur domaine, accordent une grande importance à cette accroche initiale.

Le troisième élément est le « storytelling », ou la narration. L’efficacité d’une vidéo repose souvent sur sa capacité à raconter une histoire, que ce soit une anecdote scolaire ou tout autre type de récit. Nous nous concentrons donc sur l’information clé à mettre en avant dans les premières secondes, en l’adaptant potentiellement au public visé.

Dans la mesure où l’utilisation d’un vocabulaire spécifique aux adolescents ciblerait un public jeune et exclurait probablement les spectateurs de plus de trente‑cinq ans, je m’efforce généralement de concevoir des accroches qui parlent à un public large, en m’appuyant sur des situations de la vie quotidienne auxquelles chacun peut s’identifier. Par exemple, j’ai récemment publié une vidéo sur Roland‑Garros abordant la question de la tension des raquettes de tennis. Cette accroche d’actualité, susceptible d’intéresser tous ceux qui suivent l’événement, me sert de prétexte pour introduire un point sur les unités en physique, comme la tension et la masse.

Mme Laure Miller, rapporteure. Réalisez-vous des lives sur TikTok ?

M. Morgan Lechat. J’ai effectivement réalisé des lives, principalement axés sur l’apprentissage, les révisions ou des expériences en direct. Cependant, je ne le fais que ponctuellement, principalement par manque de temps. Concernant la monétisation des lives, TikTok utilise un système de cadeaux virtuels. Personnellement, je ne sollicite pas ces cadeaux. Je trouve ce système potentiellement problématique, car il rappelle les abonnements aux jeux vidéo ou l’utilisation des codes de carte bancaire des parents que nous avons pu connaître étant plus jeunes. Les utilisateurs ont l’impression de dépenser une monnaie virtuelle en envoyant ces cadeaux, alors qu’il s’agit en réalité d’argent réel dépensé sur la plateforme. Cette pratique soulève des questions éthiques car, malgré l’apparence ludique des cadeaux virtuels, il s’agit bel et bien de transactions financières réelles.

M. le président Arthur Delaporte. Pourriez-vous nous détailler davantage le processus de monétisation des vues et nous expliquer le modèle économique du point de vue d’un créateur de contenu ?

M. Morgan Lechat. Il existe un fonds de créateurs basé sur un système de coût pour mille vues (CPM) financé par les annonceurs. Ce modèle, similaire à celui de YouTube, est spécifique à ces deux plateformes et n’existe pas sur Instagram. Actuellement sur TikTok, la rémunération s’élève à environ 30 ou 40 centimes pour mille vues, pour une vidéo dépassant une minute et respectant certains critères, notamment l’absence de violence, de nudité ou de contenu illégal. Pour être éligible à ce fonds, il faut compter plus de 10 000 abonnés.

La seconde source de revenus sur TikTok provient des collaborations commerciales. Dans ce cas, je réalise des vidéos pédagogiques pour le compte d’une marque ou d’une institution, clairement identifiées comme des collaborations commerciales. Ces prestations sont généralement rémunérées entre 500 et 3 000 euros.

M. le président Arthur Delaporte. Nous nous intéressons principalement au système interne de monétisation propre à TikTok. Concernant le modèle que vous avez évoqué, offrant 30 centimes pour mille vues aux créateurs ayant plus de 10 000 abonnés, avez-vous constaté des fluctuations dans ces niveaux de rémunération ?

M. Morgan Lechat. L’évolution des fonds de créateurs sur TikTok a effectivement été significative. Initialement, la rémunération était commune à toutes les vidéos. Puis, dans le but d’encourager des contenus de haute qualité, TikTok a commencé à privilégier et à monétiser uniquement les vidéos dépassant une minute. Au début de cette transition, les CPM étaient plus élevés qu’actuellement.

M. le président Arthur Delaporte. Quel était le montant initial ?

M. Morgan Lechat. Le montant pouvait atteindre quasiment un euro.

M. le président Arthur Delaporte. Je constate que votre expérience utilisateur n’est pas particulièrement approfondie, notamment concernant les lives. En tant qu’influenceur de confiance, avez-vous reçu des retours de la part de jeunes abonnés à vos réseaux ou commentateurs concernant des contenus potentiellement choquants ?

M. Morgan Lechat. J’ai effectivement été confronté à des contenus problématiques, signalés par mes élèves. Un cas particulier concerne une créatrice de contenu sur TikTok qui se disait prof de physique-chimie et diffusait des vidéos à caractère sexuel implicite, utilisant des bonbons pour mimer des actes obscènes. J’ai immédiatement signalé ce contenu, bien que je ne connaisse pas les suites données à mon signalement.

M. le président Arthur Delaporte. Vous ignorez si le contenu a été retiré ?

M. Morgan Lechat. Je le présume.

M. le président Arthur Delaporte. Vous n’avez pas vérifié par la suite ?

M. Morgan Lechat. Face aux contenus qui me dérangent, j’ai pour habitude de bloquer les comptes concernés afin de ne plus y être exposé. Dans ce cas précis, j’ai bloqué la créatrice, ce qui explique que je n’aie plus rencontré ses contenus.

M. le président Arthur Delaporte. Est-ce la seule occasion où vous avez été confronté à un contenu que vous jugiez choquant ?

M. Morgan Lechat. Ce qui m’a particulièrement interpellé dans ce cas, c’est la manière dont cette personne semblait jouer avec les règles de la plateforme, utilisant des bonbons comme prétexte pour faire des allusions sexuelles à peine voilées.

Cependant, ma préoccupation principale ne concerne pas tant les contenus auxquels je suis personnellement exposé, mais plutôt le fait que des élèves puissent accéder à des contenus destinés aux adultes ou à des informations particulièrement dures. Notre société actuelle est déjà assez violente, et je m’inquiète de voir des jeunes exposés à des propos et des informations potentiellement traumatisantes pour leur âge. Par exemple, mes élèves ont appris l’assassinat d’un enseignant en France sur TikTok, ce qui contraste fortement avec mon expérience de jeunesse où l’exposition médiatique se limitait essentiellement au journal de 20 heures.

M. le président Arthur Delaporte. Comment gérez-vous votre relation avec les mineurs dans vos interactions en ligne ? Répondez-vous publiquement à leurs messages ? Avez-vous parfois des échanges privés ? Êtes-vous vigilant quant aux risques de dépendance parasociale qui peuvent se développer sur ces plateformes ? En tant que créateur de contenu éthique, comment abordez-vous ces enjeux ?

M. Morgan Lechat. Je suis pleinement conscient de la nécessité d’être vigilant face aux relations parasociales qui peuvent se développer, où des personnes s’attachent à vous sans vous connaître réellement. Je maintiens ainsi une certaine distance sur les réseaux sociaux, ce qui limite naturellement ce type d’interactions. Je réponds toujours aux questions publiquement dans les commentaires et j’adopte systématiquement une posture similaire à celle que j’aurais en tant qu’enseignant face à mes élèves. Je m’autorise parfois quelques plaisanteries, tout en restant dans les limites de ce que je considère comme approprié dans un cadre scolaire.

Néanmoins, je peux occasionnellement me permettre une répartie plus directe face à des critiques manifestement malveillantes, tout en m’efforçant de rester bienveillant, que ce soit envers les jeunes ou les moins jeunes. Il est à noter que les commentaires les plus agressifs ne proviennent généralement pas des jeunes utilisateurs.

Mme Claire Marais-Beuil (RN). Avez-vous remarqué si le moment de publication de vos vidéos influence significativement leur succès, ou constatez-vous une performance similaire quel que soit l’horaire ou le jour de diffusion ?

M. Morgan Lechat. Certains créateurs accordent une grande importance à l’heure de publication, prétendant avoir identifié des créneaux optimaux. Les plateformes, notamment Instagram, offrent effectivement des outils d’analyse permettant de visualiser les pics d’activité des abonnés. Sur TikTok, le système d’échantillonnage rend cette question moins pertinente. Une vidéo publiée à cinq heures du matin pourrait très bien atteindre son pic d’audience plusieurs heures plus tard, le temps que l’algorithme la diffuse.

À titre personnel, je ne me focalise pas excessivement sur l’heure de publication, m’efforçant plutôt de synchroniser mes contenus avec l’actualité ou des événements pertinents. Par exemple, j’ai délibérément attendu Roland-Garros pour publier mon contenu sur les raquettes de tennis. Bien que je reconnaisse qu’une publication en fin de journée, lorsque les gens sortent du travail ou des cours, peut potentiellement toucher une audience plus large, ce n’est pas un facteur auquel j’accorde une importance primordiale dans ma stratégie de publication.

Mme Laure Miller, rapporteure. Compte tenu de vos observations sur l’utilisation des réseaux sociaux par les jeunes dans votre classe, quelles recommandations formuleriez-vous pour mieux encadrer leur usage ? Avez-vous expérimenté la pause numérique dans votre établissement ? Quel est votre avis sur cette pratique qui va se généraliser dès la rentrée prochaine ? Souhaitez-vous formuler d’autres suggestions pour renforcer la protection des jeunes sur ces plateformes ?

M. Morgan Lechat. Je m’oppose fermement à l’utilisation des téléphones dans les établissements scolaires, car leur présence constitue invariablement un prétexte pour les utiliser en classe.

Quant aux plateformes et aux limitations de temps d’utilisation, je considère que ces mesures peuvent être pertinentes. Il est en effet essentiel de maintenir un équilibre car, si les réseaux sociaux peuvent constituer un passe-temps agréable, ils ne doivent pas occuper une place prépondérante dans la vie quotidienne. Bien que je réalise personnellement une veille sur les réseaux sociaux et produise du contenu, ces activités ne représentent pas la majeure partie de ma journée car je suis conscient qu’une utilisation excessive serait préjudiciable à ma santé. Il est préoccupant de constater que certains jeunes, en passant trop de temps sur les écrans et les réseaux sociaux, risquent de négliger d’autres aspects essentiels à leur développement personnel tels que le sport ou la lecture.

Je pense qu’au-delà de l’école, il est primordial de sensibiliser les parents et le grand public. À l’image des campagnes menées sur les dangers du téléphone au volant ou les risques liés à l’alcool, il serait judicieux de lancer des campagnes d’envergure sur l’usage des réseaux sociaux et des écrans. Cette problématique étant relativement récente, je ne crois pas que de telles initiatives aient été largement déployées jusqu’à présent. Des campagnes gouvernementales pourraient s’avérer particulièrement bénéfiques, car j’observe une grande disparité dans le rapport aux écrans selon les familles. Certains parents sont extrêmement vigilants, allant jusqu’à priver leurs enfants de téléphone avant un certain âge, tandis que d’autres les y exposent très tôt. Cette différence d’approche engendre inévitablement des conséquences, notamment lorsque des enfants sont confrontés à des contenus qu’ils ne sont pas nécessairement en mesure de comprendre.

Dans le cadre scolaire, il serait judicieux d’intégrer un module de formation sur ce sujet pour les enseignants. Bien que les professeurs documentalistes abordent déjà cette question, il serait pertinent de consacrer quelques heures à la formation des enseignants en alternance.

Par ailleurs, étant donné que nous évoquons également la santé mentale, je préconise d’allouer davantage de moyens aux psychologues de l’éducation nationale, aux assistants d’éducation et aux conseillers principaux d’éducation, qui sont des interlocuteurs privilégiés des élèves. Cette mesure pourrait contribuer efficacement à la prise en charge des problématiques de santé mentale.

M. le président Arthur Delaporte. Une proposition actuellement débattue consiste à interdire l’accès aux réseaux sociaux aux moins de quinze ans. Quel est votre avis sur cette question ?

M. Morgan Lechat. Je n’ai pas de position tranchée sur cette proposition. Je souligne néanmoins la difficulté pratique de sa mise en œuvre, sachant que certains élèves de sixième, qui ne sont théoriquement pas autorisés à utiliser les réseaux sociaux, y ont déjà accès. Il serait judicieux de consulter des spécialistes en neurosciences pour évaluer les conséquences potentielles sur le développement cérébral en fonction de l’âge.

M. le président Arthur Delaporte. Nous avons effectivement abordé ces questions avec des experts. Cependant, en tant qu’enseignant travaillant également sur l’éveil et l’émancipation par les médias, comment envisageriez-vous la situation si les mineurs de moins de quinze ans n’avaient plus accès à ces contenus ?

M. Morgan Lechat. Je reste neutre sur cette question, principalement en raison des difficultés pratiques que je perçois dans la mise en œuvre d’une telle mesure. L’établissement d’un cadre réglementaire, même sans interdiction formelle, permettrait néanmoins de souligner les dangers, comme pour les classifications par âge pour les films.

Je tiens également à souligner l’importance de la présence d’experts légitimes sur les réseaux sociaux, pour contrer la prolifération d’individus se présentant comme experts sans posséder les qualifications requises. En tant qu’enseignant, je considère qu’il est pertinent d’être présent sur ces plateformes, d’autant plus quand certaines personnes s’arrogent le statut d’enseignant sans en avoir les diplômes.

La présence de professionnels qualifiés sur ces plateformes est légitime et nécessaire, sous peine que ce vide soit comblé par des personnes non qualifiées. Il faut noter que de nombreux élèves sont non seulement consommateurs mais également créateurs de contenu sur TikTok, proposant par exemple du tutorat ou partageant leurs fiches de révision. Bien que cette initiative soit louable, elle peut parfois comporter des erreurs. C’est pourquoi un contenu élaboré et vérifié par des professionnels constitue un gage de qualité, permettant de limiter la diffusion d’informations erronées.

Je citerai l’exemple de mon collègue M. Yann Bouvier en Histoire‑Géographie. Sa capacité à susciter l’intérêt pour des situations historiques, en les reliant à l’actualité politique ou à des sujets d’actualité brûlants, est remarquable. Les créateurs de contenu qui produisent un matériel de haute qualité offrent ainsi un accès gratuit à de l’information et à des réflexions pertinentes.

M. le président Arthur Delaporte. Nous avons souhaité initier cette démarche d’audition des producteurs de contenu précisément parce que nous refusons d’adopter une vision manichéenne, en considérant que tout est néfaste ou que tous les acteurs présents sur ces plateformes agiraient avec malveillance. Il existe également des créateurs qui s’inscrivent dans une démarche éthique, avec la volonté sincère d’établir une relation avec les jeunes qui ne repose ni sur l’exploitation, ni sur l’instrumentalisation, ni sur toute autre forme d’opportunisme mais qui participe, au contraire, d’un rôle d’émancipation qui nous semble utile.

M. Morgan Lechat. Je souhaite, pour terminer, souligner un point important concernant la professionnalisation récente des acteurs de l’influence. En tant que créateur de contenu professionnel, je collabore désormais avec des équipes techniques et d’auteurs. Or il est intéressant de noter que si mon métier d’enseignant est bien compris du public, notamment des élèves, mon activité de créateur de contenu reste souvent mal appréhendée. Cette dernière peut pourtant constituer un emploi à temps plein. Nous devenons de véritables médias, avec une influence non négligeable, car notre audience est attentive à nos propos.

M. le président Arthur Delaporte. Cette question de la professionnalisation dépasse le cadre strict de notre commission d’enquête mais, lors de l’élaboration de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, nous l’avions déjà prise en compte, conscients que notre travail sur ce sujet est loin d’être achevé. Nous assistons à l’émergence d’un véritable continent de nouveaux métiers qui va se structurer dans les années à venir, accompagné de nombreux enjeux économiques. Nous ne sommes qu’au début de ce processus et l’Assemblée nationale aura certainement un rôle central à jouer dans ce domaine émergent. Notre mission ne se limite donc pas uniquement à l’étude des effets psychologiques de TikTok sur les mineurs, mais s’inscrit dans une réflexion plus large.

N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.

48.   Audition de Mme Anna Baldy (mardi 3 juin 2025)

Enfin la commission auditionne Mme Anna Baldy ([46]).

M. le président Arthur Delaporte. Nous entamons notre dernière audition de l’après‑midi avec Mme Anna Baldy, connue sous le pseudonyme de « Grande Bavardeuse ». Je vous invite à nous expliquer la raison de ce surnom et à nous présenter vos activités.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mme Anna Baldy prête serment.)

Mme Anna Baldy, activiste humanitaire et créatrice de contenu (Bavardage). Je perçois effectivement des revenus reversés par TikTok sur la base des audiences de mes vidéos.

Le sujet de votre commission d’enquête me concerne particulièrement en tant que jeune adulte, ancienne utilisatrice intensive de TikTok (il m’est arrivé de devoir désinstaller l’application pour limiter le temps passé dessus) et désormais créatrice de contenu. J’ai commencé à produire du contenu sur TikTok dans le but d’apporter de la contradiction dans le paysage informationnel des réseaux sociaux. Bien que n’étant pas journaliste, mes études en sciences politiques m’ont fourni des outils d’analyse précieux, et je suis convaincue que chacun peut contribuer au débat démocratique. Pour pallier d’éventuelles crises de légitimité, j’étaye systématiquement mes propos par des sources d’experts et de chercheurs.

Si cette plateforme, comme toute innovation majeure, suscite des inquiétudes légitimes concernant son impact sur notre cerveau, la qualité de l’information diffusée et l’opacité de ses algorithmes, je refuse toutefois de dépeindre une jeunesse passive et crédule. Ce sont aujourd’hui les jeunes qui s’engagent activement dans la vie politique, associative et citoyenne, nourrissent le débat public et portent un regard critique sur l’usage des réseaux sociaux, y compris celui fait par les politiques.

Je ne souhaite pas non plus partager un propos exclusivement alarmiste, puisque TikTok présente également de nombreux aspects positifs. Il s’agit d’un espace d’accessibilité à l’information gratuit, permettant l’expression d’un contre‑discours fort. Il offre une tribune aux jeunes et à ceux dont les idées, le style ou l’identité ne trouvent pas leur place dans des médias traditionnels parfois jugés trop élitistes. Dans un contexte de concentration médiatique préoccupant et de perte de confiance, TikTok contribue au pluralisme de l’information.

Je ne saurais toutefois faire l’éloge de TikTok sans exprimer les profondes inquiétudes que cette plateforme suscite chez moi. Je m’interroge sur la propagation de contenus mensongers ou excessivement simplifiés, souvent sortis de leur contexte, conçus pour cliver, pour instiller la peur, en jouant de ressorts cognitifs et rhétoriques proches de ceux qu’ont manipulés les plus grands propagandistes de nos heures les plus sombres. Je m’inquiète à l’idée que des enfants de treize ans puissent avoir un accès direct à de telles informations. Je m’inquiète aussi des bulles algorithmiques, qui enferment progressivement les utilisateurs dans une spirale de pensée nuisible, tant pour eux-mêmes que pour les autres. Et, plus encore, je m’inquiète de l’impunité totale qui règne dans cette immense cour de récréation virtuelle, où circulent sans modération des vidéos et des commentaires empreints d’un racisme assumé et d’une misogynie insidieuse.

J’aurais préféré que les mots que je prononce au sein de cette Assemblée soient plus beaux que ceux que je m’apprête à partager, mais il me semble que certaines explications, pour être marquantes, nécessitent d’être accompagnées d’illustrations choquantes.

Voici trois des commentaires reçus sous l’une de mes vidéos, dans laquelle je rappelais une statistique de l’Institut national de la statistique et des études économiques (Insee), inquiétante mais exacte, selon laquelle 82 % des personnes mises en cause pour des actes violents sont des hommes. Parmi ces commentaires, certains provenaient notamment d’un utilisateur se présentant sous le pseudonyme de MissilePétaniste. Je cite : « T’es un torchon à foutre inculte, reste dans le domaine des gorges profondes », « réservoir à foutre lobotomisé », « essaie plutôt d’apparaître dans un fait divers le vide-couille du tiers-monde ».

Ce qui m’inquiète profondément, c’est que ces commentaires ont probablement été écrits par des personnes mineures et que de tels propos sont vraisemblablement formulés quotidiennement sous les vidéos de créatrices et de créateurs mineurs. Et surtout, c’est qu’ils ne représentent qu’une forme, déjà ignoble, d’une violence bien inférieure à celle que subissent d’autres jeunes femmes dont l’identité, pour ces mêmes individus, pose encore davantage de problèmes que la mienne : des jeunes femmes qui ne sont pas blanches, qui se situent à la croisée de multiples discriminations et qui, pour cette raison, font l’objet d’un cyberharcèlement d’une ampleur exponentielle.

J’aimerais comprendre ce qui semble, dans notre espace public numérique, rendre admissible la tenue de tels propos. Est-ce le climat actuel, marqué par la montée d’idées fascisantes ? Est-ce l’absence d’une régulation concrète ou bien d’une éducation adaptée à un usage respectueux des réseaux sociaux ?

Je m’inquiète également de ne pas comprendre le fonctionnement d’un algorithme qui détermine pourtant, avec une rapidité extrême, les contenus que nous consommons et, par là même, les opinions que nous formons. Comment expliquer, par exemple, qu’une vidéo dans laquelle je mentionne simplement le mot « Palestine » génère dix fois moins de vues qu’une autre ? Comment expliquer qu’un contenu abordant l’éducation sexuelle et affective de manière responsable soit quasiment invisible, dès lors que l’algorithme y détecte le mot « viol », alors que, quatre swipes plus loin, une vidéo dans laquelle un jeune homme humilie une femme dans la rue en raison de son « body count » rencontre un retentissement spectaculaire ?

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Pourriez-vous nous décrire votre utilisation quotidienne de TikTok ? Dans votre démarche de promotion de contenu, tentez-vous d’exploiter l’algorithme, que vous avez qualifié d’opaque, pour accroître la visibilité de vos publications ? Le cas échéant, comment procédez‑vous ?

Mme Anna Baldy. L’opacité de l’algorithme de TikTok est un fait reconnu par de nombreux créateurs de contenu. Cette absence de transparence semble délibérée afin d’empêcher toute manipulation du système. J’ai néanmoins pu observer que les premières secondes d’une vidéo sont cruciales, ce qui influence considérablement la structuration de nos contenus, puisque nous cherchons systématiquement à placer l’information la plus accrocheuse au début afin de capter l’attention des utilisateurs.

Par ailleurs, une tendance croissante parmi les créateurs consiste à contourner la détection algorithmique de certains termes sensibles en les remplaçant par des euphémismes ou des abréviations compréhensibles par les initiés. Ainsi, « viol » devient « V », « agression sexuelle » se transforme en « AS » ou « SA ». Ces stratégies visent à éviter le déréférencement des vidéos, sans pour autant parler de censure à proprement parler.

Mme Laure Miller, rapporteure. J’aimerais maintenant aborder la question des contenus problématiques. Procédez-vous systématiquement au signalement de ces commentaires difficiles à gérer et de leurs auteurs ? En tant qu’utilisatrice, êtes-vous confrontée à des contenus choquants que vous signalez ? Avez-vous le sentiment que la plateforme prend des mesures efficaces pour assainir son environnement ?

Mme Anna Baldy. Je signale rarement les commentaires car TikTok dispose d’un système de filtrage initial très performant. La plateforme détecte rapidement les commentaires insultants et les place dans une section spécifique nécessitant une validation. Par souci de préservation personnelle, j’évite généralement de consulter cette section. Cependant, certains commentaires parviennent à passer outre ce filtre. La problématique majeure concernant le signalement réside dans l’absence de suivi. Nous ne recevons aucune information sur les actions entreprises à la suite de nos signalements. Bien que je ne ressente pas nécessairement le besoin d’être informée de la suppression d’un compte spécifique, il serait pertinent, dans le cas de messages privés ou de menaces, de savoir si l’auteur a toujours accès à notre contenu ou si son accès à la plateforme a été restreint en raison de son comportement.

M. le président Arthur Delaporte. Concernant spécifiquement la modération, lorsque vous signalez des contenus ou des propos haineux, quel est le taux de retour que vous obtenez ? Par ailleurs, en tant que créatrice de contenu, bénéficiez-vous de contacts privilégiés avec les équipes de modération ?

Mme Anna Baldy. Il existe effectivement une adresse électronique dédiée, que j’ai eu l’occasion de contacter une fois pour un cas d’usurpation d’identité. L’équipe de TikTok s’est montrée très réactive dans ce cas précis.

Cependant, j’ai récemment échangé avec une créatrice de contenu féministe qui subit actuellement un cyberharcèlement intense. Malgré ses nombreuses tentatives de contact sur cette même adresse électronique, elle n’a reçu aucune réponse.

Concernant le retour de la plateforme à la suite des signalements, comme je l’ai mentionné précédemment, je n’ai personnellement jamais été informée des suites données.

Mme Laure Miller, rapporteure. Depuis quand êtes-vous active sur TikTok ?

Mme Anna Baldy. J’ai débuté la création de vidéos en juin dernier, il y a donc un an. Mon activité a coïncidé avec la période électorale, initialement celle des élections européennes, puis celle des élections législatives.

M. le président Arthur Delaporte. Combien d’abonnés avez-vous accumulés en l’espace d’une année ?

Mme Anna Baldy. Je suis actuellement suivie par 160 000 abonnés sur TikTok. Cette croissance exponentielle est caractéristique de la plateforme, son algorithme fonctionnant de manière très différente des autres applications. Nous sommes en effet principalement amenés à consommer du contenu de personnes que nous ne suivons pas, ce qui permet d’une part de diversifier le contenu visionné et, d’autre part, de mettre rapidement en lumière des créateurs de contenu parfois peu préparés à une telle audience. Il est essentiel d’être conscient de cette éventualité, particulièrement pour les mineurs qui peuvent se retrouver à s’adresser à des dizaines de milliers de personnes sans y être préparés.

M. le président Arthur Delaporte. Vous avez mentionné vos études en sciences politiques. Avez-vous terminé votre cursus ? Êtes-vous désormais influenceuse à temps plein ?

Mme Anna Baldy. J’ai achevé mes études il y a deux semaines. Pour l’instant, je me consacre pleinement à mon activité d’influenceuse pendant la période estivale, puis je prévois de reprendre mes études à la rentrée prochaine.

M. le président Arthur Delaporte. Avec 160 000 abonnés, parvenez-vous à générer des revenus mensuels confortables ?

Mme Anna Baldy. Pour les créateurs de contenus similaires aux miens, les revenus sont essentiellement liés au nombre de vues. TikTok utilise un système de revenu par mille vues (RPM) pour les vidéos dépassant une minute de visionnage et apparaissant sur la page « Pour toi ». Seules les vues générées par l’algorithme de TikTok sont rémunérées, excluant ainsi les vues des abonnés directs. Cette rémunération constitue la majeure partie de mes revenus, les collaborations étant plus difficiles à obtenir pour du contenu éducatif comparé à du contenu lifestyle plus facilement commercialisable. Ces derniers mois, mes revenus ont oscillé entre 900 et 1 400 euros, avec une forte variabilité mensuelle.

M. le président Arthur Delaporte. Combien d’heures de travail par semaine cela représente-t-il ?

Mme Anna Baldy. La réalisation des vidéos à elle seule me prend environ quatre heures par jour. Les après-midis sont généralement consacrés à des rendez‑vous avec des associations, des institutions, des journalistes ou des sociétés de production. Si je décidais d’y consacrer tout mon temps, cela pourrait facilement représenter un emploi à temps plein.

M. le président Arthur Delaporte. Le modèle de rémunération basé uniquement sur la mise en avant par l’algorithme est particulièrement problématique, dans la mesure où des contenus choquants peuvent s’avérer plus rémunérateurs que des contenus de qualité nécessitant un important travail de préparation et d’éditorialisation.

Mme Anna Baldy. Cette situation est également liée au fait que les grandes marques, souvent perçues comme apolitiques dans l’opinion publique, sont celles qui rémunèrent le plus généreusement les collaborations. En parallèle, les institutions culturelles, les musées ou les médias indépendants n’ont pas les moyens d’allouer une part importante de leur budget à la communication. Il est évident que plus le contenu est politisé ou éducatif, plus il devient difficile d’obtenir des collaborations rémunérées.

Mme Laure Miller, rapporteure. Vous publiez depuis environ un an, mais êtes utilisatrice de TikTok depuis plusieurs années. Avez-vous constaté une évolution dans les contenus que vous voyez en tant qu’utilisatrice ?

Concernant votre relation aux réseaux sociaux, vous semblez indiquer qu’il ne faut pas tout rejeter en bloc, qu’il existe des contenus pertinents et des communautés dans lesquelles on peut se reconnaître. Cependant, vous êtes parfaitement consciente des contenus extrêmement problématiques, tels que les contenus racistes ou misogynes, et de la violence omniprésente sur les réseaux sociaux. Vous avez évoqué une relation problématique aux réseaux sociaux lorsque vous étiez mineure. Qu’est-ce qui vous pousse aujourd’hui, malgré tout, à y consacrer autant de temps ? Quels facteurs pourraient vous amener à considérer que le rapport coût-avantage est défavorable et vous inciter à quitter TikTok ?

Mme Anna Baldy. Ma consommation personnelle de TikTok a indéniablement évolué, mais j’attribue ce changement principalement à ma propre maturation et à l’évolution de mes centres d’intérêt. TikTok excelle dans sa capacité à cibler précisément les préférences de l’utilisateur, au point qu’un simple like sur une vidéo peut déclencher un flux considérable de contenus similaires. Néanmoins, je suis parfois confrontée à des contenus que je juge choquants, tels que des micros‑trottoirs aux propos sexistes ou des analyses pseudo-sociologiques établissant des liens fallacieux entre délinquance et origine ethnique.

Bien que ces expériences suscitent en moi une profonde aversion, je reconnais être une utilisatrice assidue de TikTok. Je tente de justifier cette utilisation intensive en la rattachant à mon activité professionnelle, mais force est d’admettre que, même à vingt-deux ans, je reste sensible à un algorithme conçu pour générer une forme d’addiction. Cette réalité s’étend d’ailleurs à un large spectre d’âges, mes parents étant eux-mêmes utilisateurs de l’application.

Ma position vis-à-vis de TikTok est empreinte de contradictions, puisque je critique ouvertement son algorithme tout en l’utilisant comme outil de travail. J’estime, dans une approche qui s’inspire de la philosophie gramscienne, qu’il est nécessaire d’investir les espaces culturels accessibles. Actuellement, TikTok représente pour moi la plateforme la plus propice à l’expression de mes idées. Je n’exclus pas la possibilité de diversifier mes canaux de communication à l’avenir, notamment si des opportunités se présentent dans des médias indépendants. Pour l’heure, TikTok me permet de préserver mon indépendance éditoriale et d’atteindre une audience que je peinerais à rassembler par d’autres moyens, comme un blog écrit par exemple.

M. Thierry Sother (Soc). Je souhaite approfondir la question de votre relation complexe avec TikTok. Vous avez mentionné avoir désinstallé puis réinstallé l’application. Pourriez-vous expliciter les raisons de ces fluctuations dans votre utilisation de la plateforme ? Par ailleurs, qu’est-ce qui motive votre décision de mener ce que vous qualifiez de « combat culturel » sur TikTok, alors que de nombreux chercheurs ont démontré les limites de cette approche en raison des bulles cognitives inhérentes aux réseaux sociaux ? Comment appréhendez-vous cette problématique ?

Mme Anna Baldy. J’ai effectivement désinstallé TikTok à deux reprises pour des périodes prolongées. Ma première phase d’utilisation intensive puis de désinstallation remonte à mes années de lycée, une période particulièrement éprouvante, surtout pour une jeune fille. TikTok, du fait de son fonctionnement algorithmique, tend à exploiter le mal-être et le désespoir ressentis par ses utilisateurs, en particulier les adolescents. Il est indéniable que les personnes en dépression, confinées chez elles, constituent une cible privilégiée pour ce type de plateforme.

Plus tard, durant mes études de droit, j’ai à nouveau supprimé l’application, prenant conscience de son caractère chronophage. Je me suis rendu compte que je pouvais y passer des heures alors que je n’avais initialement prévu d’y consacrer que quelques minutes. À vingt ans, j’ai réalisé que mes doigts cherchaient instinctivement l’icône de TikTok avant même que mon cerveau n’en formule consciemment le désir.

Aujourd’hui, tout en restant critique envers les dérives de TikTok, je reconnais son potentiel éducatif. En tant que jeune adulte en pleine construction intellectuelle, j’y trouve des réflexions de militants et des recommandations de lectures que je n’aurais probablement pas découvertes par d’autres canaux. Ces contenus contribuent significativement à mon évolution personnelle.

Pour revenir à la pensée de Gramsci, je suis consciente que mon utilisation de TikTok légitime en quelque sorte son modèle économique et son omniprésence dans nos vies. Cependant, face aux messages politiques inquiétants véhiculés par certains médias traditionnels, TikTok me semble être le moyen le plus efficace de partager une vision alternative de l’information.

M. le président Arthur Delaporte. Dans le cadre des réflexions actuelles sur la régulation des réseaux sociaux, une proposition fréquemment avancée concerne l’interdiction de création de compte pour les moins de quinze ans. Quel est votre point de vue sur cette perspective ?

Mme Anna Baldy. La question de l’accès des mineurs aux réseaux sociaux soulève effectivement des interrogations légitimes. Il est évident qu’un adolescent de dix-sept ans et un enfant de treize ans ne devraient pas être exposés aux mêmes contenus. L’enfance est un processus continu et l’accès à l’information devrait idéalement suivre une progression adaptée à chaque âge.

Cependant, forte de mon expérience auprès d’acteurs de la protection de l’enfance, je reste prudente quant à l’efficacité des interdictions pures et simples. L’histoire nous montre que les adolescents trouvent généralement des moyens de contourner les restrictions, comme on le constate actuellement avec l’accès aux sites pornographiques.

Je suis par ailleurs convaincue que l’apprentissage du tri et de l’analyse de l’information ne peut se faire en privant totalement les jeunes de l’accès à celle-ci. L’éducation joue un rôle crucial dans la formation de l’esprit critique des enfants face à l’information. Les contenus créés par des vulgarisateurs comme Monsieurlechat, par exemple, peuvent avoir un impact positif sur la compréhension du monde par les jeunes.

Ainsi, bien que je comprenne les arguments en faveur d’une interdiction, je reste critique envers cette approche et suis persuadée que la prévention et l’éducation constituent des leviers plus efficaces pour protéger les mineurs.

Mme Laure Miller, rapporteure. De nombreuses vidéos sur ces plateformes ne relèvent pas de l’information éducative mais propagent des contenus extrêmement choquants, sans filtre, auxquels les enfants peuvent être exposés malgré les explications préalables que nous pourrions leur donner.

Considérant les difficultés actuelles à réguler efficacement des plateformes comme TikTok, notamment en ce qui concerne la modération des contenus problématiques tels que les SkinnyTok, ne devrions-nous pas envisager l’application d’un principe de précaution pour les plus jeunes ? Malgré les efforts d’éducation au numérique, ces derniers restent particulièrement vulnérables face à des contenus inappropriés. Dans un contexte où la modération semble insuffisante et où les contenus problématiques persistent malgré les tentatives de suppression, ne serait-il pas judicieux d’adopter une approche plus protectrice, en complément des mesures de sensibilisation et de prévention ?

Mme Anna Baldy. Je partage votre point de vue et m’oppose également à une responsabilisation excessive des enfants, qui ont besoin d’une protection particulière. Cette réflexion me rappelle une expérience vécue dans le cadre de mon travail au sein d’une association de protection de l’enfance. Nous avions participé à une rencontre organisée par le ministère de l’économie, réunissant des représentants de plateformes de réseaux sociaux et des mineurs témoignant de leur expérience en ligne. J’avais alors interrogé ces jeunes sur leur exposition à des images sexuellement explicites non sollicitées, phénomène que j’avais moi-même expérimenté au collège. Tous ont confirmé avoir vécu cette situation. Un représentant de Snapchat a tenté de rejeter la responsabilité sur les enfants en suggérant que cela résultait de l’ajout de contacts inconnus. Cette attitude de déresponsabilisation des plateformes, motivée par des intérêts économiques et favorisée par un manque de régulation, me semble particulièrement critiquable.

Concernant la question de l’interdiction d’inscription sur les réseaux sociaux pour les mineurs, je ne me considère pas comme la plus qualifiée pour trancher. Ce sujet soulève des interrogations complexes sur les limites à fixer et l’accès au contenu. Je suis convaincue qu’un enfant doit pouvoir accéder à l’information pour se préparer à participer à la vie démocratique, mais les modalités de cet accès restent à définir par des experts du domaine.

M. le président Arthur Delaporte. Vos propos reflètent parfaitement la complexité du débat que nous menons au sein de cette commission. La pluralité des points de vue souligne la difficulté de trouver un équilibre entre l’établissement d’une norme et son appropriation sociale.

Au-delà de ces considérations, votre intervention soulève la question centrale du rapport aux mineurs dans la production de contenu. En tant que créatrice, pourriez-vous nous éclairer sur la composition de votre audience ? Disposez-vous de statistiques précises ? Bien que l’identification directe des mineurs soit impossible sur TikTok, une estimation peut être déduite en analysant l’ensemble des données démographiques. Quelle est la proportion estimée de mineurs dans votre public ? Comment abordez-vous la question de la réception de vos contenus par ce jeune public ? Avez-vous reçu des témoignages de mineurs concernant vos contenus ou signalant des contenus problématiques rencontrés ailleurs ?

Mme Anna Baldy. Selon les dernières statistiques consultées, mon audience se compose de 28 % d’hommes et de 71 % de femmes, avec une prédominance de la tranche d’âge dix-huit à vingt-quatre ans à hauteur de 58,7 %. En tentant de compiler les données disponibles, j’arrive à une proportion de mineurs d’environ 0,5 %, ce qui me semble sous-estimé au vu des commentaires reçus mentionnant des expériences lycéennes ou des demandes liées à des projets scolaires.

Concernant mon approche du traitement de l’information pour un public incluant potentiellement des mineurs, je m’attache à aborder des sujets que je juge essentiels pour la sensibilisation des jeunes. J’ai, par exemple, collaboré avec une association luttant contre la prostitution des mineurs et réalisé plusieurs vidéos sur ce thème, consciente de l’impact potentiel sur de jeunes spectateurs vulnérables.

Ma démarche de vulgarisation ne vise toutefois pas à simplifier excessivement le contenu pour le rendre accessible à tous, y compris aux plus jeunes. Je m’efforce plutôt de condenser en quelques minutes des sujets complexes, tout en utilisant une terminologie précise et scientifique. Je considère en effet que les mineurs sont capables de comprendre ces termes et qu’il est bénéfique pour eux de les maîtriser. Cette approche permet de traiter des sujets approfondis de manière concise, sans pour autant sacrifier la rigueur scientifique.

M. le président Arthur Delaporte. Les données liées aux statistiques d’audience soulèvent des interrogations quant à leur fiabilité, particulièrement dans le contexte de notre réflexion sur le contrôle de l’âge et la vérification de l’identité. À ce propos, pourriez-vous nous préciser si vous avez déclaré votre âge réel lors de votre première inscription sur TikTok ?

Mme Anna Baldy. Effectivement, lors de la création de mon premier compte, j’ai déclaré mon âge réel qui était, si je me souviens bien, de quinze ans à ce moment-là.

M. le président Arthur Delaporte. Votre témoignage suggère qu’il existe probablement des statistiques plus précises concernant les utilisateurs déclarant sincèrement leur âge.

N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.

49.   Audition de M. Loïc Duflot, chef de service de l’économie numérique à la Direction générale des entreprises, et Mme Chantal Rubin, chef de pôle structurel numérique et affaires juridiques du Pôle Régulation des plates-formes numériques (REGPFN), M. Matthieu Couranjou, délégué à la régulation des plateformes numériques à la Direction générale des médias et des industries culturelles, et M. Sébastien Bakhouche, chef de service, adjoint à la directrice générale (jeudi 5 juin 2025)

La commission auditionne conjointement M. Loïc Duflot, chef de service de l’économie numérique à la Direction générale des entreprises, et Mme Chantal Rubin, chef de pôle structurel numérique et affaires juridiques du Pôle Régulation des plates-formes numériques (REGPFN) ; M. Matthieu Couranjou, délégué à la régulation des plateformes numériques à la Direction générale des médias et des industries culturelles, et M. Sébastien Bakhouche, chef de service, adjoint à la directrice générale ([47]).

M. le président Arthur Delaporte. Nous recevons Monsieur Loïc Duflot, chef de service de l’économie numérique à la Direction générale des entreprises (DGE), Madame Chantal Rubin, chef de pôle structurel Numérique et affaires juridiques du Pôle Régulation des plates-formes numériques (REGPFN), Monsieur Matthieu Couranjou, délégué à la régulation des plateformes numériques à la Direction générale des médias et des industries culturelles (DGMIC) et Monsieur Sébastien Bakhouche, chef de service, adjoint à la directrice générale. Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Loïc Duflot, Mme Chantal Rubin, M. Matthieu Couranjou et M. Sébastien Bakhouche prêtent serment.)

M. Loïc Duflot, chef de service de l’économie numérique au Pôle Régulation des plates-formes numériques (REGPFN). La DGE, rattachée au ministère de l’économie, est chargée du développement des entreprises en France. Notre service de l’économie numérique se concentre spécifiquement sur le développement des acteurs du numérique. Nos activités s’articulent autour de trois axes principaux qui sont la démocratisation des technologies numériques, l’innovation numérique et la protection dans le domaine numérique, ce dernier point étant particulièrement pertinent pour notre discussion d’aujourd’hui.

Nous nous sommes saisis des questions relatives aux plateformes numériques dès le début des années 2010, contribuant notamment à leur première définition légale dans la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique. Une équipe dédiée de six personnes est désormais chargée de définir les axes stratégiques de politique publique en la matière et de suivre l’application des textes en vigueur, notamment le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services sct (DSA) et le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques) dit Digital markets act (DMA). Ces règlements européens, adoptés sous la présidence française de l’Union européenne, marquent un changement de paradigme en ce qu’ils responsabilisent les acteurs du numérique sur les contenus et les questions de concurrence, et positionnent la Commission européenne comme régulateur pour les plus grands acteurs du secteur. Cette évolution marque une rupture avec le modèle précédent, hérité de la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur dite directive « e-commerce » et fondé sur un principe de responsabilité limitée des hébergeurs et des intermédiaires techniques.

Bien que la DGE ne soit pas directement impliquée dans la mise en œuvre opérationnelle de ces règlements ou dans le contrôle de leur bonne application par les acteurs, elle en suit l’application et effectue des propositions pour les faire évoluer si nécessaire. Nous soutenons la mise en œuvre de ces textes au niveau européen, ce qui implique une mobilisation pleine et entière de la Commission, assortie de moyens à la hauteur des enjeux. Cela suppose également de réduire les asymétries d’information qui existent aujourd’hui entre les régulateurs, la Commission et les régulateurs nationaux tels que l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en France, qui interviennent davantage auprès des acteurs locaux. Cette asymétrie d’information entrave la capacité de la Commission à appuyer efficacement les régulateurs nationaux.

C’est dans ce cadre que deux initiatives ont été menées à l’échelle nationale. La première réside dans la création, par la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique dite loi SREN, d’un réseau des régulateurs, dont l’objectif est de coordonner leur action et de faciliter le partage d’informations. La seconde est la création du pôle d’expertise de la régulation numérique (Peren), qui vise à mutualiser l’expertise technique au sein de l’État, afin de soutenir le travail des régulateurs en leur mettant à disposition une compétence technique partagée, ce qui permet d’éviter la duplication inefficace des expertises dans chacun des organismes concernés. Le Peren œuvre ainsi au bénéfice de l’ensemble des acteurs impliqués, qu’il s’agisse des autorités administratives indépendantes ou des services du Gouvernement.

Concernant la protection des mineurs, nous sommes conscients des risques posés par les réseaux sociaux, comme l’ont souligné de nombreux rapports et études. Nous soutenons fermement, au niveau européen, la mise en place d’une vérification d’âge efficace sur les réseaux sociaux, que nous considérons comme essentielle pour responsabiliser les acteurs et adapter les interfaces pour les mineurs. Cette mesure est également essentielle pour aborder les questions de majorité numérique.

La Commission européenne mène actuellement une consultation publique sur les lignes directrices d’application du DSA, notamment sur son article 28 relatif à la protection des mineurs. Nous nous mobiliserons pour soutenir une mise en place aussi rigoureuse que possible de la vérification d’âge pour les réseaux sociaux.

M. Sébastien Bakhouche, chef de service, adjoint à la directrice générale, Direction générale des médias et des industries culturelles (DGMIC). Le DSA est l’élément réglementaire essentiel s’appliquant à la protection des mineurs pour une plateforme telle que TikTok. Il s’agit d’un règlement d’harmonisation maximale qui prévoit, pour les très grandes plateformes, un dispositif de régulation par les risques. Celui-ci oblige ces acteurs à mettre en place des dispositifs de maîtrise des risques, particulièrement en matière de protection des mineurs.

L’article 28 du DSA fixe ainsi le principe de l’adoption de mesures appropriées et proportionnées pour garantir un niveau élevé de protection et de sécurité des mineurs sur le service des grandes plateformes. L’article 35 impose quant à lui des obligations de publication annuelle sur la manière dont les risques sont maîtrisés. Ce dispositif est surveillé par la Commission européenne et peut donner lieu à des sanctions allant jusqu’à 6 % du chiffre d’affaires.

Cette disposition a vocation à être précisée, en ce qui concerne la protection des mineurs, par un projet de lignes directrices que la Commission européenne a mis en consultation publique jusqu’au 10 juin. Ces lignes directrices ont pour objectif de définir avec précision la manière dont le DSA s’applique à la protection des mineurs sur l’ensemble du champ des plateformes, que ce soit en matière d’interface, de fonctionnalités ou encore de fonctionnement des algorithmes. Il s’agit d’un document particulièrement attendu, puisqu’il déclinera très concrètement la façon dont la Commission européenne entend mettre en œuvre le règlement et assurer la surveillance de la maîtrise des risques liés à la protection des mineurs.

Le DSA, récemment entré en application, confère à la Commission européenne un pouvoir de régulation sur les très grandes plateformes, une innovation importante poussée par la France lors des négociations. Cette approche évite une régulation par le régulateur national du pays d’origine, généralement l’Irlande où la plupart des plateformes sont installées. Bien que cette avancée reste à évaluer en termes d’application et d’effets concrets, elle représente un progrès significatif en matière de réglementation.

M. le président Arthur Delaporte. Mme la rapporteure et moi-même avons passé la journée d’hier à Bruxelles et les échanges que nous avons ce matin sont extrêmement complémentaires de ceux que nous avons eus avec la Commission européenne, la Direction générale des réseaux de communication, du contenu et des technologies (DG Connect) et l’ensemble des acteurs rencontrés. Des questions d’application et d’interprétation, notamment de l’article 28, se posent encore.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. L’article 38, qui impose aux très grandes plateformes comme TikTok de proposer un système de recommandation de contenu non fondé sur le profilage, vous semble-t-il respecté ? De même, TikTok et les autres réseaux sociaux respectent-ils l’article 39 du DSA prévoyant la mise à disposition du public d’un registre des publicités ? Qu’en est-il de l’article 40, qui prévoit que les instances de régulation puissent avoir accès à l’algorithme des réseaux sociaux et qui met à disposition des données clés de leur interface pour la recherche ? Quel est votre avis sur la bonne application de ces articles ?

M. Sébastien Bakhouche. En tant qu’administration centrale, notre responsabilité se limite à la conception de la réglementation et à la négociation des textes au niveau communautaire. L’application de ces textes relève, quant à elle, de la compétence des régulateurs. Nous ne disposons donc pas des informations dont bénéficient les régulateurs pour évaluer le respect du texte par les différents acteurs concernés.

L’appréciation des conditions d’application incombe principalement à la Commission européenne, puis au comité des régulateurs où siège l’Arcom. Les informations permettant d’évaluer le respect du règlement, auxquelles nous n’avons pas accès, sont transmises uniquement aux régulateurs. Par conséquent, nous ne sommes pas en mesure d’émettre des appréciations sur la manière dont les acteurs respectent ou non la réglementation.

M. Matthieu Couranjou, délégué à la régulation des plateformes numérique, Direction générale des médias et des industries culturelles (DGMIC). Je confirme que le rôle de régulateur n’incombe pas aux administrations centrales. Bien que nous puissions avoir une opinion personnelle sur ces questions de bonne application par TikTok, il n’est pas de notre ressort d’y répondre officiellement.

M. Loïc Duflot. La position de la DGE est identique. Les articles du DSA que vous avez cités soulèvent néanmoins la question centrale du paramétrage des réseaux et de sa capacité à réduire les risques identifiés.

La philosophie du DSA repose sur une approche de gestion des risques. Les acteurs doivent identifier les risques qu’ils génèrent pour leurs utilisateurs et proposer des mesures d’atténuation. Si les régulateurs jugent ces mesures inefficaces, ils sont habilités à ouvrir des enquêtes et, le cas échéant, à sanctionner.

Parmi les mesures d’atténuation des risques, la question du paramétrage, qui désigne la capacité de l’utilisateur à contrôler et à bénéficier de la plateforme selon ses souhaits, est centrale. Ce point est particulièrement important pour les utilisateurs mineurs car il prévoit un paramétrage des outils adapté à ce que l’utilisateur souhaite et à ce à quoi il peut accéder. Il s’agit d’une bonne pratique à encourager, pour les utilisateurs majeurs comme pour les mineurs.

Mme Laure Miller, rapporteure. En effet, bien que vous ne soyez pas directement impliqués dans la mise en œuvre concrète de la régulation, j’espérais obtenir votre analyse, y compris personnelle, sur l’application effective de ce que vous avez contribué à négocier. Mon objectif était de vous inviter à prendre du recul et à nous dire si, selon vous, l’esprit du DSA est actuellement respecté par les grandes plateformes. Je comprends votre réticence à vous prononcer à titre personnel et je la respecte. Lors de notre visite à Bruxelles, nous avons toutefois constaté des évolutions significatives. Avec l’élaboration des lignes directrices et le projet d’identité numérique, il apparaît clairement que l’enjeu principal est de concrétiser la vérification de l’âge. Nous avons beaucoup entendu parler d’une expérimentation prévue pour juin 2025, impliquant potentiellement trois pays, dont la France. Avez-vous connaissance de ce projet et disposez-vous de plus amples informations à ce sujet ?

M. Loïc Duflot. La protection des mineurs et la vérification de l’âge sont effectivement au cœur des débats européens actuels. Ces questions sont abordées dans les lignes directrices en cours de consultation publique et seront discutées lors du prochain conseil télécom, réunissant les ministres européens du numérique et la Commission européenne. Ce sujet est désormais prioritaire dans l’agenda politique européen.

La Commission européenne a effectivement lancé un projet pilote qui vise à définir les modalités de vérification d’âge, avec pour objectif de déterminer les meilleures pratiques en la matière tout en préservant un équilibre avec les libertés publiques. Il s’agit d’un sujet complexe, car de nombreux pays se sont déjà heurtés à cette problématique sans parvenir à une solution satisfaisante, en raison de la nécessité de concilier la protection des mineurs et le respect des libertés individuelles, notamment en matière de vie privée.

Dans le cadre de la préparation à la mise en œuvre de la loi SREN, l’Arcom, en collaboration avec la Commission nationale de l’informatique et des libertés (Cnil), travaille sur des dispositifs techniques répondant à ces enjeux. Ces travaux collectifs permettent de développer des solutions techniques matures qui devraient répondre aux besoins du marché en matière de vérification d’âge sur internet. Les travaux de la Commission s’inscrivent dans cette dynamique. Quant aux suites qui seront données à cette expérimentation, je pense qu’il serait plus approprié d’interroger directement la Commission à ce sujet.

M. le président Arthur Delaporte. Avez-vous rédigé une note préparatoire pour étayer la position du Gouvernement concernant les mécanismes de contrôle de l’âge ? Avez-vous également préparé des notes à l’intention du cabinet des ministres sur les échéances de mise en application de ces différents éléments ?

M. Loïc Duflot. Concernant la vérification de l’âge, nous sommes en train de préparer une note des autorités françaises. Celle-ci n’est pas encore finalisée, la consultation publique se terminant en fin de semaine prochaine. Sans préjuger des arbitrages politiques, il est raisonnable de penser que cette question sera au cœur de la réponse qui sera formulée.

M. le président Arthur Delaporte. Avez-vous participé à l’élaboration de la position ou à la réflexion concernant, par exemple, l’âge minimal ?

M. Loïc Duflot. La DGE n’a pas pour rôle de fixer ou de contribuer directement à la réflexion sur le niveau d’âge minimal. Nous examinons cependant ce qui est réalisable aux niveaux national et européen sur le plan juridique et ce qui relève effectivement de nos attributions. Conformément à la philosophie de la directive « e-commerce » et des récents textes de régulation numérique tels que le DSA, le DMA, et le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle) dit AI act, nous sommes dans un cadre d’application directe et d’harmonisation maximale au niveau européen. Ces dispositifs visent à réguler les plus grands acteurs sous l’égide de la Commission. Pour des travaux aussi systémiques, le niveau européen est clairement le plus approprié. C’est pourquoi nous suivons attentivement les débats autour de ces lignes directrices qui, bien entendu, ne marqueront pas la fin du processus. Nous attendons avec intérêt les résultats du débat au conseil télécom sur cette question, sachant que plusieurs pays européens sont particulièrement sensibles à ces enjeux.

M. Matthieu Couranjou. La philosophie du DSA repose sur l’obligation de respecter les conditions générales d’utilisation (CGU). Actuellement, la majorité des réseaux sociaux fixent un âge minimal de 13 ans. La priorité est donc de s’assurer, en fonction des risques évalués, que cette condition inscrite dans les CGU, relevant du droit américain, est effectivement respectée.

Concernant le projet de lignes directrices, nous le jugeons globalement très complet. La France avait été consultée en amont sur les propositions de la Commission européenne et avait fourni une réponse détaillée, tout comme l’Arcom. Si nous retrouvons globalement nos préoccupations dans ce projet, il reste néanmoins à clarifier la question de l’exigence que nous devons avoir quant à leur bonne application, particulièrement sur l’accès des mineurs en dessous d’un certain âge ou conformément aux CGU. Ce point sera majeur dans notre réponse à la consultation. Nous comprenons que ces lignes directrices seront ensuite publiées et mises en application directe à partir de l’été. Nous attendons donc des résultats rapides sur ces questions, non seulement de la part des grands réseaux sociaux, mais de toutes les plateformes, quelle que soit leur taille, car l’article 28 concerne l’ensemble des plateformes. Les obligations des très grandes plateformes seront complétées par une approche de risque systémique.

Nous pouvons exiger des résultats rapides sur la mise en œuvre de ces lignes directrices, y compris pour les services pornographiques qui font l’objet d’une forte actualité en France.

Mme Laure Miller, rapporteure. Je souhaite aborder la question de la responsabilité des réseaux sociaux, qui sont actuellement considérés comme de simples hébergeurs malgré un renforcement de leurs responsabilités. Lors des négociations et de la rédaction du DSA, la question de l’évolution de leur statut s’est-elle posée ? La France avait-elle une position particulière à ce sujet ? Comment expliquez-vous qu’ils ne soient pas aujourd’hui qualifiés d’éditeurs, ce qu’ils sont manifestement dans les faits étant donné que leurs algorithmes orientent clairement les contenus ?

M. Loïc Duflot. La DGE n’ayant pas été présente lors des discussions, je ne peux apporter qu’un éclairage contextuel sur cette question. Le système initial, basé sur la directive « e-commerce », établissait une responsabilité limitée des hébergeurs, fondement du développement d’internet tel que nous le connaissons. À la fin des années 2010, face à l’émergence de nouveaux modèles, il est apparu nécessaire de maintenir ce statut général tout en responsabilisant davantage certains acteurs. Ces derniers peuvent être à la fois éditeurs au sens strict sur certaines parties de leur service et plateformes mettant à disposition des contenus tiers, leur rôle fondamental.

Le DSA représente une avancée significative dans la direction de cette responsabilisation. Bien que certains puissent juger ce progrès modeste, il constitue en réalité un pas de géant par rapport à la situation initiale. Concernant la distinction entre éditeur et hébergeur, le premier effectue traditionnellement un travail éditorial sur les contenus. Le débat porte donc sur l’étendue de ce travail réalisé par les plateformes, sachant que pour une partie des contenus qu’elles traitent, ce n’est pas nécessairement le cas. La dichotomie entre éditeur et hébergeur s’avère donc insuffisante pour appréhender la complexité des plateformes actuelles, d’où l’ajout d’une couche de régulation supplémentaire grâce au DSA.

M. Sébastien Bakhouche. Cette question revêt une importance capitale, d’autant plus que la distinction entre éditeurs et hébergeurs s’inscrit dans un cadre juridique national de longue date, notamment la loi du 29 juillet 1881 sur la liberté de la presse. Il est légitime de s’interroger sur l’applicabilité de cet héritage historique aux nouvelles réalités technologiques, en particulier aux spécificités des grandes plateformes.

Depuis le début des années 2000, le droit communautaire opérait une distinction entre hébergeur et créateur de contenu qui ne correspond plus exactement à la situation actuelle des plateformes en matière de diffusion d’information. Cependant, une différence fondamentale persiste entre le rôle d’une plateforme et celui d’un éditeur de presse traditionnel : la création de contenu. Un éditeur de presse produit et diffuse ses propres contenus d’information, tandis qu’une plateforme se contente de diffuser des contenus produits par d’autres.

Cette nuance est centrale et justifie, selon nous, la création d’un régime de responsabilité intermédiaire spécifique, adapté à cette situation particulière. Ce nouveau régime ne devrait être ni celui applicable aux éditeurs de presse traditionnels, ni celui des simples hébergeurs. Il s’agirait de reconnaître la responsabilité de fait des plateformes dans la diffusion de divers contenus, notamment d’information, tout en tenant compte de leur spécificité par rapport aux éditeurs de presse en termes de production d’informations.

M. Matthieu Couranjou. Le débat ne s’est pas nécessairement posé en termes de création d’un statut intermédiaire. La directive « e-commerce » établissait initialement la dichotomie entre éditeur et hébergeur à une époque où internet était fondamentalement différent, un hébergeur étant essentiellement un prestataire technique stockant des sites internet tels que des blogs, des pages personnelles, des sites de médias ou de e-commerce.

L’avènement des réseaux sociaux a profondément modifié cette donne, puisque les plateformes ont commencé à collecter, organiser, recommander et présenter des contenus générés par leurs utilisateurs, tout en s’abritant derrière le statut confortable d’hébergeur technique à responsabilité limitée.

Le DSA a marqué un tournant décisif en consacrant le régime de responsabilité conditionnelle des hébergeurs tout en créant le nouveau statut de plateforme en ligne. Ce dernier s’applique aux hébergeurs diffusant des informations publiques à la demande de leurs utilisateurs et s’accompagne de responsabilités nettement accrues par rapport à celles d’un simple hébergeur technique au sens de la directive « e-commerce ». Ces responsabilités sont, en outre, proportionnées à l’audience de la plateforme, avec une couche supplémentaire pour les très grandes plateformes, incluant une approche basée sur les risques.

Durant les négociations, cette approche nous convenait, d’autant plus que la France avait activement contribué à ces réflexions en souhaitant dépasser le simple statut d’hébergeur technique pour attribuer de nouvelles responsabilités aux plateformes. Le DSA atteint cet objectif en actualisant le débat. Bien qu’un statut intermédiaire se rapprochant de celui des éditeurs puisse être envisagé, il convient de rappeler que les réseaux sociaux contribuent à la liberté d’expression. Le Conseil constitutionnel a d’ailleurs consacré ce principe en 2020 lors de la censure de la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet.

L’équilibre trouvé par le DSA n’a pas été remis en question lors des négociations. Aucun pays, y compris la France, n’a plaidé pour un passage direct au statut d’éditeur. L’approche proposée nous a semblé satisfaisante, notamment grâce à l’approche par les risques qui paraît appropriée pour garantir un équilibre entre la lutte contre les contenus illicites et préjudiciables d’une part, et la préservation de la liberté d’expression d’autre part.

Nous sommes actuellement dans une phase intermédiaire qui doit encore faire ses preuves. Un bilan pourra être dressé lors du premier cycle de régulation du DSA en 2027. À ce stade, nous estimons que ce cadre pourrait convenir, mais il faudra le confirmer à l’usage.

Mme Chantal Rubin, chef de pôle structurel numérique et affaires juridiques du pôle Régulation des plates-formes numériques (REGPFN). Lors des négociations de 2022, la Commission européenne avait d’emblée établi que la directive « e-commerce » ne serait pas révisée. Le contexte politique était clairement orienté vers l’élaboration du DSA, sans réexamen des règles de la directive. Cette position constituait une ligne rouge pour la Commission européenne dès le départ et aucune coalition d’États membres ne semblait prête à défendre une thèse alternative.

Concernant le rôle éditorial, nous parlons en réalité de la conception éditoriale des systèmes algorithmique par les opérateurs, que le DSA aborde précisément. Les lignes directrices établissent clairement que la Commission européenne exige, notamment pour la protection des mineurs, que le paramétrage des algorithmes de recommandation ne soit pas basé sur les comportements et les traces de navigation des mineurs, afin d’éviter d’entretenir des comportements addictifs et de surconsommation.

Le DSA permettra donc d’exercer un contrôle sur les choix éditoriaux en matière de systèmes algorithmiques. Par exemple, il pourra être demandé à un opérateur de mettre de côté certains critères comme le watch-time ou l’engagement en ce qui concerne la protection des mineurs. Nous entrons ainsi dans une forme de responsabilité algorithmique et éditoriale quant au choix des critères de construction de ces systèmes.

Mme Laure Miller, rapporteure. Je reconnais que le DSA permet indéniablement de grandes avancées. Les enquêtes en cours, notamment à la DG Connect, démontrent un potentiel considérable. Il existe toutefois un décalage manifeste entre l’intention législative européenne et la réalité quotidienne derrière les écrans de nos enfants. Sur TikTok, malgré les efforts déployés, nous constatons encore une présence massive de contenus inappropriés et d’utilisateurs de moins de 13 ans.

Face à ce gouffre entre l’ambition réglementaire et la situation concrète, identifiez-vous tout d’abord des marges de manœuvre au niveau national visant à renforcer la protection des mineurs, dans le respect du droit de l’Union européenne ? Avez-vous par ailleurs connaissance de réglementations ou de législations mises en place dans d’autres pays du monde qui vous sembleraient pertinentes pour améliorer la protection des mineurs en ligne ?

M. Sébastien Bakhouche. Le constat du décalage entre la réglementation et la réalité est indéniable et partagé par tous. Nous disposons d’une réglementation, mais les effets escomptés ne se produisent pas encore dans les proportions attendues. Ce décalage s’explique principalement, selon nous, par l’entrée en application progressive du DSA. Nous estimons que le DSA, tel qu’il a été conçu, doit permettre de mieux réguler tous les éléments problématiques que vous mentionnez à juste titre. Pour autant, son application n’est pas encore entrée complètement en régime de croisière. Cette montée en puissance progressive s’explique par la nécessité de prendre des actes délégués ou des lignes directrices qui seront les éléments permettant de produire des effets concrets. En matière de protection des mineurs, comme nous l’avons mentionné, les lignes directrices ne sont pas encore adoptées, ce qui est un élément important à prendre en compte pour expliquer ce premier décalage.

La Commission européenne fait par ailleurs face à des défis pratiques en termes de ressources humaines pour assumer pleinement les missions qui lui ont été confiées par le législateur européen. De notre point de vue, il est encore trop tôt pour juger de la portée réelle du DSA, car les conditions permettant son application pleine et entière ne sont pas encore réunies à ce jour.

M. Loïc Duflot. Des clauses de réévaluation des dispositifs sont prévues, comme dans toute régulation européenne, et nous devons laisser le temps à ces dispositifs de produire leurs pleins effets.

La question n’est pas tant ce que prévoit la régulation, car nous estimons que le contenu actuel du DSA est véritablement adapté aux enjeux et a été conçu précisément pour y répondre. L’enjeu réside désormais dans sa mise en œuvre et dans le soutien ferme que nous apporterons à la Commission dans l’application de ces dispositions vis-à-vis des grandes plateformes.

Concernant la répartition des responsabilités entre le niveau national et européen, nous abordons un sujet complexe. La philosophie de la directive « e‑commerce » des années 2000 repose sur le principe du pays d’origine, qui est une pierre angulaire de la construction du marché unique du numérique. Ce principe prévoit que les acteurs seront régulés dans l’État où ils sont établis en Europe. Dans les faits, la plupart des plateformes sont établies en Irlande. Par conséquent, ce sont principalement les régulateurs irlandais qui ont la capacité de réguler ces acteurs, et ce sont surtout les lois irlandaises qui ont un impact sur ce que peuvent faire les plateformes sur le territoire de l’Union, même si la directive « e-commerce » prévoit des exceptions à ce principe.

La Cour de justice de l’Union européenne (CJUE) a rendu l’année dernière un arrêt qui vient renforcer et clarifier les conditions dans lesquelles les États membres peuvent invoquer les exceptions prévues par l’article 3 de la directive « e‑commerce ». Cet article dispose que seules des mesures particulières, et non générales, peuvent être prises, sous réserve d’être notifiées à l’ensemble des États membres et à la Commission, au cas par cas.

Cette décision, combinée aux dispositions du DSA, du DMA et de l’IA Act, implique que la réglementation du numérique s’élabore principalement à l’échelle européenne. La marge de manœuvre des États membres s’en trouve considérablement réduite, en particulier concernant les acteurs non domiciliés sur leur territoire, qui constituent la majorité des cas. Bien que cela ne signifie pas une impossibilité totale d’action, le champ d’intervention reste très limité.

Il convient néanmoins de mentionner une mesure nationale significative, adoptée dans le cadre de la loi SREN, qui fait actuellement l’objet de discussions. Les articles 1 et 2 de cette loi visent à instaurer, sous la supervision de l’Arcom, un système efficace de vérification de l’âge sur les plateformes hébergeant des contenus pornographiques. Ce dispositif s’appuie sur la directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels, dite directive Services de médias audiovisuels (SMA) et sur l’impératif de protection des mineurs face à des contenus particulièrement préjudiciables.

M. Matthieu Couranjou. Je tiens à souligner l’importance du caractère d’harmonisation maximale du DSA et du DMA, qui signifie qu’il est impossible d’adopter des mesures nationales poursuivant les mêmes objectifs que ces textes européens. Nous sommes donc contraints de nous en remettre à la régulation européenne.

La France conserve toutefois un rôle significatif grâce à sa voix influente dans les discussions européennes sur ces questions. Nous avons la capacité de promouvoir certaines positions, comme nous l’avons fait sur la question de la pornographie, en tirant parti d’une articulation encore imparfaite entre le DSA et la directive SMA, qui traite spécifiquement de la protection des mineurs sur les plateformes de partage vidéo.

Nous avons estimé que, tant que les lignes directrices de la Commission concernant la protection des mineurs dans le cadre du DSA n’étaient pas finalisées, nous disposions d’une marge de manœuvre pour agir en faveur de la protection de nos enfants. Néanmoins, cette démarche s’est avérée complexe en raison de la nécessité de respecter la directive « e-commerce » et ses procédures dérogatoires de notification. Ces procédures exigent une notification individuelle pour chaque site pornographique auprès de chaque pays d’établissement, afin de déterminer si le pays en question compte prendre des mesures et, dans le cas contraire, nous permettre d’agir.

Ces procédures sont particulièrement lourdes et complexes. Bien qu’elles puissent être utilisées dans certains cas, l’harmonisation maximale imposée par le DSA rend leur mise en œuvre de plus en plus difficile.

Mme Laure Miller, rapporteure. Avez-vous connaissance d’autres réglementations ou législations à travers le monde qui vous semblent pertinentes à examiner, y compris dans l’optique d’orienter ou de modifier la réglementation européenne ?

M. Loïc Duflot. L’Europe, et la France en particulier, font figure de pionniers sur ces questions, notamment avec le DSA et les articles de la loi SREN que j’ai mentionnés précédemment. Plus généralement, concernant la protection des mineurs, d’autres initiatives ont été mises en place, comme la plateforme jeprotegemonenfant.gouv.fr, qui a été promue il y a plusieurs années ou les mesures relatives au contrôle parental qui visent à garantir la présence d’au moins un outil de contrôle parental sur les terminaux.

L’ensemble de ces mesures se complète mutuellement. Je n’ai pas connaissance de législations étrangères qui auraient mis en place des dispositifs plus ambitieux que les nôtres dans ce domaine.

Mme Chantal Rubin. Les autorités australiennes ont récemment adopté une réglementation assez prescriptive concernant l’accès aux réseaux sociaux. Il ne s’agit toutefois pour l’instant que d’un énoncé de loi et toute la question réside dans sa mise en œuvre pratique, pour laquelle nous ne disposons pas encore de précédents.

En Europe, nous bénéficions aujourd’hui d’un avantage certain, notamment grâce au cas des contenus pornographiques. Nous disposons désormais de mécanismes techniques de vérification de l’âge qui sont fiables et reconnus.

Les autorités britanniques, par le biais de l’Ofcom, ont récemment publié un code exhaustif sur la protection des mineurs en ligne. Leur approche très ouverte, typiquement britannique, repose sur un dialogue avec les acteurs du secteur à qui il appartient d’évaluer les risques. L’échelle de vérification de l’âge varie considérablement selon les plateformes. Les Britanniques peuvent accepter des mécanismes qui se limitent à une estimation ou une approximation de l’âge, sans véritable garantie de fiabilité.

Ce qui distingue la France et l’Europe, c’est que nous disposons de dispositifs techniques qui renforcent véritablement notre approche en matière de protection des mineurs en ligne.

M. le président Arthur Delaporte. Je vous invite à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.

50.   Audition de M. Marc Pelletier, chef de la sous-direction de l’innovation, de la formation et des ressources à la Direction générale de l’enseignement scolaire (DGESCO), Mme Stéphanie Gutierrez, son adjointe, et Mme Claire Bey, cheffe du bureau de la santé et de l’action sociale, Mme Florence Biot, sous-directrice de la transformation numérique à la Direction du numérique pour l’éducation (DNE), et Mme Marie-Caroline Missir, directrice générale du Réseau Canopé et du Centre pour l’éducation aux médias et à l’information (Clemi) (jeudi 5 juin 2025)

La commission auditionne conjointement M. Marc Pelletier, chef de la sous-direction de l’innovation, de la formation et des ressources à la Direction générale de l’enseignement scolaire (DGESCO), Mme Stéphanie Gutierrez, son adjointe, et Mme Claire Bey, cheffe du bureau de la santé et de l’action sociale ; Mme Florence Biot, sous-directrice de la transformation numérique à la Direction du numérique pour l’éducation (DNE), et Mme Marie-Caroline Missir, directrice générale du Réseau Canopé et du Centre pour l’éducation aux médias et à l’information (Clemi) ([48]).

M. le président Arthur Delaporte. Nous recevons Monsieur Marc Pelletier, sous-directeur de l’action éducative à la direction générale de l’enseignement scolaire (DGESCO) ainsi Madame Stéphanie Guttierez, son adjointe, Madame Florence Biot, sous-directrice de la transformation numérique à la Direction du numérique pour l’éducation (DNE) et Madame Marie-Caroline Missir, directrice générale du Centre pour l’éducation aux médias et à l’information (Clemi). Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Marc Pelletier, Mme Stéphanie Gutierrez, Mme Florence Biot et Mme Marie-Caroline Missir prêtent serment.)

M. Marc Pelletier, chef de la sous-direction de l’action éducative, de la formation et des ressources (DGESCO). La DGESCO a pour mission fondamentale la conception, la mise en œuvre et le suivi des politiques éducatives dans leur ensemble. Au sein de cette direction, la sous-direction de l’action éducative que je dirige pilote les politiques relatives aux actions éducatives, notamment celles concernant les relations avec les écrans et les questions liées au numérique. Nous traitons également de la prévention de la violence en milieu scolaire et de la réglementation des établissements. Notre sous-direction est donc directement concernée par l’objet de votre mission.

Nous abordons les questions relatives aux réseaux sociaux principalement à travers des actions éducatives à visée préventive et formative. Nous nous attachons à développer chez les élèves les compétences numériques nécessaires, en particulier à renforcer leur citoyenneté numérique en développant leur esprit critique et en consolidant l’éducation aux médias et à l’information. Nous travaillons en étroite collaboration quotidienne avec la DNE et le Clemi.

Notre action s’articule principalement autour de deux axes. D’une part, nous mettons en œuvre des politiques de prévention de la violence, notamment la lutte contre le harcèlement et plus, concernant plus spécifiquement les réseaux sociaux, le cyberharcèlement. D’autre part, nous déployons l’éducation aux médias et à l’information (EMI), qui participe pleinement à la construction de la citoyenneté numérique et figure explicitement dans le code de l’éducation. Ce dispositif s’inscrit notamment dans le cadre de l’enseignement moral et civique dispensé tout au long de la scolarité, de l’école primaire jusqu’au lycée, et comprend des dimensions spécifiques consacrées à la citoyenneté numérique, à la formation à l’esprit critique et à la lutte contre la désinformation.

Une autre dimension essentielle de notre action concerne la promotion d’un usage raisonné des médias et la lutte contre toutes les formes d’addiction et les effets néfastes des écrans. Nous abordons ces problématiques sous l’angle de la santé scolaire et de la santé mentale des élèves, en travaillant étroitement avec le ministère de la santé pour développer des actions convergentes et croiser nos expertises.

Mme Florence Biot, sous-directrice de la transformation numérique (DNE). La DNE est rattachée à la DGESCO en ce qui concerne l’éducation au numérique. Cette dimension éducative s’inscrit dans un continuum qui se déploie tout au long de la scolarité des élèves.

Depuis 2019, nous avons défini un cadre de référence des compétences numériques qui s’inscrit dans le dispositif européen DigComp, que chaque pays adapte selon ses spécificités. La France a non seulement adopté ce cadre assez précocement, mais l’a surtout rendu opérationnel à travers une plateforme nommée Pix, dédiée au développement et à la certification des compétences numériques des élèves.

Ce dispositif de certification, initialement mis en place aux niveaux troisième et terminale, présuppose un entraînement régulier et un développement progressif des compétences. Face à la problématique des jeunes enfants connectés très tôt aux réseaux sociaux, nous avons instauré depuis la rentrée 2024 une obligation d’attestation des compétences numériques dès la sixième. Cette avancée marque une rupture significative avec le dispositif antérieur qui repoussait généralement ces apprentissages aux classes de cinquième ou quatrième. Il faut préciser que les programmes comportaient déjà des éléments de sensibilisation concernant la sécurisation des accès aux réseaux sociaux et les questions d’âge et d’usages, qui se sont avérés insuffisants. L’attestation obligatoire des compétences, désormais en vigueur, vient donc renforcer ce dispositif.

Les modules destinés aux élèves de sixième présentent un intérêt particulier car ils constituent de véritables outils de prévention. Ils rappellent l’ensemble des règles à suivre sur internet, enseignent les réflexes à adopter face au cyberharcèlement et proposent une approche très opérationnelle. Pix ne se contente pas de transmettre des connaissances encyclopédiques, mais place les élèves dans des situations concrètes, à travers des cas pratiques et des défis, afin de favoriser une véritable compréhension des enjeux numériques.

Nous avons également créé un Pix junior, destiné aux classes de CM1 et CM2. Cette version, qui repose sur une application entièrement différente, bien plus adaptée aux plus jeunes, fait actuellement l’objet d’une expérimentation dans tous les territoires numériques et éducatifs de chaque département. Nous avons désormais ouvert Pix junior à l’ensemble des classes de primaire souhaitant expérimenter ce dispositif et ressentant le besoin d’approfondir les compétences numériques de leurs élèves.

Le cycle 3, qui comprend les classes de CM1, CM2 et sixième, constitue une période particulièrement sensible. Nos observations révèlent en effet que deux tiers des élèves de l’école primaire accèdent déjà aux réseaux sociaux, alors même que cet accès est interdit avant 13 ans, et avant 15 ans sans accord parental. Nous constatons donc un écart considérable entre les pratiques réelles et le cadre légal, ce qui est extrêmement préoccupant. C’est pourquoi nous développons simultanément cette éducation et ces mises en situation concrètes permettant aux élèves de prendre conscience des dérives potentielles sur internet.

L’inscription des réseaux sociaux comme contenu d’enseignement dans les nouveaux programmes d’enseignement moral et civique, qui entrent progressivement en application depuis la rentrée 2024, représente une autre avancée majeure. J’insiste particulièrement sur cette nouveauté car nous renforçons significativement l’éducation aux médias sociaux, qui figurent désormais explicitement dans les programmes de troisième, de seconde, de terminale et de certificat d’aptitude professionnelle (CAP), présentés à la fois comme vecteurs de démocratie et espaces de débat, mais également comme vecteurs de désinformation, de théories complotistes et de discours haineux. Il me paraît essentiel d’aborder ces aspects problématiques qui constituent des préoccupations majeures pour l’éducation.

Nous nous appuyons naturellement sur le Clemi, ainsi que sur diverses associations partenaires telles que Génération Numérique ou Fake Off, qui proposent des ressources en ligne et des interventions auprès des élèves. La DGESCO est quant à elle chargée de déployer le programme Phare.

M. Marc Pelletier. Le programme Phare constitue un dispositif de lutte contre le harcèlement visant à créer, au sein de la communauté éducative, un environnement protégé mobilisant l’ensemble des acteurs d’un établissement scolaire, à savoir les élèves, les personnels et les parents d’élèves. Ce programme, qui comprend un volet formation, met à disposition un ensemble de ressources destinées à conduire des actions préventives contre le harcèlement. Il intègre également divers protocoles permettant de répondre aux situations problématiques lorsqu’elles surviennent, de prendre en charge les victimes et d’appliquer les sanctions nécessaires. Dans ce cadre, les ressources de formation que nous proposons abordent naturellement la question du cyberharcèlement.

Nous menons également des actions de prévention et d’alerte auprès des établissements concernant la diffusion de jeux dangereux qui se propagent parfois par mimétisme sur les réseaux sociaux comme TikTok. Nous disposons de ressources spécifiques et restons en alerte permanente face à l’émergence de nouveaux jeux dangereux afin d’informer rapidement l’ensemble des équipes éducatives.

Mme Florence Biot a parfaitement raison de souligner l’attention particulière accordée aux réseaux sociaux dans les nouveaux programmes d’enseignement moral et civique que nous déployons progressivement. L’éducation aux médias et à l’information constitue désormais une composante intégrante de l’enseignement moral et civique.

Mme Florence Biot. Nous n’avons pas encore développé le volet famille, alors que l’acculturation des parents représente un élément central de notre démarche. Si pendant longtemps nous avons considéré que les mésusages du numérique relevaient principalement de la sphère familiale et que notre priorité consistait à éduquer dans le cadre de l’éducation nationale, nous investissons désormais pleinement dans les passerelles avec les familles.

La plateforme Pix s’est ainsi étendue avec un volet Pix parents. Nous avons élaboré, en collaboration avec les associations représentatives de parents, des modules de formation spécifiques. Nous avons particulièrement travaillé avec les parents les plus éloignés du numérique pour concevoir des modules accessibles à tous ceux qui le souhaitent. Cette plateforme fournit concrètement les connaissances fondamentales que les parents doivent maîtriser pour accompagner efficacement leurs enfants dans leurs usages numériques.

En complément de cette plateforme, nous avons désormais l’obligation de diffuser une information aux parents en début d’année scolaire, conformément à la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (dite loi SREN), maintenant inscrite dans le code de l’éducation. À cette fin, la DNE et la DGESCO ont préparé une base documentaire complète de recommandations destinées aux familles. Pour garantir une information systématique touchant toutes les familles, nous avons conçu des supports de communication et planifié diverses actions concrètes qui seront déployées dès la prochaine rentrée scolaire.

M. Marc Pelletier. Je souhaite signaler la plateforme développée en collaboration avec le Centre national d’enseignement à distance (CNED), spécifiquement dédiée à la prévention du harcèlement, intitulée « Non au harcèlement - Des clés pour les familles ». Cette plateforme, accessible à tous les parents, comprend un module spécifique consacré à la lutte contre le cyberharcèlement et à la formation des parents dans ce domaine.

Mme Marie-Caroline Missir, directrice générale du Réseau Canopé. Le Réseau Canopé représente le véritable bras armé de l’ensemble des dispositifs présentés par mes collègues en termes de ressources et de mise en œuvre des programmes.

Notre action se caractérise par trois aspects fondamentaux. Premièrement, nous assurons une présence dans tous les territoires, ce qui nous permet d’accomplir le fameux « dernier kilomètre ». Nous tenons à la disposition de la commission le répertoire exhaustif des ressources pédagogiques produites (vidéos, ouvrages, ressources de formation) ainsi que nos statistiques concernant les webinaires de formation synchrone et asynchrone. Notre mission consiste à garantir, en tant qu’opérateur et par nos actions de formation menées avec l’ensemble de nos partenaires, en étroite collaboration avec l’administration centrale, l’acculturation nécessaire et l’appropriation effective sur le terrain des nombreux outils précédemment évoqués.

Deuxièmement, nous disposons d’un service national, le Clemi, qui diffuse à l’échelle nationale l’expertise en éducation aux médias et à l’information.

Troisièmement, notre réseau comprend entre 80 et 100 formateurs spécialisés dans le numérique et l’éducation aux médias et à l’information.

L’offre de l’opérateur en matière de production de contenu, de mise en œuvre de formation, de présence territoriale et d’expertise de formation justifie ainsi pleinement le qualificatif de bras armé sur un sujet nécessitant une adaptation constante. L’émergence récente des questions de parentalité, et l’évolution du rôle des réseaux sociaux, désormais intégrés plus profondément dans l’éducation aux médias et à l’information, exigent une réactivité exceptionnelle, une capacité d’adaptation permanente et une approche progressive répondant aux besoins spécifiques de la communauté éducative comme à ceux des parents que nous accompagnons. La présence territoriale de notre réseau permet d’établir ce contact essentiel avec les parents, dont nous savons qu’il est particulièrement difficile de les faire venir à l’école.

Le Clemi, service intégré de Canopé, pilote et met en œuvre la politique d’éducation aux médias et à l’information en lien avec les coordinateurs académiques. Sa gouvernance présente certaines particularités, avec des coordinateurs présents dans tous les rectorats, formés par le Clemi lui-même, en lien avec la DGESCO et la DNE.

Notre réseau se distingue également par sa capacité à déployer efficacement les politiques publiques. Je citerai, à titre d’exemple, les Territoires Numériques Éducatifs (TNE), qui concernent douze départements où nous déployons une politique du numérique éducatif au plus près des acteurs locaux, comprenant notamment une composante d’éducation aux réseaux sociaux, avec des modules de formation synchrones et asynchrones.

Concernant plus spécifiquement TikTok, nous avons lancé une action de recherche particulière baptisée Clemi Sup. Nous avons ainsi réalisé, entre 2021 et 2023, une étude auprès de 250 jeunes âgés de 11 à 19 ans, organisée en 42 groupes de discussion, qui nous a permis de tirer plusieurs enseignements concernant TikTok.

Nous avons ainsi constaté que cette plateforme constitue un espace de confrontation à des contenus choquants ou violents, qu’elle suscite des stratégies conscientes d’autorégulation (certains adolescents choisissent délibérément de ne pas installer l’application, anticipant son effet addictif) et qu’elle est source d’une fatigue attentionnelle et d’une surcharge cognitive spécifiques. Le défilement infini, les notifications intrusives et un design intentionnellement addictif génèrent, selon notre échantillon, fatigue, stress et sentiment de perte de temps.

Nous relevons également une incompréhension et une stigmatisation parentale non moins importantes, avec une réelle difficulté à aborder ce sujet dans le cadre des discussions familiales. L’étude révèle que les parents interdisent ou diabolisent souvent TikTok sans véritablement comprendre son fonctionnement ni ses usages.

Nous constatons en parallèle, chez les jeunes, une conscience critique doublée d’une défiance envers les adultes, qui est le revers de la stigmatisation évoquée précédemment. Les adolescents communiquent peu sur leurs usages de TikTok ou sur les contenus qu’ils y consultent, précisément en raison de cette stigmatisation.

Nous identifions enfin une obsession du temps consacré à TikTok, oscillant entre plaisir et perte de contrôle. Les jeunes en parlent avec lucidité, parfois avec anxiété, et même les plus enthousiastes reconnaissent leur difficulté à se déconnecter. Il convient toutefois de noter que TikTok donne également accès à des contenus éducatifs, certains enseignants étant présents sur cette plateforme, particulièrement durant les périodes de révision. Cette conscience exprimée par les jeunes crée une tension manifeste entre le plaisir qu’ils éprouvent, leur besoin d’évasion et un fort sentiment de culpabilité.

En synthèse, selon cette étude, que je souhaitais porter à votre connaissance, TikTok constitue simultanément un espace social important, un terrain émotionnel et cognitif comportant des risques, ainsi qu’un marqueur générationnel de conflits. La question de la parentalité numérique représente un axe de travail prioritaire pour nous.

Permettez-moi de conclure en vous présentant quelques chiffres illustrant notre engagement depuis 2022. Cette date marque la sortie de la crise covid et donc une accélération de notre positionnement en tant qu’opérateur de formation, notamment dans le domaine numérique, ainsi qu’une intensification de nos propositions sur ces thématiques. En analysant l’ensemble de nos formations abordant la question des réseaux sociaux chez les jeunes, nous avons recensé 159 sessions incluant une participation parentale.

Nos formations les plus demandées concernent principalement le cyberharcèlement chez les jeunes, le programme Phare, mais également la question des écrans, terminologie désormais intégrée dans nos intitulés de formation pour répondre à une demande croissante émanant tant des parents que de la communauté éducative.

Nous avons enregistré au total 11 127 participants uniquement pour les formations relatives à l’usage des réseaux sociaux et à leur encadrement dans l’espace éducatif. Ces sessions s’adressent à l’ensemble de la communauté éducative, principalement aux enseignants, mais restent accessibles aux parents, nos formations étant gratuites et ne nécessitant pas, pour celles dispensées en ligne, de disposer d’une adresse académique.

Dans le cadre du dispositif TNE, nous mettons particulièrement l’accent sur les formations à l’usage des réseaux sociaux dans les territoires concernés. Nous avons connu un pic d’activité en 2024, avec 149 sessions de formation spécifiquement consacrées à la question des réseaux sociaux, totalisant plus de 4 000 participants. Bien que ces formations soient ouvertes aux personnels d’encadrement, nos statistiques révèlent leur faible taux de participation.

Je terminerai en signalant la publication hier des nouveaux programmes d’éducation aux médias et à l’information, dans lesquels une attention particulière est accordée aux réseaux sociaux et à l’intelligence artificielle. Nous n’avons pas encore eu le temps d’analyser intégralement ces programmes, mais nous constatons manifestement une volonté d’intégrer ces sujets de façon plus approfondie.

En conclusion, en tant qu’opérateur confronté à un sujet aussi mouvant, évoluant très rapidement et générant aujourd’hui d’importantes tensions ressenties par les enseignants, nous devons répondre à un besoin d’accompagnement et de formation, encore amplifié par l’intelligence artificielle, tout en composant avec une tendance marquée au rejet global du numérique. Certains enseignants témoignent en effet d’une véritable lassitude face à la formation numérique et à l’éducation aux outils digitaux. Ils font également état d’incompréhensions parentales concernant l’utilisation d’outils numériques comme supports pédagogiques. Nous disposons pourtant de nombreuses ressources, qu’il s’agisse des Pix ou des formations proposées par nos partenaires, associations et entreprises spécialisées en technologies éducatives. Nous traversons donc une période particulièrement complexe, caractérisée par une focalisation sur les réseaux sociaux et les pratiques numériques des jeunes. Paradoxalement, alors que l’éducation numérique s’avère plus nécessaire que jamais, les enseignants se trouvent dans une position de tension, notamment vis-à-vis des parents d’élèves. Sur le terrain, nous constatons un réel appétit de connaissances concernant la parentalité numérique, la technoférence ou les risques liés aux réseaux sociaux. Nous parvenons à mobiliser des groupes de parents sur ces thématiques, ce qui représente un défi considérable dans certains territoires. Au sein de nos communautés éducatives, nous observons également un sentiment d’être dépassé par les pratiques numériques des jeunes générations, créant une forme d’épuisement professionnel face à ces enjeux. Les nouveaux programmes scolaires constituent à cet égard un point d’appui fondamental. Nous remarquons, tant à Canopé qu’au Clemi, que le concept d’éducation aux médias ne suffit plus. Nous évoluons vers une éducation aux humanités numériques, une approche globale incluant réseaux sociaux et intelligence artificielle. Ces programmes fournissent des repères essentiels et précisent le positionnement institutionnel dans ce paysage particulièrement contradictoire.

M. Marc Pelletier. L’école se trouve effectivement confrontée à des paradoxes majeurs en matière numérique. Nous devons répondre à une double injonction, celle de former impérativement les élèves aux compétences numériques et leur fournir les ressources nécessaires à une utilisation pertinente de ces outils, tout en luttant contre leurs effets pervers, ce qui nous contraint parfois à en contrôler l’usage, voire à l’interdire. Nous évoluons dans cette situation profondément paradoxale et nous nous efforçons constamment de répondre au mieux à cette double exigence apparemment contradictoire.

Mme Florence Biot. Ces tensions nécessitent une clarification des messages adressés à la communauté éducative, objectif que notre ministre actuel poursuit résolument. La circulaire de rentrée apporte déjà des éléments substantiels sur l’éducation raisonnée au numérique. Cette notion de raisonnement implique une approche progressive, des recommandations précises concernant les temps d’écran et la promotion du droit à la déconnexion. Nous avons considérablement progressé dans notre réflexion sur l’utilisation des environnements numériques de travail (ENT), tant par les élèves que par les enseignants dans leurs prescriptions pédagogiques. Nous avons élaboré un ensemble cohérent de règles et de chartes de bonnes pratiques pour ces environnements numériques. Les nouveaux programmes s’inscrivent parfaitement dans cette volonté institutionnelle de clarification concernant le numérique éducatif. Si sommes pleinement conscients des tensions existantes, la volonté de clarification est réelle, y compris sur la question centrale des temps d’écran, en prolongement des travaux de la commission dédiée à cette problématique.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Madame Missir, vous avez évoqué une étude couvrant la période 2021-2023 dont nous souhaiterions obtenir les détails. Disposez-vous de données ou d’enquêtes spécifiques concernant l’usage des réseaux sociaux par les élèves, avec éventuellement une analyse détaillée par plateforme ? Avez-vous mené ce type d’investigations dans les établissements scolaires français ?

M. Marc Pelletier. La DGESCO ne réalise pas d’enquêtes spécifiques concernant l’usage des réseaux sociaux par les élèves. Bien que nous n’interrogions pas directement les jeunes sur leurs pratiques numériques ni sur les plateformes qu’ils privilégient, nous intégrons en revanche à notre réflexion les études produites par d’autres organismes. Je pense notamment à l’enquête annuelle menée par l’association e-Enfance, avec laquelle nous collaborons étroitement sur les problématiques de harcèlement et d’autres sujets. Nous nous appuyons également sur les études de l’Organisation mondiale de la santé (OMS) et d’autres organismes internationaux. Au sein même du ministère de l’éducation nationale, le Conseil scientifique de l’éducation nationale (CSEN) produit des analyses pertinentes sur ces questions, particulièrement concernant les impacts sur le sommeil des élèves. Cette dimension sanitaire fait partie intégrante de notre approche préventive et éducative, à travers des actions spécifiques visant à promouvoir un sommeil de qualité.

Mme Florence Biot. Pour étayer nos préconisations, tant dans les programmes que dans les guides destinés aux enseignants et aux parents, nous nous appuyons sur plusieurs études chiffrées. L’étude annuelle de l’association e‑Enfance révèle qu’en 2024, 22 % des élèves de primaire affirmaient déjà ne plus pouvoir se passer de leur téléphone pendant plus d’une heure. Ce chiffre atteint 24 % pour les collégiens et 28 % pour les lycéens. La situation en primaire constitue le point le plus préoccupant, quoique les données concernant les collèges et lycées demeurent également alarmantes.

Un autre signal d’alerte majeur concerne l’exposition précoce aux réseaux sociaux. Cette étude démontre en effet que 67 % des élèves de primaire sont déjà inscrits sur des réseaux sociaux et messageries, malgré l’interdiction pour les moins de 13 ans. Ce pourcentage grimpe à 93 % au collège et à 96 % au lycée. YouTube, WhatsApp et Snapchat figurent comme les plateformes les plus utilisées par les 6‑18 ans.

Nous considérons également les travaux de l’OMS qui établissent qu’en France, la prévalence de l’usage problématique des réseaux sociaux chez les adolescents s’élève à 9 %, contre 11 % pour l’ensemble des pays participant à l’étude, avec une surreprésentation notable des filles de 13 ans. Cette différence de genre mérite attention, les jeunes filles se connectant selon l’OMS davantage que les garçons. Par ailleurs, 33 % des jeunes déclarent un usage intense des réseaux sociaux, 48 % un usage actif, tandis que seulement 10 % se considèrent non actifs.

Ces statistiques démontrent que les non-utilisateurs de réseaux sociaux représentent désormais une minorité, même parmi les plus jeunes élèves. Nous faisons face à un usage massif et non marginal de ces plateformes. Plus inquiétant encore, ces chiffres stagnent au fil du temps, malgré nos multiples actions de sensibilisation. Il devient donc impératif d’intensifier nos efforts éducatifs, tant auprès des enfants que des familles et des enseignants, ces derniers nécessitant également une sensibilisation approfondie sur ces questions.

Le CSEN constitue pour nous un repère essentiel et conduit de nombreuses études en la matière. Nous avons notamment participé à des sessions présentant les recherches sur les liens entre écran, cognition et sommeil dans le cadre de la cohorte Elfe, qui démontrent que si le contexte familial exerce davantage d’influence que le temps d’écran sur le développement des compétences cognitives, ce dernier impacte significativement le temps de sommeil.

Le CSEN insiste particulièrement sur cette question du sommeil, davantage que sur celle de la cognition. Une étude récente, dont les résultats seront bientôt rendus publics, confirme l’importance prépondérante du contexte familial et des modalités d’utilisation des outils numériques, sans constater d’impact négatif sur les capacités cognitives. En revanche, elle révèle que les écrans consultés en soirée affectent considérablement le sommeil.

Face à ces constats, nous devons impérativement accentuer nos messages sur la nécessité d’une déconnexion le soir. Nous insistons particulièrement sur l’importance, au sein des familles, d’éviter toute consultation des réseaux sociaux, des écrans en général, et même des ENT après 20 heures. La régulation stricte des temps d’écran en soirée constitue un enjeu fondamental.

Mme Marie-Caroline Missir. La commission « enfants et écrans » a constaté que la question spécifique des réseaux sociaux demeure relativement peu documentée par la recherche, exception faite de la cohorte Elfe, dont le champ d’étude englobe plus largement les écrans, incluant la télévision. Les chercheurs ayant le plus approfondi ce sujet, notamment Séverine Erhel et Anne Cordier, se sont concentrés sur les usages des réseaux sociaux chez les adolescents.

Un premier constat essentiel émergeant de nos travaux en commission concerne la nécessité de sensibiliser au design même de ces plateformes, particulièrement TikTok. Leur fonctionnement intrinsèquement addictogène présente en effet des aspects extrêmement problématiques que nous avons détaillés dans notre rapport. Ces mécanismes restent parfois méconnus des jeunes eux-mêmes et devraient faire l’objet d’un enseignement spécifique.

Nos formations révèlent également une forte demande des enseignants pour une meilleure compréhension du fonctionnement cérébral des adolescents, précisément en lien avec les réseaux sociaux. Certaines plateformes, TikTok en tête, sont conçues dans leur architecture même pour générer des effets neurologiques particulièrement puissants sur le cerveau adolescent. Nous employons le terme d’addiction avec toutes les précautions nécessaires, bien entendu.

À Canopé et au Clemi, nous constatons que toutes les conférences et formations portant sur le cerveau de l’enfant et de l’adolescent rencontrent un succès considérable. Je pense notamment aux interventions très demandées de notre collègue Grégoire Borst, du Centre national de la recherche scientifique (CNRS) et du laboratoire de psychologie du développement et de l’éducation de l’enfant (LaPsyDE).

Cette situation révèle probablement un angle mort de notre approche. Au‑delà des questions d’interdiction et d’éducation au numérique, les enseignants désirent comprendre les mécanismes cérébraux en jeu. La connaissance approfondie du fonctionnement du sommeil adolescent, par exemple, s’avère essentielle. L’information selon laquelle la sécrétion d’une hormone spécifique est stimulée par la lumière bleue des écrans à partir d’une certaine heure, entravant ainsi l’endormissement, constitue un savoir essentiel. De même, les phénomènes de technoférence pour les parents devraient être mieux connus, tant par les adolescents eux-mêmes que par leurs enseignants. Cela explique ce désir et ce besoin manifestes de formation à toutes les dimensions du fonctionnement cérébral adolescent en lien avec les usages numériques.

Mme Laure Miller, rapporteure. Affirmez-vous que toute cette question de l’impact des écrans sur le développement et le cerveau de l’enfant et de l’adolescent fait déjà l’objet d’un enseignement formel auprès des jeunes à l’école ?

Mme Marie-Caroline Missir. Justement, ce n’est pas le cas, bien que je n’aie pas encore pu analyser en profondeur les nouveaux programmes à ce sujet. Je constate simplement, du fait de ma position, que nos formations destinées aux enseignants sur ces thématiques suscitent un intérêt considérable. Nous devrions sans doute examiner plus attentivement la formation initiale mais, concernant la formation continue, nous y investissons significativement car les enseignants expriment un réel besoin de repères directement liés à la question du numérique.

Il est également essentiel que les enfants et adolescents comprennent qu’un adolescent présente des particularités propres en termes d’apprentissage, de rythme de sommeil et de besoins spécifiques. Ces connaissances, que j’ai moi-même acquises au sein de la commission grâce à mes collègues chercheurs, figurent parmi nos propositions.

M. Marc Pelletier. Les programmes évoqués sont à ce stade des projets proposés par le Conseil supérieur des programmes (CSP) qui feront l’objet de consultations par la DGESCO avant leur publication effective. Les programmes d’enseignement moral et civique actuels intègrent toutefois déjà la dimension de l’esprit critique. Cette formation concerne non seulement l’analyse critique des informations diffusées par les réseaux, mais également la compréhension des mécanismes intrinsèques de ces plateformes, conçues pour générer addiction et usage déraisonnable. Cette approche plus structurelle de l’esprit critique figure déjà dans nos programmes et constitue un angle d’analyse particulièrement pertinent.

Mme Florence Biot. Au-delà des grandes sources d’études mentionnées précédemment, nous nous appuyons également sur des recherches en neuropsychologie qui démontrent que l’utilisation problématique des réseaux sociaux entrave le développement des capacités de contrôle et de jugement critique chez les jeunes. Ces déficits se manifestent notamment dans leurs interactions sociales, leurs apprentissages et leur résistance aux dérives sectaires. L’articulation entre usage des réseaux sociaux et développement de l’esprit critique constitue donc un enjeu majeur.

Les spécialistes de l’enfance et de l’adolescence alertent également sur l’augmentation des troubles liés à l’identité de genre potentiellement induits par les algorithmes de certaines applications telles que TikTok. Il est donc impératif d’examiner attentivement ces troubles générés par les réseaux sociaux. Notre conseil scientifique, particulièrement focalisé sur les études scientifiques et la santé, nous permet d’intégrer ces connaissances, notamment les travaux de l’Institut national de la santé et de la recherche médicale (Inserm) concernant les troubles du sommeil. Ces recherches orientent directement nos décisions et nos actions.

La commission écrans a également fourni un apport décisif. Nous avons été chargés d’intégrer ses conclusions et de formuler des propositions concrètes, ce qui nourrit actuellement nos réflexions sur la formation des enseignants, l’élaboration des nouveaux programmes et le développement des compétences. Nous enrichissons également nos ressources destinées aux parents, notamment la mallette de parentalité numérique déjà disponible sur Eduscol et les webinaires sur les idées reçues du numérique. Notre approche s’inscrit par ailleurs dans une dimension interministérielle, avec une collaboration particulièrement étroite avec le ministère de la santé.

Mme Laure Miller, rapporteure. Au-delà des contenus problématiques sur les réseaux sociaux, que vous traitez déjà à travers l’éducation aux médias et à l’information, je m’interroge spécifiquement sur l’impact des écrans et des réseaux sociaux sur la santé des jeunes. Si je comprends bien, depuis la commission écrans, dont les conclusions ont été rendues à l’été 2024, les programmes destinés aux enfants, aux parents ou aux professeurs n’ont pas encore été modifiés. Les recommandations de cette commission n’ont-elles donc pas encore été appliquées concrètement ?

M. Marc Pelletier. Nous avons non seulement pris acte des conclusions de la commission écrans mais nous travaillons activement sur plusieurs de ses propositions. Ces travaux aboutiront prochainement à la publication d’un ensemble de ressources destinées aux équipes éducatives, aux personnels de l’éducation nationale ainsi qu’aux parents d’élèves. Nous intégrons pleinement ces recommandations dans notre stratégie d’action et de formation des élèves.

Mme Laure Miller, rapporteure. Ces mesures ne sont donc pas encore effectives mais pourraient l’être à la prochaine rentrée, est-ce exact ?

M. Marc Pelletier. Effectivement, cette mise en œuvre nécessite un certain temps. Nous devons intégrer les recommandations de la commission, rendues récemment, dans nos actions éducatives de manière réfléchie, et ces éléments irrigueront naturellement les nouveaux programmes lors de leur déploiement. Il est essentiel de procéder méthodiquement pour ne pas diffuser des messages sans l’accompagnement nécessaire, sans ressources pédagogiques adaptées ni formation adéquate des personnels. Cette transition s’opère donc progressivement.

Pour illustrer concrètement notre collaboration avec le ministère de la santé, celui-ci publiera très prochainement une nouvelle feuille de route concernant le sommeil. Nous travaillons conjointement sur la formulation des recommandations afin qu’elles soient optimalement utiles et opérationnelles dans leur mise en œuvre.

Mme Florence Biot. Dès la circulaire de rentrée de l’année dernière, nous avions déjà intégré les préconisations de la commission écrans concernant les plus jeunes. Le concept de numérique raisonné figure explicitement dans la circulaire de rentrée 2024, notamment pour les enfants de moins de trois ans.

Concernant le droit à la déconnexion que la ministre vient d’évoquer, nous collaborons actuellement avec les collectivités territoriales qui gèrent les marchés des ENT pour améliorer leur paramétrage. Nous souhaitons, par exemple, empêcher que les élèves reçoivent des notifications de notes à des horaires tardifs ou durant le week-end. Il s’agit notamment d’éviter que les élèves découvrent leurs notes sur l’application avant la remise des copies. Sans un paramétrage adéquat, lorsqu’un enseignant saisit ses notes dans le logiciel, celles-ci sont immédiatement visibles. Plutôt que d’imposer aux enseignants une double saisie, nous privilégions des solutions de paramétrage des ENT. Cette approche combine bonnes pratiques et configurations techniques pour résoudre des problèmes cruciaux comme la connexion tardive des élèves.

De même, nous veillons à ce que les devoirs, particulièrement pour les plus jeunes, soient également communiqués sur support papier afin que ni les parents ni les élèves ne soient contraints de se connecter. Nous avons donc mis en œuvre les recommandations de la commission dès 2024 pour tous les aspects immédiatement applicables.

M. Marc Pelletier. J’ajoute que nous avons, depuis plusieurs années déjà, interdit l’usage du téléphone portable à l’école et au collège. Dans la continuité de cette interdiction, nous avons lancé une expérimentation sur la pause numérique, initiative qui s’inscrit pleinement dans la lignée des préconisations de la commission.

Mme Stéphanie Gutierrez, adjointe au chef de la sous-direction de l’action éducative (DGESCO). Nous sommes allés au-delà de l’article L. 515 du code de l’éducation, qui interdit l’utilisation du téléphone portable dans l’établissement scolaire au cours des activités pédagogiques, sauf lorsqu’elle s’inscrivait dans un usage pédagogique encadré par les enseignants, puisque nous avons mené une expérimentation visant à interdire totalement le portable, qu’il s’agisse de son port ou de son usage par les élèves. Dans le cadre de cette expérimentation, les établissements ont pu choisir le mode d’interdiction, qu’il s’agisse de ranger les portables dans des casiers ou de recourir à des pochettes bloquant l’usage effectif des téléphones, tout cela devant naturellement se faire en lien avec les collectivités territoriales. Il s’agissait en l’occurrence des collèges, donc en lien avec les départements, responsables des dotations de fonctionnement, car tout aménagement envisagé suppose l’accord du département. Les effets attendus touchent à la fois à la santé directe des élèves et au climat scolaire dans son ensemble et nous avons d’ores et déjà pu observer une amélioration sensible de l’ambiance au sein des établissements. La ministre a demandé que cette expérimentation soit généralisée dès la rentrée, et nous travaillons actuellement à en rendre possible la généralisation sur le plan juridique.

Mme Laure Miller, rapporteure. Dois-je comprendre qu’un doute subsiste quant à la possibilité de procéder à cette généralisation d’un point de vue juridique ?

Mme Stéphanie Gutierrez. La question porte sur le mode et le vecteur normatif, autrement dit sur la manière concrète dont cette mesure pourra être traduite juridiquement.

Mme Laure Miller, rapporteure. Très bien, mais pouvons-nous considérer que cela est définitivement arrêté pour la rentrée de septembre ?

Mme Stéphanie Gutierrez. La ministre a en effet annoncé la généralisation.

M. Marc Pelletier. L’expérimentation a concerné plus de 30 000 élèves, et les résultats de l’évaluation que nous avons pu en tirer témoignent d’une amélioration globale du climat scolaire, telle qu’elle a été rapportée par les établissements eux-mêmes, avec une augmentation des interactions entre les élèves ainsi qu’une plus grande sérénité dans l’espace de la classe. Cette évolution positive s’observe notamment chez certains élèves auparavant perturbés par la sonnerie d’un téléphone ou moins concentrés, ce qui nuisait aux apprentissages. Cette mesure a également rencontré une large adhésion de la part de la communauté éducative dans son ensemble et des parents.

Mme Florence Biot. Il était important de modifier l’appellation initiale, car le terme de « pause numérique » pouvait susciter les injonctions contradictoires évoquées précédemment. Il s’agissait d’éduquer au numérique tout en annonçant simultanément une pause, ce qui pouvait prêter à confusion. Ce changement s’adressait notamment à ceux qui considéraient que nous n’éduquions plus au numérique, ce qui constituait un argument. Il devenait donc indispensable d’adapter les éléments de langage. Le nouveau terme est ainsi « portable en pause », une formulation qui met davantage l’accent sur le téléphone lui-même, car ce sont bien les usages du smartphone qui sont visés. Il ne s’agit pas de suspendre l’usage de tout écran ni celui des ordinateurs en salle informatique. Je le souligne car nous avons eu de nombreux échanges avec les collectivités, qui indiquaient ne pas comprendre le message véhiculé par l’institution à travers cette notion de pause numérique. Certaines d’entre elles nous ont d’ailleurs questionnés sur l’opportunité même d’équiper leurs établissements en ordinateurs.

Mme Laure Miller, rapporteure. S’agissant de la sensibilisation à la question des écrans il semble, à la lecture des documents diffusés, qu’une forme de sensibilisation soit effectivement menée, mais qu’elle s’accompagne d’une tendance à la dédramatisation. Les rapports récemment publiés, notamment ceux issus de la commission écrans, soulignent l’existence d’un impact significatif de l’usage des écrans sur la santé des enfants, qu’il ne faut pas sous-estimer. J’espère que les documents d’information pourront évoluer en ce sens et insister davantage sur la gravité de la situation, afin de mieux faire comprendre aux parents la nécessité de respecter un certain nombre de règles et d’éviter une exposition précoce aux écrans.

Je m’exprime ici également en tant que mère : les documents que nous recevons pour les enfants en maternelle laissent entendre qu’entre six et neuf ans, l’accès aux écrans peut être envisagé assez librement, à condition qu’il soit supervisé par les parents. Cela me paraît contestable, notamment parce que ces recommandations ne distinguent pas clairement les différents types d’écrans, alors que certains, comme les réseaux sociaux, posent des problématiques bien spécifiques. Cette approche m’a semblé à la fois insuffisamment claire et faussement rassurante, à une période où tant les déclarations des responsables politiques que les alertes de nombreux scientifiques appellent au contraire à ne pas minimiser les enjeux.

Mme Marie-Caroline Missir. Je fais partie de la commission écrans et continue d’y être très investie, même un an après la publication du rapport. La commission a formulé des recommandations très claires quant aux bornes d’âge : une interdiction totale des écrans jusqu’à trois ans, puis un usage rare mais accompagné jusqu’à six ans. Elle ne préconise par ailleurs aucunement le retrait des écrans à l’école, à l’exception de l’école maternelle. Il est essentiel de rappeler que les positions de la commission doivent être prises dans leur globalité. Celle-ci insiste fortement sur l’éducation au numérique, sur la formation dans ce domaine, et salue à cet égard le travail engagé par l’éducation nationale.

Nous traversons effectivement une période de fortes tensions, avec l’émergence de prises de position divergentes, notamment à travers des tribunes signées par plusieurs membres de l’Académie des sciences. Toutefois, ces interventions ne reflètent en rien les conclusions de la commission, dont les membres ont longuement œuvré à l’élaboration d’une position commune. Ce travail a nécessité du temps pour aboutir à de véritables points de convergence. S’agissant du champ scolaire, lors de la remise du rapport au président de la République, ce dernier a demandé à son gouvernement de formuler des propositions dans un délai d’un mois. Malgré la dissolution qui a suivi, le ministère de l’éducation nationale a été le premier à se saisir du sujet, notamment à travers l’initiative de la pause numérique.

Les projets précédemment évoqués, en particulier la publication par le Conseil supérieur des programmes de propositions de nouveaux programmes, témoignent de cette dynamique. Moins d’un an après la remise du rapport, et malgré les aléas politiques, l’éducation nationale a su faire preuve d’un engagement réel sur cette question. J’en parle ici non au nom de Canopé, mais en tant que membre actif de la commission, ayant vu de nombreux ministères, dont celui de la santé, s’intéresser à notre travail. Pour autant, les actions concrètes mises en œuvre sont, ce qui est légitime dans le cadre régalien, majoritairement venues de l’école.

Je tiens à préciser que tous les membres de la commission souhaitent que l’ensemble du rapport soit pris en considération, sans que l’attention ne se focalise exclusivement sur l’éducation nationale qui, à mes yeux, a accompli la part qui lui revient, tout en respectant l’équilibre que nous avons collectivement recherché. Je comprends les interrogations des parents que j’évoquais précédemment, ainsi que le point que vous soulevez, et nous continuons d’y travailler. Je tenais à rappeler avec fermeté que la tribune publiée par certains membres de sociétés savantes ne reflète pas les positions de la commission et que ce désaccord a fait l’objet de vifs débats en son sein.

Mme Laure Miller, rapporteure. Je me permets de reformuler mes propos, qui étaient sans doute un peu trop virulents et manquaient de mesure, afin de clarifier la question que je souhaitais vous poser. À travers les nombreuses auditions que nous avons menées jusqu’à présent, et je pense notamment à celle des parents d’enfants victimes de l’usage des réseaux sociaux, en particulier de TikTok, certains ayant malheureusement mis fin à leurs jours, nous avons parfois ressenti un décalage entre la réalité quotidienne de ces enfants, qui passent un temps considérable sur leur téléphone et les réseaux sociaux, et la perception qu’en ont certains professionnels. Ce décalage peut prendre plusieurs formes, mais celui-là précisément nous a été rapporté à maintes reprises par les familles, qui exprimaient le sentiment qu’il n’existe pas, ou pas suffisamment, de sensibilisation, y compris parmi les professionnels de santé qui, dans certains cas, semblent ne pas percevoir ce qui est pourtant évident, à savoir que la détresse d’un enfant peut être intimement liée à son usage des réseaux sociaux. Cette impression de décalage concerne également, selon ces témoignages, les professionnels de l’éducation nationale, qu’il s’agisse des enseignants du secondaire ou des professeurs des écoles. Ma question est donc la suivante : la formation au numérique, pour les professeurs, constitue‑t‑elle une option ou est-elle pleinement intégrée à leur parcours de formation initiale ?

Mme Florence Biot. Il s’agit bien d’une obligation puisque la formation initiale des enseignants comprend d’ores et déjà un volet dédié aux compétences numériques. Dès leur entrée dans le métier, les professeurs doivent en effet attester de ces compétences à travers une certification. Autrefois, cela se faisait à travers le certificat informatique et internet niveau 2 enseignant (C2i2e), remplacé aujourd’hui par le cadre de référence des compétences numériques que j’évoquais précédemment. Ce cadre a fait l’objet d’une expérimentation pendant trois ans pour les enseignants et sera prochainement inscrit dans les textes. Il est adossé à la certification Pix, qui concerne aussi bien la formation initiale que la formation continue.

Ainsi, au sein des instituts nationaux supérieurs du professorat et de l’éducation (Inspe), des modules de formation au numérique sont prévus, et ils seront renforcés, comme l’a annoncé la ministre, notamment sur les volets du numérique en général et de l’intelligence artificielle en particulier. Jusqu’à présent, le prisme dominant était celui de la citoyenneté numérique, avec une forte dimension de prévention autour, notamment, de la prévention du cyberharcèlement ou de l’éducation à l’usage responsable. Ce sont des thématiques que nous avons traitées de manière prioritaire. L’intelligence artificielle, thématique plus récente, viendra désormais enrichir ces approches. Cela dit, pour comprendre réellement ce que sont les réseaux sociaux, il est indispensable de comprendre les fondements techniques du numérique. Il existe à la fois un enjeu de littératie numérique et des compétences plus scientifiques et techniques à acquérir, notamment pour comprendre les logiques algorithmiques à l’œuvre.

Ces compétences sont enseignées dès l’école, avec une attention particulière portée à la pensée algorithmique et à la pensée informatique, qui sont désormais intégrées aux programmes scolaires dès l’école élémentaire. Même à l’école maternelle, il est possible de commencer un travail d’initiation à la pensée informatique, sans avoir nécessairement recours à un écran. Il est fondamental, lorsqu’on parle de réseaux sociaux, de ne pas dissocier l’approche citoyenne de l’approche scientifique et technologique, car les deux dimensions sont étroitement liées.

C’est précisément dans cet esprit que les nouvelles maquettes de formation initiale sont en cours de refonte. La réforme globale en cours prévoit une intégration renforcée de ces compétences dans la licence de professorat comme dans le master Métiers de l’enseignement, de l’éducation et de la formation (MEEF).

M. Marc Pelletier. Cette éducation est certes portée de manière plus spécifique par l’enseignement moral et civique, puisqu’elle en constitue un axe pleinement intégré, mais elle est également assumée par l’ensemble des disciplines, en particulier celles qui sont dispensées au lycée. Elle l’est également, de façon transversale, à travers l’éducation à l’esprit critique ainsi que l’apprentissage de la maîtrise et de l’analyse de l’information, autant de dimensions abordées dans la formation plus générale des professeurs.

Je me permets de revenir sur l’idée que vous suggériez à propos d’une communication plus marquée et davantage orientée vers les dangers ou les effets néfastes, que nous connaissons parfaitement et contre lesquels nous œuvrons collectivement. Sur ce point, il me semble important de souligner que concentrer la communication uniquement sur les risques ou sur une approche négative d’un phénomène ne constitue pas toujours la stratégie la plus efficace. Cela a été démontré, notamment dans le domaine de la santé. Affirmer, par exemple, qu’il n’est pas bien de fumer ne suffit pas, car ce type de discours isolé ne produit pas nécessairement les effets escomptés. Les enquêtes révèlent que, pour prévenir efficacement certains comportements à risque, qu’il s’agisse de pratiques alimentaires, de consommation de substances ou d’autres usages problématiques, il est souvent plus pertinent de mettre l’accent sur les bonnes pratiques. Il s’agit alors de former les élèves à agir concrètement sur les facteurs déterminants qui les conduiront à éviter ces comportements.

C’est ce double levier que nous activons et que nous avons privilégié notamment dans l’éducation à la santé, en opérant ces dernières années un véritable changement de paradigme, qui nous rend aujourd’hui bien plus efficaces. Plutôt que de tenir un discours culpabilisant ou moralisateur, dont l’impact reste souvent limité, nous mettons davantage l’accent sur les gestes appropriés et les comportements favorables à adopter, afin que chaque élève développe une capacité d’action sur sa santé et ses choix.

Toutes ces problématiques, bien que l’école les prenne en charge avec détermination, dépassent largement le seul cadre scolaire et appellent une mobilisation plus large, impliquant l’ensemble des acteurs concernés.

Mme Laure Miller, rapporteure. Il ne s’agit aucunement de remettre en cause votre rôle et nous avons pleinement conscience du fait que cela ne relève pas de votre responsabilité. Toutefois, votre position particulière vous place au contact direct des enfants, et parfois également des parents, ce qui fait que la prévention passe inévitablement aussi par vous.

Je souhaite revenir sur les tensions actuelles que vous évoquiez à juste titre, et qui traversent nos écoles et établissements scolaires. Le sujet des ENT a fait l’objet de discussions dans le cadre d’auditions précédentes, que ce soit avec des associations de parents d’élèves ou avec des parents eux-mêmes. Selon vous, est-ce à chaque établissement de paramétrer ces ENT pour faire en sorte, par exemple, qu’un message envoyé à 22 heures ne déclenche pas de notification nocturne, ou existe-t-il une règle d’ordre général, édictée au niveau national, qui impose des paramètres types ?

Nous avons par ailleurs entendu des parents d’élèves s’interroger sur la nécessité réelle de mettre des outils numériques entre les mains des enfants dans le cadre scolaire quotidien. Certains parents expriment une volonté très claire d’éloigner leurs enfants des écrans, notamment au collège, et ont parfois le sentiment que cette position devient difficile à tenir, dès lors que l’éducation nationale elle-même rend leur usage incontournable, par exemple lorsqu’il s’agit de faire un exposé ou de récupérer les devoirs. Cette contradiction apparente entre un discours de vigilance et des pratiques numériques parfois systématiques suscite un certain malaise chez ces familles. Existe-t-il une volonté, à l’avenir, de modérer cet usage, ou tout du moins de préserver une certaine souplesse, afin de ne pas contraindre les familles à remettre un écran dans les mains de leur enfant alors qu’elles souhaiteraient s’en éloigner ?

Mme Florence Biot. L’ENT, conçu comme un véritable espace de relation avec la famille, constitue une interface de communication directe, particulièrement au collège et au lycée où, contrairement à l’école élémentaire, les parents ne se rendent pas quotidiennement jusqu’aux salles de classe. Grâce à l’ENT, les familles demeurent informées, reçoivent des communications directes de l’établissement, accèdent aux ressources pédagogiques numériques, à certains manuels selon les niveaux, et aux évaluations. Notre objectif n’est donc nullement de distendre le lien avec les familles mais plutôt, comme vous l’évoquiez, de limiter les notifications et les communications à certaines heures, notamment le soir à partir de 20 heures, la nuit, ou durant le week-end, créant ainsi des plages de déconnexion.

Concernant la mise en œuvre technique, chaque éditeur possède ses propres solutions logicielles et les collectivités établissent des contrats avec ces fournisseurs. Nous avons toutefois défini un cadre technique comprenant des référentiels qui déterminent le fonctionnement des ENT. Nous disposons donc des moyens d’encadrement nécessaires, charge ensuite aux éditeurs de décliner ces normes, ce qu’ils font actuellement. Nous enrichissons continuellement ce cadre technique selon les besoins. Cette démarche implique également un dialogue avec les collectivités, entamé à la suite des annonces ministérielles mais qui s’inscrit dans la continuité des préconisations de la commission écrans.

Quant aux usages numériques, notre philosophie repose entièrement sur l’éducation. Il est impossible d’éduquer sans développer les compétences numériques des élèves, qu’elles soient techniques ou humanistes. Cette formation comprend l’algorithmique, la programmation, le codage et la compréhension du fonctionnement de cet objet technologique qu’est le numérique. L’aspect scientifique demeure essentiel. Parallèlement, l’éducation aux médias et à l’information exige des expérimentations, des défis, des interactions. Nous devons montrer aux élèves comment fonctionnent ces technologies, notamment l’intelligence artificielle, et leur permettre de comprendre les mécanismes de la désinformation. Cet apprentissage passe par la démonstration, l’expérimentation, l’analyse d’images et les exercices comparatifs. Tous ces enseignements s’intègrent naturellement dans le cadre des cours.

Mme Laure Miller, rapporteure. Ces pratiques existent effectivement depuis plusieurs années, mais je m’interroge sur le fait que certaines collectivités fournissent des ordinateurs ou des tablettes à des élèves qui disposent parfois déjà de nombreux équipements chez eux. Ces dotations supplémentaires risquent d’entraver leur capacité à faire une pause numérique à leur domicile également. Comprenez-vous cette préoccupation ?

Mme Florence Biot. Nous mettons en place l’ensemble des mesures que j’ai évoquées, mais l’apprentissage du numérique nécessite inévitablement des outils numériques. Ce sont les mésusages qui s’avèrent préjudiciables. Toutes les études scientifiques que j’ai citées démontrent que l’usage et l’environnement familial influencent davantage l’apprentissage que la simple présence des outils. Nous devons donc traiter la question de l’acculturation des familles à l’utilisation des écrans dans l’environnement domestique.

Nous avons conclu en 2023 une convention-cadre entre l’éducation nationale, Canopé, le Clemi et l’Arcom. Notre ministère et le Clemi se sont engagés à associer l’Arcom aux campagnes de sensibilisation destinées au grand public concernant les usages numériques responsables, particulièrement d’internet et des réseaux sociaux, comme le Guide de la famille tout-écran. Nous pouvons également nous engager avec l’Arcom à produire et diffuser des ressources pédagogiques numériques, à organiser des formations en éducation aux médias et à l’information, pour expliquer l’exposition des enfants aux écrans et promouvoir les usages responsables d’internet et des réseaux sociaux. Des campagnes d’information tout‑public apparaissent absolument indispensables pour prévenir les mésusages et les comportements préjudiciables face à ces outils.

Je n’élude pas la question des âges. D’ailleurs, le carnet de santé actuel comporte déjà une page consacrée au numérique et nous adhérons pleinement à ces messages de santé publique car l’éducation nationale intègre naturellement l’éducation à la santé. J’insiste néanmoins sur la nécessité pour les élèves de comprendre la technologie et de développer des compétences numériques. Il ne s’agit aucunement de restreindre leur accès aux outils numériques, ce qui pénaliserait en premier lieu les familles les plus défavorisées en les privant de la possibilité d’accéder à ces équipements. Notre approche doit maintenir un cadre strictement éducatif avec une pédagogie claire et adaptée.

M. Marc Pelletier. Sur le droit à la déconnexion et le paramétrage des ENT, je dois souligner que l’interdiction ou le paramétrage, même défini au niveau national pour limiter la diffusion d’informations à certaines heures, demeure insuffisant. Je crois fermement que l’efficacité de ces mesures repose sur leur relais au plus près des personnels, des parents d’élèves et des élèves eux-mêmes. Cette thématique doit être véritablement abordée dans chaque établissement, à travers les outils existants comme le règlement intérieur, mais également par une charte de bon usage des outils numériques. Ce travail de communication et d’explication mené par chaque établissement me paraît essentiel. Une simple décision au niveau national ne peut résoudre à elle seule toutes ces problématiques.

Mme Florence Biot. Une charte d’éducation à la culture et à la citoyenneté numérique existe déjà et a été diffusée dans tous les collèges. Ses articles ont été rédigés en collaboration avec le Clemi, l’Arcom, la Commission nationale de l’informatique et des libertés (Cnil) et tous nos partenaires habituels sur ces questions. Nous disposons également d’un guide d’accompagnement qui traite spécifiquement de la question des réseaux sociaux. Il nous faut désormais assurer une diffusion optimale de cette charte et promouvoir ces bonnes pratiques.

M. Marc Pelletier. Gardons également à l’esprit que les outils numériques possèdent de réelles vertus pédagogiques. Nous ne devrions pas, sous prétexte qu’il existe des mésusages ou d’autres effets pervers, nous priver à la fois d’une éducation au numérique et des bénéfices des outils numériques pour la pédagogie. Ces outils favorisent l’interactivité en classe, permettent une meilleure personnalisation de certains apprentissages et une adaptation aux besoins spécifiques de chaque élève, entre autres avantages. L’école ne peut se priver de ces ressources qui contribuent à la réussite des élèves.

Mme Marie-Caroline Missir. Il est indéniable que la communauté éducative éprouve aujourd’hui un sentiment de dépassement, alimenté par le débat public. Parallèlement, nous faisons face à une transition numérique particulièrement exigeante dans les classes depuis plus de deux ans avec l’arrivée de l’intelligence artificielle.

La question du numérique dans les établissements et dans le quotidien des familles doit désormais être abordée différemment. Au sein de la communauté éducative, qui inclut les parents, cette dimension ne doit plus être subie, mais explicitement intégrée. Elle devrait faire l’objet d’une discussion avec les familles en début d’année, par exemple autour de la charte numérique, et ce dès l’école élémentaire. L’objectif est de définir collectivement la place que nous souhaitons accorder au numérique dans l’établissement. Nous ne devons pas subir cette réalité, même lorsqu’elle résulte de dotations matérielles des départements. Elle doit constituer une dimension à part entière du projet éducatif de l’établissement, ce qui nécessite un travail collaboratif des enseignants.

Cette proposition de la commission revêt une importance capitale, car nous devons changer d’échelle. La question des réseaux sociaux, en particulier, fait littéralement exploser nos catégories de formation, tant au sein de l’éducation nationale qu’à Canopé. En analysant ce sujet, j’ai constaté qu’il relève simultanément de l’éducation aux médias et à l’information, du bien-être à l’école et de la santé, de la culture numérique, des humanités numériques, de la coéducation incluant la parentalité, et j’ajouterais de l’éducation à la vie affective, relationnelle et sexuelle. Nos cadres traditionnels de catégorisation de l’acte éducatif et du geste enseignant se trouvent ainsi dépassés.

Une autre recommandation de la commission s’inspire de l’exemple australien, où une structure appelée eSafety Commissioner a été mise en place, permettant à plusieurs ministères de collaborer sur ces sujets éducatifs au sens large que sont la place des réseaux sociaux et la protection des enfants et des jeunes. Nous constatons que ce sujet est éminemment européen, qu’il s’agisse de l’interdiction des réseaux sociaux ou du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital Services Act (DSA), et qu’il ne peut être envisagé uniquement dans un cadre national.

Nous devons donc changer d’échelle sur ces questions, tant en termes de moyens et d’énergie alloués que de structures et d’approche. C’est précisément ce que réclament les professionnels sur le terrain, pas uniquement la communauté éducative, mais également les professionnels de santé et d’accompagnement des jeunes. L’exemple australien présente l’intérêt d’offrir une structure facilitant l’articulation interministérielle et permettant de déployer des actions protectrices pour les jeunes, tout en redimensionnant nos approches en matière d’éducation aux médias et à l’information, d’éducation aux écrans, d’éducation numérique, d’éducation algorithmique ou de parentalité numérique. Tous ces sujets convergent vers la question fondamentale de ce que signifie faire grandir un enfant à notre époque. Cette réalité diffère profondément de celle d’il y a vingt, trente ou quarante ans. Il s’agit de repenser la place de l’enfant dans la société, message central que nous avons souhaité transmettre au sein de la commission.

Mme Florence Biot. Quelle que soit l’orientation des préconisations de cette commission d’enquête concernant les plateformes, je tiens à souligner que l’éducation nationale n’a pas vocation à exercer un rôle de gendarme ou de policier. Aujourd’hui, les plateformes échouent à interdire effectivement l’accès des plus jeunes aux réseaux sociaux, malgré les interdictions formelles. La DNE a tenu, avec les principales plateformes de réseaux sociaux dont TikTok, une unique réunion au printemps 2024. Nous leur avons proposé d’utiliser ÉduConnect comme outil de vérification d’âge lors de l’ouverture d’un compte, mais aucune d’entre elles n’a donné suite à cette proposition. Elles ont toutes indiqué attendre une solution à l’échelle européenne, arguant qu’elles ne pouvaient investir dans des dispositifs nationaux disparates.

J’attire votre attention sur l’impossibilité de charger l’éducation nationale de la responsabilité de contrôler les plateformes, quelles que soient la qualité et la profondeur de l’éducation que nous pourrons dispenser. Il est impératif que les plateformes respectent elles-mêmes les interdictions établies et s’autorégulent avec beaucoup plus de détermination. Je fais référence aux réseaux sociaux, mais également à l’accès aux sites pornographiques qui, au-delà de TikTok, soulèvent d’importants problèmes au regard des seuils d’alerte relevés dans les usages selon les dernières études. Ce sujet devrait nous préoccuper collectivement, mais je réitère que l’éducation nationale ne peut assurer seule cette régulation des plateformes. Une action volontariste à l’échelle européenne s’impose, avec une France pionnière en la matière, pour garantir une efficacité réelle.

Mme Laure Miller, rapporteure. Nous recevons TikTok la semaine prochaine et il m’intéresse particulièrement de connaître la date exacte de cette réunion avec les plateformes.

Mme Florence Biot. Cette réunion s’est tenue au printemps 2024, je pourrai vous communiquer la date précise ultérieurement. L’objectif consistait à mettre en place un dispositif de vérification d’âge, sujet autour duquel toutes les discussions gravitent actuellement. Nous avons proposé notre dispositif ÉduConnect, qui constitue l’équivalent de Franceconnect appliqué à l’éducation. Ce système, déjà opérationnel, permettrait de vérifier efficacement l’âge des mineurs mais les plateformes, dont TikTok, n’ont pas adhéré à cette proposition.

Nous continuons donc à faire face à un système où un enfant de 9 ans peut aisément se connecter à ces plateformes. J’attire particulièrement votre attention sur ce point, car malgré tous les efforts éducatifs que nous pourrons déployer, la massification de ces usages risque de limiter considérablement notre impact si une action volontariste n’est pas entreprise vis-à-vis des plateformes concernées.

Mme Laure Miller, rapporteure. J’entends parfaitement votre position et mon intention n’est nullement d’instruire le procès de l’éducation nationale.

Le DSA fournit des outils importants pour réguler ces plateformes et les contraindre à assumer les responsabilités qu’elles esquivent aujourd’hui, mais sa mise en œuvre nécessite effectivement du temps. Notre objectif consiste également à identifier les actions concrètes que nous pouvons entreprendre en matière de sensibilisation et de travail de terrain dans notre pays, pendant que nous attendons son déploiement complet et effectif.

Je souhaitais attirer votre attention sur les témoignages recueillis lors d’auditions précédentes qui interrogent l’usage même du numérique à l’école. Cette question me paraît parfaitement légitime, d’autant que les professeurs sont les premiers témoins des conséquences d’un usage excessif, ou simplement de l’usage des réseaux sociaux chez les plus jeunes. Ils observent quotidiennement et concrètement les répercussions à travers l’attitude et les troubles manifestés par les enfants eux-mêmes. Cette problématique concerne donc pleinement l’éducation nationale à ce titre.

M. Marc Pelletier. Je souhaite rappeler les actions que nous avons mises en place pour prévenir et accompagner efficacement les élèves qui en éprouvent le besoin. Nous déployons actuellement diverses mesures dans le cadre de la suite des assises de la santé scolaire, notamment en matière de prévention et d’action sur la santé mentale des élèves. Notre volonté est de former deux personnels repères en santé mentale dans chaque circonscription, collège et lycée, avec une mise en œuvre effective dès la rentrée 2026. Plusieurs établissements disposent déjà de personnels formés à cette fin.

Nous exigeons par ailleurs que chaque collège et lycée finalisent son protocole en santé mentale d’ici fin 2025. Nous avons établi un cadre national adaptable à la spécificité de chaque établissement, permettant de structurer précisément le repérage des situations préoccupantes ainsi que l’accompagnement des élèves concernés. Ces dispositions s’inscrivent pleinement dans ce que vous évoquez concernant l’attention particulière à porter aux élèves dont la santé peut être affectée par l’usage des réseaux sociaux.

Mme Laure Miller, rapporteure. Je souhaiterais recueillir votre opinion sur un sujet actuellement débattu en France, à savoir l’interdiction des réseaux sociaux aux moins de 15 ans. Nous sommes conscients qu’une telle mesure devrait nécessairement s’accompagner d’autres dispositions complémentaires et ne peut constituer une solution unique et miraculeuse. La question de son application effective se pose également. Toutefois, sous l’angle d’une règle sociétale clairement établie, cette interdiction pourrait avoir une fonction de sensibilisation tant auprès des parents que des enfants eux-mêmes. Estimez-vous que cet interdit constituerait un outil utile pour l’éducation nationale dans sa gestion quotidienne des élèves ?

Mme Marie-Caroline Missir. Cette mesure fait partie des propositions formulées par notre commission, tout en excluant de ce champ les réseaux sociaux éthiques. Nous devons en effet considérer que l’Europe possède la capacité de créer des plateformes protégeant réellement les enfants. Il est temps d’abandonner cette rhétorique de l’impuissance face aux géants numériques qui ont développé des modèles économiques fondés sur la captation des données des enfants. Notre responsabilité européenne consiste précisément à développer des alternatives protectrices pour les jeunes. Je tiens également à souligner la dimension d’accès à la sociabilité qu’offrent ces outils, particulièrement importante à l’adolescence et bien documentée par la recherche. La période du covid, encore récente, a démontré les problématiques de santé mentale que peut engendrer l’isolement social. C’est pourquoi j’insiste sur cette ambition européenne pour proposer à nos jeunes des réseaux sociaux respectueux.

Mme Florence Biot. Les études démontrent que TikTok utilise un système spécifique et hybride, combinant filtrage collaboratif et analyse de contenu en temps réel. Ce mécanisme s’adapte extrêmement rapidement aux préférences des utilisateurs, parfois après seulement quelques interactions. Son opacité est préoccupante car il enferme les utilisateurs dans des bulles de filtres, leur présentant systématiquement des contenus qui renforcent leurs opinions préexistantes, ce qui conduit inévitablement à des dérives. Bien que cette problématique concerne l’ensemble des utilisateurs, les adolescents s’avèrent particulièrement vulnérables en raison de leur plus grande perméabilité et de leur éducation numérique encore incomplète. Ce fonctionnement permet la diffusion accélérée de contenus de désinformation, amplifiés par des mécanismes de chambre d’écho. L’incompréhensibilité de ces algorithmes constitue un véritable danger tant pour la population que pour notre démocratie. À titre personnel, je considère qu’aucun réseau social actuel ne présente un caractère véritablement éthique. Je pourrais certes militer pour une éducation aux réseaux sociaux éthiques, mais concernant TikTok spécifiquement, je constate un problème fondamental.

J’affirme donc clairement être favorable à son interdiction et j’irai même plus loin en affirmant que le fait que TikTok soit partenaire d’événements culturels et constitue le sponsor principal de nombreuses manifestations représentant la France me paraît profondément problématique. L’école a certes un rôle à jouer, mais les autres institutions françaises également. J’espère que votre commission contribuera à éclairer spécifiquement la question de TikTok.

M. Marc Pelletier. Sur cette question, la dimension européenne me semble effectivement constituer un niveau d’intervention pertinent en matière de législation, une action à cette échelle offrant incontestablement un gage d’efficacité supérieur. Il apparaît par ailleurs nécessaire d’établir une différenciation entre les réseaux sociaux. Certains déploient des politiques générant essentiellement des effets pervers et néfastes, comme nous l’avons largement évoqué durant cette audition, et ces cas particuliers nécessitent indiscutablement un encadrement législatif renforcé. Se pose néanmoins la question de notre capacité collective à faire respecter une éventuelle interdiction. Un autre point qui mérite notre vigilance est celui des réseaux pouvant sembler inoffensifs ou simplement conviviaux, qui peuvent également engendrer des effets délétères, notamment en matière de cyberharcèlement. Des groupes s’y constituent parfois comme de puissants vecteurs de harcèlement. La difficulté réside donc dans notre aptitude à distinguer avec certitude les réseaux vertueux des nocifs. Ce sont finalement les usages qu’il convient de questionner et d’encadrer, tout en formant nos élèves à cette indispensable prise de distance vis-à-vis de l’ensemble des réseaux sociaux.

Mme Laure Miller, rapporteure. Je vous remercie et vous invite à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.

51.   Auditionde M. Thomas Rohmer, président de l’Observatoire de la Parentalité et de l’Éducation Numérique (OPEN), et Mme Angélique Gozlan, experte à l’Open, docteure en psychopathologie (mardi 10 juin 2025)

La commission auditionne M. Thomas Rohmer, président de l’Observatoire de la Parentalité et de l’Éducation Numérique (OPEN), et Mme Angélique Gozlan, experte à l’Open, docteure en psychopathologie ([49]).

M. le président Arthur Delaporte. Je vous souhaite la bienvenue et vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Thomas Rohmer et Mme Angélique Gozlan prêtent serment.)

M. Thomas Rohmer, président de l’Observatoire de la Parentalité et de l’Éducation Numérique (Open). L’Open existe depuis neuf ans et constitue désormais la première structure exclusivement dédiée à l’accompagnement des parents et des professionnels sur les questions d’éducation numérique. Dans cette aventure, je n’occupe plus la présidence mais la direction, la présidente actuelle étant Mme Marion Haza-Pery, également psychologue. J’ai la chance d’être entouré de personnes aux profils divers et variés, notamment un comité scientifique d’experts qui nous aide à mener nos réflexions et à formuler des propositions concrètes. La spécificité de ce comité réside dans sa pluridisciplinarité, car nous avons rapidement identifié que, sur ces sujets où nos connaissances demeurent partielles, le décloisonnement des savoirs et le partage de connaissances constituent une réelle plus-value.

Notre fonctionnement s’articule autour de quatre piliers fondamentaux. En tant qu’observatoire, nous menons régulièrement des enquêtes et des recherches qui nourrissent notre réflexion pour la production de ressources et de contenus destinés aux familles et aux professionnels. Ces ressources, qui sont diffusées sur internet, notre site associatif et divers réseaux sociaux, alimentent également nos réponses opérationnelles sur le terrain. Concrètement, nous conduisons des actions de sensibilisation sur l’ensemble du territoire national auprès des familles et proposons des formations professionnelles pour les acteurs concernés.

Notre dernier pilier consiste en une action de plaidoyer significative. Nous sommes à l’origine de trois textes législatifs que nous avons soutenus, voire initiés, en collaboration avec certains de vos collègues. Le premier concernait la protection des mineurs face à l’exposition précoce à la pornographie, dans le cadre de la loi n° 2020-936 du 30 juillet 2020 visant à protéger les victimes de violences conjugales, qui nous a permis de saisir l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) pour tenter de faire bloquer les cinq plus grands sites pornographiques mondiaux. Le deuxième texte portait sur le phénomène des enfants influenceurs, sujet sur lequel nous avions joué un rôle d’alerte, contribuant à l’élaboration de la loi n° 2020-1266 du 19 octobre 2020 visant à encadrer l’exploitation commerciale de l’image d’enfants de moins de seize ans sur les plateformes en ligne. La dernière initiative législative, beaucoup plus récente, faisait suite à nos travaux questionnant la nécessité de faire évoluer le code civil concernant ce que nous considérons comme une prise en otage du droit à l’image des enfants dans les espaces numériques. Cette démarche, visant à préserver ce droit fondamental dans la construction identitaire des enfants et adolescents, a abouti en février de l’année dernière, également avec Bruno Studer.

Nous sommes par ailleurs membres du conseil français des associations pour les droits de l’enfant (Cofrade), que vous avez déjà auditionné, et j’interviens à titre personnel au sein du comité de protection des jeunes publics de l’Arcom en qualité d’expert.

Notre ADN étant d’interroger la place des adultes, notamment des parents, dans leur capacité à accompagner les pratiques numériques des plus jeunes, nos collaborations avec le ministère de l’éducation nationale consistent principalement à mener des interventions dans les établissements scolaires lorsque nous sommes sollicités, mais également par l’intermédiaire des collectivités territoriales qui font fréquemment appel à nos équipes. Nous entretenons également d’excellentes relations avec certains membres de l’éducation nationale, particulièrement le Centre de liaison de l’enseignement et des médias d’information (Clemi), chargé de l’éducation aux médias, ainsi qu’avec les équipes animant les territoires numériques éducatifs (TNE), dispositif déployé depuis plusieurs années à l’échelle nationale.

Quant aux autres ministères, nous collaborons naturellement et régulièrement avec les équipes de la direction générale de la cohésion sociale (DGCS), avec lesquelles nous échangeons assidûment et qui nous soutiennent également financièrement. Concernant les réseaux sociaux, nous ne collaborons pas directement avec eux, mais il nous arrive de travailler avec certaines plateformes et de recevoir leur soutien financier ponctuel. Nous avons notamment travaillé avec Google pour le financement de certaines de nos enquêtes et, plus récemment, avec Netflix, avec qui nous venons d’entamer une collaboration visant à identifier des supports permettant une médiation parentale autour de sujets sensibles dans les différents contenus audiovisuels disponibles en ligne. Factuellement, nous recevons donc parfois des financements d’entités privées mais ces collaborations demeurent ponctuelles et ne constituent en aucun cas des subventions de fonctionnement.

De manière générale, nous observons la difficulté des adultes et des parents à établir des repères clairs sur ces sujets. Ces familles sont en effet soumises à des injonctions contradictoires sur la question du numérique et la gestion des écrans, qu’elles proviennent de la société, des plateformes ou des pouvoirs publics. Cette situation les empêche de prendre position ou de comprendre les règles en jeu, notamment concernant la santé des plus jeunes.

Dans l’espace médiatique, ce sujet fait l’objet de discussions souvent polarisées qui s’apparentent parfois à une forme de panique morale, avec d’un côté les gentils en soutien aux outils numériques et de l’autre les méchants complètement anti-écrans. Cette polarisation contribue fortement à paralyser la construction éducative parentale plutôt qu’à mobiliser les parents dans leur fonction éducative. Ce constat, établi depuis de nombreuses années, complique considérablement notre travail d’accompagnement sur le terrain.

Nous consacrons donc une part importante de notre action à apporter des nuances, à rassurer les familles sur leurs compétences éducatives, à favoriser le dialogue intrafamilial sur ces sujets et à permettre aux parents de s’approprier les enjeux éducatifs pour accompagner leurs enfants et leurs adolescents dans les espaces numériques.

Concernant la formation des professionnels, nous faisons face à un défi majeur. Il existe aujourd’hui un déficit clair et précis de formation des professionnels de l’enfance et de l’adolescence sur ces questions, en partie du fait de la convergence de plusieurs métiers qui n’ont pas encore été intégrés dans le champ de la formation continue. Ce domaine mérite une attention particulière, même si nous identifions désormais des structures où la formation des professionnels s’avère plus accessible grâce à l’organisation de l’administration centrale.

Un autre frein à notre action réside dans l’émergence d’un effet d’aubaine. Alors que nous portons ces sujets depuis neuf ans et que nous avons joué un rôle précurseur dans le domaine de la parentalité et de l’éducation numérique, nous assistons à l’arrivée de nombreux acteurs issus de la protection de l’enfance ou de l’inclusion numérique. Ces nouveaux intervenants se positionnent sur ces sujets parfois sans réellement en maîtriser les enjeux et les subtilités, contribuant ainsi à entretenir cette forme de paralysie parentale en jouant davantage sur les peurs que sur la remobilisation des compétences éducatives.

Quant aux moyens financiers dont nous disposons, notre financement repose principalement, comme pour beaucoup d’associations, sur des réponses à des appels à projets permettant d’obtenir des subventions publiques. Nous bénéficions de subventions annuelles directes extrêmement faibles et de quelques partenariats privés, notamment avec Google et Netflix. Nous avons également signé un partenariat national avec un important groupe de crèches privées, qui nous permet de faire de la prévention sur la gestion des écrans pour les tout-petits et de former les professionnels dans les crèches afin d’éviter que les enfants ne soient exposés trop précocement aux écrans.

Mme Angélique Gozlan, experte à l’Open, docteure en psychopathologie. J’interviens à la fois en tant qu’experte de l’Open et en tant que psychologue clinicienne, docteur en psychopathologie. Je travaille depuis près de vingt ans auprès de familles d’enfants et d’adolescents en pédopsychiatrie et ai par ailleurs rédigé la première thèse en psychologie clinique en France sur l’impact des réseaux sociaux à l’adolescence, soutenue en 2013.

Mon positionnement repose sur mes observations de terrain, sur la parole des patients, enfants, adolescents et parents, mais également sur celle des professionnels, ainsi que sur les études menées par l’Open et mes recherches personnelles. Mon apport relève davantage d’un savoir expérientiel à teneur qualitative que quantitative.

Dans le cadre de la préparation de cette audition, j’ai interrogé des adolescents suivis dans mon service de pédopsychiatrie sur les effets psychologiques de l’utilisation de TikTok. Je vous livrerai quelques éléments de leurs réponses, considérant que cette commission entend peu d’adolescents directement.

Il faut tout d’abord comprendre que le réseau social constitue aujourd’hui un objet culturel pour ces adolescents, indissociable de leur quotidien et des autres stimulations qu’ils reçoivent. Les usages des réseaux sociaux s’inscrivent dans le fonctionnement général des adolescents, des enfants et des familles. Les jeunes interrogés, qui utilisent simultanément Snapchat, YouTube, TikTok ou Instagram, soulignent qu’il ne s’agit pas tant de TikTok spécifiquement que de l’ensemble des réseaux sociaux numériques, puisque les fonctionnalités innovantes d’une plateforme se retrouvent rapidement dans les autres. Notre analyse doit donc porter sur un ensemble de pratiques numériques plutôt que sur un seul réseau social.

Les témoignages des patients confirment notre hypothèse clinique selon laquelle l’usage des réseaux sociaux relève du pharmakon, potentiellement toxique, où le poison peut se transformer en remède et inversement. Ce caractère ambivalent du numérique apparaît de façon flagrante, puisque l’objet numérique, qu’il s’agisse de jeux vidéo ou de réseaux sociaux, peut répondre aux besoins du sujet tout en en créant de nouveaux. C’est précisément le dosage, la quantité et la nature de l’usage qui déterminent la transformation du remède en poison.

Un point essentiel réside dans la coexistence d’effets positifs et négatifs dans l’usage des réseaux sociaux. Ces effets varient selon la corrélation entre la vulnérabilité propre à l’adolescence, l’âge du jeune, son environnement, son usage singulier des réseaux sociaux et la qualité de sa communauté numérique.

Ainsi, si autant d’adolescents investissent les réseaux sociaux, c’est que ceux-ci répondent manifestement à des besoins fondamentaux. La socialisation constitue évidemment un enjeu majeur de l’adolescence et les jeunes doivent pouvoir faire des expériences en dehors du regard parental. Les réseaux sociaux représentent aujourd’hui des terrains d’expérimentation privilégiés, y compris durant des périodes de vulnérabilité. Une jeune patiente évoquant sa période de troubles alimentaires me confiait : « Dans ces communautés, tu y restes. C’est hyper important d’être avec des gens qui comprennent ce que tu vis et qui essaient quand même de s’en sortir. » Le premier processus en jeu concerne donc la séparation, traversée par ces expérimentations à travers les réseaux sociaux.

Le second aspect fondamental touche à la quête identitaire. Les jeunes interrogés pour cette audition décrivent ces plateformes comme des lieux d’inspiration et d’influence positive pour le style, l’apparence, l’alimentation ou le sport. Elles permettent de tester son identité, sa relation à autrui, ses relations amoureuses et amicales. Bien que cet usage des réseaux sociaux comporte certainement des risques, les plateformes ne créent pas en elles-mêmes des troubles à l’adolescence. Même si la santé mentale des jeunes traverse effectivement une période difficile, ce ne sont pas les réseaux sociaux qui génèrent davantage de mal‑être, mais bien un état sociétal, familial et interpersonnel plus global.

La vulnérabilité propre à l’adolescence, conjuguée à l’environnement de l’adolescent, aux paramétrages de compte, à la qualité de la communauté et aux usages spécifiques, crée une véritable concordance d’enjeux susceptibles de produire des effets négatifs. Les jeunes identifient particulièrement les formats de vidéo (shorts, reels) comme problématiques et intrinsèquement addictifs. Selon leurs propres mots, ces formats ne permettent pas de s’arrêter ni d’intégrer l’information visionnée et la surabondance de contenus consécutifs entraîne une forme de saturation cognitive. Ces adolescents considèrent ainsi le format comme plus problématique que le contenu lui-même. Le rythme de visionnage constitue l’élément central, même s’ils reconnaissent le caractère potentiellement enfermant de l’algorithme. Ils démontrent cependant une lucidité remarquable concernant ce mécanisme algorithmique, affirmant pouvoir en modifier le fonctionnement en contrôlant leur attention portée aux contenus.

Les principaux risques identifiés concernent les troubles de la concentration et de l’attention. Une adolescente témoigne qu’après avoir fait défiler quinze vidéos, elle oublie complètement les précédentes, bien qu’elle se soit concentrée sur chacune d’elles individuellement. Une autre décrit ces plateformes comme « un boîtier hypnotisant », constatant son incapacité à maintenir sa concentration sur des formats plus longs après avoir consommé une série de contenus courts.

Le cyberharcèlement représente évidemment un autre danger majeur, tout comme la radicalisation ou l’appauvrissement de la pensée autonome. Une jeune exprime cette préoccupation avec justesse en expliquant que « cela crée un vide de la pensée. On a tellement tout comme ça, qu’est-ce qu’on va produire par nousmêmes ? C’est dur de créer par nous-mêmes quand tout a été dit, déjà partagé, à portée de main, à quoi va-t-on penser ? »

Certains challenges peuvent également inciter à des conduites à risque. L’exposition à des images choquantes ou l’enfermement dans des bulles de contenu induisent potentiellement une anxiété modérée, souvent associée à des troubles du sommeil, des complexes physiques ou psychiques, manifestés par une dévalorisation de soi. Ces phénomènes peuvent évoluer vers des mouvements dépressifs, parfois associés à des troubles du comportement alimentaire, des problèmes d’image et d’estime de soi, voire des consommations de substances illicites.

Une adolescente évoque spécifiquement l’existence de comptes « ED TikTok » (Eating Disorders TikTok), autrefois présents sur Twitter, qui valorisent le body check et les contenus montrant des personnes consommant seulement 800 calories quotidiennes. Elle souligne la différence d’approche entre les plateformes : « Sur Twitter, cela s’apparentait à un journal intime des personnes souffrant de ces troubles, tandis que sur TikTok, le message devient « Regardez, je suis une meilleure anorexique que vous ». »

Le discours des jeunes révèle également l’impact de la comparaison sociale et des contenus idéalisés qui affectent leur estime de soi et dévalorisent leur rapport au monde réel, encourageant parfois l’auto-objectivation. Une jeune résume ce phénomène : « C’est de la comparaison, de la valorisation de l’estime de soi, mais tu trouves toujours quelqu’un de plus beau, de mieux que toi. » L’algorithme, en proposant constamment des contenus similaires, peut amplifier ce phénomène.

Nous ne pouvons néanmoins établir aujourd’hui une causalité directe et univoque entre les réseaux sociaux et la santé psychique des adolescents. Une jeune le formule avec pertinence en me rappelant que la dépression existait bien avant TikTok. Effectivement, la souffrance peut préexister à l’usage des réseaux sociaux, ces derniers ne constituant alors qu’un reflet d’un mal-être antérieur.

En revanche, selon les témoignages recueillis, les contenus des réseaux sociaux peuvent renforcer un état psychique ou émotionnel préexistant. Une adolescente l’exprime ainsi : « Les vidéos tristes qui nous rappellent nos situations actuelles peuvent nous mettre dans un « bad mood ». Elles renforcent notre état, vu que l’algorithme nous remet des vidéos sur ce sujet-là. »

Dans ce contexte d’impossible corrélation directe, certains comportements tels que la captation excessive envers les réseaux, le temps disproportionné passé en ligne, la préoccupation pour les images retouchées ou l’attente vitale de commentaires ou de likes doivent toutefois alerter, car ces éléments suggèrent que la manière dont un adolescent utilise les réseaux sociaux constitue potentiellement un indicateur de souffrance psychique. L’usage de ces plateformes peut ainsi révéler cette souffrance, mais cette observation doit impérativement être recontextualisée en considérant l’environnement familial, scolaire, amical et amoureux de l’adolescent, ainsi que sa santé mentale globale. Les jeunes eux-mêmes reconnaissent unanimement l’importance des singularités individuelles dans la réponse à ces environnements numériques.

L’adolescence s’inscrit nécessairement dans un contexte familial, social et scolaire spécifique. L’adolescent ne peut être appréhendé indépendamment de sa relation au monde extérieur et à l’environnement familial et sociétal. Un adolescent demeure l’enfant de ses parents, malgré la période d’autonomisation et de séparation nécessaire à sa construction identitaire. Cet enfant, évoluant au sein d’une famille, s’inscrit dans un contexte sociétal spécifique. Par conséquent, les pratiques numériques des adolescents doivent être analysées en considérant celles des parents, l’éducation numérique qu’ils transmettent, et en rattachant ce phénomène des réseaux sociaux au réseau relationnel plus large qui permet à ces jeunes de grandir dans notre monde.

Je souhaite maintenant vous présenter les perspectives données par les jeunes. Lorsque je les ai interrogés sur l’interdiction potentielle des réseaux sociaux, ils ont catégoriquement écarté cette option, affirmant avec lucidité que toute interdiction engendre inévitablement sa transgression.

Le premier axe qu’ils proposent concerne la mise en place d’une modération interne aux plateformes, exigeant ainsi que les réseaux sociaux assument leurs responsabilités. Une adolescente suggère notamment qu’après une heure de défilement continu, la plateforme diffuse une vidéo présentant une personne réelle qui capterait l’attention de l’utilisateur pour exposer les risques associés à une utilisation prolongée.

Le deuxième point soulevé, qui fait écho à mes recherches, consiste à réintégrer cette problématique dans un cadre sociétal plus global. Une jeune exprime ce paradoxe avec une formulation particulièrement éloquente : « Je ne me suis jamais sentie autant entourée que seule devant mon écran. » Elle ajoute qu’il conviendrait de « privilégier le retour des communautés. » Tandis que nous discutons abondamment des communautés virtuelles, elle s’interroge sur les lieux où nous faisons communauté dans la vie réelle, constatant une difficulté croissante à se retrouver physiquement. Cette réflexion soulève une question fondamentale : qu’est-ce qui constitue réellement le collectif aujourd’hui ? Où se trouvent les véritables espaces de rencontre ? Ainsi, focaliser exclusivement notre attention sur les réseaux sociaux revient à esquiver une problématique plus profonde concernant l’accessibilité des espaces publics pour les jeunes, la possibilité d’un vivre ensemble, la santé mentale de cette génération et la difficulté que rencontrent certaines familles à accompagner leurs enfants. Cette situation soulève certes la question de l’éducation numérique, mais plus largement celle de l’éducation dans son ensemble.

Le troisième axe identifié concerne la prévention par l’information, développée à travers des discussions d’égal à égal. Les jeunes rejettent fermement le format classique des réunions préventives conduites par des adultes dénonçant unilatéralement la nocivité des réseaux sociaux, approche qui compromet d’ailleurs l’efficacité même de la prévention des risques. Ils préféreraient des espaces d’échanges entre pairs, modérés par un adulte cherchant réellement à comprendre leurs pratiques et leurs usages. La proposition concrète qui émerge est celle de questionner les motivations derrière l’utilisation de ces plateformes et de proposer des alternatives tangibles dans la vie réelle, permettant ainsi d’équilibrer les expériences numériques et physiques. TikTok n’est pas intrinsèquement néfaste, c’est davantage la manière dont nous l’utilisons et sa fréquence qui posent question. L’enjeu consiste à proposer des activités qui nous reconnectent au monde extérieur et nous permettent de nous détacher des réseaux sociaux.

Le quatrième point identifié souligne l’importance d’accorder une attention égale aux parents et aux jeunes. Je cite exactement : « les parents sont au même stade que leurs enfants, qui sont perdus. C’est moins nouveau pour nous que pour eux. Il faut les aider de la même manière que nous, soit avec la prévention, soit avec des alternatives dans la vraie vie, soit avec des lieux de communauté ».

Au-delà de la problématique des jeunes face aux réseaux sociaux se pose également la question des enfants influenceurs. Comme l’a très justement souligné l’une de nos jeunes, nous assistons à une monétisation de l’enfance et des moments d’expérimentation, périodes durant lesquelles les enfants devraient bénéficier de stabilité, de sécurité et d’intimité. Or tout cela est désormais exposé publiquement. Des souvenirs sont partagés avec le monde entier sans le consentement des principaux intéressés. Les adolescents que nous suivons en pédopsychiatrie s’inquiètent légitimement sur la façon dont ces enfants vont construire leur identité et leur narcissisme. Il est donc impératif, selon eux, d’accorder une attention particulière aux parents d’enfants influenceurs, et je partage entièrement leur réflexion sur ce sujet.

M. le président Arthur Delaporte. Je vous remercie d’avoir donné la parole aux mineurs. Je tiens néanmoins à rappeler que notre commission d’enquête a également entendu des témoignages directs de mineurs, bien qu’à huis clos et sous X. Dès le début de nos travaux, nous avons cherché à éviter toute perspective surplombante ou moralisatrice en consultant des sociologues qui étudient les relations entre les jeunes et les réseaux sociaux, les écrans et leurs usages. Nous avons également lancé une vaste consultation citoyenne qui a recueilli plus de 30 000 réponses, dont environ la moitié émanait de mineurs. Votre audition s’inscrit dans cette démarche, même si nous reconnaissons la complexité d’obtenir des témoignages directs de mineurs dans le cadre formel d’une commission d’enquête et comptons donc beaucoup sur votre rôle d’intermédiaire.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Je confirme notre volonté, dès le lancement de cette commission d’enquête, de recueillir les témoignages des jeunes, qui sont les principaux concernés. En complément de cette consultation publique, nous avons reçu de nombreuses contributions spontanées par courriel de jeunes désireux de partager leur expérience des réseaux sociaux, et particulièrement de TikTok. Ces témoignages, extrêmement pertinents, enrichiront notre réflexion et notre rapport final.

Lorsque vous préconisez de privilégier l’accompagnement éducatif plutôt que de jouer sur les peurs, avez-vous identifié, dans votre observatoire et vos enquêtes, des profils parentaux distincts face au numérique ? Ne constatez-vous pas parfois un écart considérable entre, d’une part, des parents sensibilisés et vigilants, capables d’utiliser les outils de contrôle parental et de limiter l’accès aux écrans avant un certain âge et, d’autre part, des parents qui considèrent l’usage précoce du téléphone comme un atout dans notre société actuelle, restant ainsi éloignés des problématiques liées aux réseaux sociaux ?

Dans ce contexte, ne manquons-nous pas encore de sensibilisation efficace, non pas pour susciter la peur, mais pour montrer concrètement aux parents ce que contient réellement une application comme TikTok ? Une forme d’électrochoc ne serait-elle pas bénéfique, considérant que certains parents, en toute bonne foi, autorisent leurs enfants à utiliser TikTok en pensant qu’il s’agit d’une plateforme de divertissement ordinaire ? Leur réaction serait probablement très différente s’ils étaient confrontés aux contenus parfois pornographiques, sexistes ou profondément problématiques pour le développement d’un enfant.

Pourriez-vous ensuite développer davantage le sujet des injonctions contradictoires des pouvoirs publics sur le numérique que vous évoquiez précédemment ?

Mme Angélique Gozlan. La question des différents profils parentaux et du décalage qui peut exister entre eux constitue un enjeu clinique important. Le dernier baromètre de l’Open démontre que les parents sont généralement bien informés des risques que leurs enfants encourent sur internet. Ils expriment des craintes précises concernant le cyberharcèlement, la captation de données personnelles, l’addiction et le temps passé en ligne au détriment d’activités réelles.

Un aspect particulièrement intéressant réside toutefois dans le décalage entre les représentations des parents et le vécu réel des enfants. Cette étude, portant sur plus de 1 000 parents et autant d’enfants et adolescents, révèle que les angoisses parentales ne correspondent pas nécessairement à l’expérience concrète des jeunes dans leur usage d’internet, pris dans sa globalité.

Concernant les différents types de parents, mon expérience professionnelle dans un centre en Seine-Saint-Denis me permet de côtoyer aussi bien des cadres jouissant d’une situation confortable que des familles en situation précaire. Or j’observe une homogénéité surprenante dans leurs approches de la gestion des écrans puisque, quelle que soit leur catégorie socioprofessionnelle, ces parents rencontrent des difficultés similaires pour imposer des limites à leurs enfants concernant les écrans, pour sanctionner les excès ou encadrer les usages. Cette uniformité des défis parentaux face aux écrans, à internet et aux réseaux sociaux caractérise le public que je reçois, avec des parents généralement démunis face à ces pratiques numériques.

M. Thomas Rohmer. Nous constatons, en tant qu’acteurs de la prévention, une réelle difficulté à mobiliser les parents qui en ont le plus besoin. Nous observons que les personnes qui participent à nos interventions sont généralement des parents déjà relativement bien informés par rapport à la moyenne. Il existe donc une nécessité pour nous, acteurs de la prévention, de remettre en question notre approche et d’adopter cette logique du « aller vers », afin de faire preuve de créativité dans notre mode opératoire pour toucher les familles qui en ont véritablement besoin.

Nous devons repenser notre démarche en tenant compte de nos échecs passés pour nous améliorer. C’est pourquoi nous encourageons notamment l’appui sur la responsabilité sociale des entreprises (RSE). Les parents constituent un public relativement captif sur leur lieu de travail et, en s’appuyant sur les services RSE, nous pourrions mener des actions de sensibilisation pendant le temps de travail ou lors des pauses déjeuner. J’ai d’ailleurs conduit des expérimentations en ce sens avec M. Adrien Taquet qui m’a accompagné sur le terrain. Nous tentons de promouvoir cette approche depuis de nombreuses années mais ne sommes pas suffisamment soutenus dans cette initiative. De plus, il n’est pas toujours aisé de dépasser le cadre des grands groupes du CAC40 pour atteindre les TPE et PME qui constituent pourtant l’essentiel du tissu économique. Nous avons besoin, en tant qu’associations, de soutien pour faire connaître nos initiatives et faciliter la mise en relation avec les directeurs des ressources humaines (DRH) et les responsables RSE au sein des entreprises.

Concernant les autres aspects, je constate qu’en France, après vingt ans d’implication personnelle sur ces sujets et la création de plusieurs structures dans ce domaine, nous persistons dans une logique d’évitement du risque. Cette approche entretient les angoisses parentales et paralyse leurs fonctions éducatives. Par évitement du risque, j’entends que les jeunes rencontrent aujourd’hui davantage d’adultes leur expliquant ce qu’ils ne doivent pas faire avec ces outils numériques que d’adultes leur montrant comment bien les utiliser. La prévention à la française se concentre sur la réduction, voire la suppression des risques, alors même que nos enquêtes auprès des familles démontrent que celle-ci ne peut constituer l’unique pilier de l’éducation. L’enjeu réside également dans l’autonomisation des enfants au sein des espaces numériques, afin de leur apprendre à gérer les situations problématiques auxquelles ils seront inévitablement confrontés, comme dans la vie quotidienne. Le rôle de l’adulte consiste à transférer des compétences aux enfants en vue de leur autonomisation, et non uniquement à les protéger, car une surprotection peut paradoxalement devenir incitative à la prise de risques, particulièrement chez les populations les plus vulnérables.

Je vais ensuite répondre à votre question sur les injonctions contradictoires de manière très directe. Actuellement, bien que cela dépasse le cadre de votre enquête, la gestion et la régulation des écrans en France ne sont qu’un tissu de contradictions. Les outils numériques mis à disposition des enfants le sont systématiquement dans l’intérêt des adultes. Par exemple, nous savons que les écrans sont peu recommandés pour les jeunes enfants. Dans certains hôpitaux pédiatriques parisiens, vous pouvez voir des affiches de prévention « pas d’écran avant trois ans » dans la salle d’attente des urgences alors que les brancards sont équipés d’écrans. De même, dans la plupart des écoles maternelles, s’applique ce que j’appelle « le concept de l’enfant qui fond sous la pluie » : dès qu’il pleut légèrement à l’heure de la récréation, les enfants sont placés devant un dessin animé, y compris les plus jeunes, alors que nous savons que ce n’est pas idéal, mais cela arrange les adultes. Un dernier exemple significatif est celui de l’actuelle ministre de l’éducation nationale qui a instauré des « pauses numériques » expérimentales dans certains collèges à la suite du rapport de la commission écrans, une mesure que nous jugeons pertinente bien que sa présentation aurait pu être améliorée. Parallèlement, l’évaluation nationale du niveau en mathématiques et en français de tous les élèves de sixième s’est déroulée exclusivement sur ordinateur.

Ces injonctions contradictoires institutionnelles sont omniprésentes et je pense que notre manque de cohérence éducative sur ces sujets déroute nombre de jeunes aujourd’hui, cohérence particulièrement absente lorsqu’il s’agit de placer des outils numériques entre les mains de nos enfants, souvent pour satisfaire les intérêts des adultes.

M. le président Arthur Delaporte. Je vous remercie et vous invite à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.

52.   Audition de M. Isac Mayembo (mardi 10juin 2025)

Puis la commission auditionne M. Isac Mayembo ([50]).

M. le président Arthur Delaporte. Monsieur Isac Mayembo, vous êtes créateur de contenus sous le pseudonyme d’Alex Hitchens. L’audition aura lieu en visioconférence puisque vous avez dit être à l’étranger.

Je vous demanderai de préciser, dans votre intervention liminaire, tout intérêt public ou privé de nature à influencer vos déclarations, notamment vos liens avec les plateformes, et de nous indiquer vos sources de rémunération, ainsi que la manière dont certains contenus vous rapportent de l’argent, en distinguant les différents réseaux sociaux.

Auparavant, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Isac Mayembo prête serment.)

M. le président Arthur Delaporte. Vous avez levé la main gauche, mais nous considérerons que c’était la main droite. Vous avez la parole.

M. Isac Mayembo. Il faut savoir tout d’abord que par rapport à ma rémunération provenant de TikTok, je ne suis pas payé avec la monétisation, c’est‑à-dire que je ne suis pas payé par les vidéos mais plus par mes formations.

On produit du contenu sur la plateforme TikTok – plusieurs personnes le font, d’ailleurs : certaines travaillent pour moi et d’autres non, car j’ai ouvert un programme d’affiliation dans lequel les gens peuvent promouvoir mes formations sur la plateforme et toucher des commissions liées à ces ventes, qui sont en moyenne de 50 %, voire de 60 ou 70 % pour les meilleurs affiliés.

Pour simplifier, les gens font ma publicité sur ce réseau. Donc oui, je gagne de l’argent avec TikTok, et oui, j’ai des intérêts avec cette plateforme, bien entendu.

Même si je gagne de l’argent avec TikTok – j’ai envie d’être 100 % honnête aujourd’hui –, je pense que cette plateforme est, de manière générale, néfaste. Vous pouvez rigoler, mais je vais être très honnête aujourd’hui, même si je gagne de l’argent avec cela ; j’ai juré, malheureusement, et je n’ai pas le choix.

De prime abord, lorsque TikTok est sorti, c’était quelque chose d’intéressant. Ça permettait de condenser un peu les informations et de regarder une vidéo d’une ou deux minutes pour apprendre tout un tas de choses.

Le gros problème, c’est qu’en l’espace d’une ou deux minutes, il est dur d’avoir toutes les informations. C’est cette particularité-là qui a créé énormément de problèmes et de désinformation, dont je peux être aussi victime par moments. On peut manipuler l’information en isolant un propos, en prenant trente secondes ou une minute bien choisies sur une vidéo de dix minutes par exemple.

Pour résumer mon introduction, TikTok est, selon moi, à bannir. Je pense que cette plateforme est néfaste pour les jeunes, surtout si elle est mal encadrée, ce qui est le cas à mon avis.

Mme Laure Miller, rapporteure. Nous pouvons tous avoir notre opinion sur les contenus que vous publiez, notamment sur TikTok. L’objectif de cette audition est toutefois de comprendre comment vous êtes arrivé sur TikTok et l’intérêt que vous y avez trouvé, comment vous avez « joué » avec l’algorithme et le fonctionnement de la plateforme pour mettre en avant vos contenus et comment vous interagissez avec votre communauté. Nous pourrons peut-être évoquer également la question de la modération.

Tout d’abord, quand êtes-vous arrivé sur TikTok ? Comment avez-vous réussi à faire fonctionner vos contenus ? Est-ce une première vidéo avec beaucoup de vues qui vous a permis de constituer la communauté que vous avez aujourd’hui ?

M. Isac Mayembo. Intéressant. Si je ne me trompe pas, j’ai commencé fin 2021, début 2022. Je me suis vite rendu compte que ce qui fonctionne le mieux, disons-le clairement, c’est le contenu qui choque. C’est généralement celui qui attire le plus l’attention, qui génère le plus de ventes et le plus de transactions. En bref, TikTok est une plateforme où tout se base sur les premières secondes. Je pense que vous le savez. Ça vous a peut-être déjà été dit et ça sera sûrement répété.

Les premières secondes d’une vidéo sont primordiales. C’est à celui qui arrive le mieux à captiver son audience au bout de cinq ou dix secondes. Ce n’est pas comme sur YouTube, où le format est un peu différent, puisqu’on attire d’abord avec une miniature. Sur TikTok, tout se joue avec les cinq premières secondes. Plus c’est tranchant, plus c’est cash, plus c’est clair et plus ça fonctionne.

Mme Laure Miller, rapporteure. Avez-vous en tête un contenu particulièrement marquant, qui aurait obtenu de nombreuses vues et qui aurait beaucoup mieux fonctionné que d’autres ?

M. Isac Mayembo. La séduction. À l’époque, c’était la drague de rue, aborder des filles dans la rue en caméra cachée. La séduction fonctionnait extrêmement bien, et d’ailleurs ça fonctionne encore maintenant.

M. le président Arthur Delaporte. Vous avez indiqué que ce n’était pas l’une de vos sources de revenus principales, mais ces vidéos, qui recueillent parfois plusieurs millions de vues, sont-elles néanmoins monétisées ?

M. Isac Mayembo. Il y a de la monétisation, bien entendu, mais à titre personnel, je ne l’ai jamais touchée. Avant que je me fasse bannir de cette plateforme une première fois, de l’argent était généré, mais je n’avais même pas renseigné ma carte bancaire pour le récupérer. C’est pour vous dire à quel point la vente de mes formations était rentable. En plus, à l’époque, la monétisation était bien moins avantageuse. En 2021 ou début 2022, TikTok payait extrêmement mal, ce qui n’est plus le cas maintenant.

M. le président Arthur Delaporte. Depuis que vous êtes revenu sur la plateforme, avez-vous renseigné votre carte bancaire ?

M. Isac Mayembo. Non, je n’ai jamais touché un centime. Lorsque des personnes font du contenu pour moi, je leur laisse la monétisation. Tout l’argent qui est généré sur les plateformes, c’est pour eux.

Mme Laure Miller, rapporteure. Vous avez plusieurs comptes TikTok, qui traitent de sujets un peu différents. Pouvez-vous nous en dire quelques mots ? Comment définiriez-vous votre communauté ? Est-ce que vous connaissez la proportion de mineurs qui vous suivent ? Avez-vous des interactions avec eux ?

M. Isac Mayembo. Le terme « communauté »… À partir d’un certain nombre d’abonnés, il est extrêmement difficile de pouvoir définir sa communauté. Avec tous les comptes de moi qui existent sur TikTok, on doit être à trois, quatre ou cinq millions de personnes. Lorsque je marche dans la rue, je peux être abordé par un homme de 40 ans, un jeune homme de 18 ans ou des gens qui ont la cinquantaine. C’est extrêmement dur pour moi d’identifier une tranche d’âge en particulier.

Je ne saurais pas définir quelle est ma réelle communauté. En plus, je n’ai pas l’occasion de pouvoir interagir avec elle, sauf dans les rares lives TikTok, que je fais de temps en temps, une fois tous les deux ou trois mois. Dans les lives TikTok, ce sont généralement des jeunes, en revanche. Mais il faut savoir que TikTok est aussi très présent chez les adultes de 30 ans, 40 ans, ce genre de tranches d’âge. Je pense que TikTok touche vraiment tout le monde.

Mme Laure Miller, rapporteure. Qui assiste à vos lives ? Ce sont des jeunes qui peuvent être mineurs ?

M. Isac Mayembo. Principalement des jeunes. Mineurs ? Je demande bien l’âge avant, donc généralement, non. Après, je ne suis pas modérateur, malheureusement. Je ne peux pas trier les personnes qui regardent mon live. Lorsque 4 000 personnes sont connectées, il y a forcément des mineurs, c’est sûr et certain. Après, c’est à la plateforme de faire son travail.

M. le président Arthur Delaporte. Je voudrais comprendre en quoi consistent ces comptes que vous déléguez à d’autres personnes, qui les exploitent sous votre nom et avec votre image. Vous avez donc une responsabilité vis-à-vis des contenus qui sont diffusés, surtout si vous contractualisez avec ces personnes. De quelle nature est ce lien ?

M. Isac Mayembo. Il existe une cinquantaine de comptes de moi. Nous en gérons sept directement. Pour ce qui est des quarante-trois autres – ils doivent même être plus nombreux, pour être honnête –, je n’en suis pas responsable car ce sont des personnes qui postent de leur plein gré, pour toucher la monétisation. Elles ne sont pas affiliées à moi.

M. le président Arthur Delaporte. Néanmoins, ces personnes vendent votre formation, ce qui vous rapporte de l’argent.

M. Isac Mayembo. Pas forcément. Certaines personnes postent mon contenu pour toucher la monétisation, ce qui est différent.

M. le président Arthur Delaporte. Et vous le tolérez…

M. Isac Mayembo. Est-ce que je le tolère ? Pour être honnête avec vous, je dirais non. Mais est-ce que je peux le stopper ? J’ai déjà essayé et ce n’est pas si évident.

M. le président Arthur Delaporte. Il y a donc un sujet de propriété intellectuelle. Pour en revenir aux comptes qui vendent de la formation affiliée, vous assurez-vous du respect de la loi « influenceurs », que nous avons défendue avec Stéphane Vojetta ?

M. Isac Mayembo. Le respect de la loi « influenceurs » : pouvez-vous m’éclairer, s’il vous plaît ?

M. le président Arthur Delaporte. La loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux impose par exemple d’ajouter la mention « collaboration commerciale » en cas de partenariat commercial. Elle exige de conclure des contrats écrits. Les contenus qui s’inscrivent dans le cadre d’opérations de promotion doivent respecter l’ensemble des règles de droit, notamment les droits d’auteur.

M. Isac Mayembo. Étant donné qu’il n’y a pas de promotion commerciale dans la vidéo, je ne sais pas si ça s’applique. Je ne suis pas sûr que ce soit le cas lorsqu’on se contente de placer un lien en description d’une page, mais que le contenu proposé n’en fait pas la promotion. Par contre, je serais effectivement obligé de le notifier si une vidéo fait la promotion d’une formation – comme pour un placement de produit, par exemple. Mais étant donné que ce n’est pas le cas, je ne pense pas que ça s’applique.

M. le président Arthur Delaporte. Nous le vérifierons.

Mme Laure Miller, rapporteure. Même si vous ne pouvez pas la quantifier, une partie des trois ou quatre millions de personnes qui vous suivent sont des jeunes, voire des mineurs. Or l’objet de notre commission d’enquête est d’évaluer l’impact des contenus diffusés sur TikTok sur leur santé mentale.

Comment réagissez-vous aux critiques que suscitent vos contenus, qui sont parfois vus par de très jeunes enfants ? Êtes-vous conscient de l’impact que vous avez sur eux ?

En tant que députés, nous entendons très souvent votre nom lorsque nous nous rendons dans des collèges ou même des écoles primaires. Cela signifie que des enfants de 9, 10, 11 ou 12 ans ont accès à vos contenus et aux messages contestables que vous véhiculez, notamment sur les femmes.

M. Isac Mayembo. Contestables, c’est une question de point de vue. On pourrait juger mes contenus problématiques, mais c’est un terme subjectif et flou. Ils ne correspondent à aucune infraction et à aucune qualification juridique. Donc tout dépend de la perception de chacun. Je ne trouve pas que mes propos soient problématiques, même si ce terme veut tout et rien dire. Je pense qu’un jeune homme de 13, 14 ou 15 ans devrait suivre mes conseils. Je pense que je donne de bons conseils pour la jeunesse, même si j’imagine que vous n’allez pas être d’accord avec moi.

Mme Laure Miller, rapporteure. Étant une femme de plus de 36 ans, je ne crois pas être le cœur de cible de vos vidéos – mais je considère en effet que vos contenus sont contestables. Peu importe, ce n’est pas le sujet.

Vous avez indiqué que vous avez déjà été banni de TikTok, ce qui signifie que certains de ces contenus ont été considérés par la plateforme comme plus que problématiques. Quand cela s’est-il produit ?

M. Isac Mayembo. Ce que vous dites n’est pas exact. C’est une petite erreur de votre part.

Les femmes qui ne sont pas d’accord avec moi – un peu comme vous, j’imagine – signalent les vidéos. Cela peut aussi être des hommes évidemment, s’ils ne sont pas d’accord avec moi. Forcément, après un certain nombre de signalements, la vidéo saute.

TikTok m’a autorisé à poster la vidéo, et d’ailleurs la même vidéo postée sur un autre compte peut ne pas être bannie, mais forcément après 100, 200, 300 ou 400 signalements – je n’en connais pas le nombre exact –, elle saute malheureusement.

Mme Laure Miller, rapporteure. Vous évoquiez une sorte de zone grise qui fait que vos propos ne tombent pas sous le coup de la loi. Ils restent donc problématiques, sans avoir de conséquences.

M. Isac Mayembo. C’est ce qu’on appelle la liberté d’expression, madame.

Mme Laure Miller, rapporteure. Bien sûr. Si vos propos ne sont pas contraires à la loi, ils entrent en effet dans le champ de la liberté d’expression. Toutefois, comme vous connaissez le fonctionnement de TikTok, évitez-vous certains mots ou les énoncez-vous de façon particulière, par exemple en les épelant, pour que vos vidéos ne soient pas supprimées avant d’être diffusées ?

M. Isac Mayembo. Le problème, c’est que je suis censé adoucir un peu mes propos pour cette plateforme. D’autres plateformes me permettent de parler un peu plus librement.

M. le président Arthur Delaporte. Qu’entendez-vous par « adoucir vos propos » ?

M. Isac Mayembo. Par exemple, on peut utiliser le mot « poutrer ». Ça vous fait rire, mais employer ce mot à la place de « coucher » ou d’un terme encore plus vulgaire permet de s’assurer que la vidéo ne sera pas censurée trop facilement. Donc, adoucir certains propos de cette façon peut arriver, oui, surtout dans les lives TikTok.

M. le président Arthur Delaporte. Par exemple, vous avez dit : « Vous prenez son téléphone. Si elle refuse, c’est une pute. Fin de relation » ou « La majorité des femmes, énormément de P.U.T.E.S., peu de filles bien ». Déjà, vous remplacez « putes » par « P.U.T.E.S » pour échapper à la modération, mais ces propos vous semblent-ils contrevenir aux conditions générales d’utilisation de la plateforme et plus largement à la loi ?

M. Isac Mayembo. Je pense que vous vous avancez un peu trop, parce que ces propos ont été prononcés dans un live YouTube et pas dans un live TikTok.

M. le président Arthur Delaporte. Vous auriez sans doute pu les tenir sur TikTok.

M. Isac Mayembo. Est-ce que votre commission s’intéresse à TikTok ou à YouTube ?

M. le président Arthur Delaporte. Nos travaux visent à spécifier les effets de TikTok par rapport aux autres plateformes. Auriez-vous pu tenir ces propos sur TikTok ?

M. Isac Mayembo. Des choses comme « P.U.T.E.S. » sur TikTok ? C’est fort possible ; si vous trouvez un extrait vidéo, je le reconnais volontiers, mais en l’occurrence, les propos que vous venez de citer proviennent – je m’en souviens très bien – d’un live YouTube. Il faut bien faire la différence entre TikTok et YouTube.

M. le président Arthur Delaporte. Nous interrogerons YouTube. « Je le dis souvent, une femme après 22 heures, qu’est-ce qu’elle fout dehors ? », sur quelle plateforme avez-vous tenu ces propos ?

M. Isac Mayembo. Encore une fois, c’était sur YouTube, monsieur. J’aurais pu tenir ces propos sur TikTok, bien entendu, mais il aurait surtout fallu conserver la vidéo originale.

Comme je l’expliquais au début, le gros problème de TikTok est la désinformation et je pense que vous êtes en train de tomber dans le piège. Vous isolez mon propos, en prenant dix secondes d’une vidéo de huit à dix minutes dans laquelle je disais – je vais rentrer dans le détail, puisque nous en parlons, alors pourquoi pas – que le Gouvernement était responsable de la sécurité et qu’il n’était pas normal, en 2025, qu’une femme ne puisse pas sortir le soir très tard, à Paris. Et après, je disais que dans ce monde qui est dur, je me demandais ce que faisait une femme dehors après 22 heures. Et je poursuivais ensuite en disant qu’il était préférable de sortir avec une amie ou avec deux amies, ou avec un homme. Vous n’avez pris que dix secondes de mon propos, vous avez isolé ce passage et vous venez de me le balancer à la gueule ! C’est le problème de TikTok.

M. le président Arthur Delaporte. Balancer à la gueule, excusez-moi, mais « Vous prenez son téléphone. Si elle refuse, c’est une pute. Fin de relation » est quand même un contenu problématique. Sur TikTok et YouTube, les conditions…

M. Isac Mayembo. Vous changez de sujet…

M. le président Arthur Delaporte. Laissez-moi finir, s’il vous plaît.

M. Isac Mayembo. Si vous changez de sujet…

M. le président Arthur Delaporte. Je vous demande de me laisser finir. Je suis le président de la commission d’enquête et c’est moi qui mène l’audition.

M. Isac Mayembo. Vous êtes peut-être président, monsieur, mais si vous déformez mes propos, il n’y aura plus de président.

M. le président Arthur Delaporte. Nous allons devoir couper votre son si vous continuez. Je vais finir mon propos.

M. Isac Mayembo. Au revoir, monsieur, bonne journée.

(M. Isac Mayembo interrompt la connexion.)

M. le président Arthur Delaporte. L’audition est suspendue ; nous contacterons « M. Hitchens » pour lui expliquer qu’il n’est pas possible de quitter une audition de commission d’enquête sans y avoir été invité.

53.   Audition de M. Adrien Laurent (mardi 10 juin 2025)

Puis la commission auditionne M. Adrien Laurent ([51]).

M. le président Arthur Delaporte. Les influenceurs que nous auditionnons ont été choisis selon deux principes. Nous nous appuyons, d’une part, sur les résultats de la consultation citoyenne effectuée sur le site de l’Assemblée nationale – elle a duré six semaines et a permis d’obtenir plus de 30 000 réponses – et, d’autre part, sur les témoignages recueillis par notre commission lors de la centaine d’auditions qu’elle a déjà menées.

Je rappelle que cette commission d’enquête a d’abord été constituée pour les victimes, que nous avons déjà eu l’occasion de recevoir.

Puisque certains commentaires ont été relayés dans la presse par l’intermédiaire des avocats de M. Laurent, j’insiste sur le fait que nous ne sommes pas dans un tribunal. Si la loi dote les commissions d’enquête de pouvoirs étendus, nous ne nous substituons pas à la justice. Notre objectif est de comprendre le fonctionnement des réseaux sociaux, leurs usages et les raisons pour lesquelles nous sommes interpellés sur certains sujets. Nous souhaitons faire la lumière sur les logiques qui amènent à produire certains contenus et réfléchir aux possibles régulations.

Monsieur Laurent, je vous remercie d’être présent. J’ai cru lire que vous aviez découvert votre convocation dans la presse. Je le déplore, car nous l’avons envoyée aux adresses mail qui nous ont été communiquées par votre manager, quatre jours avant que les médias n’en fassent mention. Il y a peut-être eu un problème de communication. Je précise également que notre convocation a été émise avant que la ministre, Mme Bergé, fasse son signalement à TikTok.

Dans le cadre de votre intervention liminaire, je vous prie de nous préciser tout intérêt public ou privé de nature à influencer vos déclarations et de nous expliquer vos liens avec les plateformes, la nature de vos revenus et la manière dont vous percevez de l’argent, en fonction des différents contenus.

Enfin, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Adrien Laurent prête serment.)

M. Adrien Laurent, influenceur. Je vous remercie sincèrement pour votre invitation à participer à vos travaux et à m’exprimer sur un sujet important, celui des effets psychologiques de TikTok sur les mineurs.

Tout d’abord, permettez-moi de me présenter, pour dissiper d’éventuels préjugés. J’ai été basketteur de haut niveau avant de me faire connaître, à 22 ans, dans l’émission de téléréalité « Garde à vous » sur M6. J’ai ensuite participé à d’autres programmes de téléréalité diffusés à la télévision pendant près de dix ans.

C’est à cette époque que je me suis inscrit sur les réseaux sociaux, pour échanger avec les gens qui m’appréciaient dans ces émissions. Puis, fort de mon expérience dans la téléréalité, j’ai décidé de produire un contenu original et divertissant sur mes propres réseaux. Pour cette raison, je préfère être qualifié de créateur de contenu plutôt que d’influenceur, terme qui me réduit à une fonction publicitaire et nie ma liberté de création artistique. À l’image des sociétés de production dans la téléréalité, je suis devenu mon propre producteur.

Parallèlement, de manière distincte, je suis créateur de contenu pour adultes depuis deux ans. Ces vidéos sont commercialisées exclusivement sur des plateformes réservées aux majeurs. Elles ne sont pas présentes sur TikTok. Je travaille avec des actrices professionnelles majeures, qui ont elles-mêmes leurs comptes sur ces plateformes.

Après cette brève présentation, je vais tenter de vous apporter un éclairage sur ce que j’imagine être attendu de moi par cette commission. Contrairement à d’autres personnes auditionnées, je n’ai pas reçu de questions préparatoires. Cependant, les interventions médiatiques de M. le président Delaporte m’ont permis de comprendre les raisons de ma convocation. Lors d’une émission, il m’a présenté comme « un influenceur extrêmement violent, qui véhicule un imaginaire sexiste ». Il a qualifié mon contenu de « problématique », car il aurait trouvé des vidéos pour adultes sur mon compte X, anciennement Twitter.

Je réfute avec force ces accusations.

Premièrement, le contenu que je diffusais sur TikTok reprenait les codes de la téléréalité. J’y montrais mon quotidien, mes voyages, mes proches et mon activité professionnelle, tout en respectant les règles de la plateforme, notamment en matière de nudité. Les posts étaient accessibles uniquement aux utilisateurs de plus de 13 ans. Surtout, avant mon bannissement – que je considère comme infondé et motivé par des raisons politiques –, mes vidéos étaient disponibles sans censure de TikTok.

Deuxièmement, selon la signalétique jeunesse de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), un contenu qui évoque la sexualité adulte est classé comme interdit aux moins de 12 ans à la télévision. Il est donc accessible à partir de 12 ans, comme le film Cinquante nuances de Grey, dans lequel une femme majeure, consentante, parfois masquée, entretient une relation sadomasochiste avec un homme. L’Arcom précise qu’un contenu érotique est interdit aux moins de 16 ans, et donc accessible à partir de 16 ans. Dans mes contenus sur TikTok, je parle parfois de sexualité, car c’est ma profession mais je ne diffuse aucun – je dis bien, aucun – contenu érotique et la plateforme est accessible uniquement à partir de 13 ans.

Troisièmement, contrairement à ce qu’affirmait le président Delaporte, si Twitter autorise désormais les contenus pour adulte, il restreint évidemment leur accès aux majeurs. Les personnes majeures souhaitant accéder à ces contenus sur mon compte Twitter doivent modifier leurs réglages en ce sens.

Quatrièmement, mon contenu n’est ni sexiste, ni misogyne, ni masculiniste et je n’ai jamais été violent. Dans le cadre de ma liberté de création artistique, à l’image de ce que permettent certaines émissions de téléréalité, j’évoque ouvertement ma vie d’acteur de contenus pour adultes.

On me juge souvent non pas pour ce que je dis, mais simplement pour ce que je suis. Ma profession suffit, aux yeux de certains, pour me disqualifier d’office, comme si travailler dans l’industrie pour adultes empêchait d’avoir une parole responsable.

Parce que je viens de la téléréalité et que je suis acteur de films pour adultes, on me méprise en me qualifiant de beauf, comme si, par définition, tout contenu populaire était sexiste. Or je parle de ma vie de manière assumée, transparente et respectueuse. Il m’arrive d’échanger avec des actrices professionnelles sur TikTok, sans jamais ni dénigrer leurs envies et leurs pratiques ni les rabaisser, et cela sans aucune nudité.

Dans cette même interview, M. le président Delaporte a déclaré : « il sait très bien qu’il touche des jeunes et que ces jeunes vont découvrir la sexualité, le porno, à travers lui et moi ça me pose un problème », ajoutant « quand je vais dans une classe de CM2 et que je leur demande "quel est votre influenceur préféré sur TikTok ?", ils me disent AD Laurent ».

Je conteste formellement ces accusations.

Premièrement, je n’ai jamais encouragé un public mineur à consommer du contenu inadapté. Je profite d’ailleurs de cette occasion pour insister sur le fait que la sexualité ne s’apprend pas à travers le contenu pour adultes. Le contenu pour adultes n’est pas une éducation à l’intimité. Il s’agit d’une mise en scène entre adultes professionnels, majeurs et consentants. Ayant près de deux millions d’abonnés sur TikTok et conscient de cette large audience, j’ai utilisé la plateforme de façon responsable, en diffusant régulièrement des messages de prévention. J’ai choisi de mettre l’accent sur l’importance du dépistage et du port du préservatif, avec des messages clairs et accessibles.

Deuxièmement, les élèves de CM2 ne peuvent pas avoir accès à TikTok. La plateforme est interdite aux moins de 13 ans et les lives sont réservés aux plus de 18 ans. Si des élèves de CM2, qui ont entre 10 et 11 ans, accèdent à cette plateforme, c’est un problème de contrôle parental et de responsabilité de TikTok, pas la mienne. Je refuse d’endosser une responsabilité qui ne m’appartient pas et d’être comptable d’un contrôle qui n’est pas à ma portée. J’ai toujours veillé à sensibiliser et je n’ai jamais exposé des jeunes à des contenus inappropriés.

Cette clarification étant faite, je souhaite aborder le sujet de cette commission, à savoir TikTok.

Concernant mes liens avec TikTok, je n’ai pas de lien particulier avec la plateforme. Je ne suis pas son ambassadeur. Elle ne m’a jamais rémunéré pour que je crée un compte. Je n’ai pas de partenariat direct avec elle.

Concernant mes revenus générés sur TikTok, je dirais qu’en trois ans, j’ai gagné entre 15 000 et 20 000 euros, soit une moyenne haute de près de 555 euros par mois. On est loin d’un business ! J’aurais aimé être plus précis, mais malheureusement, mon compte ayant été supprimé en moins de vingt-quatre heures à la suite d’une intervention politique, je n’ai pas le chiffre exact. Sur TikTok, mes revenus étaient majoritairement issus de la monétisation du contenu publié. Les règles encadrant la monétisation sont très floues. Il me semble que les créateurs de contenu touchent entre 50 centimes et 1 euro toutes les 1 000 vues pour un contenu de plus d’une minute.

Les utilisateurs ont également la possibilité de faire des cadeaux, qui sont en réalité des émojis monétisés, lorsque le live leur plaît, mais ce n’est pas une obligation. Certains créateurs de contenus se sont adonnés à la pratique régulière des live matches, qui consiste à faire une compétition entre deux intervenants, afin de savoir lequel récoltera le plus de ces émojis. Étant réticent à cette pratique, qui peut pourtant rapporter énormément d’argent, je n’ai fait que très peu de live matches, à peu près une dizaine en trois ans sur TikTok.

Je n’ai réalisé quasiment que des lives TikTok classiques ou multi-invités. Ces lives me permettaient, tous les soirs, de rencontrer ma communauté de vingt‑deux heures à minuit et d’échanger sur leur vie avec mes abonnés, de manière directe, légère, en répondant à leurs questions.

Je rappelle que selon les règles communautaires de TikTok, éditées par la plateforme elle-même : « Si nous confirmons que tu as 18 ans ou plus, tu pourras passer en live. Si nous ne pouvons pas confirmer ton âge, tu ne pourras pas passer en live. Si nous confirmons que tu as moins de 18 ans, tu ne pourras pas accéder aux lives ».

À ce sujet, Mme la ministre déléguée Aurore Bergé a justifié mon bannissement de TikTok sur France Info en ces termes : « Cette personne faisait des vidéos, notamment des lives sexuels, avec des jeunes femmes masquées, dont on ne connaît pas l’âge, où on pouvait avoir un doute sur le fait qu’elles soient même majeures et dont on ne sait en rien si elles ont consenti à être sur ces vidéos ».

L’ensemble de ces accusations sont fausses. L’accès et la participation aux lives TikTok sont interdits aux mineurs. Aucun contenu sexuel n’était diffusé lors de mes lives. Il s’agissait simplement de discussions légères avec mes abonnés. Pour accéder ou participer à un live, les utilisateurs doivent faire une demande particulière. Donc, toutes les personnes qui passaient sur mon live, qu’elles soient masquées ou non, étaient majeures et consentantes.

Concernant l’algorithme de TikTok, son fonctionnement est flou, mais je comprends qu’il faut être percutant et accrocheur dans les premières secondes de la vidéo, à l’image du titre et du chapeau d’un article de presse souhaitant faire du clic.

Enfin, je tiens à dire que cette commission me paraît essentielle. Je trouve extrêmement utile cette réflexion, avec des spécialistes, sur les effets psychologiques de TikTok sur les mineurs. Je ne comprends d’ailleurs pas pourquoi l’exécutif, notamment la ministre déléguée Aurore Bergé, a pris une décision hâtive concernant le bannissement de mon compte, sans attendre les conclusions de vos travaux parlementaires.

Si les conclusions de votre commission montrent que certains contenus ont des effets négatifs sur la santé mentale des mineurs, alors je serai bien évidemment le premier à demander qu’ils n’y aient pas accès, par exemple en restreignant l’accès à certains réseaux où à certains contenus aux mineurs de 15 ans. Il faudrait mettre en place un contrôle efficace, sans faire peser toute la responsabilité sur les créateurs, qui ne sont ni éducateurs ni parents, et qui doivent seulement respecter les règles fixées par la plateforme.

J’espère avoir été clair et complet dans mes explications et je répondrai à vos questions avec sérieux, franchise et honnêteté.

Mme Laure Miller, rapporteure. Vous avez peut-être été surpris de cette convocation, mais nous avons lancé une grande enquête, qui nous a permis de recueillir plus de 30 000 réponses, dont pratiquement la moitié émanait de lycéens. L’une des questions permettait de citer des influenceurs ou des créateurs de contenu considérés comme problématiques. Or votre nom est revenu très souvent.

En outre, comme M. Delaporte l’a dit dans les médias, nous nous rendons dans des lycées, des collèges, même des écoles primaires, et nous constatons que votre nom est bien connu des jeunes.

Vous dites que vous voulez avoir une parole responsable – et tant mieux –, tout en soulignant que ces jeunes ne devraient théoriquement pas être sur la plateforme. C’est pourtant la réalité. À 11 ans, un jeune sur deux est sur TikTok. Cela devrait peut-être vous amener à réagir, d’une façon ou d’une autre.

Mon propos n’est pas à prendre sous l’angle moral. Nous cherchons simplement à comprendre pourquoi vous êtes allé sur TikTok, comment vous gérez vos contenus face à une communauté en partie très jeune, ainsi que la modération du réseau.

En tant que créateur de contenu, je suppose que votre stratégie est d’être le plus présent possible sur les plateformes. Pouvez-vous nous confirmer que vous avez été banni de Snapchat et d’Instagram ? Pourquoi avez-vous choisi TikTok ? L’algorithme vous semblait-il plus adapté ?

M. Adrien Laurent. Pour répondre à la première question, je suis un personnage qui peut être apprécié, mais je peux également comprendre que des gens ne soient pas adeptes de mon contenu.

Je n’ai pas été banni par ma faute d’Instagram. À l’époque, pendant le covid, je faisais des lives super sympas, avec des filles qui dansaient, de la musique, etc. Il y avait énormément de gens présents lors de mes lives, mais quand 900 000 personnes te suivent, certaines t’aiment et d’autres ne sont pas d’accord avec ton contenu. Malheureusement, il arrive parfois qu’elles le signalent, pour de bonnes ou de mauvaises raisons. Bien qu’énormément de gens t’aiment, si beaucoup d’autres signalent ton compte, tu peux le perdre sans aucune explication. J’ai vécu la même chose sur Snapchat.

Je suis arrivé sur TikTok très tard. J’aimais beaucoup l’application, mais je ne ressentais pas le besoin d’y être. C’est mon frère qui m’a dit : « Tu devrais te lancer sur TikTok ». À cette époque, je n’étais pas du tout dans le contenu pour adultes. Ça me paraissait cool, parce que c’étaient des vidéos très rapides avec beaucoup d’engagement. Je me suis dit : « Adrien, tu devrais te mettre sur TikTok, parce que c’est l’application la plus téléchargée en France et même dans le monde, ça peut te faire de la visibilité en plus ». Comme un influenceur responsable, j’ai donc essayé TikTok. Je ne le regrette pas, parce que j’ai eu beaucoup de bons retours en très peu de temps, sans avoir commencé le contenu pour adultes.

Vous devez comprendre que je fais du contenu pour adultes, mais que j’ai fait dix ans de téléréalité auparavant. Sur les deux millions de personnes qui me suivent, toutes ne me suivent pas grâce au contenu pour adultes. Certaines me suivent pour la téléréalité, d’autres parce qu’elles adorent mes lives le soir, parce qu’ils leur apportent quelque chose de positif, qu’on rigole et que j’arrive à rester dans la bienveillance avec mes abonnés, et effectivement il y en a qui me suivent parce que je fais du contenu pour adultes.

Je répète que mon contenu pour adultes est uniquement accessible sur des plateformes privées, réservées aux majeurs.

Si j’ai réussi à attraper 1,8 million d’abonnés en un an et demi, c’est que mon contenu plaît. Évidemment, j’ai une responsabilité vis-à-vis des personnes qui sont sur TikTok, mais je ne peux pas être responsable de tout. Dans votre étude, vous dites que 30 000 élèves de CM2…

M. le président Arthur Delaporte. Lorsque je vais dans les classes de CM2, je demande toujours aux élèves de me citer les influenceurs qu’ils connaissent. Ils en listent souvent une palanquée, puis finissent par citer AD Laurent en riant, un peu gênés. Ils savent qu’ils ne sont pas censés vous connaître, comme Hitchens ou d’autres, même si je ne fais pas de comparaison entre vous.

M. Adrien Laurent. Je suis citoyen français. Je paye mes impôts en France. J’ai pris la responsabilité de rester à Paris. Quand je marche dans la rue ou que je fais mes courses, des personnes de 50 ans, de 30 ans, de 15 ou 16 ans m’arrêtent souvent pour faire des photos. Je ne reçois jamais de haine ou d’insultes.

Je ne peux pas choisir ma communauté. Des gens me suivent parce qu’ils aiment bien mes lives, d’autres parce qu’ils aiment bien ma simplicité ou le fait d’assumer ma sexualité et d’être Adrien Laurent. Je suis très fier d’avoir fait de la téléréalité, d’être dans le sport et de créer du contenu pour adultes. Je ne veux surtout pas, j’insiste, qu’on me compare avec Alex Hitchens, car je suis en tout point à l’opposé de ce monsieur. Je ne suis ni sexiste, ni misogyne, ni masculiniste.

Ce n’est pas parce qu’on me voit avec plusieurs filles et que je suis acteur porno qu’il faut tout de suite se dire que je suis un détraqué sexuel. Je suis acteur porno, je bosse avec une équipe très professionnelle et je n’ai jamais dit qu’une fille qui sort après vingt-deux heures ou qui met des jupes courtes est une fille facile. Au contraire, je prône la liberté sexuelle à égalité à longueur de journée et je mets la femme sur un piédestal tout le temps. Mon contenu pour adultes est réalisé avec des filles consentantes, majeures et qui ont commencé le porno avant moi.

La plupart du temps, les stars des contenus pour adultes sont des femmes, mais j’ai réussi à faire des performances très rapidement sur les réseaux sociaux.

J’adapte mon contenu à chaque plateforme. Ce que je fais sur OnlyFans ou MYM, je ne le fais pas sur TikTok. En revanche, j’y fais des lives avec des gens cool, j’apprends un peu d’où vient ma communauté et, de temps en temps, je fais des pranks, parfois à connotation sexuelle, mais j’arrive toujours à fixer une limite et à faire en sorte que ce soit sécurisé pour les jeunes.

Mme Laure Miller, rapporteure. Confirmez-vous que vous ne renvoyez pas votre communauté TikTok vers d’autres plateformes, sur lesquelles vous proposeriez d’autres types de contenus ?

M. Adrien Laurent. Depuis que j’ai commencé la télévision, je pense que les gens me connaissent assez bien. Je parle des gens qui suivent mon contenu, et pas de ceux qui ont vu deux ou trois minutes d’un live en trois ans. J’ai beaucoup de notoriété et les gens m’apprécient parce qu’en dix ans, je suis resté le même, que ce soit sur TikTok, Snapchat, etc. Je reste le mec simple, fun, cool, qui poste des contenus sur un ton léger et humoristique.

Mes lives TikTok s’adressent uniquement à des majeurs, peut-être que c’est le cas seulement en théorie, mais si un petit de 14 ans contourne la règle, je n’y peux rien. Je ne veux pas qu’on me surresponsabilise dans cette histoire. Les épiceries vendent de l’alcool à deux mètres des bonbons. Un petit de 15 ans n’a pas le droit d’acheter de l’alcool, mais le magasin n’a pourtant pas l’interdiction d’en vendre. C’est la même chose pour moi. Je suis un simple usager de la plateforme, qui respecte les règles.

Est-ce que je renvoie les gens de TikTok vers d’autres plateformes ? J’ai 1,8 million d’abonnés sur cette application. On me demande régulièrement : « AD, où on peut voir tes films ? », « AD, tu as un Snap ? », « AD, tu as un Twitch ? », « C’est quoi ton YouTube ? », etc. De temps en temps, pour alimenter mes autres plateformes, je mets des liens pour que les gens puissent me retrouver. C’est l’essence même de l’activité d’influenceur d’être sur toutes les plateformes possibles, mais je suis professionnel et je répète que mon contenu est à chaque fois totalement différent.

Le problème, c’est qu’avec 1,8 million d’abonnés et 20 000 personnes en live tous les soirs, il est évident qu’il y a des gens qui n’apprécient pas ton contenu et qui le signalent. Je l’accepte. Je respecte les gens qui ne sont pas adeptes de mon contenu. Je ne dis pas que j’ai la meilleure image, mais je n’influence aucun mineur à être acteur porno. À la différence du monsieur que vous avez auditionné juste avant, je ne vends aucune formation – et je me tairai sur les raisons qui motivent ces formations. Je propose juste ma vie. Malheureusement ou heureusement, les gens veulent me suivre, pour savoir ce que fait AD le matin ou en vacances. Je ne le contrôle pas. J’essaye néanmoins d’être le plus respectueux possible sur les plateformes publiques.

Mme Laure Miller, rapporteure. Comme vous l’avez indiqué, l’objectif d’un influenceur est de faire en sorte que sa communauté découvre ses autres contenus. Si vous avez conscience que votre communauté TikTok est composée notamment de mineurs, vous savez qu’en mentionnant des plateformes où se trouvent des contenus de nature pornographique, ils vont y aller, ne serait-ce que par curiosité.

M. Adrien Laurent. Aucun mineur ne peut avoir accès à mes plateformes privées.

M. le président Arthur Delaporte. Tout dépend des règles de vérification mises en place par les plateformes.

C’est un peu compliqué depuis la suspension de votre compte, mais nous avons une vidéo d’un de vos lives avec un mineur.

M. Adrien Laurent. Avez-vous cette vidéo ?

M. le président Arthur Delaporte. Nous allons vous la montrer. Vous êtes avec un jeune, à qui vous demandez où sont ses parents, pourquoi il n’est pas au catéchisme alors qu’on est dimanche ou je ne sais plus trop quoi. Manifestement, il s’agissait d’un mineur, qui participait donc à l’un de vos lives.

M. Adrien Laurent. Je le répète, je fais des lives tous les soirs depuis trois ans et je prends énormément de gens. Lorsque je prends une personne de moins de 18 ans, qui a contourné les règles de son plein gré – mais ça, ce n’est pas mon problème –, je la fais descendre du live avec bienveillance et respect. Je le fais quand ce sont des filles ou des hommes de 17, 18, 19 ans et que je ne suis pas sûr de leur identité.

Mes lives cartonnent, car je prends tout type de personne. J’arrive à en apprendre plus sur leur vie, sur les raisons pour lesquelles ils me suivent, depuis combien de temps, etc. Je ne fais aucune distinction dans mes lives. Je prends des filles, des hommes. Je me fais harceler tous les jours : « AD, s’il te plaît, je peux monter son ton live ? J’adore, j’ai absolument envie de monter sur ton live. » Si malheureusement, je prends quelqu’un qui a contourné les règles – je n’ai plus TikTok, mais ça arrivera peut-être un jour –, qu’est-ce que je dois faire ?

M. le président Arthur Delaporte. C’est une vidéo de ce type que j’ai vue. Vous y êtes avec quelqu’un de très jeune.

M. Adrien Laurent. Je me souviens de ce live. En l’occurrence, il n’y avait aucun propos sexuel et aucune allusion sexuelle. Je lui dis justement qu’il est tard et qu’il faut qu’il aille se coucher. Même dans un live où je prends quelqu’un qui a contourné les règles de TikTok – et ce n’est pas ma faute –, j’arrive à avoir un propos responsable.

M. le président Arthur Delaporte. Parmi vos différents contenus, vous avez évoqué les pranks. De quoi s’agit-il ?

M. Adrien Laurent. Ce sont des blagues.

En décembre, je suis allé en Thaïlande. Ça va peut-être vous faire rigoler, en tout cas, moi ça m’a fait beaucoup rire et ça a fait rire beaucoup de gens. J’ai visité un site où il y avait des éléphants et, en tant que créateur de contenu pour adultes, j’ai posté une vidéo avec un éléphant et j’ai dit « Oh, un concurrent sérieux », avec la métaphore de la trompe. C’est marrant – je vois que l’un d’entre vous rigole – mais je peux comprendre que des gens n’apprécient pas.

Je faisais du basket et des tirs à trois points. J’ai mis en commentaire « On vise le trou avec respect ». Un majeur peut sûrement rigoler, comme monsieur le député, tandis qu’un mineur ne voit qu’un mec qui joue au basket. C’est toujours de l’autodérision et du fun.

L’ironie du sort, c’est que ma maman est dans l’éducation nationale. Elle est prof depuis très longtemps. J’ai toujours eu ce soutien de mes parents. Ma mère ne souhaite pas regarder mes contenus pour adultes, mais elle est toujours là pour m’aider à trouver les bons mots. Il faut que je sois performant sur tous mes posts TikTok. Je pense que c’est le cas, mais je peux comprendre que des gens ne soient pas attirés par mon contenu. Je le respecte.

M. le président Arthur Delaporte. En poussant la logique du prank, on arrive parfois à de la provocation.

Dans le cadre de cette commission d’enquête, nous avons auditionné un chercheur qui a analysé assez minutieusement l’un de vos lives, dans lequel vous poussez une femme que vous ne trouvez pas assez féminine à prouver qu’elle n’est pas trans et qu’elle est bien cisgenre. Vous – ou l’un de vos conseils – avez peut-être suivi cette audition.

Or dans les conditions générales de la plateforme, de nombreuses dispositions interdisent les moqueries, les humiliations, les intimidations, les remarques liées à l’orientation sexuelle ou à l’identité de genre. Considérez-vous que les propos que vous avez tenus dans ce live les respectent ?

M. Adrien Laurent. Je prends des gens en live depuis 2021, cinq fois par semaine. Il s’agit de tout type de personne, des homosexuels, des transsexuels, des parents d’élèves, des ouvriers, etc.

En l’occurrence, quand je prends un transsexuel – on dit peut-être un transgenre, je ne sais pas –, j’ai le droit de poser des questions pour connaître son état d’esprit, de savoir si cette personne a voulu faire une chirurgie, etc. Je me pose des questions et ça me fait plaisir d’en apprendre plus sur mes abonnés. Qu’ils soient homosexuels, trans ou autre chose, je ne porte aucun jugement et je n’humilie jamais personne. En revanche, je m’intéresse aux gens. Ceux qui suivent les lives tous les soirs depuis 2022 le savent.

J’ai autant d’abonnés et autant de vues en live, parce que je reste bienveillant. Néanmoins, quand je me pose des questions par rapport à certaines personnes, je les interroge.

M. le président Arthur Delaporte. Nous en venons aux questions des députés.

M. Antoine Vermorel-Marques (DR). Théoriquement, les mineurs ne peuvent pas voir vos vidéos à caractère pornographique, mais comment parviennent-ils à détourner les règles ?

M. Adrien Laurent. Je n’en ai aucune idée.

M. Antoine Vermorel-Marques (DR). Avez-vous des suggestions à nous faire pour renforcer les règles ?

M. Adrien Laurent. Votre commission d’enquête porte sur TikTok, n’est‑ce pas ? Pour ma part, je poste du contenu pour adultes uniquement sur des plateformes privées, réservées aux majeurs.

M. le président Arthur Delaporte. X n’est pas une plateforme privée. Le sujet peut en outre s’inscrire dans la poursuite des réflexions de cette commission d’enquête. Avez-vous des idées dont vous souhaiteriez nous faire part ?

M. Adrien Laurent. Le réseau X accepte la pornographie, mais lorsque vous créez un compte Twitter vierge, vous n’avez pas accès à un contenu sensible. Pour y avoir accès, vous devez modifier les réglages. Vous le faites de votre plein gré. Donc, si vous avez vu du porno ou du contenu violent sur Twitter, c’est que vous le voulez.

M. Antoine Vermorel-Marques (DR). Votre contenu à caractère pornographique se trouve sur d’autres plateformes que TikTok, mais vous mettez parfois des liens sur TikTok qui y renvoient. Je ne porte aucune accusation vis‑à‑vis de vous. Je souhaite néanmoins que nous parvenions à limiter ces pratiques, afin de protéger les mineurs et de garantir aux parents – ou à votre maman qui est professeure – que leurs enfants ne pourront pas voir du contenu pornographique d’Adrien Laurent.

M. Adrien Laurent. Un mineur ne peut pas voir du porno d’AD Laurent. Quand il arrive sur MYM ou OnlyFans, il faut une double authentification. Il ne pourra donc pas accéder à ces plateformes.

Les liens que je mets sur mon live renvoient vers mon Snap, mon Insta ou mon Twitch. Ce sont des publications faites sur un réseau public. Je poste des contenus sympas, accessibles aux jeunes entre 13 et 18 ans. Ils sont fun et pas du tout nuisibles pour des gens de cet âge. S’ils arrivent à trouver des liens vers MYM et OnlyFans, ils ne pourront pas les utiliser.

J’ai décidé de faire du porno éthique et de travailler avec des plateformes privées, parce que je sais que c’est très sécurisé pour les jeunes. Je ne remets pas en cause les gens qui font du porno sur les plateformes comme Pornhub ou les autres sites internet, mais je sais que MYM et OnlyFans sont très sécurisés. Seuls les majeurs peuvent avoir accès à mon contenu.

S’il trouve le lien MYM d’Adrien Laurent, un mineur peut cliquer dessus, mais on va lui dire : « Mon petit gars, tu as 13 ans, tu ne verras aucun contenu ».

M. Stéphane Vojetta (EPR). Cette commission d’enquête porte sur TikTok, mais elle vise à comprendre les mécaniques qui, sur toutes les plateformes de réseaux sociaux, peuvent provoquer des dommages sur la santé mentale des jeunes, et d’ailleurs pas seulement des jeunes.

La France est le pays de la liberté. À condition qu’elle concerne des adultes consentants, la pornographie y est autorisée. Nous ne portons aucun jugement moral à ce sujet. En revanche, nous essayons de trouver des solutions pour faire respecter la loi et nous assurer que les contenus pornographiques ne sont pas accessibles aux mineurs. Les plateformes doivent vérifier l’âge de leurs utilisateurs, mais elles le font très mal.

Vous avez publié sur pratiquement toutes les plateformes. Savez-vous qu’elles proposent des outils permettant de restreindre votre audience et d’exclure toutes les personnes identifiées comme étant mineures ? Les avez-vous déjà utilisés sur vos contenus classiques ?

S’agissant d’OnlyFans et MYM, utilisez-vous des agents ou l’équivalent pour faire croître votre audience ? Comment assurez-vous la promotion de vos contenus ? Alors que je ne vous suivais sur aucun réseau, je me rappelle avoir vu des vidéos assez provocatrices qui incitaient à cliquer pour en voir davantage.

Enfin, que pensez-vous de la profession d’agent OnlyFans, en particulier quand elle concerne des jeunes femmes ?

M. Adrien Laurent. Quand on crée un compte vierge sur Twitter, on ne peut pas avoir accès à de la violence. Il faut aller dans les réglages, sur l’ordinateur, et les modifier. C’est relou. Si vous trouvez mon compte sur Twitter et que vous n’avez fait aucune modification de vos réglages, on vous dira que c’est du contenu sensible et que vous ne pouvez pas le voir. En outre, ce compte est sous un pseudonyme, et non sous le nom d’Adrien Laurent. J’ai fait en sorte de protéger au maximum mon contenu.

Évidemment, lorsqu’une personne modifie ses réglages, elle peut accéder à mon contenu porno.

Je ne fais pas énormément de promotion de mes contenus. Je le fais de temps en temps sur des plateformes qui l’autorisent, mais j’ai débuté dans la téléréalité il y a dix ans, en 2015. J’ai suffisamment de notoriété pour que les gens qui veulent trouver mon contenu pornographique – je parle des majeurs – puissent le faire en tapant par exemple « MYM Adrien Laurent » dans la barre de recherche de Google. Sans prétention, je suis tellement connu que c’est très simple d’accéder à mes contenus pour adultes sur les plateformes privées réservées aux majeurs.

S’agissant des agents OnlyFans, je n’en ai pas. En revanche, j’ai une équipe qui bosse avec moi pour sécuriser mon travail.

Je vois dans la presse que les gens assimilent le porno à Adrien Laurent qui serait détraqué sexuel et qui manquerait de respect aux femmes : ce n’est pas le cas. J’ai une équipe surencadrée avec moi. Ce que je fais représente beaucoup de travail – c’est un boulot.

Je demande aux gens de respecter ma liberté de création artistique. Pour certains, le cinéma est uniquement le cinéma d’auteur et non les films pornos ou les films d’action. Pour certains, la musique n’est que la musique classique et non le rap ou le freestyle. En tout cas, je me considère comme un artiste dans ma profession. Je pense que je fais les choses bien.

En revanche, si les études que vous menez prouvent que TikTok a des effets psychologiques sur les mineurs et qu’il faut par exemple augmenter l’âge d’accessibilité, je serai le premier à être de votre côté. Pour l’instant, quelqu’un de 13 à 18 ans a accès à TikTok et je ne suis qu’un simple usager qui essaye de respecter les règles de la plateforme.

M. le président Arthur Delaporte. Avez-vous déjà recruté dans des lives TikTok des personnes avec qui vous avez ensuite collaboré pour des contenus pornographiques ?

M. Adrien Laurent. Les filles et tous les usagers du live TikTok sont majeurs. De temps en temps, des filles me disent qu’elles me suivent depuis longtemps, qu’elles sont aussi sur les plateformes privées et me proposent de collaborer. Je leur propose de me contacter par le biais de mon adresse mail professionnelle et d’en discuter et je leur dis qu’en revanche, je préfère ne pas en parler sur TikTok. Je le leur dis et je coupe le lien.

Mme Christelle D’Intorni (UDR). Vous êtes avant tout un entrepreneur. Derrière votre démarche, il y a une logique commerciale, une stratégie de visibilité, une volonté mercantile basée sur le buzz et sur des positions de rupture. C’est votre droit le plus absolu et je ne porte aucun jugement de valeur sur cette société que vous incarnez.

Mais ici, nous sommes dans le cadre d’une commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs. Je vous poserai donc une question très simple, en tant que députée mais aussi en tant que maman de deux petites filles. Avez-vous conscience de l’impact de vos contenus sur des enfants de 13 ans, qui sont des adolescents en construction ? Ces sujets peuvent vous paraître abstraits, puisque vous n’êtes pas encore père, mais essayez de vous projeter un instant. Accepteriez-vous que votre fille de 13 ans puisse suivre un homme comme vous sur TikTok ? La laisseriez-vous se nourrir de propos tels que ceux que vous diffusez ?

M. le président Arthur Delaporte. Vous avez d’ailleurs déclaré que vos parents ne voulaient pas tomber sur vos vidéos.

M. Adrien Laurent. Mes parents ont le droit de ne pas vouloir tomber sur mes films, mais ça ne me dérangerait pas si cela arrivait demain.

Je n’ai eu aucun problème à annoncer à mes parents que je faisais du X. Ma mère, qui est dans l’éducation nationale, a ce recul pédagogique. Elle considère qu’à 31 ans, c’est ma vie, tant que je respecte les femmes et que je travaille avec des filles professionnelles.

En trois ans, je n’ai eu aucun problème, parce que je bosse toujours avec des filles professionnelles, qui étaient dans le milieu bien avant moi.

Pour répondre à votre question, je ne choisis pas ma communauté.

Si j’avais une fille de 13 ans, je ferais son éducation comme bon me semble. Je communiquerai beaucoup avec ma future femme et je ferai en sorte d’avancer par palier pour que ma fille comprenne, arrivée à sa majorité, que si elle veut se mettre sur les plateformes privées, elle en a le droit. En tant que père, je ne suis personne pour le lui interdire. J’essayerai de lui indiquer le bon chemin, mais si elle décide, à 19 ou 20 ans, de créer un compte MYM pour faire du contenu, elle le fera.

Concernant les contenus qui sont sur TikTok, n’est-ce pas beau de voir Adrien en Thaïlande, de voir Adrien qui danse, de voir Adrien heureux ou de voir Adrien qui fait des vlogs au Brésil et qui visite le Corcovado ? C’est cool pour une fille de 13 ans.

M. le président Arthur Delaporte. Et Adrien qui dit « Je vais devoir shooter avec ta femme, frérot », est-ce aussi pour les enfants de 13 ans ?

M. Adrien Laurent. C’était en live. Donc,18 ans !

M. le président Arthur Delaporte. Les lives sont accessibles aux mineurs, mais ils ne peuvent pas y participer.

M. Adrien Laurent. Non. Je vous cite les règles de TikTok : « Nous déterminons ton éligibilité au live selon ton âge. Si nous confirmons que tu as 18 ans ou plus, tu pourras passer en live. Si nous ne pouvons pas confirmer ton âge, tu ne pourras pas passer en live. Si nous confirmons que tu as moins de 18 ans, tu ne pourras pas accéder au live. »

Si un enfant de 14 ans a TikTok et swipe, il ne pourra jamais tomber sur un live.

Mme Claire Marais-Beuil (RN). Je n’aborderai pas la question des contenus pour adultes, mais seulement des contenus publiés sur TikTok. Dès lors que vous savez que de très jeunes enfants vous regardent sur cette plateforme – même si elle est théoriquement interdite aux moins de 13 ans –, avez‑vous changé votre façon de monter vos vidéos ou de faire votre promotion, de manière à ne pas les choquer ? Vous avez évoqué des blagues qui sont tout de même très tendancieuses et provocantes, et peuvent choquer les très jeunes. Quelles conclusions en tirez-vous ?

M. Adrien Laurent. Mes publications sur TikTok ne sont vraiment pas nuisibles pour un enfant de 14 ans, je le répète.

J’aurais adoré pouvoir vous montrer tous mes posts sur mon TikTok à 1,8 million d’abonnés et vous auriez vu qu’il n’y a rien de problématique. Je danse, je suis en voyage, etc. Oui, je suis entouré de filles, parce que j’aime être entouré de filles et que du fait de mon métier, je suis avec plusieurs filles, mais ce n’est pas un délit en France.

J’arrive à rester vraiment professionnel dans mes publications en live, parce que je sais qu’on peut y accéder à 18 ans. Quand on me pose la question de savoir ce que j’ai fait dans la journée et que j’ai tourné deux films pour adultes, j’essaye de trouver les bons mots et de ne pas mentir, parce que les gens aiment ma sincérité. Je suis aussi apprécié parce que j’arrive à être authentique, spontané, et que je ne joue aucun rôle. J’assume ma sexualité vis-à-vis du grand public et je pense qu’il faut respecter ça.

M. le président Arthur Delaporte. Nous venons de faire un test avec un compte qui est censé être détenu par un mineur et il a pu accéder à un live sans problème. Nous aborderons ce sujet avec TikTok la semaine prochaine, mais vous saurez que lorsque vous tenez des propos sexualisants, sur la taille des poitrines par exemple, ils peuvent être entendus par des mineurs.

M. Adrien Laurent. Je vais faire une comparaison et vous allez me dire si je me trompe. Quand on va sur YouTube et qu’on voit le clip d’un jeune homme qui incarne tous les codes de la virilité – costaud, grand, dents blanches – et qui est entouré de dix filles presque nues, fait-on une commission d’enquête parlementaire pour savoir s’il faut bannir son compte YouTube ou si les mineurs doivent avoir accès à Spotify ou à IMusic ?

J’ai relevé quelques exemples que je vais vous lire. Il s’agit de chansons en libre accès, sans condition d’âge.

Michel Sardou, dans « Les villes de solitude » : « J’ai envie de violer des femmes, de les forcer à m’admirer, envie de boire toutes leurs larmes ».

Bruno Mars dans « Runaway Baby » : « Tellement de jeunes lapines pleines d’envie que j’aimerais choper, mais même si elles me mangent dans la main, il n’y a qu’une seule carotte et elles vont toutes devoir partager ».

Orelsan dans – excusez-moi du terme – « Sale pute » sur YouTube, donc sans limite d’âge : « T’es juste bonne à t’faire péter le rectum, même si tu disais des trucs intelligents, t’aurais l’air conne […] j’veux que tu tombes enceinte et que tu perdes l’enfant […] tu es juste une putain d’avaleuse de sabre, une sale catin, un sale tapin. »

M. le président Arthur Delaporte. Je crois que nous avons compris. Vous pourriez continuer la liste, mais nous ne sommes pas en train d’auditionner Orelsan.

M. Adrien Laurent. Je le sais, mais l’indignation est à géométrie variable.

M. le président Arthur Delaporte. Vous faites référence à des œuvres à caractère artistique. Vous pouvez dire que c’est également le cas de vos lives TikTok, mais, en l’occurrence, la plateforme dit que les contenus sexistes sont contraires aux conditions générales d’utilisation. Si Orelsan y tenait les propos que vous avez cités, il serait peut-être banni.

S’agissant des conditions d’accès aux lives, les mineurs peuvent les voir. La plateforme ne l’empêche pas, sauf s’ils sont soumis à restriction. Cette fonctionnalité doit être activée par l’hôte. Le faites-vous quand vous créez un live ?

M. Adrien Laurent. Non, parce que la plupart du temps, mes lives sont bon enfant, sur un ton léger et humoristique.

M. le président Arthur Delaporte. Donc, vous considérez que vos lives sont accessibles aux mineurs.

M. Adrien Laurent. Non, j’ai dit tout à l’heure qu’ils étaient accessibles uniquement aux majeurs.

M. le président Arthur Delaporte. Ils ne le sont pas. Nous reviendrons d’ailleurs sur le sujet avec TikTok.

« Si nous confirmons que tu as moins de 18 ans, tu ne pourras pas accéder aux lives pour lesquels tu ne respectes pas les conditions d’âge », c’est-à-dire les lives qui sont restreints aux mineurs, ce qui n’est pas le cas des vôtres puisque vous n’activez pas cette fonctionnalité.

M. Adrien Laurent. Je me suis peut-être mal exprimé.

Mme Claire Marais-Beuil (RN). Notre objectif n’est pas de vous bannir de TikTok…

M. Adrien Laurent. C’est déjà fait…

Mme Claire Marais-Beuil (RN). En effet, mais ce n’est pas du fait de la commission d’enquête. Nous sommes là pour comprendre comment nous pouvons protéger les mineurs, en particulier les très jeunes enfants, et pour profiter de votre expérience dans l’utilisation de cette plateforme pour trouver des solutions.

S’il faut appuyer sur un bouton pour que les lives ne soient pas accessibles aux mineurs, nous devons le faire savoir à tout le monde et veiller à ce que cette fonctionnalité soit utilisée.

M. Adrien Laurent. Je ne suis pas un technicien de TikTok. Je suis un simple usager de la plateforme, qui essaye de se conformer au maximum aux règles communautaires. Si vous considérez que le contenu est trop sensible pour des jeunes de moins de 15 ans et qu’il faut remonter l’âge d’accessibilité à TikTok, je serai totalement avec vous. Je répète que mon contenu s’adresse à des gens majeurs. C’est le public que je vise.

Mme Laure Miller, rapporteure. Lorsque vous étiez sur TikTok, certains de vos contenus étaient-ils modérés par la plateforme, voire supprimés ? Connaissez-vous des mots qu’il ne faut pas utiliser, ou éventuellement épeler, pour éviter qu’ils soient repérés ?

M. Adrien Laurent. J’ai une équipe de modérateurs et de modératrices. Sur mes lives, ils bannissent tous les commentaires à caractère négatif ou les insultes. TikTok est comme Twitter. Ça peut être un déferlement de haine dans les commentaires. Une modératrice essaye de les supprimer, parce que si je reçois des insultes, ce ne sont pas les gens qui les profèrent qui risquent d’être bannis. Ça peut être mon live à moi. Mais encore une fois, c’est une question très technique, à laquelle j’ai du mal à répondre.

L’algorithme de TikTok est très opaque. On ne sait pas vraiment quelle vidéo va percer ou pas.

Concernant mon contenu, je n’ai pas besoin de trop montrer pour vraiment buzzer. Je fais des contenus avec ma maman, avec mon père, quand je suis en voyage, et je peux faire trois millions de vues en vingt-quatre heures.

Si j’essaye de faire une vidéo très éducative sur la sexualité ou avec des mots comme « sexuel » ou « VIH »… Je ne peux pas utiliser le mot « viol » par exemple, sinon je serai shadowbanned. Je dois dire « V.I.O.L ». Je m’efforce de le faire et d’être le plus responsable possible, mais quand vous faites trois heures de live et qu’il est minuit, vous êtes parfois un peu fatigué et, de temps en temps, vous écorchez les mots. J’essaye malgré tout de rester le plus professionnel possible. La modération est une vraie question, mais malheureusement, je ne suis pas technicien de TikTok.

M. le président Arthur Delaporte. Nous interrogerons les représentants de la plateforme à ce sujet. Je vous remercie.

54.   Audition de Mme Manon Tanti et M. Julien Tanti (mardi 10 juin 2025)

Puis la commission auditionne Mme Manon Tanti et M. Julien Tanti ([52]).

M. le président Arthur Delaporte. Je remercie M. et Mme Tanti d’avoir bien voulu répondre à notre convocation. Nous recevons cet après-midi cinq influenceurs et influenceuses qui nous ont été particulièrement signalés, soit dans le cadre de nos auditions – nous avons déjà auditionné plus de 100 personnes en deux mois – soit par les différentes modalités de signalement que nous avons prévues, comme le questionnaire en ligne ou la boîte mail, qui est encore disponible.

Notre commission n’est pas un tribunal et notre objectif n’est pas de vous juger, mais de préparer des lois à venir et de réfléchir à la bonne application des différentes normes, nationales et européennes. L’enjeu est donc de nous éclairer sur la meilleure façon de protéger les enfants à l’ère numérique et d’évaluer en particulier les effets psychologiques de TikTok sur les mineurs.

Nous aimerions vous entendre d’abord sur le modèle économique de vos revenus, grâce à TikTok ou à d’autres modalités. Je sais, monsieur Tanti, que vous générez d’importants revenus grâce à vos lives. Pourriez-vous revenir sur les raisons qui vous ont amené à privilégier ce réseau social, peut-être au détriment d’autres ? Je vous demanderai de déclarer vos intérêts, notamment sous forme de rémunérations provenant de différentes plateformes.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Manon Tanti et M. Julien Tanti prêtent successivement serment.)

Mme Manon Tanti, influenceuse. Bonjour tout le monde ! Nous sommes ravis d’être ici pour répondre à vos questions. Cela pourra aider certaines personnes à mieux comprendre comment fonctionne la plateforme TikTok et aussi aider les jeunes.

Je vais d’abord lire un petit texte pour me présenter.

Je ne suis pas venue ici pour fuir mes responsabilités. J’ai conscience que, lorsque l’on s’expose publiquement, surtout sur des plateformes comme TikTok, on a un devoir d’exemplarité, surtout quand on est suivi par des jeunes. Je veux poser les choses clairement dès le départ : je regrette profondément deux choses dans la manière dont cette audition a été préparée publiquement.

Je regrette vos déclarations, monsieur le président. Je ne suis pas une influenceuse « à contenu problématique », du moins je ne pense pas. Sur quelles décisions de justice vous fondez-vous pour affirmer cela ? Ce genre de jugement lancé dans les médias avant toute audition ne relève pas d’un travail d’enquête objectif mais d’une condamnation sans débat.

La seconde chose que je regrette est plus grave à mes yeux : ce sont ces propos affirmant que j’humilierais et que je dégraderais l’image de mes propres enfants. Ces accusations sont violentes, injustes et totalement déplacées. Je suis mère avant tout et jamais je ne tolérerai qu’on me prête des intentions aussi graves sans preuve ni dialogue. C’est pourquoi je suis ici. Je suis ici pour parler vrai, répondre à vos questions avec sérieux et responsabilité. Mais je ne laisserai pas non plus passer des attaques gratuites, comme j’ai pu voir sur certaines des vidéos avant même ce débat, surtout quand cela touche mes enfants et ma famille. J’ai vu une vidéo, relayée sur TF1, sur BFM et sur énormément de plateformes et de chaînes différentes, affirmant que nous étions convoqués ici pour des vidéos que j’aurais postées où j’humilie et où je dégrade mes enfants. Forcément, cela m’a énormément touchée et attristée. Avant de voir cela, j’étais même plutôt flattée d’avoir été convoquée pour pouvoir vous aider et répondre à vos questions. J’aimerais comprendre pourquoi vous avez eu ces affirmations, qui sont honnêtement assez dures.

M. le président Arthur Delaporte. Je vous avais demandé de déclarer vos liens d’intérêt et de préciser ce que vous gagnez, mais peut-être M. Tanti répondra‑t‑il.

M. Julien Tanti, influenceur. Bonjour tout le monde ! On me pose des questions sur TikTok et les lives. Je vais revenir sur ma découverte de cette application. J’étais en vacances à Bali et un de mes amis qui faisaient des matchs sur TikTok m’a demandé pourquoi je n’en faisais pas moi aussi. Je ne savais pas du tout ce que c’était. Un jour, je me suis décidé et j’ai tenté le coup. Cela fait maintenant plus de deux ans. J’ai construit une team et on s’entend super bien.

Je suis également un joueur. J’ai trois comptes TikTok et j’ai trois badges – 38, 34 et 36 –, ce qui équivaut à pas mal d’argent joué. C’est d’abord un kif. Je ne vois vraiment pas cela comme une rémunération parce que j’organise des événements. J’en ai d’ailleurs organisé un récemment à Dubaï avec la location d’un yacht de 45 mètres et plus de trente personnes invitées, des gens de ma team, des joueurs et des non-joueurs, des gens qui sont là, qui papotent, qui partagent. TikTok pour moi, c’est donc avant tout un kif.

Moi, mon argent, je le fais dans la télé. D’ailleurs, je suis en tournage et lundi prochain, je passe sur W9 pendant deux mois. Je repartirai en tournage en juillet. Mon travail principal, c’est la télé. Cela fait quatorze ans que j’en fais. Le reste, ce sont des hobbies. Je vis à Dubaï et, pendant la journée, alors que mes enfants sont à l’école, plutôt que faire les boutiques, je préfère faire des Snapchat, des TikTok ou de l’Instagram. Je ne vois pas cela comme un revenu, mais comme un plaisir. Mes revenus proviennent de la télé. Je fais trois à quatre tournages par an, soit six à sept mois.

M. le président Arthur Delaporte. Je me permets de vous demander de préciser. Vous faites beaucoup de lives sur TikTok et on vous fait des dons. Pourriez-vous nous dire, par exemple, combien vous avez gagné sur TikTok Live la semaine dernière ?

M. Julien Tanti. Je n’en ai aucune idée, car je ne compte pas du tout cela par semaine.

M. le président Arthur Delaporte. Cela peut être une estimation par mois ou par an.

Mme Manon Tanti. C’est très facile à calculer : il y a des applications pour calculer ce genre de revenus.

M. le président Arthur Delaporte. Je suis allé voir, mais c’est dur. J’ai l’impression que, la semaine dernière, vous auriez gagné environ 10 000 dollars, mais je ne sais pas si cela s’approche de ce que vous avez effectivement touché.

M. Julien Tanti. Il faut savoir que TikTok prend 50 % des gains.

M. le président Arthur Delaporte. Cette estimation concerne les gains après prélèvement.

M. Julien Tanti. Je suis quelqu’un d’assez connu. Les personnes de ma team ont entre 30 et 50 ans. Pour les lives, je fais beaucoup de personnes, à peu près 30 000 pour un live de deux heures, ce qui fait 1 euro par personne, mais, malheureusement, ce n’est pas ce que je gagne. La semaine dernière, j’ai gagné 10 000 divisé par deux, soit 5 000.

M. le président Arthur Delaporte. J’ai eu du mal à estimer vos revenus sur le site que j’ai utilisé. Nous sommes preneurs d’informations pour mieux comprendre.

Mme Manon Tanti. Il y a plusieurs choses à comprendre dans les matchs. Il y a les matchs officiels, qui sont organisés à l’avance, et il y a ceux qui sont faits un peu à l’improviste. J’ai essayé de faire quelques matchs, mais c’est beaucoup moins mon kif. Mon mari est un showman, comme il le montre à la télévision depuis douze ans. Il est numéro un de toutes les téléréalités parce qu’il aime animer, que ce soit à la télé ou sur TikTok. Il aime tellement cela qu’on en vient parfois à se disputer dans notre relation. Il y a certes une rémunération, mais il le fait d’abord parce qu’il adore cela. Il a une vraie communauté. Quand il n’est pas sur TikTok, il est au téléphone avec des personnes de sa communauté, même le soir de Noël, au lieu de venir regarder un film avec moi. Ils forment un groupe d’amis hypersolidaires. Il y a le côté rémunération mais aussi le côté passion.

M. Julien Tanti. Ce n’est pas le sujet. Il me demande combien je gagne. Je l’ai dit : je suis un joueur, j’ai trois badges. Je pense qu’il a bien compris, mais il a vu que j’avais gagné de l’argent la semaine dernière grâce à un live. C’est cela qui doit l’alerter, non ?

M. le président Arthur Delaporte. Je vous ai interrogé sur vos intérêts et sur votre rémunération par TikTok et vous m’avez répondu que ce n’est pas votre activité principale.

M. Julien Tanti. Effectivement, ce n’est pas mon activité principale.

M. le président Arthur Delaporte. Sur le site permettant de voir combien vous pouvez gagner, je me suis contenté d’additionner vos gains journaliers – 3 000 dollars un jour, puis 2 000 dollars, puis 7 dollars par exemple – pour arriver à la somme de 10 000 dollars. Je suis remonté sur deux semaines et je suis arrivé à la même somme, soit un total d’environ 40 000 dollars par mois pour les lives. Cet ordre de grandeur correspond-il à la réalité ?

M. Julien Tanti. C’est quelque chose qui me semble énorme et c’est pour cela que je suis très reconnaissant envers ma team et que tous les trois ou quatre mois, je fais un événement. J’essaye de leur rendre la pareille.

Je fais du TikTok, mais je ne passe pas mes journées dessus et je ne suis pas dans le top des livers, même si je fais de beaux scores et de beaux classements. Certains ont des scores beaucoup plus élevés, jusqu’au triple. Je fais partie de la moyenne, je suis dans le top 30, souvent dans le top 20 ou même dans le top 10. C’est pour cela que je suis très reconnaissant envers ma team. Je suis d’ailleurs le seul qui les invite à des événements pour faire autre chose que se voir sur TikTok. Je prends du plaisir à faire tout cela, mais je n’y passe pas plus de deux ou trois heures par jour, sinon, ce ne serait plus un kif.

M. le président Arthur Delaporte. Madame Tanti, vous n’avez pas déclaré vos intérêts.

Mme Manon Tanti. Les rémunérations sont vraiment aléatoires. On ne peut pas faire de moyenne.

M. Julien Tanti. Je pourrais lancer un live avec vous. Je vais peut-être gagner 50 centimes.

Mme Manon Tanti. Les sommes peuvent parfois être conséquentes, mais ce qu’il faut vraiment comprendre, en tout cas pour mon mari, c’est qu’ils sont une team. Les autres peuvent faire aussi des matchs et quand il perçoit de l’argent, il est possible qu’il renvoie. Il y a vraiment un échange. Ajoutez à cela les événements qu’il organise, en France ou à Dubaï, et vous verrez que c’est tout un monde. Il n’y a que Julien qui le fait.

M. le président Arthur Delaporte. Nous n’avons toujours pas parlé de vos revenus. En avez-vous qui sont liés aux contenus que vous postez sur TikTok ou d’autres réseaux sociaux ?

Mme Manon Tanti. J’ai déjà essayé les matchs, mais ce n’est pas mon kif comme Julien. Il adore animer, mais je suis beaucoup moins dans l’animation.

Je peux avoir des revenus provenant de vidéos que je poste sur TikTok, mais il s’agit de vidéos de plus de 1 minute. Certains influenceurs sont éligibles à cette forme de rémunération, d’autres pas. J’en poste très peu. Cela ne fait pas longtemps que je suis éligible, mais ce n’est pas du tout mon revenu principal. Je peux percevoir des revenus sur d’autres plateformes. Très honnêtement, TikTok doit représenter 1 % de mon revenu mensuel.

Je n’ai pas les chiffres exacts et je suis désolé si je dis des bêtises, mais disons que pour 90 % des vidéos de plus de 1 minute que je poste – en ce moment, une ou deux par mois –je perçois peut-être 30 euros.

M. Julien Tanti. Ça dépend du ratio par minute (RPM). Pour avoir un gros ratio, il faut poster dix vidéos de plus d’une minute par jour ; avec une seule par mois, notre ratio n’est que de 10 centimes : même si je fais 10 millions de vues sur une vidéo, je ne gagne qu’une centaine d’euros.

Mme Manon Tanti. Si on veut vraiment gagner de l’argent sur TikTok, il faut avoir un gros ratio et donc entrer dans l’algorithme. Et pour cela, il faut poster très souvent – au moins deux à trois vidéos par jour : ce n’est absolument pas mon cas. Ma vidéo la plus lucrative m’a rapporté 800 euros, et c’était il y a des années. Aujourd’hui, mes vidéos me rapportent une trentaine ou une quarantaine d’euros. Je ne fais pas des vidéos sur TikTok, Instagram ou Snapchat pour gagner de l’argent : je le fais parce que les gens adorent me suivre, suivre mon couple, ma famille. On fait de la télé depuis plus de dix ans et ma communauté me suivait déjà avant le début de notre relation. Je lui ai tout montré : il y a eu une téléréalité sur notre mariage, sur mes accouchements, sur notre premier achat de maison.

M. Julien Tanti. C’est d’ailleurs pour ça qu’on dit souvent qu’on est les meilleurs de la télé. La téléréalité, ce n’est pas seulement partir pendant deux mois pour tourner une émission : montrer la réalité, c’est un choix de vie.

Mme Manon Tanti. Par exemple, dans la petite vidéo que vous avez diffusée pour annoncer notre convocation, vous avez partagé une de mes vidéos de famille tournée lors d’un barbecue. On était en plein mois d’août, il faisait 32 degrés, donc on jouait avec des ballons d’eau. Tout le monde participe : moi, mon mari, mes enfants, ma nanny… On s’amuse à un petit jeu, et c’est drôle ! D’ailleurs, plein de parents m’ont dit que c’était une super idée et qu’ils allaient le faire aussi. Je ne veux pas vous manquer de respect, mais qui parmi vous ne s’est jamais amusé avec un ballon à eau, enfant ?

Vous dites que cette vidéo est humiliante, dégradante : en tant que maman, je pense savoir ce qui est bon ou, au contraire, humiliant ou dégradant pour mes enfants. Jamais je ne ferai des vidéos ou des jeux s’ils n’en ont pas envie. Très souvent, ils sont demandeurs : leurs parents sont influenceurs, ils sont nés dans ce monde-là. Ils me voient chaque jour promouvoir certains produits, une caméra me suit au quotidien six mois de l’année : ils s’y intéressent forcément un petit peu. C’est à moi, en tant que parent, de poser des limites : ils n’apparaissent que dans un cinquième à un dixième de mes vidéos – en tout cas, mon compte n’est pas lié uniquement à mes enfants. D’ailleurs, ils n’auront pas TikTok avant au moins 16 ans.

Mme Laure Miller, rapporteure. Vous dites que vous ne publiez pas assez sur TikTok pour que l’algorithme vous permette de gagner votre vie avec ces vidéos. Quel intérêt y trouvez-vous, alors ? En donnant de la visibilité à vos placements de produit, ces vidéos ne vous permettent-elles pas, indirectement, de gagner de l’argent?

J’ai aussi vu que vos enfants avaient chacun un compte Instagram.

Mme Manon Tanti. Ce sont deux choses différentes.

Je filme mon quotidien : de fait, mes enfants en font partie, ce qui explique qu’ils apparaissent dans certaines de mes vidéos sur les réseaux sociaux ou dans mes téléréalités. Il en va de même pour tous les influenceurs que je côtoie. Par exemple, aujourd’hui, j’ai diffusé toute ma journée sur Snapchat : il y a des vidéos où je suis seule – je vais faire des achats, choisir la mosaïque de la piscine – et d’autres où les enfants apparaissent parce qu’il est dix-sept heures et qu’ils rentrent de l’école. Mais ils ne font pas de placements de produit rémunérés.

Mme Laure Miller, rapporteure. Mes questions n’étaient effectivement pas liées. Mais la présence de vos enfants dans vos vidéos pose la question de leur consentement.

Mme Manon Tanti. Ils sont demandeurs ! Mon fils rêve d’avoir une chaîne YouTube, comme Vlad et Niki ou Nastya, des enfants youtubeurs qui font des centaines de millions de vues. Il voudrait y montrer des challenges – ceux d’un garçon de 6 ans –, des tours de magie, mais ce n’est absolument pas d’actualité. Il voudrait aussi qu’on fasse plus de vidéos drôles.

Mes enfants adorent partager, moi aussi : je trouve ça vraiment chouette. Par exemple, il y a un mois et demi, on a fait une vidéo TikTok dans laquelle on versait de l’eau sur des Smarties pour faire un arc-en-ciel, et beaucoup de familles ont voulu le faire à leur tour. À partir du moment où je ne me sers pas de mes enfants pour gagner de l’argent, je ne vois pas le mal : or, avec ou sans mes enfants, je gagne ma vie. La nuance est importante.

J’ai encore plein d’autres idées d’activités à faire en famille plutôt que de mettre les enfants devant la télé, mais en ce moment, je n’ai absolument pas le temps de les filmer – comme quoi TikTok n’est pas ma priorité. Par exemple, je voudrais montrer comment faire un tour de magie avec une bouteille et une pomme – ce sera ma prochaine vidéo.

Mme Laure Miller, rapporteure. Il faut distinguer vos différents contenus. La vidéo avec les Smarties est sans doute très sympathique, mais j’ai en tête une vidéo de vos enfants avec la tête dans une bassine d’eau. C’est plus problématique.

Mme Manon Tanti. Je peux comprendre votre réaction, mais avez-vous eu l’impression qu’ils souffraient ou qu’ils étaient morts de rire ?

Mme Laure Miller, rapporteure. Ce n’est pas la question. Des millions de gens regardent vos vidéos et pourraient vous imiter, sans le faire correctement. Il y a aussi la question de l’humiliation.

Mme Manon Tanti. Je ne suis pas la seule à l’avoir fait : j’ai seulement suivi une trend, comme des millions d’autres familles. Je n’ai pas pensé que certains parents pouvaient le reproduire d’une mauvaise manière.

En tout cas, je ne trouve absolument pas la vidéo humiliante. Je n’étais pas en train de noyer mes enfants : je posais une question – par exemple, lequel mange le plus de chocolat –, puis je mouillais le visage de l’enfant en question. C’était bon enfant, ils étaient morts de rire. À l’exception peut-être de cet exemple – et encore : moi, j’ai trouvé ça très rigolo –, je ne vois absolument pas ce qu’il y a d’humiliant dans mes vidéos.

Mme Laure Miller, rapporteure. Cette commission d’enquête porte sur les conséquences des contenus TikTok sur la santé mentale des mineurs. Savez-vous s’il y a beaucoup de jeunes dans votre communauté ?

Mme Manon Tanti. Au vu des commentaires, je pense qu’il y a de tout, des préadolescents aux grands-mères, mais je n’ai aucune certitude.

Je suis la première à trouver que certains contenus TikTok ne sont pas adaptés aux très jeunes, mais il me semble que ce réseau est interdit aux moins de 15 ans.

M. le président Arthur Delaporte. Aux moins de 13 ans.

Mme Manon Tanti. En tout cas, mes enfants n’auront pas de compte ni d’accès à TikTok et aux autres réseaux avant d’avoir au moins 14 ou 16 ans. Ils ont un compte Instagram certifié à leur nom, sur lequel je poste des photos d’eux depuis qu’ils sont petits, mais ce ne sont pas eux qui tiennent le téléphone et ils n’y parlent pas à la première personne : c’est moi, leur maman, qui poste.

Une solution pour interdire l’accès aux réseaux aux plus jeunes serait de demander une pièce d’identité à la création d’un compte, comme le font déjà certains réseaux, comme MYM (Me. You. More) – par exemple, une photo où l’on tient son passeport à côté de sa tête. Je ne sais pas si c’est possible – ce n’est pas mon domaine –, mais cela éviterait à la fois que trop de mineurs tombent sur des contenus qu’ils n’ont pas à voir, et que des influenceurs soient harcelés par des haters, c’est-à-dire des gens cachés derrière de faux comptes – pas que les influenceurs d’ailleurs : on sait que certains adolescents font l’objet de harcèlement à l’école ou sur les réseaux sociaux et en viennent à des actes dramatiques.

En tout cas, je suis d’accord avec vous : les enfants ne devraient pas pouvoir accéder aux réseaux sociaux et y swiper en toute liberté avant 13 ans. Et si ça ne tenait qu’à moi, ce serait même encore plus tard.

Mme Laure Miller, rapporteure. Pourtant vous avez fait du placement de produit sur Instagram avec vos enfants, notamment votre petite fille – c’était pour la marque Ora Bora. Je ne comprends pas. Il y a mélange des genres.

Mme Manon Tanti. Il se trouve que ma fille s’est approprié ces petites brumes – d’ailleurs, elles sont toujours dans sa chambre. Elle considère que ce sont ses sprays. Dans la vidéo, elle donne juste son avis sur celle qu’elle préfère. C’était pour qu’on rigole un peu ensemble : il y a un petit jeu entre nous, on se chamaille pour les sprays.

C’est d’ailleurs la seule fois où c’est arrivé, vous ne pourrez pas me citer d’autres exemples.

M. le président Arthur Delaporte. La publicité avec les enfants est très encadrée. La loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, dite loi influenceurs, adoptée à mon initiative et à celle de M. Stéphane Vojetta, prévoit que la présence d’un enfant dans une vidéo de collaboration commerciale est soumise à la signature d’un contrat de mannequinat et que les revenus du placement de produit doivent être versés sur un compte séquestre. J’imagine que tel n’a pas été le cas pour votre fille.

Mme Manon Tanti. Premièrement, je ne le savais pas.

Deuxièmement, ce n’est arrivé qu’avec cette vidéo, alors que j’en ai fait une cinquantaine pour cette marque. Je n’ai pas besoin de ma fille pour gagner ma vie. Il se trouve qu’à ce moment-là, elle était présente, mais je ne me sers pas d’elle pour vendre. C’était vraiment bon enfant, on se chamaillait pour les brumes. Je ne cherchais pas absolument à l’inclure dans la pub. Je ne savais pas que j’étais en tort, cela ne se reproduira plus.

M. le président Arthur Delaporte. Là n’est pas la question : au-delà de l’intention, il faut penser à la réception par le public. Ces vidéos ne vous semblent pas humiliantes, mais elles peuvent l’être si on les regarde plus objectivement, avec du recul. Il en va de même pour le contenu dont nous parlons : même si vous n’en aviez pas conscience, exposer votre fille dans cette vidéo était illégal.

M. Stéphane Vojetta (EPR). Lorsque vous collaboriez avec les agences Shauna Events et We Events, il y a trois ou quatre ans, votre rémunération provenait principalement de placements de produit. Depuis l’adoption de la loi influenceurs, il semblerait que vous ayez quitté ces agences et que votre activité se soit déplacée vers TikTok – du moins, c’est ce qu’ont rapporté certains médias.

Pourriez-vous décrire l’évolution de votre activité commerciale – d’influence et de publicité – et de votre recours à des agents d’influenceurs ?

M. Julien Tanti. Nous n’avons pas quitté ces agences : je suis toujours chez Shauna Events, et Manon, qui n’a pas d’exclusivité, est chez plusieurs agences en France – Shauna Events et We Events – et à Dubaï. Seulement, nous en parlons beaucoup moins sur les réseaux sociaux. Avant, on postait des photos pour être contactés pour des pubs, mais nous n’avons plus besoin de le faire, car Mme Magali Berdah est désormais suffisamment connue et reconnue : ceux qui veulent nous contacter s’adressent directement à nos agences.

Beaucoup pensent qu’on a arrêté la pub, mais c’est archifaux : je continue d’en faire trois ou quatre par semaine, et Manon deux ou trois. On ne s’est pas déplacés vers TikTok, c’est juste qu’on suit la mode. Or, TikTok est à la mode !

Moi, je ne me considère pas comme un influenceur. Aujourd’hui, c’est un terme qui englobe trop de personnes : le premier mec venu qui fait une vidéo avec 2 millions de vues, on dit que c’est un influenceur ; celui qui a acheté 50 000 abonnés, pareil ! Mais pas du tout : ceux-là ont juste surfé sur la vague, ils ont fait le buzz et terminé. Un influenceur, c’est quelqu’un qui travaille son contenu depuis des années, qui a une communauté.

Moi, je suis quelqu’un qui fait de la télé, qui participe à des téléréalités depuis treize ans. Si je suis sur les réseaux, c’est parce que j’aime ça : pour moi, c’est un divertissement. Mais je ne suis pas un influenceur, je n’incite personne à faire quoi que ce soit.

M. Jonathan Gery (RN). Manon, Julien, aviez-vous débattu entre vous pour savoir si vous alliez exposer vos enfants sur TikTok ? N’avez-vous pas un peu peur qu’ils vous en veuillent plus tard ?

Mme Manon Tanti. TikTok ou Instagram, c’est pareil. Si on montre nos enfants sur nos réseaux sociaux, c’est parce que depuis que nous sommes ensemble avec Julien nous faisons de la télé. Dans les émissions, les gens suivent carrément nos vies. Entre chaque émission, on aime donner des nouvelles. Les gens en demandent. Si demain je ne poste pas sur Snap, les gens vont s’inquiéter et me demander pourquoi. Pour nous, c’est quelque chose de naturel. On ne surexpose pas nos enfants – en tout cas, pas plus que d’autres personnes. C’est la continuité de ce que nous faisons en télé. Nous sommes des personnages publics ; nos enfants aussi. Si mon fils me disait qu’il en a marre et qu’il n’a pas envie d’être sur les réseaux ni d’apparaître dans certains des épisodes de notre émission, je l’écouterais bien évidemment. Nous sommes plutôt dans le cas contraire, puisqu’il demande carrément une chaîne YouTube. On ne force absolument pas nos enfants ; bien au contraire.

Quant au débat, on a le même métier…

M. le président Arthur Delaporte. Quel âge ont vos enfants ?

Mme Manon Tanti. Ils ont 4 et 7 ans.

M. le président Arthur Delaporte. Pensez-vous qu’à 4 ans on peut consentir à la diffusion de son image ?

Mme Manon Tanti. Dans une publicité Babybel ou un film, est-ce que vous pensez que les mannequins enfants, comme vous dites, consentent et qu’il n’y a pas le risque qu’ils fassent un jour des reproches à leurs parents ?

M. le président Arthur Delaporte. Les parents signent pour leurs enfants un contrat de mannequinat avec un droit à l’image et les revenus sont mis sous séquestre. C’est très encadré. Ainsi, un enfant de moins de 6 ans ne peut pas tourner plus de 45 minutes par jour ou quelque chose comme ça.

Mme Manon Tanti. Je ne me sers pas de mes enfants pour faire de l’argent sur mes réseaux sociaux. Je fais de l’argent sur les réseaux sociaux grâce à mon quotidien, dont mes enfants font partie. Ils n’apparaissent pas sur 100 % de mes vidéos.

M. le président Arthur Delaporte. Ce qui alimente votre notoriété et la viralité de vos contenus, c’est donc l’exposition de vos enfants.

Mme Manon Tanti. Non, puisque si je n’avais pas eu d’enfants, j’aurais fait exactement la même chose et j’aurais aussi très bien gagné ma vie.

Dans ce cas, il faudrait que les réseaux sociaux interdisent aux influenceurs et aux personnes lambda de poster leurs enfants. Je ne suis pas contre une nouvelle régulation si tout le monde est dans le même panier, les personnes connues et pas connues. Quand je vais sur Instagram, je vois des mamans avec leurs enfants.

M. le président Arthur Delaporte. Mme la rapporteure et moi avons vu que vous aviez publié il y a trois jours une publicité pour Shein avec vos enfants. C’est une collaboration commerciale ?

Mme Manon Tanti. Oui.

M. le président Arthur Delaporte. Vous ne l’avez pas mentionné. Vous n’avez donc pas respecté le cadre de la loi influenceurs. Par ailleurs, vos enfants sont dessus.

Mme Manon Tanti. Je vais regarder. C’est un oubli parce que je suis celle qui respecte le plus cette obligation.

M. le président Arthur Delaporte. Vos enfants portent des tenues Shein. Cela va donc au-delà de l’exemple que vous nous donniez tout à l’heure. Vous avez gagné de l’argent en mettant en scène vos enfants. Cela ne respecte pas le cadre légal.

Mme Manon Tanti. Je vous redis que vous m’avez appris il y a dix minutes qu’à partir du moment où c’était une collaboration commerciale mes enfants ne pouvaient pas apparaître.

M. le président Arthur Delaporte. Shein est responsable, ainsi que votre agence. Nous allons le signaler auprès de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Il y a un principe de coresponsabilité. Normalement, votre agence aurait dû vous le signaler. Elle peut aussi être punie pour vous avoir fait faire une collaboration illégale avec Shein. Je suppose que c’est Mme Magali Berdah…

Mme Manon Tanti. En l’occurrence, non. Je publie très souvent pour Shein. Parfois, je poste seule, parfois à deux, comme pour la Saint-Valentin. On ne savait pas que c’était interdit de mettre les enfants. Ce n’est pas grâce à cette vidéo ni grâce aux enfants que je suis rémunérée. Sans les enfants, j’aurais eu la même rémunération.

M. Julien Tanti. Nous avons déjà été contrôlés par la DGCCRF. D’ailleurs, j’ai eu une amende et ça s’est su publiquement. Nous avons échangé avec des personnes avec lesquelles on s’est très bien entendu. Elles nous ont dit ce que l’on pouvait faire et ne pas faire mais elles ne nous ont pas parlé de ça. Nous respectons les lois qu’on nous donne. Si on ne nous les donne pas, malheureusement, on ne peut pas les respecter.

M. le président Arthur Delaporte. C’était dans la loi influenceurs. Maintenant, vous saurez. Nul n’est censé ignorer la loi.

Mme Manon Tanti. Oui, c’est à nous de nous intéresser. Vous pourrez dire à la DGCCRF qu’on ne le savait pas. On avait déjà fait une vidéo Shein en famille. Lorsque Julien a eu son amende, cela n’a pas été mentionné parmi les choses que l’on avait mal faites. Si on avait su, on aurait arrêté. On s’est adaptés, parce qu’on respecte les lois. On n’était pas au courant. Encore une fois, cette vidéo n’a pas rapporté de l’argent grâce aux enfants. Si les enfants n’étaient pas apparus, j’aurais quand même été payée.

M. le président Arthur Delaporte. Soit, on ne va pas avoir ce débat. Nous ne sommes pas là pour faire la justice mais pour réfléchir à un meilleur encadrement. En l’occurrence, une loi encadre l’exposition des enfants. Peut-être qu’il faudra la renforcer et mieux la faire connaître. Je vous remercie d’avoir pris le temps d’échanger avec nous.

55.   Audition de M. Nasser Sari (mardi 10 juin 2025)

Enfin la commission auditionne M. Nasser Sari ([53]).

M. le président Arthur Delaporte. Nous arrivons au terme d’une journée consacrée à l’audition de cinq influenceurs présents sur les plateformes numériques, notamment sur TikTok. Le choix de ces personnes s’est opéré sur la base d’une consultation citoyenne lancée par notre commission et des signalements que nous avons reçus.

Je tiens à rappeler que notre commission d’enquête n’est pas un tribunal. Nous ne sommes pas là pour juger ou punir mais pour aboutir à la meilleure régulation possible. Notre but est d’utiliser les témoignages pour comprendre ce qui ne va pas avec TikTok et, plus largement, d’identifier les mécanismes qui doivent être mis en place au niveau national ou européen pour protéger les mineurs de contenus choquants.

M. Nasser Sari, aussi appelé Nasdas, a annoncé ce week-end suspendre ses comptes sur les réseaux sociaux. Vous aurez l’occasion, monsieur, de nous en reparler. Au préalable, je vous remercie de nous déclarer tout conflit d’intérêt qui pourrait naître de la rémunération que vous percevez grâce aux plateformes, et notamment de nous fournir une estimation de celle que vous tirez de TikTok et la part qu’elle représente dans vos revenus.

Je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Nasser Sari prête serment.)

M. Nasser Sari, influencer. Tout d’abord, merci pour votre invitation. Je vous le dis en toute honnêteté : il n’est pas facile pour moi de me retrouver devant autant de personnes.

Pour répondre à votre question, TikTok ce n’est quasiment rien pour moi, en termes de rémunération. Je n’ai presque jamais touché d’argent. Si je devais l’évaluer en pourcentage, par rapport aux autres réseaux, ce serait à peine 0,1 %.

M. le président Arthur Delaporte. Pouvez-vous nous donner une idée de la structure et du volume de vos rémunérations, sur TikTok et d’une façon générale ?

M. Nasser Sari. Y compris sur les autres plateformes ?

M. le président Arthur Delaporte. Oui, pour que nous comprenions le modèle économique.

M. Nasser Sari. Je dois vous donner mes revenus des autres plateformes ?

M. le président Arthur Delaporte. Pas précisément, mais globalement.

M. Nasser Sari. Je suis ici pour répondre à une commission sur TikTok.

M. le président Arthur Delaporte. Notre commission d’enquête porte sur TikTok mais nous souhaitons comprendre plus largement le modèle économique des réseaux sociaux et le moyen par lequel vous gagnez de l’argent.

M. Nasser Sari. D’abord, je ne suis pas tiktokeur, même si j’ai plus de 3,7 millions de followers sur TikTok. Ma source principale de revenu, c’est Snapchat, un autre réseau. Sur TikTok et sur les plateformes comme Instagram, je gagne très peu d’argent.

M. le président Arthur Delaporte. Est-ce une rémunération à la vue, sur Snapchat ?

M. Nasser Sari. Oui, à la vue. Elle est liée aussi à mes placements de produits, même si 80 % d’entre eux, si ce n’est plus, sont gratuits aujourd’hui. Je partage beaucoup au sujet des commerces de proximité.

Sur Snapchat, il y a ce que l’on appelle la monétisation : plus on fait de vues, plus on fait d’audimat, plus on gagne d’argent. Mais permettez-moi de rester transparent là-dessus ; j’ai le droit ?

M. le président Arthur Delaporte. Oui, vous être libre de dire ce que vous voulez.

M. Nasser Sari. Sur TikTok, je sais que ce sont les vidéos de plus d’une minute qui sont rémunérées ou les lives, quand les gens font des dons. Mais je préfère vous prévenir : je ne suis pas du tout un expert de TikTtok, même si j’ai des millions de followers dessus. À mon actif, je n’ai qu’une petite soixantaine de vidéos. J’ai créé un compte fin 2020, je crois, et en quatre ans je n’ai fait que deux vidéos de plus d’une minute et j’ai dû lancer dix lives.

Pour être encore plus transparent, je ne pense pas avoir dépassé la barre des 5 000 euros sur TikTok en cinq ans.

M. le président Arthur Delaporte. Souhaitez-vous ajouter des éléments à votre propos liminaire ?

M. Nasser Sari. J’aimerais appuyer sur le fait que je suis un snapchateur. TikTok, j’y vais plus en tant qu’utilisateur qu’en tant que créateur de contenu. Même moi, je suis victime du succès de TikTok !

M. le président Arthur Delaporte. C’est bien noté.

Mme Laure Miller, rapporteure. Nous vous remercions pour votre présence. Ce qui nous intéresse, c’est la raison pour laquelle vous vous êtes rendu sur TikTok, même si j’entends bien que ce n’est pas la plateforme que vous privilégiez. Quelle différence y a-t-il entre cette plateforme et les autres, en matière de mise en avant de contenus notamment ? Nous savons que l’algorithme a tendance à mettre en avant des contenus choc, car c’est ce qui retient l’attention du public, en particulier des jeunes.

M. Nasser Sari. Ça, c’est vous qui le dites.

Mme Laure Miller, rapporteure. Ce sont les experts qui nous l’expliquent mais, si vous n’êtes pas d’accord, vous pourrez y revenir.

Quand bien même vous ne publiez pas beaucoup de contenu sur TikTok, vous êtes suivi par 3,7 millions de personnes. Connaissez-vous votre communauté ? Est-elle composée de nombreux jeunes, en particulier de mineurs ? C’est sur ces derniers, en effet, que se concentre notre commission d’enquête.

M. Nasser Sari. À la base, j’ai créé un compte mais j’étais un simple utilisateur, pas un créateur de contenu. C’est quand j’ai vu que toutes mes vidéos étaient relayées sur TikTok, et qu’elles y prenaient parfois même plus d’ampleur que sur mon réseau principal qu’est Snapchat, que je me suis dit : « pourquoi ne pas me lancer ? »

Je vais utiliser des termes de créateur de contenu. Pour percer, TikTok est un tremplin. Pour booster ses vidéos aussi. Pour gagner en visibilité, en notoriété et en audimat, le réseau principal aujourd’hui c’est TikTok.

Sur TikTok, il y a ce que l’on appelle des comptes rediff : ils prennent les contenus créés par plein d’influenceurs, de créateurs, et les postent. Quand j’ai vu qu’ils permettaient à mes vidéos de faire des millions de vues, je me suis lancé. Ensuite, j’ai obtenu la certification et je suis devenu créateur de contenu sur TikTok – mais je n’ai posté qu’une soixantaine de vidéos.

Au sujet des jeunes, je vais être totalement transparent avec vous. Je n’ai pas réussi à voir le nombre de mineurs qui me regardent. En fait, je ne l’ai pas vérifié mais HugoDécrypte en a parlé quand il est passé devant votre commission ; je l’ai regardé. Cela se voit, qu’il y a énormément de jeunes : à l’écriture, aux commentaires, on voit bien que c’est un gamin de 14 ou 15 ans qui a écrit…

Mme Laure Miller, rapporteure. Vous savez donc que de nombreux mineurs vous suivent probablement, y compris avant l’âge de 13 ans. Votre nom a souvent été mentionné dans l’enquête publique que nous avons lancée, à laquelle beaucoup de jeunes ont répondu. Sans doute êtes-vous assez connu et assez regardé par les jeunes, voire les très jeunes. Considérez-vous que le contenu que vous publiez peut être abordé par des mineurs ?

M. Nasser Sari. Je ne le vois pas avec des statistiques. J’ai encore la chance de vivre en France, à Perpignan, dans mon quartier Saint-Jacques. C’est là que je me suis fait connaître, là où j’ai commencé mes vidéos. Cela fait maintenant six ans que je suis sur les réseaux sociaux et que je suis créateur de contenu, et je vois énormément de familles. Il y a autant de papas et de mamans qui prennent des photos avec moi que de jeunes enfants ; je le reconnais.

Je vois aussi – et vous avez pu le voir dans la presse avant cette commission – qu’il y a énormément de jeunes mineurs qui fuguent de leur ville pour venir à Perpignan : j’ai vu des enfants de 10 ou 11 ans attendre à 2 heures du matin dans mon quartier, pour me voir.

Mme Laure Miller, rapporteure. Ne considérez-vous pas que c’est un problème ?

M. Nasser Sari. Si, je suis en train de vous le dire. J’ai déjà répondu dans de nombreuses interviews à la presse, et sur mes réseaux, que c’est devenu un fléau pour moi. Mon adresse a fuité sur internet et, tous les jours, entre 200 et 300 personnes viennent devant la maison, sans compter les milliers de personnes …

Mme Laure Miller, rapporteure. J’ai en effet reçu, en tant que rapporteure, des e-mails de personnes de votre quartier qui se plaignent des effets collatéraux de ce qui se passe chez vous. Vous êtes indirectement responsable de ces jeunes car s’ils viennent c’est parce qu’ils ont vu que d’autres avaient obtenu un hébergement, de l’argent et peut-être la notoriété. De cela, vous êtes tout de même responsable.

M. Nasser Sari. Non, enfin oui, je reconnais que j’ai une part de responsabilité mais il faut voir les vidéos que je fais : quand un gamin de 10 ans arrive au quartier Saint-Jacques, mon premier réflexe est d’appeler sa maman. Et quand elle me dit « gardez-le avec vous, il vous aime trop », ne pensez-vous pas que les parents ont une part de responsabilité ?

J’ai regardé votre commission avant de venir, et j’ai l’impression que l’on parle très peu des responsabilités des parents. Je suis papa depuis un an. Si, à l’âge de 15 ans, mon fils veut aller voir une star ou une personne influente, je ne le laisserai pas faire. J’ai prêté serment, je ne peux que dire la vérité : je jure que je suis tombé sur des centaines de cas où les parents me disent de garder leur enfant. Est-ce que vous, vous trouvez cela normal ?

Oui, j’ai une part de responsabilité car je filme. Mais il y a toujours une morale, dans les vidéos. Je dis et je redis – et vous pouvez aller vérifier : « Ne venez pas. Arrêtez de croire au rêve de Nasdas. »

Je viens d’un quartier parmi les plus pauvres de France. Plutôt que d’y laisser une gamine de 17 ou 18 ans à 3 heures du matin, si sa mère me supplie de l’héberger et de lui prendre un billet de train pour le lendemain, je le fais. Et j’appelle les parents, pour leur demander si cela peut servir comme exemple. J’ai ce côté généreux, avec ou sans réseaux sociaux.

Vous savez, j’ai commencé comme gardien d’immeuble. Je touchais un peu moins de 1 200 euros par mois. Je redistribuais déjà mon argent, j’aidais déjà les gens de mon quartier – vous pouvez aller leur demander. Mais je ne savais pas que cela aurait un effet boule de neige. C’est pour cela que, cette dernière année, j’ai énormément ralenti sur les vidéos et sur les dons – je donne, mais je ne filme plus. J’ai cette responsabilité, oui, mais dans mes vidéos je dis : « arrêtez de venir ».

Je suis désolé, mais il y a aussi une responsabilité parentale. Ces gamins, je ne suis ni leur père ni leur mère. Si des parents trouvent normal que leur enfant de 14 ans soit à 600 kilomètres de chez eux et qu’il ait fraudé le train, c’est alarmant et ils ont eux aussi une responsabilité.

Mme Laure Miller, rapporteure. Beaucoup de ces jeunes viennent des foyers de l’aide sociale à l’enfance (ASE). Pour eux, c’est une sorte de double peine, de double désillusion : après avoir sans doute subi des choses difficiles de la part de leurs parents, ils se retrouvent à errer dans votre quartier pour essayer d’obtenir quelque chose… C’est un vrai problème. Vous en avez conscience, mais que faites-vous ? Si vous dites d’un côté qu’ils ne doivent plus venir mais que, de l’autre, vous continuez à alimenter l’espoir, c’est peine perdue…

M. Nasser Sari. Je ne vais pas arrêter de vivre ni de créer du contenu. J’ai une responsabilité que j’assume pleinement. Je ne m’en vante pas mais, en toute modestie, sur Snapchat, je tourne 2 à 3 millions de vues en une heure : il y a des millions de personnes qui me regardent. Je reçois énormément d’insultes et des vagues de harcèlement : « Tu ne veux plus aider, t’as changé Nasdas ». Mais je m’en fous.

À Perpignan, l’équipe d’amis qui m’entoure appelle la police. Quand la police me montre des photos de jeunes, je leur dis si je les ai vus. Avant que cela devienne un fléau, je le faisais déjà. J’aime aider. En toute modestie, je suis généreux. Depuis trois ans, j’ai ralenti à 80 % ou 90 % ; je me suis même isolé dans une villa.

Me dire aujourd’hui que je condamne mais que je continue ? Non. Je le condamne, et je ralentis. Mais je ne peux pas m’arrêter. Sinon on accuse tout le monde de tout. J’ai fait des choses, j’ai fait de la prévention, j’ai demandé d’arrêter. À la limite, on aide parfois la police à récupérer les jeunes.

Les jeunes des foyers sont nombreux. Je ne suis pas un expert de l’éducation nationale, des jeunes ou des foyers mais j’entends des témoignages. Est-il normal qu’ils fuguent, quitte à dormir dehors, pour venir voir Nasdas, et qu’ils se sentent parfois plus en sécurité que dans certains foyers ? N’est-ce pas une autre question à soulever ? J’ai vu des vidéos dans lesquelles ils disent : « Nas, on ne veut pas dormir chez toi, on veut juste être en sécurité dans ton quartier, s’il te plaît. » Encore une fois, j’ai fait serment ; tout ce que je dis est vrai. Il y a aussi une responsabilité de l’État, non ?

Mme Laure Miller, rapporteure. Pour le coup, je connais bien les problématiques inhérentes à ASE, ne serait-ce que pour avoir récemment présidé une commission sur les manquements des politiques publiques de protection de l’enfance. Il ne s’agit évidemment pas d’éluder les problèmes que traverse notre pays dans ce domaine, ni de nier que ces politiques nécessiteraient beaucoup plus de moyens, mais ce n’est pas le sujet du jour. Pour votre part, loin de résoudre les problèmes de ces jeunes, vous rajoutez de la misère à la misère. Vous avez annoncé que vous alliez quitter les réseaux sociaux. Pourriez-vous nous en dire un peu plus sur les raisons qui vous poussent à le faire ?

M. Nasser Sari. Je ne peux pas vous laisser dire que je rajoute de la misère à la misère. Ce n’est pas vrai. Sortez-moi une seule vidéo où je demandais à ces jeunes de venir. Sortez-moi une centaine de vidéos où je demandais à ces mêmes jeunes d’arrêter de venir. Qu’est-ce que vous voulez que je fasse de plus ? On peut collaborer et même travailler ensemble. Moi aussi je vous pose des questions : dites-moi, vous, ce que je dois faire de plus ? Dites-le-moi. C’est facile de m’accuser de rajouter de la misère à la misère, mais qu’est-ce que je dois faire de plus ? Prendre la parole. Dans certains cas, j’aide la police. Il y a une réalité de terrain, mais je ne peux pas vous laisser dire ça : je ne leur ai jamais demandé de venir.

Mme Laure Miller, rapporteure. Ils ne sont pas venus par hasard !

M. Nasser Sari. Il y a des clips de rap, des films, tous types d’art. On va tomber dans la bêtise, je suis désolé, mais ce n’est pas parce que j’ai vu M. Omar Sy aider une personne dans le film Intouchables que je vais aller camper devant chez lui.

Mme Laure Miller, rapporteure. C’est absurde !

M. Nasser Sari. Je vous ai prévenue : on va tomber dans la bêtise. Vous êtes en train de me demander à moi, créateur de contenu, d’arrêter d’aider des jeunes de mon quartier car ça donne envie à d’autres jeunes, sous la responsabilité de l’État, de venir. C’est ce que vous êtes en train de me dire. Alors, je n’exerce plus mon métier, je ne crée plus de contenu ? Vous me dictez ce que je dois créer comme contenu ? Ah non, Nasdas, tu ne dois pas aider ces jeunes-là parce que ça crée un appel d’air, un effet boule de neige, et tout le monde vient. Je fais de la prévention : je demande à ces jeunes de ne pas venir. Mais, je l’ai dit, je ne peux pas m’arrêter de vivre.

En juin de l’année dernière, j’avais déjà fait une pause. Vous savez, moi, ça fait six ans que je suis sur les réseaux sociaux et ce n’est pas facile. Beaucoup de créateurs de contenus sont passés par là avant moi. Mentalement, c’est très dur pour nous aussi – je sais que beaucoup de ceux qui vont sur internet vont rigoler et dire non – et je reconnais que je n’arrive plus à maîtriser beaucoup de choses. J’ai pris une décision, pas la semaine dernière. Oui, cette décision, auprès de mon équipe, elle est déjà prise, ça fait trois mois. J’ai vu que, sur internet, beaucoup disaient que j’arrêtais parce que j’étais convoqué devant la commission d’enquête. Ce n’est pas vrai du tout : j’ai une vie de famille. Je vous demande de prendre en compte que tous les créateurs de contenu ont leur santé mentale impactée. TikTok a un algorithme incroyable et les autres plateformes aussi. La santé mentale d’un créateur de contenu dépend beaucoup de son taux d’audience, de son nombre de vues. Cette course aux vues, cette course à l’audimat, cette course au buzz – je pense que vous avez déjà entendu le mot buzz –, la pression nous poussent des fois, nous créateurs de contenus, à poster des choses sans même en être conscient. Vous voyez, je ne me dédouane pas des contenus que j’ai pu poster et que les autres créateurs de contenu ont postés, mais on a cette forme de pression.

Créateur de contenu, c’est un métier, mais qui m’a formé, moi, à être connu, à avoir des millions de personnes qui me regardent tous les jours, à savoir ce que je dois dire, ce que je dois faire ? Je ne me dédouane pas : je suis responsable de toutes les erreurs que j’ai pu faire. Mais si quelqu’un m’avait dit, sept ans en arrière, « un jour tout le monde t’appellera Nasdas, ton nom de scène, ta vie changera, tu seras payé, des milliers de jeunes et de familles viendront te voir, certains auront Nasdas tatoué sur le bras, je ne l’aurais jamais cru. Personne ne m’a formé à ça. Aujourd’hui, je ne sais pas si j’arrête totalement, définitivement, mais c’est une décision sage. J’arrête peut-être pour un, deux ou trois ans, je ne reviendrai pas avant, c’est sûr. Je vais perdre énormément d’argent : plus on est actif sur les réseaux, plus on fait de vues, plus on gagne de l’argent.

M. le président Arthur Delaporte. Vous gagnez combien par mois en moyenne ?

M. Nasser Sari. Je ne sais pas.

M. le président Arthur Delaporte. Avez-vous une idée, un ordre de grandeur ?

M. Nasser Sari. C’est un chiffre d’affaires, ça ne va pas dans ma poche, on est à des centaines de milliers d’euros.

M. le président Arthur Delaporte. Des centaines ?

M. Nasser Sari. Oui quelques centaines.

M. le président Arthur Delaporte. Quelques centaines ?

M. Nasser Sari. D’euros. Et vous ?

M. le président Arthur Delaporte. Le salaire net d’un député est d’environ 5 000 euros après impôts.

M. Nasser Sari. J’ai vu à l’extérieur et j’ai été étonné : vous avez des chauffeurs ?

M. le président Arthur Delaporte. Ce sont des chauffeurs partagés. Il y en a une dizaine pour toute l’Assemblée.

M. Nasser Sari. Ce n’est pas un défaut, ce n’est pas une accusation ! Je les ai vus, j’ai posé la question et on m’a dit que...

M. le président Arthur Delaporte. Ils font de la dépose pour les 577 députés. Ce ne sont pas nos chauffeurs individuels.

M. Nasser Sari. Désolé. Mais aujourd’hui…

M. le président Arthur Delaporte. Nous allons passer aux questions des députés, à moins que vous vouliez dire une dernière chose.

M. Nasser Sari. Oui. J’ai vraiment besoin de prendre du recul, chose que je n’ai pas encore vraiment faite, et de savoir ce que je veux et ce que je veux représenter. Au début, Nasdas c’était un surnom mais ça restait quand même moi. Aujourd’hui, Nasdas est devenu un personnage. Très vite, les créateurs de contenu ne savent plus ce qu’ils veulent, ce qu’ils représentent, on tombe dans une tourmente. Là, je défends aussi ce métier et je dis qu’il faudrait plus d’encadrement – pas sévère, pas des punitions.

Ça vous fait sourire, monsieur le député ? Je vous parle de la santé mentale des créateurs de contenu.

M. le président Arthur Delaporte. Excusez-moi, je ne vous demande pas de me faire des remarques. Vous êtes ici en audition.

M. Nasser Sari. Vous souriez pendant que je parle ! Ce n’est pas une remarque, c’est déplaisant pour moi.

M. le président Arthur Delaporte. Ce n’est pas par rapport à vous.

M. Nasser Sari. Au temps pour moi !

M. le président Arthur Delaporte. Je vous remercie donc de continuer votre propos.

M. Nasser Sari. Eh bien, au temps pour moi.

M. Aly Diouara (LFI-NFP). Revenons sur les responsabilités. Les parents sont les premiers responsables de l’éducation de leurs enfants, je n’en disconviens pas. Ensuite, il y a la responsabilité de la société – l’éducation nationale, l’ASE, etc. Cela étant dit, en raison notamment de la viralité de vos réseaux sociaux, je pense que, comme me disait un médecin, on peut parfois, à travers certains médicaments, être à la fois le poison et l’antidote. Il faut donc remettre les choses dans leur bon sens et dans leur contexte. C’est ce qui m’a d’ailleurs amené, le 23 avril dernier, à saisir l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) sur différents sujets, notamment plusieurs publications dans vos contenus.

Vous êtes l’un des créateurs de contenu les plus suivis sur Snapchat – plus de 9 millions d’abonnés – et vos vidéos sont massivement relayées, notamment sur TikTok. Votre audience est majoritairement jeune, souvent issue de milieux populaires, parfois même très précaires. À ce titre, votre rôle dépasse largement celui d’un simple divertisseur : vous êtes devenu une figure d’identification pour toute une génération qui vous observe, vous imite parfois et vous crédite d’une forme d’autorité.

À vos débuts, d’après ce que m’ont expliqué certains de mes collaborateurs qui vous suivaient à l’époque, vos contenus visaient à montrer une image positive et festive de votre quartier, contribuant à redonner notamment de la visibilité à des territoires trop souvent stigmatisés. Force est de constater que votre ligne éditoriale a profondément évolué avec le temps. Votre production actuelle repose de plus en plus sur une mise en scène assez violente, que cette violence soit physique, psychologique ou symbolique. On y voit des personnes, souvent vulnérables, filmées dans des situations de mise en concurrence assez dégradantes, de moqueries répétées, d’encouragement à des comportements parfois discriminatoires et misogynes – l’un de ces contenus m’a particulièrement heurté. Certaines de ces personnes semblent psychologiquement fragiles, socialement dépendantes, voire financièrement sous emprise.

S’agissant de l’ASE, vous avez raison : l’État est le pire parent des jeunes et des enfants placés. C’est une réalité, évoquée par Mme la présidente, que nul ne conteste. Cela étant dit, je pense que vous êtes aussi parfois dans cette position du poison et de l’antidote. Avez-vous conscience de l’influence que vous exercez sur cette jeunesse ? Avez-vous conscience que vos choix de mise en scène participent à façonner parfois durablement leurs rapports aux autres, notamment à la violence, à l’égard des femmes, à la réussite sociale ? Au regard de cette influence, êtes-vous prêts à assumer la responsabilité qui découle de votre exposition publique, non pas seulement en termes de notoriété et de rentabilité, mais en termes d’exemplarité, d’impact social ?

M. Nasser Sari. Vous avez parlé très longtemps, j’ai du mal à répondre.

M. le président Arthur Delaporte. Pouvez-vous résumer vos questions en dix secondes, monsieur Diouara ?

M. Aly Diouara (LFI-NFP). Avez-vous conscience de l’influence que vous exercez sur cette jeunesse ? Avez-vous conscience que vos choix de mise en scène participent à façonner parfois durablement les rapports aux autres, à la violence, aux femmes, à la réussite sociale ? Enfin, au regard de cette influence, êtes-vous prêts à assumer la responsabilité qui découle de votre exposition publique, non pas seulement en termes de notoriété ou de rentabilité, mais en termes d’exemplarité, d’impact social ?

M. Nasser Sari. Je vais essayer de répondre à vos questions une par une. Bien sûr que j’ai conscience de la responsabilité de mon influence envers les jeunes. Vous dites que je suis très suivi par les mineurs, mais il me faudrait des chiffres. Est-ce que vous en avez ? Vous en avez parlé aux mineurs ? C’est bien beau de tenir de beaux discours, mais est-ce que vous avez des chiffres ? Moi, j’en ai. Sur Snapchat, mon réseau principal, à plus de 87 % ce sont des majeurs et ma plus grosse communauté, ce sont les 25 à 36 ans. C’est bien beau d’insinuer que je ne suis suivi que par des mineurs mais je suis ici en direct et c’est bien moi. Quand je crée mon contenu, le fléau des jeunes, ce n’est pas une majorité.

Il y a énormément de personnes qui viennent à Perpignan pour voir Nasdas. C’est très difficile pour moi d’être une personne « normale » et d’exercer mon métier à l’extérieur de la maison. Du coup, je suis enfermé avec des amis et on crée du contenu, que ça plaise ou que ça déplaise. Je comprends que ça déplaise, mais il faut comprendre que toutes les vidéos, c’est pour divertir les gens. C’est pour ça qu’on est regardé par des millions de personnes. Certains me critiquent et critiquent ma manière de faire, mais combien y adhèrent : bien plus, en toute modestie. J’en ai tellement conscience qu’il y a trois mois, j’ai pris la décision de prendre une pause.

Peut-être que je reviendrai sur les réseaux, peut-être pas. Si j’y reviens un jour, en toute honnêteté, je veux clairement changer d’air, je l’ai dit à mes équipes. C’est bien beau de dire que je suis peut-être devenu un symbole mais, j’ai parlé de la santé mentale des créateurs de contenu, j’ai peut-être perdu de vue ce que je représentais et ce que je propose.

M. Thierry Sother (SOC). Vous vous qualifiez de créateur de contenu. Vous avez fait ce choix de métier. Vous avez évoqué le partage à votre insu, de manière délibérée, de vos créations sur Snapchat et sur d’autres plateformes. Avez‑vous été en mesure de chiffrer ce nombre de partages ? Au fil de vos sept années d’exercice, vous dites être devenu un personnage. À quel moment avez-vous pris conscience de votre impact sur les jeunes en général, sans parler des mineurs ? Cela vous a-t-il conduit à essayer de changer vos contenus et vos propos ?

M. Nasser Sari. Pourriez-vous répéter votre première question, s’il vous plaît ?

M. Thierry Sother (SOC). J’aurais aimé avoir des éclaircissements concernant les contenus que vous créez sur Snapchat et qui sont partagés à votre insu sur TikTok.

M. Nasser Sari. Il existe sur TikTok ce que l’on appelle des « comptes rediff » qui rediffusent, pas seulement mes vidéos mais toutes les vidéos virales. Même un petit créateur de contenu, qui ne fait que 5 000 vues, peut voir sa vidéo reprise, « screenée ». En fait, ils font une capture d’écran de notre contenu et ils le repostent tout simplement sur leur propre compte.

M. Thierry Sother (SOC). Puisque vous mettez vous-même en scène les contenus que vous créez, c’est donc une sorte de pillage de votre contenu, un vol de votre création artistique par TikTok ?

M. Nasser Sari. Je ne sais pas si je qualifierais cela de vol. Aujourd’hui, c’est devenu normal : il y a des milliers de « comptes rediff » sur TikTok. Ils n’ont ni nom, ni prénom, ni tête. Ils n’ont pas d’identité. Ils s’appellent « compte rediff » ou « rediff exclu ». Ils reprennent les vidéos de Nasdas et celles des autres créateurs de contenu. Vous pouvez qualifier cette pratique de vol : ils ne m’ont pas demandé la permission de copier mes contenus pour les reposter sur TikTok. Il existe aussi de faux comptes Nasdas, parce qu’il y a énormément, énormément d’usurpations d’identité et pas que sur TikTok, sur tous les réseaux.

Mme Anne Genetet (EPR). Vos propos témoignent d’une grande compréhension du fonctionnement des algorithmes des différentes plateformes et d’une sensibilité à l’effet que peuvent produire tous ces contenus sur les jeunes. Vous avez même émis une forme de critique, même si elle était très policée, vis‑à‑vis des parents. Non seulement vous comprenez l’effet de ces contenus, mais cela vous inspire quelques réserves. En tant que créateur de contenu maîtrisant cet univers, quelles recommandations feriez-vous pour limiter les effets négatifs d’une plateforme comme TikTok sur des mineurs, en laissant de côté le rôle des parents qui a déjà été évoqué ?

M. Nasser Sari. Merci pour votre question mais y répondre est très compliqué. Malheureusement, oui sur TikTok et ailleurs, il y a un impact sur la santé mentale des jeunes et, pas qu’eux, des personnes plus âgées aussi. Je n’ai malheureusement pas de baguette magique ni de solution miracle. N’est-il pas un peu trop tard ? C’est la question qu’on doit se poser. TikTok est l’application la plus utilisée au monde, et depuis des années. C’est bien de réagir mais avec quelle solution ? Limiter le nombre d’heures ? Mais comment faire ? Je ne fais pas votre métier. Vous avez l’honneur d’être députés ou représentants de l’État. TikTok a pris une telle ampleur... Bon courage si vous devez prendre des mesures : ça ne va pas être facile !

Les créateurs de contenus ont aussi une part de responsabilité. Je le dis en toute honnêteté : notre objectif, quand on fait une vidéo, c’est qu’elle soit regardée. Après, j’ai pris plusieurs mesures. Par exemple, je ne fais pas de lives sur TikTok – j’en ai fait très rarement –, mais je me suis lancé dans les lives Twitch, et je les commence presque toujours après minuit, pour faire en sorte que seulement un minimum de mineurs puisse regarder. Et ça, c’est vérifiable.

M. Antoine Vermorel-Marques (DR). Vous avez le devoir de nous déclarer tout conflit d’intérêt. Connaissez-vous certains des députés présents ? Si oui, quels liens vous unissent ?

M. Nasser Sari. J’ai vu M. le président à la télé – est-ce que cela veut dire que je le connais ? Je connais M. Delogu, que j’ai vu à la télé aussi. Je regarde tous les visages, mais je ne connais personne d’autre. Pourquoi ?

Mme Laure Miller, rapporteure. Plusieurs d’entre nous ont remarqué que, au tout début de l’audition, M. Delogu a orienté votre réponse à la question relative aux revenus.

M. Sébastien Delogu (LFI-NFP). Parce que ce n’était pas le sujet de la commission.

Mme Laure Miller, rapporteure. D’accord mais c’était surprenant : nous avons rarement des attentions de cette nature envers une personne auditionnée.

M. Antoine Vermorel-Marques (DR). On dit de vous que vous êtes le « Robin des bois digital ». Vous avez redistribué beaucoup d’argent. En avez-vous donné à des mineurs ou à des partis politiques ?

M. Nasser Sari. Mais c’est quoi, cette question ?

M. le président Arthur Delaporte. Monsieur Vermorel-Marques, pourriez-vous préciser pourquoi vous posez la question des partis politiques et quel est son rapport avec l’objet de la commission d’enquête ?

M. Antoine Vermorel-Marques (DR). On vous prête des ambitions politiques. Je voudrais savoir si TikTok a permis de rémunérer des partis politiques.

M. Nasser Sari. On est quand même à l’Assemblée nationale ; pour moi, c’est une première et un honneur. Je ne pensais vraiment pas tomber sur des questions aussi floues que les vôtres. À l’Assemblée nationale, on pose des questions précises. Qu’est-ce qu’un groupe politique ? Je n’ai même jamais fait de politique sur les réseaux sociaux. Je n’ai jamais versé d’argent à des groupes politiques.

Monsieur le président, vous avez dit dans une interview que vous ne seriez pas là pour nous punir, mais c’est bien pire : il y a des questions tellement hors sujet… Excusez-moi, j’ironise, mais c’est quoi la prochaine question ? Est-ce que j’ai financé l’armée du Tchad ?

M. le président Arthur Delaporte. Nous avons compris que vous n’avez pas d’intention politique. Revenons à la première question : avez-vous donné de l’argent à des mineurs ?

M. Nasser Sari. Désolé mais je reviens à l’autre question, parce que je suis un peu choqué…

M. le président Arthur Delaporte. Répondez s’il vous plaît à la question sur les mineurs. Vous pourrez rebondir ensuite, mais très rapidement.

M. Nasser Sari. C’est quand même grave de poser cette question ; j’ai un droit de réponse.

M. le président Arthur Delaporte. Vous avez pu répondre.

M. Nasser Sari. On m’a demandé dans une interview si j’avais des convictions politiques. J’ai dit que je ferais tout pour aider mon quartier, même devenir éboueur. Si demain il fallait tenir un rôle politique, je le ferais, quitte à être éboueur. Je ne vois pas ce que des questions comme ça viennent faire ici : quel est le rapport avec TikTok ?

Quant aux mineurs, oui, il m’est déjà arrivé de prendre une vingtaine de jeunes de mon quartier, de leur faire nettoyer les rues, repeindre les murs pleins de tags, pour leur donner le sens du travail et le goût de l’effort, et de les rémunérer 5, 10, 20 euros – 50 grand maximum. C’est vraiment des actions sociales que j’ai menées au sein de mon quartier, Saint-Jacques, où on est des milliers d’habitants, parce que la population là-bas se sent totalement délaissée. Oui, par des actions sociales comme celles que j’ai décrites, j’ai pu aider des jeunes. Je leur dis : tu nettoies le quartier, je te donne un billet de 20 ou de 50 euros ; non, petit, tu n’as pas besoin de vendre de drogue ; non, ce n’est pas parce que tu as grandi dans un quartier que tu dois vendre de la drogue – il existe d’autres moyens. Vous savez, moi, les mineurs, les jeunes, excusez-moi du terme mais s’il y en a un dans mon quartier qui osait insulter la France devant moi… Il y a les réseaux sociaux et les vidéos, mais mon action ne s’arrête pas à ça : il y a aussi le terrain, et j’y suis.

M. le président Arthur Delaporte. Monsieur Vermorel, je vous redonne la parole pour rebondir mais je vous remercie de ne pas remettre une pièce dans la machine.

M. Antoine Vermorel-Marques (DR). Membre de la commission d’enquête, j’ai le droit de poser des questions ; la personne auditionnée est libre d’y répondre ou non. Je vous demande, monsieur le président, de garantir mes droits de parlementaire.

M. le président Arthur Delaporte. Je ne crois pas y avoir fait obstacle, mon cher collègue.

M. Nasser Sari. Mais c’est une commission d’enquête sur TikTok : vos questions sont totalement hors sujet – comprenez-le ! Vous en êtes membre, vous avez aussi des responsabilités : vos collègues attendent pour poser des questions utiles sur TikTok et la santé mentale des jeunes !

M. le président Arthur Delaporte. Monsieur Sari, je vous demande d’arrêter.

Mme Léa Balage El Mariky (EcoS). Vous avez minimisé l’incidence de TikTok sur vos revenus en omettant de mentionner que TikTok vous sert à capter du public : votre compte est relié à votre compte Snapchat et à vos lives Twitch.

En outre, vous affirmez que vous publiez parfois du contenu sans prendre conscience de ce que vous publiez, parce que vous n’êtes pas accompagné. Pourtant, vous pourriez vous faire aider par des avocats, comme c’est le cas aujourd’hui. C’est non seulement votre droit, mais peut-être votre responsabilité de créateur de contenus.

Depuis plusieurs années, vous captivez des millions d’abonnés avec vos publications sur les réseaux sociaux, que l’on pourrait comparer à des séries télévisées : elles ont leurs personnages, leurs intrigues, leurs rebondissements. Mais, contrairement à une série, vous jouez avec la frontière entre réalité et fiction, en brouillant parfois la distinction entre ce qui est vrai et ce qui ne l’est pas. Par exemple, vous avez souvent mis en scène des relations amoureuses, réelles ou supposées, dans votre villa. Parfois, elles impliquent des mineurs, comme Mme L., qui a été un personnage central pendant plusieurs semaines. Vous et votre communauté l’avez accusée d’être tombée enceinte d’un homme de la villa alors qu’elle était, selon vous-même, loin d’être majeure.

Vos contenus reflètent-ils la seule vérité ? La question est cruciale. Si c’est le cas, il s’agit souvent d’actes pénalement répréhensibles – menaces avec couteau, racisme, harcèlement, exploitation, détournement de mineur et violences conjugales. Quels effets psychologiques de tels contenus ont-ils sur les mineurs ? Ils peuvent exercer une influence néfaste en normalisant des comportements inappropriés, jusqu’à perturber leur compréhension de la réalité et de ce que sont des relations saines.

Si au contraire vos contenus sont mis en scène, vos choix éditoriaux sont discutables : vous devez la transparence à votre communauté et aux plateformes. L’admettre vous exposerait à des critiques pour avoir largement outrepassé le règlement des réseaux sociaux. Vos contenus devraient alors être modérés, voire classifiés, pour les empêcher d’atteindre un jeune public.

Ma question n’est pas floue : ce que vous montrez est-il vrai ou mis en scène ?

M. Nasser Sari. Vous affirmez que j’ai minimisé l’impact de TikTok sur mes revenus mais j’ai touché moins de 5 000 euros – je peux le prouver. En quoi ai‑je minimisé ?

Vous citez Mme L. Je ne connais pas. C’est qui ?

Mme Léa Balage El Mariky (EcoS). Je parle de Leyna. Je ne voulais pas citer son nom parce que ma question ne porte pas sur cet épisode en particulier. Je vous demande si vos contenus sont réels ou mis en scène.

M. Nasser Sari. Avant de répondre, je veux comprendre : vous m’avez accusé, et vous avez accusé des amis à moi, d’avoir mis en scène le fait que Leyna était enceinte ? Ou de lui avoir dit qu’elle avait fait semblant de l’être ? Ou d’avoir supposé qu’elle l’était ? C’est elle-même… Vous savez, j’ai un droit à l’image, de sa grand-mère qui est sa tutrice : j’ai le droit de la filmer comme elle a le droit de me filmer. C’est elle-même qui est venue avec des tests de grossesse et qui a dit : « Oui, Nasser, je suis enceinte. »

Mme Léa Balage El Mariky (EcoS). Quel âge a-t-elle ?

M. Nasser Sari. Oui, elle avait 16 ans, elle nous avait menti, ce qui avait aussi fait scandale sur les réseaux.

On vit en communauté. On est des fois dix, des fois quinze. Mettre en scène, c’est un grand mot : mon contenu, je vais quelquefois le tirer. Je ne suis pas devant un tribunal, je suis devant une commission d’enquête, sur TikTok. Encore une fois, on en revient à mon contenu Snapchat. Il y a des choses mises en scène, oui, d’autres sont réelles. Quand j’aide les jeunes de mon quartier, par exemple, je le fais de tout cœur. Leyna est un cas à part, les autres jeunes viennent de mon quartier et dans mon quartier, on est une grande famille. À part Leyna, on peut me citer très peu de mineurs, ils sont tous majeurs, vaccinés et conscients d’être chez moi ; ils savent pourquoi ils sont venus et ils savent ce qu’ils veulent faire. Aujourd’hui, Leyna est très contente : elle a plus de 0,5 million de followers sur TikTok. Quand elle est arrivée chez moi, elle n’avait même pas de domicile.

Mme Léa Balage El Mariky (EcoS). J’ai précisé ma question.

M. Nasser Sari. Vous me demandez si c’est la réalité ou si c’est mis en scène, je vous ai répondu.

Mme Léa Balage El Mariky (EcoS). Je vais donner un autre exemple. Djibril jette son téléphone sur sa compagne : c’est un acte de violence conjugale. Est-il mis en scène ?

M. Nasser Sari. Djibril et Inès, ils se chahutent vraiment. Je ne parle pas de cette scène-là ; je parle au quotidien. Je savais que, dans cette commission, on allait me ressortir cette scène, qui a beaucoup tourné sur Twitter – pardon, mais les députés passent beaucoup de temps sur Twitter à regarder les vidéos de certains internautes ! Cette scène-là, je vous le dis clairement, elle a été surjouée. Beaucoup sur internet diront que j’ai dit ça pour défendre Djibril ; d’autres diront que j’essaie de cacher la vérité : non, à l’heure actuelle, Djibril et Inès sont ensemble. Et il est hors de question que sous mon toit, sous ma responsabilité, il se passe quelque chose comme ça et que, en conscience, je le filme et je le poste. Je sais quand même ce que je fais, je suis quand même responsable de mon contenu : je ne vais pas m’envoyer à l’abattoir.

M. Stéphane Vojetta (EPR). Merci d’être venu et de répondre à nos questions. Nous essayons de comprendre les mécanismes à l’œuvre.

M. Nasser Sari. Franchement !

M. Arthur Delaporte (SOC). S’il vous plaît, monsieur Sari, pas de dénigrement. Écoutez les questions des parlementaires.

M. Stéphane Vojetta (EPR). Je ne vous suis pas ; jusqu’à aujourd’hui, je ne vous connaissais pas ; j’avoue que je ne vous ai jamais vu sur les réseaux. On le sent en vous écoutant, vous comprenez que vous avez une influence certaine, sur les mineurs en particulier. Si vous pouviez, en appuyant sur un bouton, exclure de votre audience les mineurs de moins d’un certain âge qu’il faudrait déterminer – 13, 15 ou 18 ans –, le feriez-vous ? Selon vous, à partir de quel âge devrait-on pouvoir regarder vos contenus ?

Les placements de produits concourent à vos revenus. Une association de victimes de l’influence affirme que certains ont posé des problèmes, notamment des maillots de foot Ligue des champions 2025 qui n’auraient pas été livrés. Avez-vous connaissance de problèmes liés à des placements de produits ? La loi dite influenceurs vise à protéger les consommateurs. En connaissez-vous les termes ? L’appliquez-vous ?

M. Nasser Sari. La question de l’âge minimum devrait même se poser pour regarder les contenus d’applications telles que Snapchat, TikTok, YouTube : on trouve de tout partout. Pour avoir TikTok, je dirais 14 ans. Si on parle de ma vie privée, j’ai un fils, c’est un parfait exemple : il pourra l’utiliser après ses 15 ans, mais pas avant – mais il n’a que 1 an, et je ne suis peut-être pas un bon papa. Après, il ne faut pas punir tous les jeunes ; TikTok, c’est aussi un endroit pour se relaxer, ça a été créé pour qu’on puisse scroller sur le fil d’actualité, regarder des vidéos, d’ailleurs, elles sont de tous types. Je ne suis en aucun cas l’avocat de TikTok – je préfère le dire –, mais il n’y a pas que de vidéos problématiques : dans certaines, on apprend pas mal de choses. C’est plus une question d’algorithme : il faut plus ramener les jeunes vers un contenu éducatif. Après l’âge… si on le leur interdit… ils sont omniprésents… On parle d’un texte de loi visant à l’interdire aux moins de 15 ans. Je ne suis ni ministre ni député, mais si je devais donner un âge minimum, je dirais 15 ans, avec un algorithme centré. S’agissant de mon contenu, je dirais aussi 15 ou 16 ans.

Après, je me pose une vraie question. Je peux aller sur TikTok ou sur d’autres applications et créer un compte en mentant sur mon âge – j’ai 29 ans, je peux dire que j’en ai 69. C’est une réalité. Il faut peut-être être plus précis durant l’inscription – je ne sais pas comment, je ne suis pas en train de vous dire qu’il faut donner des pièces d’identité à TikTok, mais il faut être plus prévoyant.

Pour revenir à mes rémunérations, elles proviennent directement des plateformes, et non des placements de produits, qui représentent même pas – on me demande des chiffres, mais je ne sais pas – disons 5 à 8 % du total. Comme je vous l’ai dit, j’en fais énormément gratuitement – vous l’avez rappelé, on m’a appelé le Robin des bois moderne. Si demain, vous venez me voir pour me dire que vous avez une boulangerie, et que j’aime bien votre pain, je viens et je fais un placement de produit. Sur les maillots de foot, Dieu merci, le problème a été réglé. Je fais des millions de vues. On parle d’une personne qui s’est lancée dans la vente de maillots et qui, à vrai dire, ne s’attendait pas à un tel nombre de commandes. Énormément de livraisons ont été reçues ; je sais que tout le monde a reçu un mail, il y a un suivi, et tous les maillots vont être reçus. Bien sûr, il y a des lois ; nous, les créateurs de contenus, on les applique : le hashtag #publicité apparaît à chaque placement de produit, même s’il est gratuit – si demain je viens dans votre boulangerie, je mettrai le hashtag #publicité pour bien montrer à ma communauté que je suis en train de faire un placement de produit.

M. le président Arthur Delaporte. Je vous remercie de cette précision. M. Stéphane Vojetta et moi-même sommes les auteurs de la loi influenceurs et je rappelle que la publicité promouvant les jeux concours, les cartes bancaires ou encore les placements financiers est strictement régulée, voire interdite depuis deux ans. Tout ce qui a trait à l’argent doit être enregistré auprès de l’Autorité des marchés financiers (AMF) et les jeux concours doivent faire l’objet de mentions légales. Nous ne sommes pas là pour faire appliquer la loi, mais je fais ce rappel, car certains de vos contenus…

M. Nasser Sari. Mon prestataire a ensuite respecté les règles et ajouté les mentions légales pour les jeux concours. Ce n’est pas moi qui m’en occupe personnellement, mais merci de le préciser.

M. le président Arthur Delaporte. Je le dis aussi à ceux suivent cette audition : il y a un cadre et nul n’est censé ignorer la loi. Une personne qui procède à des placements de produits problématiques peut être condamnée, ce qui a d’ailleurs déjà été le cas.

M. Nasser Sari. J’aimerais parler de quelque chose qui me tient à cœur. Je vous le dis à vous, qui êtes derrière cette loi : quand j’avais 110 000 followers, j’ai partagé du pari sportif, j’ai partagé du trading. Je le dis ouvertement et je plaide coupable. Beaucoup de familles sont venues me voir et m’ont dit : « Nas, on t’a fait confiance et on a tout perdu dans le trading et les plans financiers. » Personne dans la commission d’enquête ne m’a posé la question, mais je l’admets.

J’avais 100 000 followers, c’était mes tout premiers mois en tant que créateur de contenus, je venais juste de démissionner de mon poste de gardien d’immeuble. Et j’aimerais parler de ces pseudo-agences ; il y en a tellement. Moi, j’arrête, je me retire, mais j’aimerais tellement protéger les créateurs de contenus de ces agences, qui viennent nous voir en costard, qui nous expliquent, avec un beau discours, qu’ils connaissent très bien la loi. Ils m’ont dit « nul n’est censé ignorer la loi ». Mais quand vous avez 22 ans, d’un coup des centaines de milliers de followers et que ces pseudo-experts viennent se présenter à vous… Ces gens-là passent leur temps derrière un ordinateur ou un téléphone à détecter les nouveaux talents. Quand ils en voient un avec 80 000 followers, ils se disent qu’ils vont l’approcher pour lui faire faire des placements de produits, et à la fin ça retombe sur le créateur de contenus. Pourquoi on ne tape pas sur ces pseudo-agences ?

J’ai eu la chance, dans la deuxième partie de ma carrière, d’avoir une agence très propre. Mais je vous jure que j’aurais aimé qu’on me protège de ces gens-là au début.

M. le président Arthur Delaporte. La loi influenceurs prévoit que les agences sont pénalement coresponsables des contenus problématiques qui peuvent être publiés.

M. Nasser Sari. Je vous en remercie. Je n’étais pas au courant.

M. le président Arthur Delaporte. C’est une coresponsabilité de la marque, de l’agence et de l’influenceur. J’invite vraiment tous ceux qui s’intéressent à ce sujet et qui font des placements de produits à bien prendre connaissance du cadre légal, car une infraction peut entraîner jusqu’à 300 000 euros d’amende – ou une part du chiffre d’affaires – et deux ans d’emprisonnement.

M. René Lioret (RN). Pour tout dire, je suis un Candide des réseaux sociaux. Je ne vais pas sur Snapchat ni sur TikTok et je découvre que vous y avez 3,7 et 9 millions de followers. Au-delà des gens qui vous suivent, votre particularité est que certains désirent vous voir, ce qui n’est pas le cas de tous les influenceurs. Au début de l’audition, vous avez évoqué le cas, peut-être pas représentatif, d’un jeune ayant quitté son domicile à 100 kilomètres de chez vous et dont les parents vous ont dit de le garder. D’autres personnes viennent dans votre quartier et vous disent qu’ils y sont bien, en sécurité. Que représentez-vous pour ces gens, dont certains sont majeurs ? Qu’attendent-ils de vous ? Comment passe-t-on de Nasser Sari à Nasdas ? Quelle image donnez-vous à ces jeunes ?

Je reconnais que ma question est difficile, mais que leur apportez-vous qu’ils ne trouvent pas dans leur milieu scolaire, dans un club de sport, dans leur famille, toutes ces structures censées les encadrer ? Voilà ce que je cherche à comprendre pour cerner votre personnalité.

M. Nasser Sari. Les personnes qui ont regardé mon contenu savent que je filme mon quartier, qui est un petit cocon familial, où tout le monde s’aime bien et où tout le monde rigole. Là où j’ai eu tort, c’est de ne montrer que le côté positif. Tout le monde a cru qu’en venant, ça allait être bien, au top, parce que, tout naturellement, j’ai essayé de cacher le côté néfaste, alors qu’il y a des cons partout. À ces personnes qui viennent, je vous le dis à cœur ouvert, je leur demande pourquoi elles sont là. Elles me répondent qu’elles veulent passer vingt-quatre heures avec moi, etc.

C’est malheureux, mais je pense que beaucoup plus de jeunes rêveraient de devenir influenceurs plutôt que députés ; c’est une réalité. Selon une étude sortie il y a peu, un Français sur deux ne connaît même pas le député de sa ville.

Je ne parle pas pour moi, mais beaucoup d’influenceurs sont basés à Dubaï et montrent les gratte-ciels et un mode de vie luxueux. Moi, comme vous l’avez dit, je suis accessible. Si on veut voir Nasdas, on a juste à prendre un train. Et pour les jeunes qui viennent, notamment ceux qui sont en foyer, je représente un symbole de renaissance, une meilleure vie et surtout un meilleur avenir. Et c’est là où je regrette d’avoir fait en sorte, on va dire indirectement, que ces jeunes viennent et croient en moi au lieu de croire en leurs études, en leurs parents, en leur éducation. Ce n’était pas voulu. Je voulais juste montrer une bonne image de moi-même et de mon quartier et, à la fin, ça s’est transformé en fléau avec des jeunes qui venaient et me disaient : « Nasdas, on veut avoir une meilleure vie. » Et je vous jure que, par tous les moyens, et c’est particulièrement choquant, j’en ai aidé. Jusqu’à en faire des burn-outs, jusqu’à être hospitalisé. Je n’en ai plus la force et c’est pour ça que j’ai pris la décision, il y a trois mois, de prendre du recul, d’arrêter les réseaux sociaux et de revenir avec une meilleure optique.

En tout cas, je tenais à vous féliciter pour la loi que vous avez sortie. Je n’étais pas au courant. Vous faites avancer le métier ; merci à vous.

M. le président Arthur Delaporte. Mieux vaut tard que jamais, dira-t-on.

M. Sébastien Delogu (LFI-NFP). Merci beaucoup, monsieur Sari. Même si vous êtes très apprécié de la population, vous êtes également beaucoup critiqué et pointé du doigt. Les gens ne sont pas à votre place et il est facile de juger.

J’aimerais que vous donniez des exemples de ce que vous avez fait, concrètement, pour aider les mineurs venus près de chez vous. Vous avez expliqué avoir eu leurs parents au téléphone et je pense que cela pourrait être valorisant pour vous.

Par ailleurs, je souhaiterais savoir si le maire Rassemblement national de votre ville a mis des salles ou des équipes à disposition, dans votre quartier, pour recevoir les adolescents qui y sont venus et les renvoyer chez leurs parents, ou n’y a-t-il eu aucune main tendue de la part des services publics ?

M. Nasser Sari. À ma connaissance, non, Louis Aliot, le maire de Perpignan, n’a rien mis en place. Au contraire, quand j’ai essayé de mener des actions sociales pour distribuer des burgers, même si je n’avais pas fait la demande d’autorisation, une trentaine ou une quarantaine de policiers sont venus. Pour toutes nos actions sociales et face au fléau des jeunes qui viennent, je me retrouve vraiment seul. Heureusement que certains policiers me tendent la main pour m’aider et me disent de ne pas hésiter à les appeler ou à faire un signalement si j’ai des jeunes mineurs. Mais concernant la politique de la ville, je ne reçois aucune aide.

Les mineurs qui viennent, je ne vais pas mentir, soit on prévient les autorités compétentes, soit, pour une minorité, parce qu’il y a énormément de cas, avec parfois quatre-vingts jeunes qui arrivent, et pas que des mineurs – à 20 ans, on est encore jeune –, je les prends avec moi et je vais leur acheter une tenue, une paire de chaussures, parce que beaucoup viennent avec des chaussures trouées. J’ai pu voir une pauvreté incroyable. Je leur achète des habits, je leur fais prendre une douche, rien de grandiose, mais j’essaie vraiment d’aider.

Et il y a aussi des personnes malades. De ça, depuis tout à l’heure, personne ne parle, mais j’ai aidé énormément de mineurs qui, eux, venaient avec leurs parents et on a pu financer directement ou indirectement des opérations. Mais apparemment, tout le monde a oublié de le dire.

Je sais qu’on n’a plus le temps, mais j’aurais aimé qu’on parle plus de l’algorithme de TikTok. Je m’étais préparé…

M. le président Arthur Delaporte. On peut prendre un peu de temps si vous voulez.

M. Nasser Sari. Toutes les questions ont été ciblées sur Nasdas, Nasdas, Nasdas. J’ai vraiment l’impression que les quarante-cinq minutes n’ont servi, pour certaines personnes, qu’à attaquer Nasdas. Il y avait plus de monde tout à l’heure, mais je me demande si certains ne sont pas venus parce que c’était le personnage Nasdas plutôt que pour faire avancer les choses.

J’ai tous les reproches du monde ; on peut tout me faire ! Je vous regarde droit dans les yeux : vos questions, vous avez raison de les poser. C’est légitime. C’est vrai. Mais je pensais qu’on allait aussi parler de l’algorithme ou plutôt des algorithmes de TikTok…

M. le président Arthur Delaporte. On va en parler.

M. Nasser Sari. Mais ça fait plus de quarante-cinq minutes.

M. le président Arthur Delaporte. Oui, mais vous êtes le dernier auditionné, si bien que vous avez le privilège de pouvoir rester avec nous, si vous avez encore quelques minutes et si vous voulez en parler.

M. Aly Diouara (LFI-NFP). Plus que poser une question, je souhaite réagir, car, très sincèrement, il n’y a pas d’offense, de piège, ni quoi que ce soit. Moi aussi, je viens d’un quartier extrêmement sensible et personne n’est là pour dribbler : on est là pour comprendre, accompagner et surtout faire évoluer les choses. C’est la raison pour laquelle j’ai parlé de poison et d’antidote. Je ne doute pas du rôle social que vous pouvez avoir dans les quartiers, notamment à Perpignan, d’où vous venez.

M. Nasser Sari. Merci.

M. Aly Diouara (LFI-NFP). Vous avez fait beaucoup de choses sur place, je n’en disconviens pas, pas plus que mes collègues. Cela étant, il y a d’autres réalités que vous ne pouvez pas nier. C’est pourquoi j’ai évoqué l’impact de la viralité de vos contenus. La question n’est pas donc pas Nasdas : les choses se seraient déroulées de la même manière avec quelqu’un d’autre.

Vous évoquiez l’époque où vous aviez 100 000 followers : nous ne sommes plus du tout dans ces ordres de grandeur. Je ne doute pas qu’il y a des choses positives. Dans la mesure où je n’ai pas de compte Snapchat, je ne peux pas me prononcer ; je ne me fonde que sur ce qui m’a été remonté. Je le répète, l’objet de la commission d’enquête n’est pas de formuler des jugements. Nous posons des questions pour comprendre comment fonctionnent les réseaux sociaux, tout comme nous l’avons fait, quand nous avons interrogé ses représentants, pour comprendre comment fonctionne l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique), qui est censée les réguler, au même titre que la télévision. Vous êtes auditionné, car vous êtes un acteur majeur des réseaux sociaux. Il n’y a pas de question piège ; que les choses soient claires.

M. Nasser Sari. Si je peux me permettre un petit conseil, pour essayer de faire avancer les choses, installez Snapchat. Si vous allez vous-même sur les applications, peut-être que les choses avanceront.

M. le président Arthur Delaporte. Nous auditionnerons les représentants de Snapchat dans une dizaine de jours.

Je reviens sur les algorithmes et la viralité des contenus, qui sont des questions centrales. Diriez-vous que le mécanisme des plateformes, c’est-à-dire la manière dont elles rémunèrent et le fait que les algorithmes poussent des contenus choquants, encourage la publication de vidéos dans lesquelles on peut voir de la violence, des insultes, de la misogynie ? Est-ce ce qui rapporte le plus ?

M. Nasser Sari. L’algorithme, c’est tout simplement un centre d’intérêt. Le soir, quand je suis couché avec ma femme, je n’ai pas les mêmes « pour toi » qu’elle sur TikTok – je suppose que vous savez ce que c’est. Les « pour toi » de ma femme, c’est tout ce qui est bébés, maternité ; les miens, c’est tout ce qui est foot et jeux téléphoniques. Et pour répondre en toute sincérité, ce que vous considérez comme misogyne ou violent, nous appelons ça des dramas. Sur internet, sur TikTok, ce sont des dramas. Et je le reconnais, car je l’ai constaté, un drama fera largement plus de vues qu’une vidéo qui explique, je ne sais pas…

M. le président Arthur Delaporte. Qui explique comment fonctionne une commission d’enquête ou le contenu de la loi influenceurs ?

M. Nasser Sari. Oui.

M. le président Arthur Delaporte. Cela rapporte donc plus d’argent de faire des dramas que de la pédagogie ?

M. Nasser Sari. Totalement ! Après, tout dépend du centre d’intérêt de la personne. Ma femme, elle ne tombe pas sur des dramas ; elle n’aime pas ça. Mais si les dramas sont autant regardées, c’est que beaucoup de gens les demandent. Et si demain TikTok les retire, vous verrez qu’ils les chercheront sur d’autres plateformes. Beaucoup de gens, leur centre d’intérêt, c’est les dramas.

M. le président Arthur Delaporte. Pour continuer sur l’interconnexion des réseaux et la manière dont un drama publié sur une plateforme peut être repris ou copié sur une autre, il y en a un qui a fait le buzz, dans lequel vous demandez à deux jeunes filles laquelle est la plus belle. Et dans cette vidéo, l’une d’elles montre ses seins. Je vous vois réagir, mais cette vidéo est vraie, n’est-ce pas ? Quand vous filmez ça, vous dites-vous que ce contenu va buzzer ?

M. Nasser Sari. Non, non !

M. le président Arthur Delaporte. En l’occurrence, il y a eu des millions de vues et cela a rapporté de l’argent…

M. Nasser Sari. En tant que bon père de famille et tonton de beaucoup de neveux et nièces, je n’ai pas envie qu’en se réveillant le matin, ils voient la poitrine d’une fille qui était à mes côtés.

Avec notre vidéaste, on était sur Twitch, une plateforme de vidéos live. Personne, et je dis bien personne – j’ai fait le serment de ne pas mentir –, ne s’y attendait. C’est pour ça qu’on a directement coupé le live et qu’on l’a remis cinq minutes après. On s’est excusés et on a supprimé tout de suite toutes les rediffusions possibles. Ce n’était pas voulu de ma part, loin de là. On peut dire que je mets en scène, mais pas là, pas au point de demander à une personne de montrer ses seins – même si personne m’en a accusé. Malheureusement, et je dis bien malheureusement, on était en trending topics (TT) sur Twitter.

M. le président Arthur Delaporte. Souhaitiez-vous ajouter des éléments supplémentaires sur le fonctionnement de l’algorithme ?

M. Nasser Sari. Non.

Mme Léa Balage El Mariky (EcoS). Pour repréciser les choses, ce que vous appelez drama, ce sont des épisodes de harcèlement moral ou physique qui ont lieu sur les réseaux sociaux.

M. Nasser Sari. Non !

Mme Léa Balage El Mariky (EcoS). Je ne parle pas uniquement de vos contenus, mais ces dramas sont une manière de banaliser des actes de violence physique ou psychologique. Ce ne sont donc pas des « dramas », mais la répétition de propos, notamment à l’encontre de personnes qui présentent des vulnérabilités, comme les jeunes femmes.

Par exemple, le 15 avril, un enfant noir a été qualifié de Banania sur votre plateforme, ce qui est un propos raciste…

M. Nasser Sari. Ça va finir au commissariat ! C’est de la diffamation !

M. le président Arthur Delaporte. Monsieur Sari, attendez. Vous écoutez les questions et tout le monde se calme. Et je vous préviens que toutes les paroles prononcées par un parlementaire dans l’enceinte de l’Assemblée sont couvertes par l’immunité parlementaire et donc ne sont pas susceptibles…

M. Nasser Sari. On peut m’accuser comme ça ?

M. le président Arthur Delaporte. Ça s’appelle l’immunité parlementaire.

Je vous demande d’attendre qu’elle ait terminé sa question pour répondre. Même si vous n’êtes pas d’accord, attendez qu’elle ait fini.

Mme Léa Balage El Mariky (EcoS). Il y a donc ce propos raciste publié sur vos réseaux.

Et il y a également la scène dont vous parliez, qui a eu lieu le 2 avril sur Twitch, une plateforme qui est interconnectée avec TikTok, si bien que vos lives y sont bien publiés.

Ainsi, alors que vous êtes dans la banalisation des processus de harcèlement, notamment à l’encontre de jeunes filles, n’y a-t-il pas un moment où vous vous souciez de la santé mentale des personnes qui interviennent dans vos vidéos, qu’elles soient faites dans la vraie vie ou mises en scène, des personnes qui participent à leur production, voire des personnes qui les regardent ?

Au travers de ces contenus que vous qualifiez de dramas, vous contribuez à la banalisation d’une violence à laquelle vous donnez une forme d’imprimatur dans la vie réelle, notamment au sein des familles où elle peut se produire.

M. Nasser Sari. Vous savez, un couple qui se sépare, c’est un drama : pas besoin d’avoir un harcèlement. Demain, si je ne suis plus avec ma femme et que je l’annonce, c’est un drama. C’est ma définition du drama et désolé si ce n’est pas la bonne.

Je sais que vous êtes couverts ici, mais est-ce que vous pouvez tout insinuer, tout accuser…

M. le président Arthur Delaporte. Nous posons des questions, monsieur Sari.

M. Nasser Sari. Non, elle a accusé ; ce n’était pas une question.

Vous pouvez répéter ce que M. Fares, le vidéaste, a dit à ce jeune ? Il l’a traité de Banania ? Il lui a dit : « tu es un Banania » ?

Mme Léa Balage El Mariky (EcoS). Je n’ai pas parlé de ce monsieur dont vous prononcez le nom. J’ai évoqué un acte qui s’est déroulé le 15 avril. Je ne vous interroge pas sur cet acte précisément. Et je vous demande de ne pas contourner les questions qui terminaient mon propos. Avez-vous conscience que vous contribuez à la banalisation du harcèlement physique ou psychologique ? Prenez-vous soin de la santé mentale des personnes qui participent à vos vidéos dans votre villa ? Ce sont mes deux questions, elles sont simples et je vous demande d’y répondre.

M. Nasser Sari. OK… Mais avant vos questions, vous avez porté des accusations. Vous dites…

M. le président Arthur Delaporte. Monsieur Sari...

M. Nasser Sari. J’ai le droit de répondre librement ou on doit me dicter ce que je dois dire ?

M. le président Arthur Delaporte. Je viens de regarder la vidéo en question…

M. Nasser Sari. Je n’ai pas pu placer quatre mots !

M. le président Arthur Delaporte. Vous pourrez répondre. J’indique juste que, dans la vidéo, la personne à côté de l’enfant dit : « Ramenez un Banania ».

M. Nasser Sari. Voilà ! C’est hyper important de remettre les choses dans leur contexte. Cette même personne, qui a subi un harcèlement, si M. le président n’avait pas remis les choses à leur place, elle aurait peut-être mangé une deuxième vague de harcèlement et de menaces de mort.

M. le président Arthur Delaporte. Il y a quand même quelqu’un qui dit « Ramenez un Banania », avec un petit garçon noir à côté.

M. Nasser Sari. Vous savez ce que c’est que le Banania ?

M. le président Arthur Delaporte. Dites-nous.

M. Nasser Sari. Ah, vous ne savez pas ? Du chocolat chaud.

Il faut regarder la vidéo. Vous l’avez vue ou pas ? L’enfant s’appelle Amadou. Il est créateur de contenus avec RFK, il a 6 ans, il est adorable. Moi, je n’étais pas présent dans la pièce quand ça s’est passé. Comme certains ici peut-être, j’ai regardé la rediffusion. Je crois qu’il y avait du Champomy posé sur la table et Amadou voulait en boire. La personne à côté lui a dit non, parce que ça rassemble à de l’alcool. Il a dit : « Ramenez-lui du Banania », en parlant du chocolat, qui est accessible partout, chez Leclerc, etc. Ensuite, il a fait une vidéo où il s’excuse et où il dit qu’il ne connaissait pas le passé de cette marque, tout comme moi…

Mme Léa Balage El Mariky (EcoS). Vous vous défilez !

M. Nasser Sari. Je réagis à ce que vous me dites !

M. le président Arthur Delaporte. On a répondu au premier point. On a mis les choses au clair. Mme Balage El Mariky…

M. Nasser Sari. Excusez-moi de vous couper, monsieur le président, mais elle porte des accusations. J’y réponds et elle me dit que je me défile. Moi, qui me protège ? Je n’ai pas d’immunité !

M. le président Arthur Delaporte. Vous avez apporté les précisions que vous estimiez nécessaires sur les propos qui ont été tenus.

M. Nasser Sari. C’était très important. Sinon, il allait subir un autre harcèlement.

M. le président Arthur Delaporte. Mais la question de Mme Balage El Mariky est plus large que cela.

Mme Léa Balage El Mariky (EcoS). Je vais la poser une troisième fois. Premièrement, avez-vous conscience que votre contenu participe à la banalisation de processus de harcèlement physique ou psychologique ? Deuxièmement, comment vous assurez-vous de la bonne santé mentale des participants de vos créations de contenus dans votre villa, que ces derniers montrent la réalité ou qu’ils soient mis en scène, comme vous l’avez expliqué ?

M. Nasser Sari. Pour moi, en aucun cas mon contenu n’incite au harcèlement de qui que ce soit. J’en ai subi via mes propres vidéos et je peux vous dire que je n’ai pas incité les gens à me harceler moi-même. Je n’incite personne à harceler personne ; qu’on soit très clair là-dessus.

Et la santé psychologique des personnes majeures qui sont chez moi, tout comme la mienne… il y a quelque chose qui s’appelle l’amitié. Le soir…

Mme Léa Balage El Mariky (EcoS). Des personnes majeures et mineures.

M. Nasser Sari. Qui ça ?

Mme Léa Balage El Mariky (EcoS). Je parle des personnes qui se trouvent dans vos contenus.

M. Nasser Sari. De qui vous parlez ? Parce qu’il faut être précis ! Leyna, elle est partie il y a déjà quatre mois. Nous, on n’avait qu’elle et une autre personne. Après, c’est des petits du quartier ; vous devez connaître.

Leyna, elle est partie il y a déjà des mois. Elle n’est plus avec nous. Et même quand elle était là, elle ne vivait plus sous mon toit, tout simplement.

Et il y a donc quelque chose qui s’appelle l’amitié. Vous savez, moi aussi, j’ai une santé mentale. Je suis humain, pas un robot. Je suis peut-être influenceur, mais j’ai aussi une santé mentale. Moi aussi, j’ai fait des burn-outs et j’ai peut-être des idées noires. Mes amis se soucient de moi parce que ce ne sont pas des personnages, comme vous dites. On est aussi amis. Et le soir, on essaie tous de se remonter le moral. Donc, est-ce que je contribue à la santé mentale de mes amis qui travaillent avec moi ? Oui.

Mme Léa Balage El Mariky (EcoS). Cette jeune fille qui a montré ses seins dans la vidéo sur le live-Twitch qui a fait des millions de vues, comment est‑ce que vous la protégez ?

M. Nasser Sari. Tout simplement. Quand Assya, pour être précis, a fait ça, j’ai essayé de comprendre pourquoi. Vous savez qu’elle n’est pas mineure ? C’est une femme libre, Assya ! Si elle a envie de montrer ses seins, quel homme peut lui dire de ne pas le faire ? Désolé.

J’essaie donc de comprendre pourquoi elle a fait ça. Et je vous assure, pour éloigner le harcèlement futur qu’elle allait subir, je lui ai conseillé fortement, parce que je lui ai acheté une tablette, de ne plus aller sur TikTok, de ne plus regarder de vidéos, de ne plus regarder les commentaires des gens qui allaient l’insulter. Je le jure, toutes les personnes qui sont à mes côtés, je passe mon temps à les rassurer. Eux-mêmes ont leurs réseaux. Ceux qui m’entourent ont leur compte TikTok, avec des millions de followers. Et des fois, ils subissent un harcèlement dû à leurs propres vidéos, qu’ils postent eux-mêmes, sans Nasdas.

On se protège mutuellement. On se rassure. On se dit que ce n’est rien. Je vous jure qu’on n’incite pas au harcèlement. Je ne dis pas aux gens d’aller harceler unetelle ou untel, au contraire. Si vous me connaissez de près ou de loin, vous savez que toutes les personnes qui ont pu cracher sur mon dos sur les réseaux, je ne leur ai jamais répondu. Vous savez pourquoi ? Parce que je suis conscient que des millions de personnes m’apprécient.

M. le président Arthur Delaporte. Un grand nombre de personnes suivent cette audition en direct sur des canaux comme Twitch, par exemple ; cela montre l’intérêt qui y est porté.

Le fait d’être suivi par des millions de personnes vous donne une responsabilité particulière, que vous reconnaissez. Avez-vous un message à leur faire passer, en guise de conclusion ?

Ne croyez-vous pas qu’en accueillant des jeunes chez vous et en les filmant, vous avez diffusé du contenu choquant et que le système que vous avez contribué à créer a pu générer du mal-être chez certains, ou l’amplifier ?

M. Nasser Sari. Je n’ai jamais demandé aux personnes qui sont venues de faire des centaines ou des milliers de kilomètres. Elles sont venues avec une idée précise : devenir créateur ou créatrice de contenu.

Beaucoup disent que, si on est suivi par autant de personnes, c’est parce qu’on est attachant. Depuis tout à l’heure, on ne parle que du côté néfaste, minime à mes yeux, mais pas de l’amour que l’on rejette.

Aujourd’hui j’ai arrêté, et les personnes sont presque toutes retournées chez elles. Elles m’ont dit qu’elles étaient reparties avec de bons souvenirs et elles continuent sans moi l’activité d’influenceur. Je ne pense donc pas contribuer au mal-être – sinon je ne peux plus filmer qui que soit, pas même moi !

Le conseil que j’ai à donner à toute personne qui veut se lancer sur les réseaux ? Ne vous lancez pas sur les réseaux.

M. le président Arthur Delaporte. Je vous remercie.

56.   Audition de M. Mehdi Meghzifene, responsable lancement TikTok e‑Commerce France, et M. Arnaud Cabanis, responsable de l’activité commerciale France & BeNeLux sur le commerce et la monétisation sur TikTok (jeudi 12 juin 2025)

La commission auditionne conjointement M. Mehdi Meghzifene, responsable lancement TikTok e-Commerce France, et M. Arnaud Cabanis, responsable de l’activité commerciale France & BeNeLux sur le commerce et la monétisation sur TikTok ([54]).

M. le président Arthur Delaporte. Avant d’entamer cette journée consacrée aux auditions des représentants de TikTok, je tiens à revenir sur l’ampleur médiatique prise par notre commission d’enquête, notamment sur les réseaux sociaux mardi dernier.

Depuis deux mois, nous avons auditionné une centaine de personnes – chercheurs, spécialistes, médecins, enseignants, collectifs de victimes, juristes, administrations. Pour disposer d’un panel de points de vue différents, nous avons auditionné neuf influenceurs et créateurs de contenu, ce qui représente moins de 10 % de l’ensemble. Sensibles aux résultats de la consultation citoyenne que nous avions lancée, nous avons trouvé utile d’entendre leurs retours, parfois choquants ou pédagogiques. Je regrette que l’on ait davantage parlé d’une audition que des autres, qui revêtaient pourtant un intérêt certain et témoignaient du sérieux et de la volonté d’exhaustivité de notre commission.

Je regrette aussi l’attitude de certaines personnes auditionnées, qui ont manqué de respect envers la représentation nationale et notre commission d’enquête, dont le seul objectif est l’intérêt général.

Néanmoins, je déduis de la résonance de ces auditions qu’elles étaient attendues et que le modèle économique des influenceurs et leur utilisation de l’algorithme avec des contenus choc appellent des réponses qui dépassent le cadre de cette commission.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires dispose que la personne qui ne comparaît pas ou refuse de déposer ou de prêter serment devant une commission d’enquête est passible de deux ans d’emprisonnement et de 7 500 euros d’amende, que cette convocation ait été effectuée par mail simple, par voie d’huissier ou en ayant recours à la force publique.

Nous accueillons aujourd’hui des responsables de la plateforme.

Le questionnaire écrit que nous avions transmis à TikTok le 28 mai nous a été retourné avant-hier soir, le 10 juin. Avec Mme la rapporteure, nous avons pris connaissance de ce document de soixante-deux pages avec la plus grande attention et adressé à TikTok des questions complémentaires, puisque certaines étaient restées sans réponse. Nous espérons que les auditions de ce jour permettront d’y répondre.

Nous allons d’abord nous intéresser au commerce et à la monétisation sur TikTok en auditionnant M. Mehdi Meghzifene, responsable lancement TikTok e‑commerce France, et M. Arnaud Cabanis, responsable de l’activité commerciale France et Benelux. Messieurs, je vous remercie de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations – par exemple si vous êtes rémunérés par une plateforme.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Arnaud Cabanis et M. Mehdi Meghzifene prêtent successivement serment.)

M. Mehdi Meghzifene, responsable lancement TikTok e-commerce France. J’ai pris mes fonctions de responsable du développement économique de TikTok Shop en France il y a six mois, en amont du lancement de TikTok Shop sur le marché français le 31 mars 2025. Mon rôle consiste notamment à accompagner les marques, les vendeurs et les créateurs dans l’utilisation de la plateforme, pour les aspects tant administratifs que commerciaux, afin d’optimiser leur performance.

TikTok Shop est une toute nouvelle solution d’e-commerce, intégrée à la plateforme TikTok. Cet outil inédit et unique permet aux utilisateurs de découvrir des produits au fil de leur navigation, à travers des contenus proposés par des créateurs qu’ils apprécient, en lien avec leurs centres d’intérêt. TikTok Shop remet ainsi l’interaction entre commerçant et consommateur au cœur de l’expérience d’achat, en recréant la proximité et l’échange du commerce traditionnel.

TikTok Shop offre une nouvelle opportunité commerciale aux marques et aux créateurs. Nous travaillons avec des marques de tous les secteurs – de la beauté au bricolage, en passant par le sport – et des entreprises de toutes les tailles, des grandes sociétés aux PME. Et ce, sur tout le territoire français.

TikTok Shop est une plateforme de découverte de produits. Nous l’avons constaté dans les quinze marchés où elle est déjà disponible, c’est un accélérateur pour les marques qui souhaitent se lancer. Le potentiel est significatif pour les PME françaises, déjà nombreuses sur TikTok. En 2024, les revenus générés par l’activité des PME sur TikTok ont apporté une contribution de 1,4 milliard d’euros à la valeur ajoutée brute du PIB en France et participé à la création d’environ 12 500 emplois.

À l’instar de TikTok, les contenus et l’expérience TikTok Shop opèrent au sein d’un environnement sûr et sécurisé. Nous aurons certainement l’occasion d’y revenir, mais je tiens à préciser deux points importants relatifs au fonctionnement du Shop.

Premièrement, TikTok Shop n’est pas accessible aux moins de 18 ans. Cela signifie que les personnes de moins de 18 ans n’ont pas accès aux contenus comportant des liens vers des produits de TikTok Shop. Nous sommes l’une des seules plateformes à avoir instauré, de manière proactive, plusieurs mesures permettant d’identifier et de supprimer les comptes d’utilisateurs soupçonnés d’être mineurs. La vérification de l’âge est une question importante et un défi pour l’ensemble du secteur. Mes collègues auront certainement l’occasion de revenir sur ces points.

Deuxièmement, TikTok Shop fait l’objet d’une modération particulièrement rigoureuse. Les règles appliquées sont identiques à celles de TikTok : chaque contenu doit respecter strictement nos règles communautaires, qui tiennent lieu de véritable code de conduite en définissant précisément ce qui est autorisé ou non sur la plateforme. En plus, TikTok Shop se conforme aux réglementations applicables aux plateformes d’e-commerce, notamment en matière de droit de la consommation.

Ces deux engagements structurants – l’interdiction faite aux mineurs d’accéder au Shop et la rigueur de notre politique de modération – reflètent la priorité que TikTok Shop accorde à la sécurité, à la conformité et à la qualité de l’expérience utilisateur dans un environnement d’achat en ligne à la fois sûr, transparent et responsable.

M. le président Arthur Delaporte. Je suppose que si vous n’avez pas déclaré de conflit d’intérêts de manière directe, c’est parce que vous êtes salarié de TikTok.

M. Mehdi Meghzifene. En effet, je suis salarié de TikTok.

M. Arnaud Cabanis, responsable de l’activité commerciale France et Benelux. Je dirige la régie publicitaire de TikTok en France et au Benelux. À l’instar de toutes les régies publicitaires, notre mission consiste à proposer des solutions permettant aux annonceurs d’atteindre des publics et des objectifs marketing, de se faire connaître de manière ludique et divertissante et de créer des campagnes visibles, performantes et efficaces.

Avec près de 600 grands comptes et des milliers de PME actives, TikTok est désormais l’un des acteurs majeurs du paysage publicitaire français.

Mon équipe est structurée autour de verticales thématiques telles que le sport, l’automobile, la beauté, la grande distribution ou le divertissement. Elle soutient non seulement des marques, mais aussi des agences média et des agences créatives, leaders dans l’écosystème digital français.

Les objectifs marketing que nous aidons à atteindre sont variés : développer la notoriété d’une marque, toucher un nouveau public, soutenir des campagnes de recrutement ou de sensibilisation.

La plupart de nos annonceurs sont des entreprises privées – des grandes marques du CAC40 et d’Euronext Paris. Des PME et de nombreuses licornes françaises sont aussi représentées sur la plateforme. Cependant, nous accompagnons également de nombreuses institutions publiques : le ministère de la santé pour une campagne antitabac, le ministère des armées pour ses campagnes de recrutement, ou encore le service civique pour faire découvrir son dispositif auprès des jeunes.

TikTok est aussi un accélérateur de croissance et un vecteur d’inclusion numérique. La moitié de nos annonceurs sur le marché français sont des PME qui ont connu un essor particulier grâce à TikTok après la pandémie de covid-19.

Les entreprises n’ont pas toujours le temps ni les ressources pour investir dans un projet marketing d’envergure. C’est pourquoi nous accompagnons aussi les marques dans la création de contenus organiques, c’est-à-dire produits grâce à des outils gratuits.

La force de TikTok réside précisément dans sa capacité à valoriser des contenus authentiques et spontanés, permettant à toutes les marques de se démarquer, quels que soient leur nature, leur maturité, leur budget et la taille de leur communauté.

Sur TikTok, les marques peuvent s’appuyer sur un vivier de petits et moyens influenceurs qui rayonnent dans leur région. Par exemple, nous disposons de très nombreux témoignages positifs de PME, dans le monde de la restauration et des services à la personne, qui ont bénéficié de l’essor de TikTok pour relancer leur activité.

Cette proximité avec les créateurs de contenu offre une occasion unique de toucher un nouveau public, partout sur le territoire. Si aucune marque n’est obligée de travailler avec des créateurs, la créativité de ces derniers et leur capacité à engager des communautés font de cette profession encore émergente un véritable levier de croissance pour les entreprises.

Une attention particulière est portée à la protection des mineurs. La sécurité des plus jeunes est une question importante pour l’ensemble de notre secteur.

Le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act, le DSA, permet de mieux faire comprendre aux utilisateurs le travail que nous accomplissons pour accompagner leur communauté et de leur fournir des outils supplémentaires pour adapter leur expérience en ligne. TikTok a d’ailleurs été pionnier dans certaines initiatives, comme l’instauration par défaut d’une limite de soixante minutes de temps d’écran quotidien pour les moins de 18 ans.

Notre engagement vis-à-vis des jeunes utilisateurs de la plateforme s’applique aussi aux marques et à la régie publicitaire. Conformément au DSA, des politiques strictes sont mises en œuvre pour garantir que les publicités diffusées sur notre plateforme sont adaptées à l’âge des utilisateurs. Du reste, nous ne diffusons pas de publicité ciblée auprès des moins de 18 ans. Concrètement, cela signifie que les annonceurs n’ont pas accès à certaines options de ciblage – par sexe ou par centre d’intérêt, par exemple – pour les audiences âgées de moins de 18 ans. Par ailleurs, plusieurs catégories de produits et services font l’objet de restrictions spécifiques et ne peuvent s’adresser qu’à une audience adulte. Comme l’ensemble du contenu sur TikTok, la publicité est soumise à une modération rigoureuse. Aucun écart aux restrictions publicitaires visant à protéger les mineurs n’est toléré.

Mme Laure Miller, rapporteure. Vous n’avez pas cité de chiffres. Pouvez-vous détailler les types de partenariats commerciaux que TikTok privilégie avec les marques ? Quelle est la part des revenus publicitaires de TikTok provenant de partenariats directs avec des marques ?

M. Arnaud Cabanis. Pour la quasi-totalité de nos clients, PME ou grandes entreprises, on parle de campagnes média. Ces dernières sont organisées soit directement par les annonceurs, soit par des agences représentant les intérêts de ces derniers. Seuls certains grands comptes présents sur la plateforme depuis longtemps souhaitent nouer un partenariat plus avancé, notamment pour bénéficier d’outils de mesure et d’un accompagnement commercial sur le marché français.

M. le président Arthur Delaporte. Quel volume de chiffre d’affaires représentent ces campagnes ?

M. Arnaud Cabanis. Je ne peux pas répondre à cette question dans le cadre de la présente audition, pour des raisons tenant principalement à la confidentialité, mais je vous transmettrai ces données.

L’activité économique de TikTok est principalement publicitaire, puisque la régie publicitaire existe depuis 2020. Mon équipe est ainsi la plus importante au sein des effectifs français implantés à Paris. L’activité publicitaire est historique.

Pour ce qui est de notre fonctionnement, nous sommes comme les grandes régies publicitaires : nous vendons la même chose et les mêmes espaces, en l’occurrence des intercalaires publicitaires qui se trouvent dans le flux « Pour toi » de l’application TikTok. Dans l’écosystème digital, nous sommes un média classique.

M. le président Arthur Delaporte. Sans entrer dans le détail, les montants investis chaque année dans la publicité sur TikTok représentent-ils plusieurs milliards d’euros, ou moins ?

M. Arnaud Cabanis. Je ne pourrai pas répondre à cette question concernant le marché français.

M. le président Arthur Delaporte. Avez-vous une idée, malgré tout ?

M. Arnaud Cabanis. Je ne pourrai pas répondre à cette question.

M. le président Arthur Delaporte. Je vous demande si vous avez une idée.

M. Arnaud Cabanis. Oui, j’ai une petite idée.

M. le président Arthur Delaporte. Vous ne pouvez pas nous indiquer si ces montants représentent plus ou moins de 1 milliard ?

M. Arnaud Cabanis. Je pourrai vous répondre par écrit, l’objectif étant d’être transparent.

M. le président Arthur Delaporte. Nous avons besoin de connaître le volume des revenus issus de la publicité afin de comprendre à quoi nous avons affaire et de comparer ce montant avec celui des revenus générés par les utilisateurs, par le biais des lives, par exemple. En d’autres termes, quelle est la part respective des utilisateurs et de la publicité dans les revenus de la plateforme ? Nous espérons que vous pourrez nous éclairer sur votre modèle économique.

M. Arnaud Cabanis. Le modèle économique de TikTok France est représenté par nos deux équipes. Il s’agit d’un modèle publicitaire orienté vers l’e-commerce – TikTok Shop –, dont M. Mehdi Meghzifene pourra vous parler plus en détail.

Mme Laure Miller, rapporteure. Quelles sont vos priorités stratégiques pour les années à venir ? Quels sont vos leviers de croissance en matière publicitaire ?

M. Arnaud Cabanis. La priorité stratégique de la régie est d’accompagner tous les secteurs représentés au sein du CAC40 et d’Euronext Paris. Des équipes dédiées, basées à Paris, accompagnent les marques et annonceurs au quotidien en les aidant à développer des campagnes et des projets marketing. Lorsqu’ils sont arrivés sur TikTok en 2020, la plupart des annonceurs ont testé le dispositif, pour voir si nos bassins d’audience les intéressaient. Il se trouve que 70 % des PME affirment que TikTok leur a permis d’accéder à de nouveaux clients.

Nous accompagnons aussi les marques dans leur stratégie à l’international. En la matière, 30 % des TPE et PME affirment que TikTok leur a permis d’accéder à de nouveaux territoires, en Europe principalement. Il en est de même pour les grands comptes, que nous accompagnons déjà en France et que nous commençons à accompagner dans des projets d’envergure internationale, principalement en Europe et aux États-Unis.

Mme Laure Miller, rapporteure. Vous expliquez que vous accompagnez tous azimuts les grosses boîtes du CAC40, mais constatez-vous, au travers de votre chiffre d’affaires, que certains secteurs investissent plus que d’autres sur TikTok ?

M. Arnaud Cabanis. Certains secteurs ont mis plus de temps à arriver sur la plateforme. Je pense notamment à la bancassurance, qui a souhaité attendre un peu avant de se lancer sur TikTok, principalement pour des raisons de sécurité.

Il a aussi fallu que nous fassions grandir nos audiences, car la quasi-totalité des annonceurs souhaitent cibler du pouvoir d’achat. Or les utilisateurs de TikTok sont souvent âgés de 25 à 45 ans. Nous avons eu besoin de temps pour augmenter nos audiences, mais nous comptons aujourd’hui plus de 25 millions d’utilisateurs en France.

Pour en revenir à votre question, le secteur du divertissement est arrivé assez tôt – en particulier les studios de cinéma, mais pas seulement. Tous les secteurs sont désormais représentés, y compris l’automobile, qui a mis un peu plus de temps que d’autres à se lancer sur TikTok car ses acheteurs sont, par essence, plus âgés que les 25-45 ans.

M. le président Arthur Delaporte. Pouvez-vous nous donner un ordre de grandeur de la croissance des revenus publicitaires ces dernières années ?

M. Arnaud Cabanis. Puisque nous partions de zéro, nous avons enregistré une croissance à deux chiffres au cours des cinq dernières années.

M. le président Arthur Delaporte. Chaque année ?

M. Arnaud Cabanis. Chaque année.

M. le président Arthur Delaporte. Et cela continue ?

M. Arnaud Cabanis. Oui, cela continue de croître.

M. le président Arthur Delaporte. Toujours à deux chiffres ?

M. Arnaud Cabanis. Oui.

M. le président Arthur Delaporte. Je poserai les mêmes questions au sujet de TikTok Shop, qui est plus récent. Quel volume de chiffre d’affaires cette plateforme d’e-commerce représente-t-elle ?

M. Mehdi Meghzifene. Vous l’avez dit, TikTok Shop est très récent.

Le modèle économique est le suivant : TikTok Shop prend une commission sur le montant des ventes effectuées.

Il est un peu tôt pour avoir des chiffres de croissance, puisque l’activité a été lancée il y a deux mois et demi. La croissance est actuellement à trois chiffres par mois, précisément parce que nous sommes partis de zéro.

M. le président Arthur Delaporte. Combien de références proposez‑vous ? Combien d’achats enregistrez-vous au quotidien ?

M. Mehdi Meghzifene. TikTok Shop a bénéficié d’un véritable engouement après son lancement. Les petites entreprises sont généralement plus agiles, mais des plus grosses se sont aussi lancées. En France, quelque 20 000 entreprises se sont enregistrées sur la plateforme, dont environ 6 000 ont du stock et peuvent déjà vendre – les autres sont en train de finir les démarches pour pouvoir le faire. Par ailleurs, nous comptons environ 300 000 références.

M. le président Arthur Delaporte. Vous avez parlé de la structure TikTok France et Benelux, mais quelles sont vos relations avec TikTok Monde ?

M. Arnaud Cabanis. Ces relations sont relativement simples. Un hub, situé en Angleterre et piloté par un manager allemand, est chargé de déterminer au niveau central la stratégie applicable à l’intégralité du marché européen. Pour mes activités, en France ou au Benelux, je me réfère donc à ce qui est décidé en Angleterre.

M. le président Arthur Delaporte. Avez-vous des contacts uniquement à ce niveau, ou plus globaux ?

M. Arnaud Cabanis. La quasi-totalité des contacts se font au niveau européen. Nous remontons aussi notre bilan annuel à Singapour, auprès du siège, en espérant pouvoir modifier notre politique commerciale et intégrer à notre offre de nouveaux produits publicitaires pertinents pour les marques – car c’est le cœur de notre métier.

M. le président Arthur Delaporte. Quelle est la part de la France dans le chiffre d’affaires mondial de TikTok ?

M. Arnaud Cabanis. Je n’ai pas la réponse à cette question. J’aurais tendance à dire que la France se situe dans le top 10, mais nous vous répondrons par écrit.

M. le président Arthur Delaporte. Vous vous y engagez formellement devant la commission d’enquête, d’autant que les réponses apportées à notre questionnaire écrit étaient un peu floues. Nous espérons obtenir des réponses plus précises concernant le chiffre d’affaires et les volumes financiers.

Mme Laure Miller, rapporteure. Votre modèle économique repose sur la publicité, mais quelle est la part de vos revenus provenant des cadeaux virtuels, envoyés notamment lors des lives ?

M. Arnaud Cabanis. Nous représentons tous les deux des activités business tôt business (B2B), qui sont celles de la monétisation. Les lives ne relèvent ni de notre domaine de compétence ni de nos responsabilités ; ils concernent plutôt les créateurs de contenu, et donc la partie « users » de la plateforme, dont vous auditionnerez les représentants après nous. Il nous revient, quant à nous, de monétiser des espaces – les espaces publicitaires et la partie « experience shopping ».

M. Mehdi Meghzifene. Il existe des lives TikTok Shop, qui visent à vendre des produits épinglés ou présentés par le créateur, mais ils ne donnent pas lieu à du gifting.

Mme Laure Miller, rapporteure. Dans le cadre de vos activités, avez‑vous des liens avec les agences de créateurs de contenu et d’influenceurs ?

M. Arnaud Cabanis. Non. Nous avons une place de marché, la TikTok Creator Marketplace, à laquelle les agences et les marques peuvent se connecter afin de voir le nombre de créateurs référencés pour travailler avec elles. Ces créateurs, au nombre de 2 millions dans le monde, ont été certifiés et peuvent être triés par ordre, par catégorie, par tranche d’âge et par territoire – cette dernière possibilité est la plus importante, car la plupart des créateurs travaillent à un niveau très local. Cette plateforme permet donc aux marques de trouver des créateurs référencés, d’échanger et de contractualiser directement avec eux. Nous ne sommes qu’un intermédiaire : le contrat est signé entre la marque et le créateur de contenu.

M. le président Arthur Delaporte. Nous avons auditionné une agence TikTok. Gérez-vous le lien avec les agences qui accompagnent les tiktokeurs dans leur création de contenu ?

M. Arnaud Cabanis. Parlez-vous toujours du gifting ?

M. le président Arthur Delaporte. Non. Je parle d’une agence référencée, organisée par TikTok, dont nous avons auditionné les représentants il y a une semaine.

M. Arnaud Cabanis. Je ne connaissais pas cette agence. Je ne travaille pas avec elle, et je ne pense pas que mon équipe le fasse. Pour ce qui est des créateurs de contenu, nous renvoyons les marques vers la TikTok Creator Marketplace, mais notre rôle essentiel est d’accompagner les agences média et les agences créatives – celles qui construisent les formats publicitaires et les postent sur la plateforme.

M. le président Arthur Delaporte. Qui gère ces agences ?

M. Arnaud Cabanis. Je ne pense pas que notre métier premier soit d’accompagner les agences de créateurs de contenu. Peut-être les équipes live pourront-elles vous répondre.

Mme Laure Miller, rapporteure. L’agence de créateurs de contenu que nous avons auditionnée a expliqué qu’il existait des scores de santé, dont elle ne connaissait pas le détail, et que des amendes pouvaient être infligées aux agences lorsque le contenu n’est pas d’assez bonne qualité. Confirmez-vous que ce ne sont pas vos équipes qui gèrent les relations avec ces agences ?

M. Arnaud Cabanis. Non seulement ce n’est pas mon équipe, mais surtout, je n’ai pas connaissance de ces scores de santé. C’est la première fois que j’entends parler de cela.

M. le président Arthur Delaporte. Un modèle existe, malgré tout. Ne vous êtes-vous pas renseigné pour préparer cette audition ?

M. Arnaud Cabanis. Nous en avons discuté hier, mais personne, dans mon entourage ou dans les équipes publicitaires, ne savait à quoi cette agence faisait référence.

M. le président Arthur Delaporte. Vous n’avez pas pris contact avec vos supérieurs à Londres pour essayer d’en savoir plus ?

M. Arnaud Cabanis. Je sais que ce score n’existe pas pour la partie publicitaire. S’il existe pour d’autres équipes, c’est à elles qu’il faudra en référer.

M. le président Arthur Delaporte. Vous avez dit que vous en entendiez parler pour la première fois à l’instant, mais vous l’avez donc au moins appris hier en préparant cette audition…

Comprenez notre frustration : il est dommage que l’information soit aussi fragmentée. Nous ne pouvons donc pas vous demander quels sont les critères pris en compte pour justifier les amendes infligées à certains créateurs. C’est la plateforme qui le fait, mais pas vos équipes, puisque vous faites plutôt du marketing, mais pas avec les agences de créateurs.

M. Arnaud Cabanis. Ce n’est pas mon domaine de compétence et je crains d’être imprécis. Ma réponse est très sincère : je ne connaissais pas cette pratique.

Mme Laure Miller, rapporteure. Je reviens sur le traitement des données et le ciblage publicitaire des mineurs. Vous expliquez que le cœur de cible des marques n’est pas le public mineur, mais plutôt celui des 25-40 ans. Confirmez-vous qu’il n’y a aucun ciblage publicitaire à destination des mineurs ? Je vous rappelle que vous êtes sous serment.

M. Arnaud Cabanis. Je confirme que toute la publicité ciblée et contextualisée – par genre, par sexe et par centre d’intérêt – n’est pas disponible dans l’application pour les moins de 18 ans.

Le seul moyen de toucher des moins de 18 ans dans l’application consisterait à déparamétrer les ciblages dans nos systèmes d’information, pour toucher l’intégralité de la base française, soit les 25,1 millions d’utilisateurs. Ce cas bien précis n’est pas coutume : personne ne fait cela. Les marques vont sur le média digital pour cibler leurs campagnes, pas pour ne pas les cibler. Mais dans ce cas très précis, donc, les 15-17 ans pourraient être exposés au premier format publicitaire, Top View, qui se trouve en entrée d’application – c’est la première vue avant d’entrer dans le couloir des contenus organiques de TikTok. Je le répète, c’est uniquement dans ce cadre qu’un utilisateur de moins de 18 ans pourrait être exposé à de la publicité. Mais nous parlons là de revenus infimes par rapport au reste de nos revenus sur le marché français.

Mme Laure Miller, rapporteure. Pouvez-vous les chiffrer ?

M. Arnaud Cabanis. Depuis l’entrée en vigueur du DSA, je ne pense pas qu’on puisse le faire. Dès juillet 2023, nous avons informé les annonceurs qu’il n’était pas possible de cibler les moins de 18 ans sur l’application. Encore une fois, la plupart des annonceurs ne souhaitent pas cibler les plus jeunes. La plupart de leurs campagnes lancées sur l’application s’adressent plutôt aux parents.

Mme Laure Miller, rapporteure. Si je comprends bien, cette pratique est très limitée, mais possible. Vous ne respectez donc pas le DSA stricto sensu.

M. Arnaud Cabanis. Nous respectons le DSA, bien sûr. J’ai essayé de vous montrer quelque chose d’infime. Le DSA traite des capacités de ciblage, donc de la possibilité de cibler, en particulier les moins de 18 ans. Je vous confirme qu’il est impossible de cibler les moins de 18 ans sur l’application. Cela peut uniquement arriver dans le cas où vous décideriez de tout décocher, dans les systèmes d’information, pour vous adresser à toute la France.

M. le président Arthur Delaporte. Vous avez indiqué que cette règle était instaurée depuis juillet 2023.

M. Arnaud Cabanis. Avec une application en août.

M. le président Arthur Delaporte. Avant juillet 2023, il était donc possible de cibler les mineurs ?

M. Arnaud Cabanis. Uniquement les 15-17 ans, qui ont la majorité numérique. Le ciblage était uniquement fondé sur des critères sociodémographiques, donc l’âge.

M. le président Arthur Delaporte. Quels étaient les types de publicité qui ciblaient les mineurs ?

M. Arnaud Cabanis. L’application en était à ses débuts. Je pense donc qu’il s’agissait principalement de publicités émanant du monde du divertissement, et peut-être de la grande distribution. Je vous répondrai précisément.

M. le président Arthur Delaporte. Connaître les types de publicité qui ciblaient les mineurs avant juillet 2023 nous intéresse : cela nous permettrait d’essayer de comprendre les stratégies publicitaires de marques qui pourraient, incidemment, cibler les mineurs aujourd’hui, même en ciblant les 18-25 ans puisque, comme vous le savez, de nombreux mineurs mentent sur leur âge.

M. Arnaud Cabanis. Nous reviendrons vers vous pour vous donner plus de précisions.

Mme Laure Miller, rapporteure. Vous avez indiqué que les mineurs n’avaient pas accès à TikTok Shop. Le confirmez-vous ? Comment pouvez-vous en être certains ? Quels dispositifs instaurez-vous pour leur empêcher cet accès ?

M. Mehdi Meghzifene. Les comptes qui correspondent à des mineurs ne pourront pas visionner un contenu TikTok Shop, c’est-à-dire un contenu proposant un lien vers un produit pouvant être acheté. Ils ne pourront visionner ni l’onglet boutique, ni la totalité des produits disponibles, ni les lives TikTok Shop.

S’agissant des consommateurs, la vérification de l’âge sur TikTok Shop est la même que celle appliquée sur TikTok en général. On demande la date de naissance de l’utilisateur ; ensuite, un algorithme peut détecter un comportement susceptible de caractériser un mineur. Le cas échéant, le compte sera suspendu. Si l’utilisateur ne fait pas appel, le compte finira par être supprimé. S’il fait appel, des vérifications seront lancées pour s’assurer qu’il a plus de 18 ans. Mes collègues pourront préciser ultérieurement la façon dont ces vérifications fonctionnent.

S’agissant des vendeurs, une vérification est effectuée dès le départ, pour s’assurer qu’ils ont plus de 18 ans. Il en va de même pour les créateurs qui veulent promouvoir des produits disponibles sur TikTok Shop.

Mme Laure Miller, rapporteure. De quelle nature est cette vérification ?

M. Mehdi Meghzifene. Dans un premier temps, on demande la date de naissance. Dans un deuxième temps, en cas de doute sur l’âge de l’utilisateur, des algorithmes peuvent détecter des comportements propres aux moins de 18 ans. Le cas échéant, le compte est suspendu, comme je l’ai expliqué. Si l’utilisateur fait appel, des vérifications sont effectuées. Je sais que l’on demande une preuve. Mes collègues pourront vous expliquer plus en détail la procédure exacte.

M. le président Arthur Delaporte. Vérifiez-vous la conformité des produits vendus avec les règles sanitaires et commerciales de l’espace européen ?

M. Mehdi Meghzifene. Bien sûr. Tous les produits vendus sur TikTok doivent être conformes aux règles européennes. Lorsque nous n’avons pas la capacité de tout vérifier, et même au moindre doute, nous n’autorisons pas la vente. Par exemple, nous avons complètement fermé la possibilité de vendre sur TikTok Shop des produits de nettoyage, dont nous ne pouvons pas vérifier la conformité aux règles européennes.

M. le président Arthur Delaporte. Que pensez-vous de l’omniprésence de produits issus de sites à très bas prix, comme Temu ou AliExpress ?

M. Mehdi Meghzifene. Il faut bien comprendre la différence entre TikTok Shop et un site d’e-commerce classique.

Si je veux acheter une chemise sur un site d’e-commerce classique, le parcours typique consiste à écrire « chemise » dans la barre de recherche. Plusieurs produits s’affichent alors, avec leur prix. La première chose que je vois est donc le prix, ainsi qu’une petite image correspondant au produit. Si le prix m’intéresse, je clique sur le produit pour voir sa description.

Pour sa part, TikTok Shop est un site d’e-commerce fondé sur le contenu. L’utilisateur ne voit pas d’abord le prix, mais un contenu dans le flux « Pour toi ». Ce contenu pourrait correspondre à une chemise, qu’un créateur pourrait présenter en parlant d’autres choses que du prix. S’il est intéressé, l’utilisateur pourra cliquer sur un lien pour voir le produit en détail et connaître son prix.

Sur un site d’e-commerce classique, si je vends des produits à très bas prix, j’aurai un avantage par rapport aux autres vendeurs, puisque les utilisateurs voient le prix en premier lieu. Sur TikTok Shop, en revanche, si j’ai envie d’avoir un avantage par rapport aux autres, je dois avoir du contenu de qualité et coopérer avec des créateurs qui aiment mon produit et veulent le présenter à leur audience. Le prix n’est pas un levier majeur pour concurrencer les produits similaires sur TikTok Shop.

Mme Laure Miller, rapporteure. Vous avez affirmé que les produits ne respectant pas les normes de l’Union européenne étaient bannis. Dès lors, comment expliquez-vous que des produits contenant des colorants interdits dans l’Union européenne soient vendus ? La presse française a notamment évoqué des bonbons, des céréales, des pâtes à tartiner ou des boissons importés de Chine ou des États-Unis, qui n’appliquent pas les mêmes règles que nous.

M. Mehdi Meghzifene. Il faut faire la différence entre les produits présentés sur TikTok et ceux qui y sont réellement vendus. Il est possible qu’un créateur parle d’un produit –d’une pâte à tartiner, par exemple – sans qu’il soit vendu sur TikTok. Ce cas de figure ne relève pas de TikTok Shop. En revanche, les produits directement vendus sur TikTok Shop –en d’autres termes, ceux que l’on peut acheter directement sur la plateforme – doivent respecter les règles. Tous les ans, nous empêchons l’accès à TikTok Shop d’un grand nombre de marchandises. Ainsi, en 2024, environ 100 millions de produits n’ont pas été autorisés avant même d’être enregistrés sur la plateforme.

Mme Laure Miller, rapporteure. Certains de ceux que j’évoquais sont pourtant en vente sur magic-candy. Je pourrais donc acheter des produits qui ne respectent pas les règles de l’Union européenne.

M. Mehdi Meghzifene. Je ne suis pas nécessairement au courant de chaque produit vendu sur TikTok Shop.

Tout ce que je peux vous dire, d’un point de vue statistique, c’est qu’en 2024 – avant que TikTok Shop ne soit disponible en France –, les produits que nous avons bannis de manière proactive ont été trente-quatre fois plus nombreux que les produits signalés. Nous essayons de nous améliorer, mais dès lors que nous savons qu’un produit n’est pas autorisé, nous le bannissons de la plateforme.

Concernant les bonbons, certaines allégations se sont révélées fausses. Alors que nous avions suspendu ces produits dans un premier temps, nous les avons réautorisés quand il est apparu qu’ils l’étaient par la réglementation européenne.

Je ne peux pas vous répondre tout de suite concernant les produits précis que vous avez évoqués. Cependant, je le répète, notre démarche consiste à minimiser ce risque et à être le plus réactif possible.

M. le président Arthur Delaporte. Quel volume représentent ces produits – bonbons, pâtes à tartiner – destinés aux jeunes ?

M. Mehdi Meghzifene. Je n’ai pas de catégorisation exacte des produits potentiellement destinés aux plus jeunes. Notre présence en France étant très récente, il est encore trop tôt pour savoir ce qui se vend le plus ou le moins dans notre pays. Cela dit, encore une fois, TikTok Shop n’est pas accessible aux moins de 18 ans. Je ne peux donc pas répondre précisément à votre question.

M. le président Arthur Delaporte. Avez-vous des retours d’expérience d’autres TikTok Shops dans le monde ?

M. Mehdi Meghzifene. Je ne dispose pas de chiffres, mais les catégories les plus représentées sur TikTok Shop sont la beauté, la mode, les produits électroniques et les produits de consommation que l’on peut trouver en supermarché.

M. le président Arthur Delaporte. Lesquels ont le plus de succès ?

M. Mehdi Meghzifene. Cela dépend. Il faut garder en tête que TikTok Shop est une plateforme de contenu. En général, les produits qui se vendent bien sont des produits de découverte. TikTok Shop est vraiment une plateforme de découverte. Si plusieurs influenceurs ou créateurs de contenu sont intéressés par un produit, ils pourront en parler, et ce produit sera alors visionné plusieurs fois.

M. le président Arthur Delaporte. Encouragez-vous l’utilisation de l’intelligence artificielle (IA) dans les publicités ?

M. Arnaud Cabanis. Nous avons des outils d’aide à la création de contenu, qui permettent de faire appel à l’IA, mais ils sont très peu utilisés par les marques, pour la simple et bonne raison qu’elles ont l’habitude de travailler avec leurs agences créatives et de développer des contenus qui correspondent à des films publicitaires. Même si elles ont tendance à les raccourcir pour venir sur des plateformes digitales comme TikTok, on parle souvent de grands films publicitaires, qui sont ensuite découpés pour être redistribués sur les plateformes.

L’IA créative est principalement utilisée pour la traduction et l’ajout de sous-titres insérés par défaut dans les publicités.

Nous avons également un moteur de recherche qui permet d’aller chercher des insights, souvent des insights marketing, pour aider les marques à appréhender rapidement les outils TikTok, à savoir quel est le créateur le plus connu ou la musique la plus écoutée du moment, et donc à comprendre comment développer une campagne publicitaire sur la plateforme.

M. Mehdi Meghzifene. Sur TikTok Shop, le plus important est qu’un produit soit présenté par un créateur de contenu. L’utilisation d’une IA générative aura donc forcément moins d’impact que la présentation d’un vrai produit par un vrai créateur de contenu. Ce qui fonctionne bien, c’est la relation de confiance entre un créateur de contenu et son audience.

Nous encourageons les créateurs de contenu à être les plus authentiques possible, en disant qu’ils n’aiment pas un produit, le cas échéant, ou en expliquant pourquoi ils en aiment un autre. L’intelligence artificielle générative n’a pas vraiment sa place dans ce contexte.

M. le président Arthur Delaporte. Le cas échéant, vérifiez-vous la conformité entre le discours de l’IA et la réalité du produit vendu ?

M. Mehdi Meghzifene. Que ce soit par de l’IA ou par un créateur de contenu, il faut toujours que le produit présenté corresponde au produit vendu, dans son apparence ou dans ses effets.

M. le président Arthur Delaporte. Monsieur Cabanis, vous avez annoncé il y a onze mois le lancement de TikTok Symphony, une IA chargée de parler des tendances.

M. Arnaud Cabanis. En effet. Elle a été renommée TikTok One. Le projet Symphony répond à la volonté de permettre aux marques, toujours sous un angle marketing, de découvrir TikTok et nos programmes éducatifs relatifs à la construction d’une campagne.

Le paramétrage des campagnes est directement opéré par les marques ou les agences. Autrement dit, TikTok ne fait pas de paramétrage pour les marques. C’est donc à ces dernières de prendre leurs responsabilités en matière de paramétrage des ciblages. Les outils que nous leur proposons les aident à construire des bassins d’audience et à élaborer leurs campagnes marketing.

M. le président Arthur Delaporte. Dans un post, vous expliquiez que les vidéos générées par l’IA augmentent l’engagement de 35 % par rapport aux vidéos traditionnelles. Qu’est-ce que cela signifie ?

M. Arnaud Cabanis. Je ne parlais pas de la création de contenu, mais des outils permettant d’améliorer le contenu ou sa visibilité, de traduire les publicités et, surtout, d’aller chercher des insights donnant des indications sur ce que l’audience a envie de consommer.

M. le président Arthur Delaporte. Ce ne sont donc pas des vidéos générées par l’IA qui augmentent l’engagement de 35 %, mais des vidéos créées en s’appuyant sur l’IA et des insights.

M. Arnaud Cabanis. En effet.

M. le président Arthur Delaporte. Comment traduiriez-vous « insight » ?

M. Arnaud Cabanis. C’est une donnée.

M. le président Arthur Delaporte. Confirmez-vous que l’IA est donc endogène et que le recours à cette technologie ne permet pas d’être particulièrement boosté ?

M. Arnaud Cabanis. Absolument. L’algorithme publicitaire fonctionne de la même manière selon que la vidéo comprend du contenu créatif traditionnel ou du contenu généré par IA. En général, le recours à l’IA dans les marchés autres que la France vise principalement à décliner une vidéo publicitaire traditionnelle afin d’adapter l’expérience utilisateur – par exemple, en changeant la couleur de la chemise, pour reprendre l’exemple cité tout à l’heure par mon collègue.

Mme Laure Miller, rapporteure. Il existe des contenus problématiques sur TikTok. J’imagine que les annonceurs formulent des exigences vis-à-vis de ces contenus, car ils n’ont pas forcément envie que leur produit apparaisse entre deux contenus traitant du suicide ou du mal-être. Comment parviennent-ils à bien positionner leurs publicités ?

M. Arnaud Cabanis. Les vidéos comportant du contenu problématique ne représentent que 1 % de toutes les vidéos postées quotidiennement par nos communautés.

Nos outils de modération sont très efficaces : 80 % des vidéos considérées comme problématiques sont bloquées par nos algorithmes, et 15 % le sont par des hommes – soit, au total, un taux de couverture de 95 %.

Les 509 modérateurs français qui travaillent pour nous sont chargés de modérer ces contenus, mais aussi de revoir les publicités avant qu’elles ne soient postées sur la plateforme. Les outils de modération que nous proposons de façon organique, pour les vidéos postées, sont donc également utilisés pour les contenus publicitaires.

Sur l’application TikTok, les contenus qui sortent en premier proviennent des top creators, ces créateurs de contenu avec lesquels nous avons l’habitude de travailler et qui sont certifiés par nos services, des marques ou des grands publishers, français ou internationaux, qui publient aussi sur TikTok des pages d’information. C’est dans ce couloir que se trouve la publicité.

Les marques ont confiance dans nos outils de brand safety, c’est-à-dire de sécurité pour les marques.

Nous proposons aussi des outils permettant de comparer les contenus exposés de façon organique, avant une annonce, et ceux diffusés à l’issue de celle-ci. Des rapports peuvent être téléchargés, généralement en fin de campagne, par le biais du partenaire qui encadre l’opération – l’annonceur direct, ou l’agence qui l’accompagne dans sa démarche publicitaire.

M. le président Arthur Delaporte. Encouragez-vous spécifiquement les créateurs de contenu à aller sur TikTok Shop ?

M. Mehdi Meghzifene. Plusieurs critères nous permettent de déterminer si un créateur de contenu peut aller sur TikTok Shop. D’abord, il doit avoir plus de 18 ans ; ensuite, c’est plus ou moins du cas par cas.

Plusieurs créateurs de contenu parlent déjà de produits – pour les comparer, par exemple, dans le domaine de l’électronique. S’ils sont experts dans leur domaine, ils ont tout intérêt à aller aussi sur TikTok Shop.

M. le président Arthur Delaporte. On nous a signalé qu’on encourageait les créateurs de contenu à multiplier les vidéos sur TikTok Shop, et qu’il y avait moins de shadowban sur TikTok Shop que sur TikTok en général, en particulier en cas de multiplication des contenus. Le confirmez-vous ?

M. Mehdi Meghzifene. Comme je vous l’ai expliqué, nous recommandons aux créateurs d’être les plus authentiques possible : plutôt que d’essayer d’embellir les choses au maximum, nous leur demandons de faire une vidéo très authentique, sans nécessairement passer des heures à trouver les bons filtres. Ce message a peut-être été mal interprété.

S’agissant du shadowban, les créateurs de contenu ne sont pas privilégiés sur TikTok Shop. Au contraire, tout contenu appelé à être diffusé sur TikTok Shop fait l’objet de deux modérations séparées, effectuées en parallèle : d’une part, comme mon collègue l’a expliqué, quelque 500 modérateurs francophones sont chargés de vérifier la conformité du contenu au code de conduite ; d’autre part, 100 modérateurs vérifient le respect de la réglementation en matière de consommation.

M. le président Arthur Delaporte. Ces équipes sont-elles situées au même endroit ?

M. Mehdi Meghzifene. Non. Elles sont complètement séparées et travaillent en parallèle. Si un contenu est considéré comme mauvais, soit par les équipes qui vérifient la conformité au code de conduite, soit par celles de TikTok Shop, il sera supprimé et ne sera donc pas visible.

M. le président Arthur Delaporte. Où se trouvent les équipes chargées de la modération commerciale ?

M. Mehdi Meghzifene. Certaines sont au Portugal, d’autres aux Philippines.

Mme Laure Miller, rapporteure. Le DSA impose de publier un registre des publicités. Pourquoi la Commission européenne vous reproche-t-elle de ne pas respecter cette obligation ?

M. Arnaud Cabanis. Pour ce qui est de ce dossier, en cours d’instruction, mes collègues vous répondront cet après-midi – en particulier Mme Marie Hugon, chargée des relations avec la Commission européenne et donc du respect du DSA.

M. le président Arthur Delaporte. Vous n’avez pas été interrogé sur ce point ?

M. Arnaud Cabanis. Non, monsieur le président.

M. Stéphane Vojetta (EPR). Vous avez confirmé que vous ne cibliez pas les mineurs. En revanche, faites-vous un ciblage négatif ? Pour les publicités susceptibles d’être jugées sensibles, par exemple, prenez-vous l’initiative ou offrez‑vous aux annonceurs la possibilité d’exclure les mineurs de l’audience ?

Par ailleurs, je comprends que l’absence de ciblage des mineurs signifie l’absence de ciblage des personnes identifiées par la plateforme comme ayant moins de 18 ans. Mais est-il possible de faire une promotion en ciblant des personnes identifiées comme adultes, mais qui s’intéressent particulièrement aux Pokémon, à One Direction ou à tout autre contenu particulièrement prisé par les mineurs ?

Enfin, existe-t-il des catégories de produits que vous refusez de distribuer sur TikTok Shop ? Dans les catégories autorisées, protégez-vous les mineurs de la publicité pour certains produits, par exemple pour des traitements par injections à visée esthétique ?

M. Arnaud Cabanis. Le ciblage par mots-clés n’est pas autorisé sur la plateforme. Vous pouvez seulement cibler les utilisateurs par centres d’intérêt – par exemple, le divertissement –, sans spécifier de marques ou de produits, mais même dans ce cas, vous ne toucherez que les utilisateurs de plus de 18 ans.

Les grandes catégories représentées sur la plateforme sont le sport, le divertissement, l’art de vivre à la française et le voyage. Toutes ces thématiques, très représentées sur TikTok de façon organique, sont mises à la disposition des marques pour cibler les utilisateurs de façon contextuelle.

Par ailleurs, de nombreux services pour adultes sont proscrits aux mineurs. Comme on ne peut pas cibler les mineurs sur TikTok, tous les services, par exemple les sites de rencontre, s’adressent uniquement à des adultes de plus de 18 ans.

M. Stéphane Vojetta (EPR). La plateforme l’établit-elle par défaut, ou est‑ce une option laissée à l’annonceur ?

M. Arnaud Cabanis. Lorsqu’un annonceur se connecte à notre plateforme publicitaire et à notre système d’information pour paramétrer une campagne, il n’a pas la possibilité de cocher la case des 15-17 ans, qui correspond à la majorité numérique et que l’on pourrait voir sur toutes les plateformes.

M. Stéphane Vojetta (EPR). Cette possibilité est-elle offerte aux influenceurs qui font de la promotion commerciale organique, pas nécessairement pour TikTok Shop, mais dans les contenus qu’ils publient ?

M. Arnaud Cabanis. C’est moins mon domaine d’expertise, mais je peux vous dire que lorsque les créateurs de contenu arrivent sur la Creator Marketplace, leur identité est vérifiée et certifiée. On leur demande tout un tas de choses – leur pièce d’identité, naturellement, mais aussi leur numéro fiscal, pour s’assurer qu’ils sont bien majeurs. Il leur revient ensuite de respecter le cadre de travail qui leur est donné en se conformant aux règles communautaires de TikTok.

M. Mehdi Meghzifene. Comme je l’ai précisé, TikTok Shop ne peut pas être vu par les mineurs. Si l’on détecte qu’un créateur de contenu s’adresse à des mineurs, par exemple avec des phrases comme « Demande à tes parents de t’acheter ça ! », le contenu sera modéré. C’est donc quelque chose que l’on décourage, même si ce n’est a priori pas possible.

Par ailleurs, certaines catégories de produits sont interdites à la vente sur TikTok Shop, pour plusieurs raisons : soit les produits sont interdits, soit ils peuvent être dangereux, soit nous estimons qu’ils favorisent un environnement moins sûr. Des produits d’amincissement, par exemple, sont interdits sur TikTok Shop même s’ils sont autorisés ailleurs. J’ai aussi mentionné tout à l’heure les produits dont nous n’avons pas la possibilité de vérifier qu’ils respectent bien la réglementation. C’est notamment le cas des produits de nettoyage, car nous ne pouvons pas vérifier la conformité de leurs composants.

M. Stéphane Vojetta (EPR). Est-il possible d’acheter sur TikTok Shop des cryptoactifs ou des cryptomonnaies, ou de faire appel aux services d’une plateforme d’achat‑vente de cryptoactifs ?

M. Mehdi Meghzifene. Non. Sur TikTok Shop, on peut uniquement vendre des produits physiques.

M. Stéphane Vojetta (EPR). Les règles rappelées par la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux dite loi influenceurs sont-elles systématiquement appliquées à toutes les promotions qui mènent vers TikTok Shop ?

M. le président Arthur Delaporte. Le sont-elles, plus largement, à toutes les promotions faites sur TikTok ?

M. Mehdi Meghzifene. Parlez-vous du fait qu’un influenceur doit mentionner qu’il a été payé ?

M. le président Arthur Delaporte. Je peux vous rappeler les règles de transparence sur l’intention commerciale, l’interdiction de la publicité pour la chirurgie ou pour des procédés à visée esthétique, ou encore l’interdiction d’utiliser des filtres beauté dans une promotion pour un produit de beauté. Excluez-vous les mineurs de l’audience des publicités pour les jeux ou les paris sportifs ? Comment vous assurez-vous de la conformité de tous ces contenus aux impératifs légaux ?

M. Mehdi Meghzifene. Nous nous devons de respecter la loi, et c’est bien ce que nous faisons. Nous allons même un peu plus loin, par exemple en interdisant catégoriquement les comparaisons avant/après pour les produits de beauté, car nous ne pouvons pas toujours nous assurer que l’IA n’a pas été utilisée. Tous les autres exemples que vous avez cités font l’objet d’interdictions. À partir du moment où quelque chose est interdit par la loi, il est interdit sur TikTok Shop.

M. Arnaud Cabanis. Nous avons commencé à travailler relativement tôt avec le Gouvernement pour l’application de la loi dite influenceurs. Nous avions déjà commencé avant le 9 juin 2023, puisque nous avions proposé un bouton par défaut intitulé « contenu de marque ». Nous l’avons fait un peu évoluer depuis : il s’appelle désormais « collaboration commerciale ».

L’influenceur ou le créateur de contenu prend un risque relativement certain à ne pas respecter les règles de transparence fixées par le DSA, puisque nous allons bloquer non seulement sa vidéo, mais aussi son compte. C’est donc tout son business model qui s’écroulera !

Lorsque des vidéos nous sont signalées, nous les bloquons immédiatement, puis nous contactons le créateur de contenu pour qu’elles soient remises en ligne. Il est impossible de ne pas mettre en avant le fait qu’il s’agit d’une collaboration commerciale. Nos modérateurs sont évidemment formés sur tous ces sujets, et nous continuons de travailler avec le gouvernement et l’Autorité de régulation professionnelle de la publicité (ARPP) pour accroître la connaissance de la loi dite influenceurs par nos équipes et améliorer nos procédures pour la faire respecter sur TikTok.

J’en reviens à la politique publicitaire de TikTok. Ce que je vais vous dire n’est pas un commentaire personnel, mais l’opinion du marché publicitaire : TikTok est extrêmement strict dans l’encadrement des contenus publicitaires.

Tous les contenus touchant à l’apparence et à l’image d’une personne, quel que soit son âge, sont interdits sur la plateforme. Ainsi, on ne peut pas indiquer qu’un produit permet d’améliorer son image corporelle. La notion de comparaison avant/après, dont parlait mon collègue, est relativement large. Les contenus relatifs au contrôle du poids et à la diététique en général sont totalement prohibés. Pour ce qui est de la beauté – un secteur largement représenté sur l’application –, nous allons aussi relativement loin : par exemple, nous n’autorisons pas la publicité pour des produits contre l’acné, car nous ne voulons pas laisser penser aux utilisateurs qu’avoir de l’acné pose problème. Cela va dans le sens du travail que nous accomplissons du point de vue organique. Les notions d’esthétisme ne sont pas très représentées sur TikTok, car les utilisateurs n’y vont pas pour cela : ils y vont avant tout pour se divertir.

Enfin, pour tout ce qui touche aux troubles alimentaires – un sujet très sérieux –, nous avons mis en place un centre de sécurité, directement accessible depuis l’application, pour amener les jeunes concernés par ce type de problèmes à se faire aider.

Mme Laure Miller, rapporteure. Vos réponses sont un peu ambiguës. Vous indiquiez que le secteur de la beauté était l’un de ceux qui fonctionnent le mieux. Comment différenciez-vous une publicité relative à la beauté problématique d’une publicité qui ne pose pas de difficulté ?

M. Arnaud Cabanis. Ce secteur est relativement large. Nous parlons principalement de maquillage, de crèmes de jour ou de crèmes solaires, c’est-à-dire de produits dont les Français se servent au quotidien, pour partir en vacances ou simplement pour sortir. Notre démarche n’est pas pharmaceutique : on ne va pas présenter la composition des produits ni promettre aux utilisateurs qu’ils rajeuniront de cinq ans.

M. le président Arthur Delaporte. Alors que le marché des compléments alimentaires s’est fortement développé, avez-vous des activités commerciales dans ce secteur ?

M. Arnaud Cabanis. Nous autorisons uniquement les protéines, pour les personnes majeures et dans le cadre de ciblages en lien avec le sport. Peuvent être vendues toutes les formes de protéines non anabolisantes autorisées en France, uniquement pour la communauté des plus de 18 ans : ce champ est donc relativement restreint.

M. le président Arthur Delaporte. Qu’en est-il du thé aux vertus amincissantes ?

M. Arnaud Cabanis. Normalement, vous ne trouverez pas sur la plateforme de produits aux vertus amincissantes. Mais je vérifierai, car je ne vous cache pas que je ne connais pas nécessairement la réponse.

M. le président Arthur Delaporte. Sur TikTok, il est fait mention de produits pharmaceutiques, avec le hashtag #FrenchPharmacy. On peut ainsi trouver de l’Eafit Minceur 360 associant du Morosil, du collagène marin et de l’acide hyaluronique. Ce type de complément alimentaire fait-il partie de ce que vous recommandez ?

M. Arnaud Cabanis. Je ne suis pas au courant de cette tendance spécifique. Je sais que dans le secteur de la pharmacie, on parle principalement de masques de beauté…

M. le président Arthur Delaporte. J’ai lu cette description dans un article intitulé « Les produits de pharmacie tendance sur TikTok », publié sur le site jevaismieuxmerci.com. Nous vous le transmettrons. Assurez-vous une veille humaine pour détecter ce type de contenus, auxquels une alerte ou une recherche sur Google peuvent rapidement conduire, et engagez-vous des actions pour les faire retirer, dans la mesure où ces compléments alimentaires peuvent poser problème ?

M. Mehdi Meghzifene. D’abord, la grande majorité des contenus problématiques relatifs à des produits sont supprimés avant leur publication. Ensuite, la grande majorité de ceux qui sont quand même publiés sont retirés avant d’avoir dépassé 100 vues.

Les articles comme celui que vous avez cité concernent des produits qui ont pu être visibles sur TikTok à un instant T. Si vous allez vérifier sur la plateforme, vous verrez qu’ils ne sont plus disponibles.

Nous essayons d’améliorer nos systèmes de vérification pour retirer ces produits le plus rapidement possible. Nous avons une double vérification – d’abord par l’algorithme, pour être très rapide, puis par un humain, en cas de doute.

M. le président Arthur Delaporte. Ma question concernait davantage la modération sur TikTok que sur TikTok Shop. Vos 100 modérateurs implantés au Portugal et aux Philippines surveillent plutôt TikTok Shop, mais les influenceurs qui font de la publicité doivent respecter les mêmes règles sur TikTok. Eux sont contrôlés par les 500 modérateurs dédiés à TikTok, qui ne sont peut-être pas formés à l’application du droit de la consommation et sont peut-être plutôt chargés de la modération des contenus problématiques. Comment contrôlez-vous la publicité faite par les influenceurs ?

M. Arnaud Cabanis. Mes collègues qui gèrent la modération seront plus à même de vous répondre. Ce qui est certain, c’est que de nombreuses ONG accompagnent TikTok en France pour tenter de repérer ces tendances et de faire retirer les contenus problématiques le plus rapidement possible. C’est un travail quotidien, pour nous, d’accompagnement et d’éducation des équipes. Nous sommes dans le cœur du métier des 509 modérateurs dont je vous ai parlé. Les algorithmes permettent d’aller plus vite pour identifier les contenus litigieux. Vous avez notamment parlé des hashtags. En l’occurrence, nous vérifions, dans les vidéos, trois niveaux d’information : le texte, le son et le contenu. Ces métadonnées sont traitées et analysées par nos modérateurs.

M. le président Arthur Delaporte. Vous pourrez regarder le hashtag #TikTokPharmacie, par exemple. Il peut être intéressant à surveiller, pour les modérateurs.

Vous avez dit que vous aviez des liens avec de nombreuses ONG. Pouvez‑vous citer celles qui vous accompagnent dans la détection proactive des contenus problématiques ou dangereux ?

M. Arnaud Cabanis. Les équipes de modération, qui seront auditionnées juste après nous, pourront lister précisément les ONG avec lesquelles nous travaillons. J’en connais certaines, mais pas toutes.

M. le président Arthur Delaporte. Lesquelles connaissez-vous ?

M. Arnaud Cabanis. Principalement e-Enfance.

M. le président Arthur Delaporte. Elle ne s’intéresse pas tellement au volet consommation, qui est plutôt le vôtre.

Mme Laure Miller, rapporteure. Pouvez-vous estimer la baisse des revenus publicitaires qui résulterait du choix, par tous les utilisateurs, d’un algorithme de recommandation sans profilage ?

M. Arnaud Cabanis. C’est déjà le cas dans le cadre du DSA. Les utilisateurs peuvent supprimer le profilage.

Mme Laure Miller, rapporteure. Savez-vous combien le font ?

M. Arnaud Cabanis. Je n’ai malheureusement pas cette donnée. Nous pourrons essayer de regarder.

Mme Anne Genetet (EPR). Alors que notre commission s’intéresse aux effets de TikTok sur les mineurs, je n’ai pas compris comment vous pouviez contrôler l’âge de vos utilisateurs. Vous avez évoqué différentes manières de faire, notamment un contrôle a posteriori. Vous dites que la plateforme TikTok Shop n’est pas accessible aux mineurs, mais vous venez de parler des produits de maquillage et de beauté. Dans n’importe quelle enseigne physique de vente de ce type de produits, les acheteuses sont des collégiennes. Au collège, toutes les filles sont maquillées et parlent de leur crème de jour. J’ai du mal à comprendre la cohérence de tout cela. Pouvez-vous préciser à nouveau comment vous contrôlez la minorité ?

Par ailleurs, vous avez évoqué le contrôle par les hashtags, mais plusieurs jeunes m’ont rapporté qu’il existait des mots détournés. Il suffit d’insérer une majuscule ou un symbole au sein d’un mot pour que ce dernier échappe à votre vigilance. Effectuez-vous un travail pour pouvoir agir sur ces hashtags de mots détournés ? Si oui, de quelle manière ?

M. Arnaud Cabanis. Lorsque vous vous inscrivez sur TikTok, vous déclarez votre âge par défaut. C’est le premier niveau de vérification que nous apportons.

Ensuite, tout au long du parcours de l’utilisateur, nous vérifions plusieurs points, qui sont gérés par nos équipes de modération et par la modération technologique. La première chose que nous regardons est la typologie de contenu que vous consommez. Si nous observons un décalage entre cette typologie de contenu et l’âge que vous avez déclaré, nous vous redemanderons votre âge. Si vous n’indiquez pas votre véritable date de naissance, votre compte sera suspendu.

Pour rétablir un compte, nous avons instauré une procédure très stricte. Vous devez envoyer une photographie de vous, avec votre carte d’identité à côté de votre visage. Si vous n’êtes pas en mesure de le faire, nous vous demanderons d’envoyer un selfie sur lequel figure également un parent ou un tuteur. Si vous n’arrivez pas à nous obtenir cette information, nous vous demanderons une authentification par carte bancaire, avec un micropaiement, comme le font de nombreuses applications en France.

Nous utilisons aussi la technologie Yoti, qui nous permet d’analyser les contenus des utilisateurs et de nous assurer qu’ils correspondent à l’âge déclaré.

Ce n’est pas une science exacte, et elle est loin d’être parfaite. Mais nous continuons de travailler et d’essayer d’améliorer nos outils au quotidien, grâce au travail que nous conduisons avec votre assemblée, mais pas seulement.

Pour en venir à votre question sur la beauté, je comprends que des utilisateurs mineurs se maquillent, mais cela ne signifie pas nécessairement qu’ils ont été exposés à de la publicité sur TikTok.

Mme Anne Genetet (EPR). Quelles suggestions pourriez-vous faire à notre commission d’enquête pour améliorer le contrôle de la minorité ?

Par ailleurs, pouvez-vous répondre à ma question sur les mots détournés ?

M. Arnaud Cabanis. Les éléments que je viens d’évoquer, notamment l’envoi d’un selfie ou de la photographie de la pièce d’identité de l’utilisateur, constituent la première démarche, et la plus pertinente.

Mme Laure Miller, rapporteure. Cette vérification grâce au selfie et à la pièce d’identité arrive lorsque vous suspectez que l’utilisateur est mineur. Pourquoi n’y procédez-vous pas d’emblée, au moment où l’on arrive sur la plateforme ? Cela éviterait de devoir rattraper des mineurs qui se sont déclarés comme majeurs en mentant sur leur âge.

M. Arnaud Cabanis. Nous procédons comme les autres applications sur le marché, qui demandent aux utilisateurs de déclarer leur âge dès le départ. Nous pourrons ajuster nos procédures grâce aux échanges que nous avons ce matin. Nous essayons quand même d’être très rapides dans les vérifications et le retrait des fameux hashtags détournés.

Mme Laure Miller, rapporteure. Vous dites être une plateforme sûre, sécurisée et responsable, avec une responsabilité particulière dans la protection des mineurs. Aussi avons-nous du mal à comprendre – et c’est aussi le cas du grand public – ce qui vous empêche d’opérer un contrôle plus exigeant dès le début. L’argument selon lequel les autres plateformes ne le font pas est relativement faible. Au contraire, si vous étiez la seule plateforme à le faire, cela ferait de vous une plateforme plus sûre. De surcroît, vous avez indiqué que vos revenus économiques ne provenaient pas des mineurs. Cela ne vous retirerait donc pas de revenus.

M. Arnaud Cabanis. Pour réitérer mon propos et peut-être le clarifier, je pense qu’un travail collectif doit être effectué pour l’ensemble du secteur, et que TikTok jouera le jeu.

M. le président Arthur Delaporte. Pensez-vous que si les vérifications à l’entrée étaient trop strictes, les utilisateurs risqueraient de migrer vers des plateformes concurrentes ?

M. Arnaud Cabanis. Ce n’est pas du tout ce que j’ai dit, monsieur le président.

M. le président Arthur Delaporte. Nous essayons de comprendre.

M. Arnaud Cabanis. Je ne peux pas vous répondre directement, car cette question est assez éloignée de ce que je fais : j’encadre des équipes commerciales qui accompagnent des annonceurs. J’ai essayé de vous répondre avec les éléments que je connais. Tout au long de la journée, vous auditionnerez des experts de la vérification des âges. Je pense qu’ils seront en mesure de vous répondre plus précisément.

M. le président Arthur Delaporte. Nous pourrons effectivement creuser cette question lors des auditions suivantes. Avec vous, nous nous concentrons sur le modèle économique et sur ce qui a pu être qualifié d’économie de l’attention.

Disposez-vous de notes, en interne, qui permettraient de déterminer un taux de consommation en fonction du temps passé sur la plateforme ? Confirmez-vous que plus on y passe de temps, plus on consomme ? Ce rendement est-il décroissant ? Comment oriente-t-on l’utilisateur vers l’acte d’achat ?

M. Mehdi Meghzifene. Pour ce qui est de la consommation, donc dans le cas de TikTok Shop, il faut bien comprendre que la chose la plus importante, sur une plateforme d’e-commerce, est d’établir une relation de confiance. En effet, on demande aux gens de lier leur carte bancaire à leur compte et d’acheter quelque chose. Une stratégie de court terme, qui consisterait à essayer de garder les utilisateurs le plus longtemps possible sur la plateforme et de leur vendre quelque chose lorsqu’ils ne sont pas capables de prendre une décision vraiment réfléchie, ne serait pas viable. Si quelqu’un achète un produit qui ne lui plaît finalement pas, il écrira de mauvais commentaires : cela n’arrange ni la marque ni le créateur de contenu qui en parle. Le plus important est d’être le plus transparent possible et de ne pas essayer de pousser les gens à l’achat en disant des choses fausses ou irresponsables.

M. le président Arthur Delaporte. Plus les utilisateurs sont sur la plateforme, plus on peut leur vendre d’espaces publicitaires ?

M. Arnaud Cabanis. Non. Comme sur toutes les plateformes, il existe un nombre déterminé d’expositions à la publicité par jour pour tous les utilisateurs français : ainsi, l’algorithme prévoit de livrer, en moyenne, quatre publicités par jour et par utilisateur. Nous essayons donc de limiter les couloirs publicitaires.

M. le président Arthur Delaporte. Est-ce à dire que si l’on estime que l’utilisateur aura une consommation faible, par exemple d’une durée de trente minutes, on lui délivrera quatre publicités en trente minutes, et que si l’on estime qu’il cumulera deux, trois ou quatre heures d’écran, on lui délivrera ces quatre publicités en quatre heures ?

M. Arnaud Cabanis. Cela ne fonctionne pas ainsi. La consommation des utilisateurs est une géométrie variable. On ne peut pas l’anticiper. Ce qui est sûr, c’est qu’on limite le nombre d’expositions à quatre par jour et par utilisateur.

M. le président Arthur Delaporte. Comment pouvez-vous les limiter ?

M. Arnaud Cabanis. Nous avons des systèmes de blocage, qui empêchent l’affichage d’une publicité après un certain nombre d’expositions. Le paramétrage relatif aux publicités est opéré directement par l’annonceur : ainsi, un annonceur ou une agence média sélectionne généralement un paramétrage de cinq vues pour une audience de 25-45 ans.

M. le président Arthur Delaporte. Peut-on recevoir quatre publicités en un quart d’heure, puis plus aucune ?

M. Arnaud Cabanis. Je ne peux pas vous dire dans quel laps de temps est livrée la publicité. Ce qui est sûr, c’est que vous verrez un certain nombre de contenus organiques avant de voir de la publicité.

Mme Claire Marais-Beuil (RN). Comment contrôlez-vous la sécurité des produits destinés à être ingérés ? M. Delaporte évoquait tout à l’heure les compléments alimentaires, mais une profusion d’autres produits, par exemple amaigrissants, posent problème. En tant que médecin, j’ai pu constater la toxicité de nombre d’entre eux. Même s’ils sont vendus comme étant similaires à d’autres, ils n’ont rien de comparable.

M. Mehdi Meghzifene. Sur TikTok Shop, les produits destinés à être ingérés sont extrêmement réglementés. Il faut non seulement qu’ils respectent la loi européenne et la loi française sur la consommation, mais aussi que ce soit le cas des revendications faites par les créateurs de contenu. Par exemple, un créateur qui parle d’un produit n’a pas le droit de dire qu’il est amincissant ni de montrer des photographies comparatives avant/après consommation.

Mme Laure Miller, rapporteure. La limitation à quatre publicités par jour concerne-t-elle les mineurs ou les majeurs ?

M. Arnaud Cabanis. Elle concerne les majeurs.

Mme Laure Miller, rapporteure. Nous venons de faire un test et nous avons déjà vu plus de quatre publicités en trente secondes.

M. Arnaud Cabanis. Je vous parlais de la moyenne quotidienne sur le marché français. Je ne connais pas le niveau d’exposition du compte que vous avez regardé, ni les paramétrages qui y sont appliqués. Comme je l’ai dit, cela dépend d’une géométrie relativement variable. Si vous le souhaitez, nous vous apporterons par écrit des précisions sur ce point. Comptez sur nous pour être précis dans cette réponse.

Mme Claire Marais-Beuil (RN). Vous dites que vous respectez la réglementation, mais vous vous contentez de lire des étiquettes et ne contrôlez pas la composition des produits. Un produit pourrait être assemblé en Europe sans pour autant être pur – c’est déjà arrivé !

M. Mehdi Meghzifene. Nous demandons au vendeur les documents de la direction générale de l’alimentation (DGAL) qui l’autorisent à vendre tel produit en France.

M. le président Arthur Delaporte. Des mineurs ont officiellement le statut de majeur sur la plateforme. Vous en avez conscience, puisque vous prévoyez des mécanismes de contrôle de l’âge.

M. Arnaud Cabanis. Concernant le détournement, il m’est difficile de vous répondre. Mes collègues vous répondront un petit peu mieux cet après-midi.

M. le président Arthur Delaporte. Vous vous doutez qu’il peut y avoir des failles.

M. Arnaud Cabanis. Bien sûr.

M. le président Arthur Delaporte. Les enquêtes statistiques montrent que les jeunes utilisateurs sont plus nombreux que vous ne le mesurez. S’ils sont considérés comme majeurs, sur la plateforme, alors qu’ils sont en réalité mineurs, on peut collecter leurs données et identifier leurs préférences. Le reconnaissez‑vous ?

M. Arnaud Cabanis. Je ne pourrais vous donner le nombre de personnes susceptibles de tricher sur leur âge. Il m’est donc difficile de répondre à cette question.

M. le président Arthur Delaporte. Selon certaines enquêtes, 70 % des utilisateurs de TikTok ont moins de 24 ans.

M. Arnaud Cabanis. Je n’ai pas connaissance de cette étude. Ce qui est certain, c’est qu’en France, l’année dernière, nous avons supprimé un nombre de comptes relativement important – 642 000 comptes, en l’occurrence.

M. le président Arthur Delaporte. Je ne vous interroge pas sur les suppressions de comptes. Je souligne qu’une part non négligeable, voire massive, de jeunes ont plus de 18 ans selon votre plateforme alors qu’ils sont mineurs dans le monde réel. Or vous allez les cibler algorithmiquement et capter leurs préférences. Reconnaissez-vous que c’est possible ?

M. Arnaud Cabanis. Je pense que c’est possible. On voit tout le rôle qui incombe à nos équipes de modération et à nos systèmes – j’en ai évoqué
plusieurs –, que nous faisons évoluer. En tout cas, je n’ai pas connaissance du chiffre que vous venez de citer.

M. le président Arthur Delaporte. Il est donc possible que des mineurs soient profilés, d’une certaine manière.

M. Arnaud Cabanis. Techniquement, c’est possible.

M. le président Arthur Delaporte. Je vous remercie d’avoir participé à nos échanges. Vous aurez noté toutes les questions qui restent en suspens. Vous voudrez bien nous transmettre les informations complémentaires que nous vous avons demandées ou que vous jugerez utile de porter à la connaissance de notre commission.

57.   Audition de Mme Nicky Soo, responsable de la digitale sati, Mme Brie Pegum, responsable des aspects techniques de la régulation, et M. Vincent Mogniat Duclos, responsable France ‑ Tiktok Live sur la modération TikTok (jeudi 12 juin 2025)

Enfin, la commission auditionne conjointement Mme Nicky Soo, responsable de la digitale sati, Mme Brie Pegum, responsable des aspects techniques de la régulation, et M. Vincent MogniatDuclos, responsable France - Tiktok Live sur la modération TikTok ([55]).

M. le président Arthur Delaporte. Nous reprenons nos travaux avec une audition commune des responsables de la modération de TikTok. Mmes Nicky Soo et Brie Pegum sont venues d’Irlande. Elles s’exprimeront en anglais et leurs réponses feront l’objet d’une interprétation simultanée. M. Vincent Mogniat-Duclos, responsable France de TikTok Live, est présent en visioconférence.

Je vous remercie d’avoir répondu à notre convocation et je vous demanderai de déclarer, au début de vos interventions, tout intérêt public ou privé qui serait de nature à influencer vos déclarations. En l’occurrence, je vous demanderai de nous confirmer que vous êtes salariés de TikTok.

Auparavant, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité et rien que la vérité.

(Mme Brie Pegum, Mme Nicky Soo et M. Vincent Mogniat-Duclos prêtent successivement serment.)

Mme Nicky Soo, responsable de la digital safety. Merci de nous avoir invités. Nous sommes ravis d’avoir cette possibilité d’échanger avec vous. Je suis responsable de la politique de sécurité et de bien-être au sein de la division des affaires publiques de TikTok pour l’Europe, basée à Londres. Je dirige des programmes relatifs à différentes questions de sécurité pour notre industrie comme le harcèlement en ligne, la haine en ligne et le bien-être.

Avant de rejoindre TikTok, j’ai été universitaire pendant plus de dix ans. Dans ce cadre, j’ai étudié les effets des outils numériques sur les médias, la culture et la société. J’ai un doctorat en sciences politiques et j’ai travaillé sur le développement des technologies dans les universités de Sheffield, Manchester et Cardiff.

Notre engagement le plus important, chez TikTok, est de créer un environnement accueillant et sûr pour les utilisateurs. Pour créer une expérience sûre et divertissante, nous avons instauré des lignes directrices qui s’appliquent à l’ensemble des utilisateurs et des contenus de notre plateforme. Elles comprennent des règles relatives à ce qui est autorisé sur TikTok, ainsi que les normes à respecter pour être éligible à la recommandation et au fil « Pour toi ».

Ces lignes directrices sont mises à jour en continu pour s’adapter aux nouveaux risques. Nos experts internes en matière de sécurité travaillent en collaboration étroite avec ceux du secteur ainsi qu’avec des organisations non gouvernementales, des représentants de cette industrie et des associations à travers le monde, pour tenir notre engagement de créer une plateforme sûre pour notre communauté.

Pour assurer la sûreté de la plateforme, nous devons trouver un équilibre entre l’expression créative et la protection contre les dangers. Nous utilisons pour cela une combinaison d’approches : nous supprimons les contenus qui ne sont pas autorisés par nos lignes directrices ; nous restreignons l’accès aux contenus qui ne sont pas adaptés aux 13‑17 ans ; nous bloquons les contenus qui ne suivent pas les standards recommandés pour accéder au fil « Pour toi » ; nous mettons à la disposition de notre communauté des informations, des outils et des ressources.

Les contenus ou les comptes qui enfreignent nos règles sont supprimés avant d’être visionnés ou partagés. Les contenus sont soumis à un processus d’examen automatisé. Si un contenu est suspecté de violer nos règles, il est automatiquement supprimé ou signalé pour faire l’objet d’un examen supplémentaire par nos modérateurs. Comme l’indique notre rapport sur l’application des règles de la communauté, cela nous permet de supprimer de façon proactive 98,8 % des contenus non conformes.

Nous comptons 509 modérateurs francophones, ainsi que le précise notre dernier rapport de transparence sur la modération de contenu en Europe en application du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services act (DSA).

Nous effectuons également des examens complémentaires sur les contenus qui gagnent en popularité ou qui ont été signalés.

TikTok travaille par ailleurs avec les signaleurs de confiance désignés par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), notamment e-Enfance, Point de contact et Addictions France, ainsi qu’avec des signaleurs prioritaires ayant accès à notre plateforme de signalement, la TikTok Safety Enforcement Tool (TSET), comme l’Union des métiers de l’influence et des créateurs de contenus (Umicc) et Stop Fisha.

Nous publions des rapports de transparence trimestriels pour rendre plus visible la façon dont nous appliquons les règles de la communauté. Nous sommes la première plateforme à avoir communiqué publiquement le nombre de comptes de moins de 13 ans ayant été interdits.

Outre ces rapports de transparence, nous publions de façon proactive des rapports relatifs aux demandes de retrait par le Gouvernement, aux demandes d’information, aux demandes de suppression au titre de la propriété intellectuelle, à la lutte contre les opérations d’influence et à la lutte contre les abus sexuels sur mineurs.

Comme je l’ai indiqué, nous publions également des rapports de transparence dans le cadre du DSA ainsi que du code européen de bonnes pratiques contre la désinformation.

Mme Brie Pegum, responsable des aspects techniques de la régulation. Je suis à la tête de la division chargée des programmes de gestion des risques et de la régulation au siège social de TikTok à Dublin, où se trouve également notre centre transparence et responsabilité. Mon équipe dirige les opérations stratégiques de sûreté et de sécurité. Dans ce cadre, nous assurons la gestion des risques opérationnels et liés à la plateforme ainsi que la mise en œuvre de la réglementation, notamment du DSA. Nous publions des rapports de transparence et ouvrons l’accès aux données pour les chercheurs. Cela nous permet d’être transparents quant à notre gestion des risques sur la plateforme et de montrer que nous sommes en conformité avec le DSA.

Il est de la responsabilité de TikTok de s’engager à construire une plateforme sûre et digne de confiance, pour protéger nos utilisateurs.

J’ai rejoint TikTok en mars 2023 comme responsable de la transparence et de l’authenticité des produits. Mon rôle consistait à m’assurer que le contenu était authentique, transparent et non manipulé. C’est dans ce cadre que j’ai représenté TikTok auprès du Parlement européen en décembre 2024, pour répondre à ses questions relatives à la désinformation sur la plateforme.

M. Vincent Mogniat-Duclos, responsable France  TikTok Live. Je vous remercie de m’avoir accordé la possibilité de me joindre à cette audition en visioconférence. J’occupe depuis avril 2024 le poste de responsable des opérations de TikTok Live pour la France et la Belgique, au sein d’une équipe basée à Paris.

TikTok Live est le produit de diffusion en direct de TikTok, communément appelé live streaming, qui permet aux créateurs d’échanger en direct avec leur communauté. Sur TikTok Live, les créateurs font preuve de beaucoup de créativité. Nous hébergeons ainsi sur la plateforme des lives de discussion générale, des lives portant sur les sciences, les technologies, l’ingénierie et les mathématiques (Stem), mais aussi des lives de cuisine, de musique, d’information, de jeux vidéo et bien d’autres. Pour certains créateurs, le live est aussi devenu une opportunité économique.

J’ai rejoint TikTok depuis un peu plus d’un an. Mon équipe et moi-même avons pour mission d’inciter de nouveaux utilisateurs à découvrir TikTok Live et ses fonctionnalités créatives, avec la sécurité comme priorité. Comme vous le savez, les créateurs doivent obligatoirement avoir plus de 18 ans avant de lancer un live, et compter un minimum de followers.

Concrètement, nous développons les relations avec les créateurs en veillant à ce qu’ils disposent des outils et de l’accompagnement nécessaires pour profiter de la plateforme dans les meilleures conditions.

Nous collaborons aussi avec plusieurs centaines d’agences externes spécialisées dans le live streaming. Ce nouvel écosystème permet d’accompagner et de professionnaliser les créateurs, et constitue un relais majeur pour la diffusion des règles de la communauté à respecter sur la plateforme.

Enfin, nous concevons des campagnes et nous collaborons avec des associations caritatives et des institutions culturelles, pour promouvoir des contenus à impact pour la plateforme. Nous avons ainsi collaboré avec le Comité international olympique durant les Jeux olympiques et paralympiques de 2024. Nous avons permis à des créateurs sélectionnés d’assister à certaines épreuves et cérémonies ou de visiter les coulisses et le village olympique. Au total, nous avons créé soixante-cinq heures de live pour mettre en avant les parasports dans le monde. TikTok a également contribué à hauteur de 500 000 dollars au programme de développement du Comité international olympique.

L’an dernier, pour accompagner notre démarche de promotion de l’accès à la culture, nous avons collaboré avec un grand nombre de musées, dont la Bourse de commerce, le musée Carnavalet, le Louvre-Lens et bien d’autres.

Je tenais à citer ces initiatives pour illustrer les collaborations culturelles et caritatives que nous engageons tout au long de l’année.

J’en viens à la modération des contenus, y compris en direct dans TikTok Live. Cette modération est assurée exclusivement par nos équipes Trust and Safety, qui sont en charge de la sécurité et de la sûreté de la plateforme.

Comme Mmes Brie Pegum et Nicky Soo auront l’occasion de l’indiquer, notre préoccupation constante est que TikTok soit un lieu sûr, dans lequel la créativité s’épanouit. C’est pourquoi la sécurité est au cœur de notre démarche, intégrée dès la conception pour que chacun puisse être soi-même, sans crainte. Nous comprenons que le sentiment de sécurité est essentiel pour que les utilisateurs puissent profiter de TikTok et s’exprimer.

Bien que l’exploitation technique de la plateforme et la modération des contenus soient du ressort exclusif de l’équipe Trust and Safety, mon rôle se concentre sur l’accompagnement des créateurs, la collaboration avec les agences externes et les partenariats. Je me tiens à votre disposition pour répondre à toutes vos questions sur ces sujets.

Mme Laure Miller, rapporteure. Cette commission d’enquête est très suivie par le grand public. En effet, qu’ils soient jeunes, parents, professeurs, professionnels de santé ou autre, de nombreux Français s’intéressent aux effets de TikTok sur les mineurs et sont préoccupés par ce sujet. Mes premières questions viseront à comprendre le fonctionnement de vos équipes de modération, avant d’entrer progressivement dans le vif du sujet, en l’occurrence la modération elle-même.

Combien de vidéos chaque modérateur est-il amené à traiter par heure ?

Mme Brie Pegum. Il est essentiel d’appréhender le dispositif de modération de TikTok comme un système global. Il combine des machines et des algorithmes, qui passent en revue autant de contenus que possible de façon automatique, et les équipes de modérateurs.

Nous comptons 509 modérateurs francophones. Je ne sais pas combien de vidéos ils visionnent par heure, car cela dépend du type de contenu. Nous accordons une attention particulière à la détection proactive, pour éviter que les contenus problématiques soient visionnés par quiconque. La modération humaine porte sur les contenus les plus sensibles, donc sur les vidéos dont l’analyse requiert plus de temps. Je ne saurais vous indiquer le temps moyen d’examen des contenus ; il est très variable.

Mme Laure Miller, rapporteure. Comment expliquez-vous la baisse du nombre de modérateurs francophones, que nous avons observée à la lecture de vos rapports ? Pourrez-vous nous fournir ultérieurement, par écrit, le nombre de vidéos visionnées par heure et par modérateur ?

Par ailleurs, que font concrètement les modérateurs physiques, humains, qui interviennent après une forme de modération automatique ? Comment sont-ils formés ?

Mme Brie Pegum. Je serais ravie de vous donner davantage d’informations sur la modération sur TikTok. Je souligne que 100 % du contenu de la plateforme est modéré et que moins de 1 % ne respecte pas nos lignes directrices. Ajoutons que 80 % des contenus qui enfreignent nos règles sont supprimés automatiquement, avant même que le moindre humain n’intervienne. La modération humaine intervient dans un second temps, quand le système automatique ne peut pas se prononcer avec certitude à partir des signaux visuels ou audio analysés. Nous utilisons l’intelligence artificielle (IA) pour accélérer la suppression de contenus problématiques avant que quiconque ne les voie, pour garantir une cohérence et pour avoir le processus le plus objectif possible.

Nos modérateurs suivent une formation poussée relative à nos lignes directrices. Ils font des points hebdomadaires ou mensuels avec l’équipe Policy pour s’assurer de leur bonne interprétation des réglementations locales et de nos règles internes, afin d’identifier les critères de violation des règles avec pertinence.

M. le président Arthur Delaporte. Mme la rapporteure vous a demandé pourquoi le nombre de modérateurs francophones avait baissé. Votre rapport de transparence indique qu’il est passé de 634 au premier semestre 2024 à 509 au second semestre. Y a-t-il toujours 509 modérateurs, ou ce nombre a-t-il évolué depuis la remise de votre dernier rapport de transparence il y a six mois ? Pouvez‑vous expliquer cette tendance ?

Par ailleurs, comment les modérateurs sont-ils répartis à l’échelle planétaire, en volume ?

Mme Brie Pegum. J’ai oublié de répondre à votre question sur l’évolution du nombre de modérateurs francophones. La modération des contenus est très dynamique. Elle dépend des variations locales du volume de contenus.

Grâce à d’importants investissements dans l’intelligence artificielle, nous accélérons le processus de détection et de suppression automatique des contenus problématiques, pour empêcher, autant que possible, que quiconque ne les voie. Cela explique que le nombre de modérateurs ait diminué, sans affecter notre capacité à repérer les infractions – sans compter que cela protège nos équipes, en plus de nos utilisateurs, du visionnage de contenus possiblement choquants. Le nombre de modérateurs pour la France est donc appelé à évoluer ; nous détaillerons ces informations dans notre prochain rapport de transparence pour le premier semestre 2025.

M. le président Arthur Delaporte. Comment les modérateurs sont-ils répartis géographiquement ?

Mme Brie Pegum. Nous avons des modérateurs dans le monde entier. Des contenus sont publiés toute la journée, et nous recherchons un équilibre entre la modération automatique, qui concerne globalement 80 % des contenus, et la modération humaine.

M. le président Arthur Delaporte. Dans combien de site travaillent les 509 modérateurs francophones ?

Mme Brie Pegum. Nous faisons intervenir des modérateurs internes et des modérateurs externes – nous avons ainsi des partenariats avec Teleperformance au Portugal, Majorel en Roumanie ou encore Intellias en Bulgarie. Je n’ai pas ici le ratio entre les modérateurs internes et externes, mais l’objectif est de couvrir les différents fuseaux horaires européens, tout en ayant des modérateurs dans d’autres parties du monde.

M. le président Arthur Delaporte. Les 509 modérateurs francophones couvrent-ils aussi les contenus publiés en Afrique francophone, ou seulement ceux produits en France ?

Mme Brie Pegum. Les 509 modérateurs francophones dont il est fait mention dans le rapport sur l’application du DSA couvrent l’Europe. Le monde francophone étant toutefois plus vaste, d’autres modérateurs qui parlent la langue couvrent le reste du monde.

Mme Laure Miller, rapporteure. Pourrez-vous nous transmettre la répartition entre les modérateurs internes et les modérateurs sous-traitants ?

Quelle formation les modérateurs reçoivent-ils lorsqu’ils sont embauchés ? Sont-ils suivis psychologiquement, dans la mesure où ils voient du contenu problématique toute la journée ? Si vous n’avez pas la réponse, pourrez-vous nous préciser ultérieurement le nombre de vidéos qu’ils sont appelés à voir ? Certains journalistes l’estiment à une centaine par heure. Ce chiffre est-il proche de la réalité ?

Mme Brie Pegum. Le bien-être des modérateurs est pour nous une préoccupation essentielle. Nous leur apportons le soutien dont ils ont besoin. Nous nous assurons qu’ils ne soient pas constamment sur écran, qu’ils aient du temps de repos et qu’ils puissent échanger sur les contenus choquants qu’ils ont pu visionner. Une fois encore, nous voulons éviter autant que possible qu’ils voient de tels contenus, c’est pourquoi nous investissons lourdement dans des solutions techniques en complément de la modération humaine.

Lorsque les modérateurs entrent chez TikTok, ils reçoivent une formation approfondie sur notre politique globale de modération des contenus, mais aussi sur les spécificités de la région qu’ils couvrent, afin qu’ils soient au fait de certaines nuances culturelles et des réglementations locales. Cette formation initiale est complétée à un rythme hebdomadaire ou mensuel par l’envoi de directives complémentaires et par une sensibilisation à des tendances émergentes observées sur certains marchés. Les modérateurs peuvent demander des précisions à nos experts sur l’interprétation opérationnelle des lignes directrices, et partager ces informations au sein de leur équipe. Sachant que la plateforme et les contenus évoluent constamment, il est important qu’ils puissent se référer à une ligne directrice. Nous leur apportons un important accompagnement et multiplions les échanges avec cette équipe.

Mme Laure Miller, rapporteure. Vous arrive-t-il de rencontrer les modérateurs, et avez-vous parfois des liens directs avec eux ? Avez-vous visité un site de modération ?

Mme Brie Pegum. Oui. J’ai observé l’activité en immersion dans différents sites de modération, notamment en Allemagne et au Maroc – nous avons de tels sites partout dans le monde. Il est essentiel que les équipes Trust and Safety – ce sont elles qui sont autorisées à interagir avec les modérateurs, tant les sujets sont sensibles – aient une compréhension directe et concrète de cette activité, afin que nous puissions améliorer les outils et les directives. Cela représente une part importante du processus. Nos lignes directrices reposent largement sur l’expérience et sur le vécu de nos personnels.

Mme Laure Miller, rapporteure. Il sera intéressant et utile de recevoir vos réponses écrites concernant la part de modérateurs sous-traitants et la part de la modération humaine comparée à la modération automatique. En effet, certains contenus peuvent être trouvés sur la plateforme grâce à des parades, notamment des hashtags. La part de la modération humaine est sans doute essentielle pour les modérer et les supprimer. Aussi avons-nous besoin de savoir quelle place vous accordez à la modération humaine, et comment sont formés les modérateurs. Y a‑t‑il un temps obligatoire de formation par mois, par exemple ?

Par ailleurs, comment en arrive-t-on à supprimer un contenu ? Doit-il avoir été signalé plusieurs fois par un nombre élevé d’utilisateurs de la plateforme pour être potentiellement supprimé si vous le jugez contraire à vos règles internes ? Un flou subsiste en la matière. Faut-il plusieurs interventions de votre part avant qu’un compte soit banni ? Pouvez-vous nous donner plus de détails quant aux règles de modération et, le cas échéant, de bannissement ?

Mme Brie Pegum. Comme je l’ai précisé, la modération des contenus est un système global. Il est essentiel de prévoir de multiples couches pour atteindre un degré de sécurité maximal. Ainsi, 100 % du contenu est modéré, et moins de 1 % est considéré comme non conforme.

Dès qu’un contenu est posté, il fait l’objet de multiples contrôles qui se fondent notamment sur les violations rencontrées dans le passé. Il est traité par des centaines de modèles d’analyse qui déterminent s’il remplit les critères de confiance ou s’il doit être automatiquement supprimé, afin que personne ne puisse le voir sur la plateforme.

Parmi les contenus identifiés comme problématiques, 80 % sont automatiquement supprimés et 20 % sont examinés par des modérateurs ; s’il s’avère qu’ils enfreignent les lignes directrices, ils sont retirés. Les contenus jugés conformes et mis en ligne continuent d’être suivis : s’ils présentent un problème, nous pouvons en être alertés par des signaleurs de confiance ou par des utilisateurs ; un mécanisme de rappel peut aussi les soumettre à une nouvelle modération humaine. Quand un contenu gagne de plus en plus de vues, par exemple, il est renvoyé vers l’équipe de modération pour un nouvel examen. Nous suivons donc une procédure très solide, jalonnée par de nombreuses barrières, pour nous assurer que la plateforme reste sûre. Nous écoutons les retours de la communauté pour juger si notre interprétation est en adéquation avec la sienne – il est important de bien le calibrer. Il peut aussi être très utile de consulter des experts.

Mme Laure Miller, rapporteure. Même si la proportion de contenus problématiques est faible, l’algorithme est susceptible de les mettre en valeur davantage que les autres.

Vous qualifiez votre processus de solide. Or l’une de nos ministres a dénoncé la tendance SkinnyTok et il a fallu attendre plusieurs jours pour que de nombreux contenus concernés soient supprimés. Pourtant, plusieurs hashtags continuent à renvoyer vers ces contenus, encore très présents sur la plateforme. Comment expliquez-vous cette faille ? Comment un processus que vous décrivez comme solide peut-il laisser passer de très nombreux contenus relatifs à SkinnyTok ? Plusieurs hashtags commençant par #Skinny auraient pu vous permettre de retirer ces contenus de façon automatique ou avec l’intervention de modérateurs.

Mme Brie Pegum. Comme je l’ai indiqué, 1 % des contenus postés initialement sur la plateforme, avant modération automatique et humaine et potentielle suppression, enfreignent les règles. Il arrive malheureusement que certains passent entre les mailles du filet ; c’est alors qu’interviennent les mécanismes de rappel que j’ai décrits, qui nous permettent d’identifier une violation qui nous aurait d’abord échappé.

Concernant le #SkinnyTok, j’aimerais éclaircir la façon dont nous surveillons les contenus en potentielle infraction avec nos règles. Ainsi, quand nous trouvons des contenus qui prônent des troubles de l’alimentation, nous les retirons, car ils ne sont pas autorisés.

En janvier, lorsque la tendance SkinnyTok est apparue sur notre plateforme, notre équipe a commencé à surveiller les contenus correspondants. En l’occurrence, leur volume et leur taux de non-conformité étaient faibles. Ils n’enfreignaient donc pas nos règles. Au départ, cette tendance visait à encourager l’alimentation saine ; des utilisateurs y racontaient comment ils s’étaient sortis de leurs troubles alimentaires. De nombreuses communautés se forment en effet sur TikTok autour de contenus relatifs à la guérison.

En mars et avril, le nombre de contenus a pris de l’ampleur et il s’est avéré qu’une communauté se constituait autour de pratiques alimentaires délétères. Alors que nous ne supprimions au départ que les contenus qui valorisaient les troubles alimentaires, nous avons ajouté des barrières plus strictes tout au long de la chaîne. Nous avons fini par bloquer le #SkinnyTok en mai, afin que les nouvelles vidéos ne puissent pas l’utiliser. Cela a évité à plus de 90 000 contenus d’apparaître chaque jour sur le fil des utilisateurs français. Nous avons aussi diffusé des messages d’intérêt public pour informer les utilisateurs qui renseignaient ce hashtag qu’ils seraient mis en relation avec un organisme partenaire.

Nous avons donc multiplié les vérifications au fil du temps, avec le souci d’adopter une approche équilibrée et proportionnée. Cette tendance qui, au départ, n’enfreignait pas nos règles a pris une forme indésirable pour notre plateforme et pour nos utilisateurs. Cependant, nous voulons aussi nous assurer que nos utilisateurs disposent d’un espace où partager leurs expériences, trouver du soutien et accéder aux ressources dont ils ont besoin. Les experts extérieurs avec lesquels nous travaillons sur les questions de bien-être ont insisté sur l’utilité d’un tel espace d’expression. Notez que les moins de 18 ans ne peuvent pas interagir avec le contenu problématique. Nous avons donc pris ce problème très au sérieux.

M. le président Arthur Delaporte. Pourquoi avoir attendu d’échanger avec la ministre Clara Chappaz pour désactiver l’accès à la tendance SkinnyTok ?

Mme Brie Pegum. Nous avons accueilli la ministre Clara Chappaz à notre siège, à Dublin, où elle a visité notre centre transparence et responsabilité. Elle nous a fait part de ses préoccupations, et nous lui avons expliqué le travail que nous effectuions à cette époque, qui a conduit à la suppression du #SkinnyTok. Nous attendions alors les avis d’experts externes pour questionner notre propre perception du sujet. Nous voulions aussi avoir la confirmation que les contenus avaient évolué vers la promotion des troubles alimentaires.

M. le président Arthur Delaporte. Dès 2023, des rapports d’experts, notamment britanniques, pointaient les excès de la tendance Skinny. En avez-vous eu connaissance ?

Mme Brie Pegum. Je ne connais pas l’historique de cette tendance, car cela ne relève pas de mon rôle. Je sais toutefois que nos équipes observent la façon dont les tendances évoluent. Nous supprimons les contenus qui violent nos règles au sein de tendances non problématiques, mais c’est une mesure très sévère que de bloquer complètement une conversation dont les contenus sont majoritairement positifs – en l’occurrence, quand ils encouragent un mode de vie sain. Notre approche doit être équilibrée et préserver un espace d’expression. Quand nous constatons qu’une majorité des contenus et des conversations basculent du mauvais côté, nous pouvons prendre des mesures plus strictes comme bloquer un hashtag.

M. le président Arthur Delaporte. Les jeunes et les parents que nous avons auditionnés ont signalé que ces contenus problématiques existaient bien avant d’être médiatisés comme relevant de la tendance SkinnyTok. Cela fait des années que des contenus incitant à la maigreur excessive sont présents sur les réseaux sociaux, en particulier sur TikTok. N’avez-vous eu connaissance de la présence de ces vidéos incitant à l’anorexie qu’il y a un mois et demi ?

Mme Brie Pegum. Comme je l’ai dit, parler des troubles alimentaires pour les encourager constitue une violation de notre politique. Nous supprimons donc les contenus correspondants. En revanche, si les utilisateurs veulent discuter de leur expérience en la matière, ils peuvent le faire sur la plateforme à condition d’avoir plus de 18 ans. Telle a toujours été notre politique.

Nous suivons les tendances et, par le passé, il nous est déjà arrivé de bloquer des hashtags – je pense à la tendance pro-ana qui encourageait la formation de communautés ayant une attitude malsaine vis-à-vis de l’alimentation. Ce n’est que ces dernières semaines qu’il est apparu que le #SkinnyTok prenait une orientation similaire. Ce n’était pas le cas auparavant, comme l’ont montré nos recherches.

Mme Laure Miller, rapporteure. Vous présentez régulièrement TikTok comme un espace sûr et sécurisé, ce qui devrait vous conduire à appliquer un principe de précaution – en tout cas, c’est ainsi que je l’entends. Pouvez-vous affirmer qu’il n’existe plus de contenus relevant de la tendance SkinnyTok sur votre plateforme ? S’il en existe encore, pourquoi ?

Mme Nicky Soo. Il me semble intéressant de revenir sur la manière dont le contenu est recommandé et sur le fonctionnement du fil « Pour toi », qui reflète les préférences des utilisateurs. Nous nous fondons sur différents critères pour catégoriser les vidéos, comprendre qui est intéressé par quoi et les recommander. Lesquelles regardez-vous jusqu’au bout ? Lesquelles likez-vous ou partagez-vous ? Quels comptes suivez-vous ? Quels types de musiques utilisent les vidéos que vous aimez ? Quelle langue emploient-elles ?

Par exemple, le fait qu’un utilisateur visionne une vidéo jusqu’à la fin est un bon indicateur d’intérêt. En revanche, le fait qu’il visionne une vidéo diffusée dans la même langue que la sienne est un indicateur plutôt faible.

C’est sur ces bases que notre système de recommandation fonctionne, mais il a aussi été construit dès le départ autour de barrières de sécurité. Les règles et les procédures que Mme Brie Pegum a décrites atténuent le risque que le système de recommandation amplifie des contenus illégaux ou délétères. Pour pouvoir être recommandés, les contenus doivent remplir des standards d’éligibilité. Quand une tendance émerge, nous ne recommandons pas le contenu correspondant sans avoir procédé à des vérifications. En outre, le fil « Pour toi » contient des barrières liées à l’âge. Nos lignes directrices définissent ce qu’il est interdit de proposer sur le fil « Pour toi » des 13-17 ans : contenus destinés aux adultes ou pouvant choquer, liés notamment aux jeux vidéo.

Lorsque des contenus deviennent rapidement populaires, nous appliquons des mécanismes supplémentaires permettant de nous assurer qu’ils sont à nouveau vérifiés.

Mme Laure Miller, rapporteure. Ma question était simple : existe-t-il encore du contenu SkinnyTok sur TikTok et, le cas échéant, comment l’expliquez‑vous ? Est-ce une anomalie ?

Plus largement, considérez-vous que le DSA vous confère une obligation de moyens ou une obligation de résultat ? Si c’est une obligation de résultat, elle n’est pas remplie.

Mme Brie Pegum. On trouve encore des contenus #SkinnyTok sur la plateforme dans la mesure où ils ne violent pas les règles de la communauté mais évoquent la guérison des troubles alimentaires et valorisent une alimentation saine. De plus, le système de recommandation fait en sorte qu’un utilisateur qui emploierait le hashtag #SkinnyTok se voie proposer un petit nombre de contenus correspondants. Cela permet de réduire l’exposition à ces vidéos.

Malheureusement, il arrive toujours que des contenus non conformes passent entre les mailles du filet. Nous renforçons toujours plus les contrôles proactifs et sommes attentifs aux retours des communautés avec lesquelles nous travaillons pour en capter le plus possible.

Mme Laure Miller, rapporteure. Je viens d’aller sur TikTok, où je constate que le hashtag #FearFood, qui est assez évocateur – il ne prône pas une alimentation saine, mais le fait de ne plus se nourrir –, conduit vers le compte d’une jeune fille qui explique qu’elle ne mange quasiment plus, ou uniquement de la salade. Des contenus problématiques existent toujours. Vous ne remplissez donc pas votre obligation de résultat.

Mme Brie Pegum. Nous prenons très au sérieux nos obligations au titre du DSA. Nous publions annuellement une évaluation des risques et nous améliorons notre processus en continu.

Bien sûr, nous ferons toujours des erreurs. Mais il faut comprendre que le hashtag #FearFood peut être employé par des utilisateurs qui appréhendent seulement certains types d’aliments. Il ne constitue pas en soi une violation des règles de la communauté, tant que ses contenus ne se concentrent pas sur les troubles alimentaires. Nos équipes suivent attentivement les variations des mots-clés utilisés, ainsi que les variations orthographiques des titres de vidéos, pour identifier les tentatives de contournement. Nos utilisateurs sont très créatifs, y compris dans leur façon de contourner les règles, mais il est de la responsabilité de notre équipe d’anticiper ces contournements et d’effectuer un suivi serré des nouvelles tendances au fur et à mesure qu’elles apparaissent.

M. le président Arthur Delaporte. Sans même contourner les mots-clés, il suffit de taper le hashtag #Skinny pour tomber, dès les premières vidéos, sur des contenus qui ne correspondent pas à ce que vous décrivez. J’invite chacun à prendre son téléphone, à aller sur TikTok et à taper #Skinny pour se rendre compte que parmi les dix premiers résultats, au moins la moitié est problématique. Comment peut-il y avoir une différence aussi flagrante entre votre discours selon lequel la plupart du contenu est positif, et nos expériences dont il ressort que la plupart du contenu est négatif ?

Vous indiquez que lorsqu’une tendance ou une vidéo monte en visibilité, une analyse humaine est effectuée. Quel niveau de visibilité faut-il pour déclencher cette analyse – à partir de combien de vues, par exemple ?

Mme Brie Pegum. Différents jalons sont prévus – je n’ai pas les seuils en tête –pour qu’un contenu qui gagne en visibilité soit régulièrement renvoyé vers les modérateurs humains afin qu’ils procèdent à une vérification complémentaire. Je rappelle aussi que lors de sa publication initiale, ce contenu a déjà été examiné par la modération automatique et humaine. Les utilisateurs peuvent également signaler un contenu, auquel cas notre équipe vérifie s’il respecte nos règles directrices. Ce n’est pas toujours simple, car la violation des règles n’est pas forcément évidente. Le cas échéant, le contenu n’est pas recommandé aux utilisateurs de moins de 18 ans.

Mme Nicky Soo. Nous savons que le système doit sans cesse s’améliorer. Nous utilisons par exemple des modèles de dispersion, notamment pour les contenus qui ont trait aux régimes et à la condition physique, afin qu’ils ne soient pas recommandés de manière trop concentrée. Cela vaut pour les contenus qui ne violent pas les règles de la communauté mais dont nous ne voulons pas que les utilisateurs les reçoivent de façon trop massive.

Mme Laure Miller, rapporteure. Qu’est-ce qui vous pousse à bannir un utilisateur, et après combien d’infractions ou de sanctions internes ?

Mme Brie Pegum. Notre dispositif se fonde sur la modération des contenus au cas par cas. Un utilisateur peut commettre des violations plus ou moins graves, de la petite erreur à une infraction plus conséquente – dans ce dernier cas, nous appliquons la règle de la tolérance zéro. Les sanctions dépendent du degré de gravité de la violation, mais au bout d’un moment, si un utilisateur cumule les infractions, nous interdisons son compte.

Notre plateforme est inclusive. Tout le monde est le bienvenu, et nous essayons d’éduquer nos utilisateurs au respect des règles de la communauté. C’est une partie non négligeable de notre travail. Nous constatons d’ailleurs que lorsque nous sensibilisons nos utilisateurs à nos règles, les récidives sont moins fréquentes.

Mme Laure Miller, rapporteure. Y a-t-il une forme de tolérance ? A-t-on le droit de tenir trois, quatre ou cinq fois des propos racistes ou de frapper plusieurs fois sa femme dans une vidéo avant d’être banni ?

Mme Brie Pegum. Nous disposons de tout un éventail de politiques. Nous sommes plus indulgents à l’égard d’infractions considérées comme mineures. Par exemple, il n’est pas autorisé de se montrer en train de fumer une cigarette dans une vidéo. Mais si quelqu’un le fait par inadvertance, sans savoir que c’est interdit, nous lui expliquons pourquoi sa vidéo a été supprimée et lui laissons la possibilité de s’amender. D’autres infractions sont plus graves et ne permettent aucune tolérance. Ainsi, les discours de haine ou les contenus pédopornographiques sont immédiatement interdits. Nous nous efforçons de les détecter de façon proactive afin qu’ils n’atteignent pas la plateforme.

M. le président Arthur Delaporte. Existe-t-il une gradation officielle et publique de ces infractions, qui annoncerait par exemple que l’utilisateur est banni dès le premier contenu haineux ? Combien faut-il avoir commis de violations – par exemple avoir fumé des cigarettes – pour être banni ?

Mme Nicky Soo. Ces données sont publiques. Nous pourrons vous les envoyer.

Mme Brie Pegum. Nous sommes transparents avec les utilisateurs, afin qu’ils comprennent pourquoi leur contenu est supprimé et qu’ils ne reproduisent leurs erreurs. Cette transparence et la possibilité laissée aux utilisateurs de faire appel d’une de nos décisions, qui est aussi une exigence du DSA, sont dans l’intérêt de tout le monde.

Mme Laure Miller, rapporteure. Je comprends que vous ne connaissiez pas la grille des sanctions par cœur, mais auriez-vous des exemples à nous fournir pour que nous puissions nous faire une idée ?

Mme Nicky Soo. La publication d’un seul discours de haine, par exemple, entraîne le bannissement immédiat de la plateforme. En cas d’infraction considérée comme mineure, l’interdiction peut intervenir après deux ou trois publications. Tout dépend aussi du format du contenu – vidéo ou commentaire. Je vous transmettrai cette grille.

M. le président Arthur Delaporte. Vous avez indiqué travailler avec des organisations, dont Stop Fisha et l’Umicc. Lesquelles vous font part de signalements ?

Mme Nicky Soo. Nous travaillons avec e-Enfance pour la sécurité des plus jeunes, Génération numérique pour l’éducation aux médias et Point de contact pour la lutte contre les discours de haine. Ces trois associations, qui sont des signaleurs de confiance, ont accès à un canal dédié : leurs signalements sont transmis directement à l’équipe Trust and Safety et sont traités en priorité. Point de contact a rejoint récemment notre comité européen pour la sécurité, le European Safety Advisory Council, ce qui nous permettra de collaborer plus étroitement et de bénéficier d’une expertise locale.

M. le président Arthur Delaporte. Outre Stop Fisha et l’Umicc, quelles sont les organisations qui ne sont pas des signaleurs de confiance avec lesquelles vous collaborez ?

Mme Nicky Soo. Je vous en transmettrai la liste.

M. le président Arthur Delaporte. Nous avons auditionné Mme Shanley Clemot McLaren, de l’association Stop Fisha. Elle a indiqué qu’il lui était arrivé de signaler des « chiffres qui font référence à l’Holocauste ou à des codes antisémites » et que « les retours qu’elle a reçus indiquaient qu’ils ne contrevenaient pas aux règles d’utilisation de TikTok ».

Confirmez-vous que les chiffres qui font référence à l’Holocauste ou à des codes antisémites ne contreviennent pas aux règles d’utilisation de TikTok ?

Mme Brie Pegum. Les symboles antisémites ne sont pas tolérés, car l’antisémitisme est interdit sur la plateforme. Nous faisons de notre mieux pour l’expliquer à nos modérateurs. Notre algorithme est capable de détecter des symboles et des éléments visuels qui font référence à l’Holocauste, lesquels ne sont pas autorisés sur la plateforme.

M. le président Arthur Delaporte. Le cas que j’évoquais est donc une erreur de modération ?

Mme Brie Pegum. J’ai l’impression, en effet.

M. le président Arthur Delaporte. La personne qui relate ces cas collabore avec vous. Elle est sérieuse. On ne peut donc pas remettre en cause sa capacité à identifier ces signes.

Elle nous a également indiqué que lorsqu’elle signale des contenus en tant que simple utilisatrice, ceux-ci ne sont pas supprimés. En revanche, quand elle les signale au nom de son organisation, ces contenus sont supprimés dans la plupart des cas. Comment expliquez-vous cette différence de traitement ? Ne décourage-t-elle pas les utilisateurs qui ne sont pas des organisations identifiées à signaler des contenus ?

Mme Brie Pegum. Comme l’a dit Mme Nicky Soo, nous répondons en priorité à nos signaleurs de confiance, dont les signalements sont directement envoyés à une équipe de modérateurs spécialisés. Cela étant, nous invitons tous nos utilisateurs à signaler des contenus problématiques. C’est un canal supplémentaire. Toutes les voies de signalement comptent.

M. le président Arthur Delaporte. Comment expliquez-vous cette différence, qui n’est pas seulement une question de priorité de traitement, mais aussi de nature de réponse ?

Mme Nicky Soo. Ce qui est très précieux, avec les signaleurs de confiance, est qu’ils ont l’expertise nécessaire pour nous aider à comprendre qu’un contenu viole véritablement les règles de la communauté. C’est la raison pour laquelle le traitement de leurs signalements est prioritaire : s’ils font un signalement, la violation des règles est très certainement avérée. Nous pouvons alors supprimer rapidement les contenus signalés. Je ne dis pas que nous accordons un moindre intérêt aux signalements effectués par les autres utilisateurs, mais vu le volume de contenus, accorder la priorité aux signalements les plus fiables permet de systématiser le traitement des contenus problématiques.

M. le président Arthur Delaporte. Comment expliquez-vous que quand la même personne fait deux fois le même signalement, le contenu soit considéré comme violant les règles dans un cas et pas dans l’autre ?

Mme Nicky Soo. Sans élément plus précis, j’aurai du mal à vous répondre.

Ce que je peux vous dire, c’est que lorsque nous prenons une décision de modération, nous la renseignons dans le modèle de modération automatique pour détecter des violations similaires par la suite. Cela nourrit le catalogue de signaux problématiques.

Cependant, les utilisateurs peuvent contourner ces barrières en apportant de légères modifications qui éviteront à leur contenu d’être détecté par l’outil de modération. Nous avons une marge d’amélioration dans ce domaine, nous en avons pleinement conscience.

Mme Laure Miller, rapporteure. Compte tenu du nombre de contenus diffusés chaque minute, nous pouvons entendre que la modération soit complexe. Pour autant, il arrive que des personnalités suivies par de nombreux utilisateurs, dont les comptes sont connus de tous, publient régulièrement des contenus problématiques. Nous avons reçu l’une d’entre elles mardi – je ne vais pas refaire sa publicité en la nommant. Vous dites que les discours de haine sont systématiquement bannis. Pourtant, les discours sexistes de cet influenceur pourraient être considérés par tous comme des discours de haine. Il dit qu’il faut « donner des gifles » et « punir sa femme », en employant des termes extrêmement dégradants. Son compte n’est pas marginal, il est suivi par des millions de personnes. Comment expliquer que des comptes connus de tous ne soient pas modérés, voire bannis comme ils devraient l’être de toute évidence ?

Par ailleurs, alors même que nous ne sommes pas spécialistes de TikTok, nous avons connaissance des moyens de contournement utilisés par les jeunes. Renseigner un émoji de zèbre dans le moteur de recherche, par exemple, permet d’accéder à des contenus relatifs à la scarification. Nous le savons depuis plusieurs semaines. Pourquoi n’êtes-vous pas plus réactifs pour supprimer ces contenus, lorsque vous avez connaissance de moyens de contournement utilisés massivement par les jeunes ?

Mme Brie Pegum. Nous voulons que les créateurs de contenu respectent les règles de la communauté et nous nous efforçons de les leur expliquer clairement. Nous ne tolérons pas les discours de haine sur la plateforme, et des mécanismes sont en place pour les détecter autant que possible. Toutefois, il est parfois difficile d’avoir une vue d’ensemble pour identifier qu’un compte ne respecte pas les règles ; c’est particulièrement vrai quand il s’attache à frôler les limites des règles de la communauté. Nos mécanismes s’y emploient néanmoins. Une fois encore, la modération s’effectue contenu par contenu.

M. le président Arthur Delaporte. « Le jour où vous abandonnez l’égalité, on en discutera. Par contre, tant que vous allez nous parler d’égalité, nous faire chier avec ça, tu mets une gifle. » Ces propos, tenus dans une vidéo, sont-ils acceptables ?

Mme Laure Miller, rapporteure. Pour vous, ce contenu est-il à la frontière de l’acceptable ou estimez-vous, comme c’est notre cas, qu’il aurait fallu le bannir ?

Mme Brie Pegum. Je ne connais pas ce contenu en particulier et je ne peux pas me prononcer sans connaître le contexte. Nous tenons à ce que notre plateforme permette aux utilisateurs d’échanger leurs points de vue, sachant que les contre‑discours, les éléments d’information et les apports journalistiques y occupent une grande place. Il est indispensable de connaître le contexte pour se prononcer.

M. le président Arthur Delaporte. Ce sont les propos d’un influenceur qui donne des conseils et vend par ailleurs des formations. Il dit dans une vidéo : « Si ta femme s’habille comme une pute, c’est une pute. Si elle ne veut pas donner son téléphone, c’est une pute. » Ce type de propos est-il contraire aux règles de la plateforme ?

Mme Nicky Soo. Nous ne pouvons pas commenter ces propos sans avoir vu la vidéo dans sa totalité. Pouvez-vous nous l’envoyer ? Nous vous apporterons alors une réponse détaillée. De façon générale, comme l’a rappelé ma collègue, nous sommes preneurs des retours et menons des investigations en conséquence.

Mme Laure Miller, rapporteure. Ces contenus proviennent d’un compte qui a été signalé il y a plusieurs jours par la ministre Aurore Bergé. Votre absence de réaction nous conduit à nous interroger. En dix jours, TikTok aurait pu se pencher sur ces contenus et, si la modération avait considéré qu’ils contrevenaient aux règles d’utilisation de la plateforme, les supprimer. Cet exemple nous permet d’affirmer que ce que vous nous exposez est en complet décalage avec la réalité.

Considérez-vous normal qu’il faille qu’une ministre intervienne pour que des comptes de toute évidence problématiques, suivis par des millions de personnes, soient bannis ? Celui d’AD Laurent l’a été, mais celui que nous venons d’évoquer ne l’est toujours pas. Or la façon dont il parle des femmes est inadmissible dans notre pays. N’avez-vous pas une cellule de veille spécifique pour les comptes les plus suivis ?

M. le président Arthur Delaporte. Vous êtes accompagnées de votre conseil, et Mme Masure, que nous auditionnerons après vous, suit probablement cette audition. Aussi me permettrai-je de vous demander de nous apporter des réponses cet après-midi concernant les contenus et les comptes d’influenceurs que Mme Bergé a signalés, en particulier les propos précis que je viens de citer. Cela vous laisse plusieurs heures pour les analyser et essayer de nous expliquer pourquoi ils sont toujours en ligne malgré un signalement des plus hautes autorités de l’État.

Ces contenus, qui nient l’égalité entre les hommes et les femmes, sont contraires aux conditions générales d’utilisation de la plateforme selon lesquelles ne doit pas être publié tout contenu « qui contient une menace de quelque nature que ce soit […], qui contient ou promeut la violence ou la discrimination fondée sur la race, l’origine ethnique, la nationalité, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre, la maladie grave, le handicap […] ».

Si un compte promeut ce type de discours, est-il immédiatement banni ou fait-il l’objet d’un avertissement ? Il s’agit d’une question générale, qui ne concerne pas seulement le cas spécifique que j’ai cité.

Mme Nicky Soo. Nous ne manquerons pas d’analyser ce cas et nous vous fournirons une réponse. De façon générale, nous ne tolérons pas de tels propos.

M. le président Arthur Delaporte. Nous en venons aux questions des députés relatives à la modération des contenus, avant de passer à la thématique des lives.

Mme Sophie Taillé-Polian (EcoS). En vous écoutant, nous sommes frappés par une forme de paradoxe. Vous affirmez que vous œuvrez au quotidien pour faire de TikTok un lieu sûr, dans lequel la créativité s’épanouit. Or dans notre pays, le ressenti général est que TikTok n’est pas un lieu sûr dans lequel la créativité s’épanouit, mais potentiellement un lieu dangereux, en particulier pour les mineurs.

Ma question concerne les recommandations. Certains contenus contreviennent totalement et délibérément aux règles. Vous avez expliqué votre politique en la matière, avec les failles qu’ont mises en avant le président et la rapporteure.

Une exposition même unique à un contenu peut constituer un risque. En l’occurrence, une vidéo contenant des propos comme ceux qui ont été cités doit immédiatement être retirée. Une autre forme de risque pour la santé psychique tient à l’exposition régulière d’adolescents à des contenus qui traitent de sujets qui les fragilise. Comment faire pour que ces adolescents ne soient pas cloisonnés par un algorithme de recommandation qui leur propose des contenus toujours identiques, dans une vision du monde problématique pour leur santé ? Ces contenus ne contreviennent pas nécessairement aux règles, mais ils baignent les utilisateurs dans un environnement de violence ou de sexisme et leur font énormément de mal du fait d’une exposition massive, renouvelée et régulière liée à l’algorithme de recommandation.

Mme Nicky Soo. La sécurité est au cœur de notre système de recommandation, en particulier s’agissant des jeunes. Comme je l’ai déjà indiqué, certains contenus ne sont pas éligibles au dispositif de recommandation pour les jeunes.

Vous avez mentionné la santé mentale liée à l’exposition répétée à certains contenus. Nous traitons ce risque par des techniques de dispersion, alimentées par des modèles d’apprentissage automatique, de sorte que le fil « Pour toi » ne recommande pas en série des vidéos similaires qui, sans violer les règles de la communauté, peuvent avoir un impact sur le bien-être si elles sont visionnées de façon répétée.

Nous offrons aussi la possibilité aux utilisateurs d’influencer la recommandation. Ils peuvent ainsi renseigner les hashtags ou les mots-clés correspondant à des contenus qui ne les intéressent pas ou qu’ils n’aiment pas. Les parents peuvent aussi s’assurer que les contenus qui ne sont pas bons pour leurs enfants ne soient pas visibles.

En application du DSA, nous proposons désormais un fil non personnalisé. Les utilisateurs européens peuvent ainsi désactiver la fonction de recommandation personnalisée –la procédure est très facile – et découvrir les contenus qui sont les plus populaires sur la plateforme.

Nous avons lancé l’année dernière le fil Stem, consacré à des sujets scientifiques, qui mobilise une communauté formidable et rencontre un grand succès en Europe. Il est activé par défaut pour les jeunes utilisateurs. En France, plus de trente créateurs en font partie, dont Le Monde, et 27 % des adolescents le consultent une fois par semaine. Outre nos efforts pour rendre la recommandation plus sûre, nous diversifions donc les contenus proposés pour que les jeunes puissent découvrir et apprendre de nouvelles choses.

Mme Claire Marais-Beuil (RN). Certains défis et challenges, que l’on trouve à profusion sur TikTok, sont extrêmement dangereux, comme le « paracétamol challenge » ou le « blackout challenge » qui a entraîné entre vingt et quatre-vingts morts.

Outre ces challenges qui font encourir un danger immédiat, il existe des défis plus pernicieux, comme la « zizi dance ». Il a fallu un signalement de la police pour le retirer, d’autant que ces vidéos pouvaient être diffusées par des enfants de 7 à 11 ans – signe que TikTok vérifie très peu l’âge des détenteurs de comptes. C’est dangereux, avec toute la perversion que cela peut nourrir, en l’occurrence la pédocriminalité. Quant au défi « superman dance », il entraîne des risques de chute et de coma.

D’autres tendances sont tout aussi pernicieuses. Nous parlions du hashtag #SkinnyTok, or je viens de voir à l’instant un défi consistant à ne manger que des aliments classés D et E au nutri-score. C’est extrêmement dangereux pour la santé.

Quand vous voyez que le « paracétamol challenge » incite à avaler le plus grand nombre possible de comprimés de paracétamol, pourquoi vous faut-il du temps avant de le retirer de la plateforme ? Pourquoi attendez-vous qu’il y ait des décès ? Il y a quelques jours, une jeune femme est morte pour avoir inhalé un spray antipoussière, pour relever un défi.

Vous comprenez bien que ces challenges sont extrêmement dangereux. Il suffit de les regarder une fois pour le mesurer. Pourquoi attendez-vous si longtemps avant de les bannir et de les retirer ?

Mme Nicky Soo. Nous prenons ces défis et ces challenges très au sérieux ; les règles de la communauté interdisent les actes dangereux et les contenus qui les promeuvent. Nous sommes vraiment volontaristes en la matière, puisque nous retirons de façon proactive 99,5 % des contenus de ce type.

Nos équipes ont effectué des recherches sur le « paracétamol challenge » et n’en ont pas trouvé de preuve sur TikTok. Un rapport indépendant du Washington Post a également montré que certains des défis que vous avez mentionnés avaient été lancés par d’autres plateformes et qu’on ne les trouvait pas sur TikTok.

Quoi qu’il en soit, nous prenons les défis dangereux très au sérieux. Non seulement nous retirons les contenus correspondants, mais nous envoyons également aux utilisateurs qui font des recherches à leur sujet des messages articulés autour du mot d’ordre « arrête, réfléchis, décide, agis », conçus en collaboration avec le London Safeguarding Children Partnership qui a établi des procédures en matière de protection de l’enfance. Plus largement, nous avons lancé avec cette organisation un projet dans le cadre duquel nous avons sollicité plus de 10 000 jeunes pour qu’ils nous expliquent comment nous pouvons les accompagner et les soutenir.

J’ajoute que les vidéos dans lesquelles un professionnel accomplit un acte périlleux sont accompagnées de la mention « réalisé par un professionnel, à ne pas reproduire chez vous ».

M. le président Arthur Delaporte. Je propose de passer aux questions relatives aux lives. Nous reviendrons éventuellement sur la modération, puisque les deux sujets sont liés.

Mme Laure Miller, rapporteure. Une équipe de modérateurs est-elle consacrée aux lives ? Le cas échéant, combien de modérateurs y sont affectés et quel est le nombre de modérateurs de lives francophones ?

Par ailleurs, comment détectez-vous les contenus inappropriés, dégradants ou dangereux dans les lives ?

M. Vincent Mogniat-Duclos. L’équipe de modération des lives et l’équipe Trust and Safety, qui traitent l’ensemble du contenu sur la plateforme, agissent en totale indépendance. Comme je l’ai précisé dans mon propos liminaire, mon équipe et moi-même sommes là pour accompagner les créateurs. Nous ne pouvons donc pas être à la fois juge et partie. Nous sommes soumis aux règles de la modération de la plateforme et nous ne pouvons pas influer sur les sanctions ou les décisions prises au sujet d’un contenu posté par un utilisateur. Il était important de le préciser.

Je laisse ma collègue répondre à la question concernant l’existence d’équipes dédiées aux lives.

Mme Brie Pegum. Tout le contenu est modéré, quelle que soit sa forme.

Les lives sont difficiles à modérer puisque, par définition, ils sont en direct. Nous leur appliquons des modèles capables de détecter des signaux évoquant de la violence ou des propos contrevenant aux règles de la communauté. Le cas échéant, nous analysons ces contenus en direct, comme nous le faisons pour les vidéos postées sur la plateforme, et interrompons le live s’il enfreint nos règles.

Nous avons également des systèmes de détection précoce de potentielles violations des règles pendant une diffusion en live, et nous essayons de faire des retours aux créateurs pour leur faire comprendre qu’ils sont peut-être en train de diffuser du contenu problématique et pour les encourager à éviter ce genre de comportement. Notre politique de sensibilisation est essentielle pour nous assurer que nos utilisateurs respectent bien les règles de la communauté, en particulier dans un contexte aussi immédiat que la diffusion en direct.

Enfin, si l’on détecte des signaux de menace en direct, en particulier à l’encontre de la vie d’une personne, une équipe spécialisée prévient les autorités de police locales.

Mme Laure Miller, rapporteure. Quels sont les liens entre TikTok et les agences spécialisées dans les lives ? Comment TikTok les rémunère-t-il ? Nous en avons auditionné une, dont le représentant évoquait l’existence d’un score de santé pour ces agences. Pouvez-vous nous en dire plus, et évoquer également les amendes qui peuvent être prononcées ? Comment vous organisez-vous pour sanctionner les agences en fonction de la qualité de leur contenu ? Disposez-vous d’une grille objective ?

M. Vincent Mogniat-Duclos. Je vous remercie d’aborder la question des agences. Ces agences externes spécialisées dans le live streaming, avec lesquelles nous travaillons, sont importantes pour relayer les règles de la plateforme. Elles découvrent, recrutent et accompagnent les talents pour leur permettre de s’améliorer et de se professionnaliser dans le live. Ce faisant, elles nous permettent de toucher un grand nombre de créateurs et de relayer les bonnes pratiques de la plateforme.

Ces agences sont rémunérées par TikTok et peuvent recevoir des pénalités si leurs créateurs ne respectent pas les règles de la plateforme. L’objectif de ces mécanismes est de responsabiliser tout l’écosystème. La personne que vous avez interrogée la semaine dernière indiquait qu’elle veillait à ne pas être pénalisée en accompagnant correctement ses créateurs.

Par ailleurs, vous avez fait référence au score de santé, ou health score. Ce score démarre à 100 points, lorsqu’une agence commence sur la plateforme. L’agence peut perdre des points et recevoir des pénalités, y compris financières, si elle enfreint certaines règles de la communauté.

Mme Laure Miller, rapporteure. Dans ce fabuleux monde des lives, il y a aussi les live matches. Quelle est la moyenne du temps passé sur un live match ? Avez-vous une idée des montants dépensés sur ces contenus ?

M. Vincent Mogniat-Duclos. TikTok Live est une plateforme sur laquelle des dizaines de millions de personnes échangent avec leur communauté et apprécient ces interactions en direct. Cela reste un divertissement de niche. Il est assez impressionnant, et même déroutant, lorsqu’on lance son premier live, de se retrouver face à un écran noir et de simplement voir les commentaires et les réactions de son audience.

Les live matches sont une fonctionnalité créative qui permet de diviser l’écran en autant de parties qu’il y a de créateurs, ceux-ci interagissant simultanément. Un match dure cinq minutes. Les participants gagnent des points en fonction du nombre de « j’aime » ou de cadeaux virtuels offerts par le public. À l’issue des cinq minutes, celui qui a obtenu le plus de points remporte le match. Les créateurs sont libres d’en lancer un nouveau, de changer d’opposant ou de continuer un live hors match.

M. le président Arthur Delaporte. Quelle est la valeur des cadeaux ?

M. Vincent Mogniat-Duclos. Il existe des cadeaux pour tous les budgets. Le premier niveau est une rose virtuelle qui vaut une pièce, soit quelques centimes.

M. le président Arthur Delaporte. Qu’entendez-vous par quelques centimes ?

M. Vincent Mogniat-Duclos. Il me semble qu’une pièce équivaut à cinq centimes. Nous vous le confirmerons par écrit.

M. le président Arthur Delaporte. Quelle est la valeur du cadeau le plus cher ?

M. Vincent Mogniat-Duclos. Je n’ai pas cette information en tête. Certains cadeaux valent plusieurs dizaines ou centaines d’euros.

M. le président Arthur Delaporte. Quel est le montant moyen du cadeau par utilisateur et par match ?

M. Vincent Mogniat-Duclos. Je ne connais pas le montant moyen. Nous pourrons vous le préciser par écrit. Je sais qu’il est très faible, compte tenu de la diversité des cadeaux de quelques centimes disponibles sur la plateforme.

M. le président Arthur Delaporte. Nous attendons vraiment vos réponses. Si nous ne les recevons pas, nous n’hésiterons pas à vous convoquer à nouveau.

M. Vincent Mogniat-Duclos. J’ai pris note de votre question. Je ne veux pas dire de bêtise et je ne connais pas le montant moyen des cadeaux.

M. le président Arthur Delaporte. Je ne sais pas si vous allez de temps en temps sur des lives. Des captures d’écran montrent que les utilisateurs donnent parfois des lions, c’est-à-dire des cadeaux de plusieurs centaines d’euros, à leurs influenceurs préférés. Vous le voyez ?

M. Vincent Mogniat-Duclos. Oui. Je vous ai précisé qu’il y avait des cadeaux d’une valeur de plusieurs centaines d’euros.

M. le président Arthur Delaporte. Quel pourcentage percevez-vous sur ces cadeaux ?

M. Vincent Mogniat-Duclos. Dans un premier temps, les utilisateurs qui souhaitent envoyer des cadeaux rechargent leur portefeuille. Ils font donc une transaction d’achat de pièces. Ces pièces sont ensuite créditées dans leur portefeuille, et ils peuvent décider d’envoyer des cadeaux virtuels lorsqu’ils apprécient des contenus. C’est une marque d’appréciation. Le compte du créateur qui reçoit des cadeaux est alors crédité de diamants, lesquels peuvent être convertis en monnaie, en l’occurrence des euros, qu’ils reçoivent sur leur compte en banque.

M. le président Arthur Delaporte. Quand un utilisateur achète une pièce, prenez-vous une commission ?

M. Vincent Mogniat-Duclos. Nous percevons une commission au moment où le créateur convertit un diamant.

M. le président Arthur Delaporte. À combien de pièces équivaut un diamant ?

M. Vincent Mogniat-Duclos. Une pièce est égale à un diamant.

M. le président Arthur Delaporte. Une pièce et un diamant sont donc la même chose : on parle de pièce pour l’utilisateur qui donne, et de diamant pour le créateur qui reçoit. Quel pourcentage prélevez-vous quand le créateur encaisse ?

M. Vincent Mogniat-Duclos. Nous percevons 50 %.

M. le président Arthur Delaporte. Est-ce le pourcentage exact ?

M. Vincent Mogniat-Duclos. Oui, à ma connaissance.

M. le président Arthur Delaporte. Vous communiquez sur le top de la semaine ou le top France. Combien gagnent les gros créateurs lors des lives, par semaine ?

M. Vincent Mogniat-Duclos. Je n’ai pas d’élément précis par créateur, car c’est très variable. Certains peuvent faire des lives à un moment, puis se déconnecter pendant une période.

M. le président Arthur Delaporte. Quel est le montant moyen gagné par le top 10 en une semaine ?

M. Vincent Mogniat-Duclos. Il m’est difficile de vous répondre, parce que les créateurs peuvent réutiliser – ce qu’ils font souvent – ce qu’ils touchent en diamants pour envoyer des cadeaux virtuels à d’autres créateurs qu’ils apprécient. Tout n’est donc pas nécessairement transféré sur leur compte en banque. Dans tous les cas, mon équipe et moi n’avons pas accès à la donnée relative aux retraits sur les comptes en banque.

M. le président Arthur Delaporte. Peu importe combien ils redonnent à d’autres – à titre de comparaison, un salarié peut reverser une part de sa paie à un tiers, mais ce qui compte est le salaire qu’il reçoit. En l’occurrence, combien les grands créateurs de lives reçoivent-ils ?

M. Vincent Mogniat-Duclos. Nous vous répondrons précisément par écrit. Je ne voudrais pas être imprécis.

M. le président Arthur Delaporte. Nous avons déjà posé cette question par écrit.

Des systèmes permettent de se faire une idée. Quel est leur degré de précision ? Reflètent-ils la réalité ?

M. Vincent Mogniat-Duclos. Je ne sais pas à quels systèmes vous faites référence exactement. Pour préciser ma réponse, certains top livers reçoivent l’équivalent de plusieurs dizaines de milliers d’euros par mois sur TikTok Live. Ce n’est pas représentatif de tout ce qui se passe sur le live. Cela concerne les créateurs du top 10, donc des exceptions. Par ailleurs, je précise qu’ils gagnent « l’équivalent » de plusieurs dizaines de milliers d’euros, car ces montants ne sont pas nécessairement encaissés sur leur compte en banque. Ils peuvent être redistribués, conservés, ou retirés après commission.

M. le président Arthur Delaporte. Existe-t-il des systèmes de bonification pour les premiers du classement ? Le nombre de diamants des meilleurs créateurs est-il abondé ?

M. Vincent Mogniat-Duclos. En France et en Belgique, non.

M. le président Arthur Delaporte. Comprenez-vous que cette possibilité de gagner beaucoup d’argent grâce aux lives donne envie à d’autres utilisateurs de se lancer, car ils y voient une promesse d’argent facile ?

M. Vincent Mogniat-Duclos. Il est vrai qu’on peut être attiré par le live pour ses récompenses, mais je ne sais pas si c’est facile. Si vous ou moi lancions un live, nous n’aurions peut-être pas beaucoup de supporters.

Mme Brie Pegum. Permettez-moi de préciser, dans la mesure où votre commission s’intéresse aux impacts sur la santé mentale des jeunes, que les moins de 18 ans n’ont pas le droit de faire des lives. Les utilisateurs de moins de 18 ans n’ont pas non plus de portefeuille, et ne peuvent donc pas envoyer de cadeaux.

M. le président Arthur Delaporte. Reconnaissez que certains jeunes mentent sur leur âge. Ils ont moins de 18 ans, mais sont identifiés sur la plateforme comme majeurs. Cela arrive.

Mme Nicky Soo. Bien sûr, nous en avons conscience. Nous ne nous enquérons pas de l’âge uniquement à la création du compte, mais recourons aussi à différents systèmes de vérification ultérieurs, pour nous assurer que les utilisateurs sont majeurs. En cas de suspicion, les comptes sont supprimés.

M. le président Arthur Delaporte. Quand je me rends dans une classe de CM2 ou de sixième, je demande toujours aux élèves s’ils ont TikTok et la moitié d’entre eux acquiescent –cela correspond aux statistiques des instituts de sondage ou de Médiamétrie. Je leur demande aussi s’ils regardent des lives. La proportion est plus faible, mais elle peut représenter deux à quatre jeunes par classe de vingt‑cinq à trente élèves. Certains ont même déjà reçu des pièces ou des coffres. Et parfois, ils utilisent le compte ApplePay de leurs parents pour acheter des pièces.

La réalité empirique, fondée sur les témoignages de mineurs qui n’ont aucun intérêt à mentir, est que des jeunes participent aux lives.

Par ailleurs, le fait que des créateurs de lives gagnent plusieurs dizaines – voire des centaines – de milliers d’euros par mois et affichent leur richesse rend encore plus accro à ce système, qui est construit sur une mécanique de gamification. Quand on regarde un live, on a l’impression d’être dans un jeu vidéo. Reconnaissez‑vous ce côté addictif et gamifié ? Reconnaissez-vous que cela peut donner envie à des jeunes d’y participer ?

Mme Nicky Soo. Nous comprenons votre inquiétude concernant le temps passé sur TikTok. Nous prenons des mesures pour nous assurer que nos plus jeunes utilisateurs n’y passent pas trop de temps, grâce à différentes solutions comme la limitation à soixante minutes quotidiennes pour les 13-17 ans.

M. le président Arthur Delaporte. Vous parlez du mécanisme général de contrôle et de limitation du temps d’écran pour les mineurs, mais ce n’était pas ma question, qui portait sur le caractère addictif, le modèle de gamification et la représentation sociale que peut renvoyer un créateur de lives qui gagne plusieurs centaines de milliers d’euros par mois.

Mme Nicky Soo. Les deux sont liés. La plateforme est conçue dans son ensemble, y compris s’agissant des lives, pour tenir compte de l’âge des utilisateurs. Les mécanismes de limitation que j’ai évoqués s’appliquent aussi au visionnage de lives.

Il faut par ailleurs distinguer le diagnostic clinique d’une addiction et son acception plus commune. Les relations entre le temps passé sur les réseaux sociaux, l’addiction et le bien-être sont complexes ; la recherche n’a pas abouti à des conclusions définitives sur le sujet. La France a d’ailleurs créé une commission l’an dernier sur l’exposition des enfants aux écrans.

M. le président Arthur Delaporte. Ma question porte sur le caractère addictif entendu au sens commun, pas sur la définition clinique de l’addiction. Reconnaissez-vous que le modèle des lives et le modèle de réussite sociale de livers qui gagnent énormément d’argent peuvent engendrer des difficultés, notamment chez les plus jeunes ?

M. Vincent Mogniat-Duclos. Votre question porte sur deux éléments : l’accès aux mineurs et l’addiction. Je tiens à préciser que les mineurs ne peuvent pas lancer de live. Nous sommes particulièrement stricts en la matière. Dans tous les cas, avant tout lancement d’un live, nous vérifions la pièce d’identité de l’utilisateur, puis nous exigeons qu’il prenne un selfie en tenant un morceau de papier sur lequel est mentionné un code fourni par l’application. C’est le prérequis pour lancer un live.

J’en viens à l’autre partie de votre question, relative à l’addiction.

D’abord, l’envoi d’un cadeau virtuel n’est pas lié à un prélèvement automatique sur un compte en banque. Une première friction, ou étape, consiste à recharger son portefeuille en pièces. On voit alors le montant, en euros et en pièces, dont on sera crédité. On ne peut donc dépenser sans compter parce qu’on serait pris dans l’engouement d’un live. Ce n’est pas possible.

Ensuite, plusieurs fonctionnalités sont mises à disposition des utilisateurs, comme la possibilité de recevoir un rappel lorsqu’un certain montant de pièces a été dépensé.

En tant qu’acteur responsable, nous avons instauré un grand nombre de garde-fous. Ma collègue rappelait les règles de modération qui s’appliquent, et qui sont particulièrement strictes sur TikTok Live. Voir des créateurs gagner beaucoup d’argent grâce aux lives peut susciter des vocations, mais les mineurs ne peuvent pas devenir des streamers sur TikTok Live.

Mme Laure Miller, rapporteure. Un mineur ne peut pas lancer un live, mais peut-il participer à un live, le regarder ?

M. Vincent Mogniat-Duclos. Oui, avec certains garde-fous. En dessous de 13 ans, on ne peut pas regarder de live. Entre 13 et 17 ans, on peut regarder les lives des comptes que l’on suit, et le fil ne propose pas de lives.

En outre, si TikTok remarque qu’un live diffuse du contenu qui n’est pas approprié aux mineurs, l’accès est restreint aux majeurs.

Enfin, il faut être majeur pour donner des cadeaux virtuels.

Mme Laure Miller, rapporteure. Vous avez indiqué, dans vos réponses écrites à notre questionnaire, que vous démonétisiez les lives dont les utilisateurs mineurs étaient le sujet principal ou les principaux participants. Pourquoi n’interrompez-vous pas tout simplement ce type de lives ?

M. Vincent Mogniat-Duclos. Nous effectuons une détection permanente sur les lives. Si des mineurs y apparaissent, parce qu’un adulte filme un moment de vie anodin pendant ses vacances en famille par exemple, la modération le détecte mais nous ne mettons pas fin au live. En revanche, si un utilisateur mettait en scène ses enfants pour obtenir des cadeaux virtuels, cela irait absolument à l’encontre des règles de la communauté. Des sanctions seraient appliquées, la première consistant à couper immédiatement le live.

Mme Laure Miller, rapporteure. Comment expliquez-vous que lorsqu’un compte mineur veut participer à un live, on lui propose, voire on l’incite à modifier sa date de naissance pour pouvoir acheter des cadeaux virtuels ? Cette question reflète la réalité. Nous avons effectué ce test.

M. Vincent Mogniat-Duclos. Pourriez-vous nous transmettre ces éléments ? Cela ne me semble ni normal ni conforme à notre philosophie. Normalement, si une personne mineure change sa date de naissance, une sanction est prise et son compte est bloqué.

M. le président Arthur Delaporte. J’ai un conseil à vous donner : créez‑vous un compte TikTok avec un âge inférieur à 18 ans et essayez de participer à un live. Il vous sera mécaniquement proposé de modifier votre date de naissance.

M. Vincent Mogniat-Duclos. J’essaierai. Merci de nous avoir signalé ce problème.

M. le président Arthur Delaporte. Nous avons reçu des témoignages de parents dont la fille, mineure, faisait des lives et recevait de l’argent de la part de TikTok. Ses parents ont contacté TikTok pour qu’il mette fin à ces transferts d’argent, mais la plateforme a refusé d’accéder à leur demande. Est-ce normal ?

M. Vincent Mogniat-Duclos. Avait-elle un compte d’utilisateur mineur ?

M. le président Arthur Delaporte. Ce compte était considéré comme celui d’un majeur par TikTok, mais il était en réalité utilisé par une mineure.

La mère a pris conscience que sa fille faisait des lives et recevait de l’argent de TikTok. Elle a demandé à la plateforme de bloquer l’accès de sa fille aux lives, en envoyant une copie de la pièce d’identité de l’intéressée, et de cesser de lui verser de l’argent. TikTok n’a pas répondu positivement à sa demande. Est-ce normal ?

M. Vincent Mogniat-Duclos. Si je comprends bien, un compte a été créé en présentant une pièce d’identité et un selfie ?

M. le président Arthur Delaporte. Pas nécessairement. Quand j’ai créé un compte, TikTok ne m’a jamais demandé ma pièce d’identité. Il suffit qu’un enfant crée un compte sans que son identité soit vérifiée pour qu’il soit considéré comme majeur et puisse recevoir de l’argent. C’est le cas que je relate.

Mme Nicky Soo. Sans entrer dans le détail de ce cas, car je n’ai pas les preuves sous les yeux – mais je serai ravie de les étudier –, nous utilisons les retours de la communauté pour supprimer les comptes dont l’utilisateur est suspecté de ne pas avoir l’âge requis. Nous regarderons de près la situation que vous citez, mais elle n’aurait pas dû avoir lieu. Elle ne correspond pas du tout à nos règles.

Il est vrai que certains utilisateurs mentent sur leur âge. Nous faisons notre possible pour les identifier – nos équipes donnent une priorité absolue à la sécurité. Des signalements comme celui que vous avez mentionné permettent d’identifier un compte qui ne remplit pas les critères d’âge. En outre, si la modération suspecte la présence de jeunes utilisateurs dans une vidéo, nos spécialistes procèdent à une analyse et, le cas échéant, ferment le compte.

Je regarderai de plus près le cas que vous évoquez, mais je vous affirme qu’il ne correspond pas à notre philosophie et qu’il n’aurait pas dû se produire. Nous travaillons avec plusieurs partenaires, comme Telefónica, pour améliorer notre système de détection de l’âge des utilisateurs.

M. le président Arthur Delaporte. Avez-vous une adresse e-mail dédiée au signalement en français de ce type de contenu ? Les parents qui cherchent à obtenir un contact humain pour traiter des cas parfois complexes se sentent démunis.

Mme Nicky Soo. Je vous enverrai l’adresse du site internet sur lequel il est possible de déposer des signalements. Cette fonctionnalité est également disponible sur l’application.

M. le président Arthur Delaporte. N’envisagez-vous pas de créer une adresse e-mail simple, lue par des personnes physiques, pour que les parents puissent signaler des cas complexes et inquiétants, qui ne doivent pas être trop nombreux ? Il est difficile de renseigner les formulaires de signalement, et cela donne le sentiment d’être face à des machines. De plus, comme je l’ai démontré tout à l’heure, une personne qui fait un signalement n’obtient pas la même réponse selon qu’elle est une simple utilisatrice – auquel cas elle se retrouve face à une IA – ou qu’elle est identifiée comme un signaleur de confiance.

Mme Nicky Soo. Je soumettrai votre proposition à notre équipe. Nous sommes conscients de ces préoccupations et nous échangeons beaucoup avec les parents. Nous veillons à proposer des moyens aussi simples que possible de signaler des contenus ou des comptes, que ce soit sur l’application ou sur notre site internet.

En 2024, en France, nous avons interdit 642 120 comptes dont l’utilisateur était suspecté d’avoir moins de 13 ans. Il y en a 6 millions par mois dans le monde. Nous sommes la seule plateforme à publier cette information. Nous prenons ce sujet très au sérieux, et nous savons que nous devons sans cesse nous améliorer. Nous avons la responsabilité de nous assurer que la plateforme n’est accessible qu’à partir de 13 ans.

M. le président Arthur Delaporte. Une classe d’âge compte 800 000 enfants en France, et environ la moitié des enfants de 11 ans sont inscrits sur TikTok – soit 400 000 comptes, que nous multiplions par trois ans. Cela signifie qu’il existe près de 1 million de comptes d’enfants de moins de 13 ans que vous n’identifiez pas nécessairement.

Mme Nicky Soo. La vérification de l’âge est un enjeu majeur pour notre industrie en général, et nous sommes constamment en quête de solutions innovantes en la matière, qui protègent la vie privée. Au-delà de l’âge déclaré à l’inscription, nos outils passent en revue les comptes pour détecter les utilisateurs qui n’auraient pas l’âge requis. Là encore, cela demande de s’améliorer en permanence – c’est un travail sans fin.

Quoi qu’il en soit, les chiffres que j’ai cités montrent que nous considérons cette question avec le plus grand sérieux et que nous prenons des mesures – nos partenaires, comme Telefónica, nous aident à les renforcer. Nous entretenons un dialogue soutenu avec les parties prenantes, notamment les régulateurs et d’autres plateformes, dans le cadre de WeProtect Global Alliance et du Centre for Information Policy Leadership, pour trouver des solutions de vérification de l’âge. Nous vous communiquerons les rapports issus de ces travaux, qui sont publics.

Mme Laure Miller, rapporteure. Qu’est-ce qui vous empêche de faire mieux que les autres et d’instaurer un système de vérification d’âge pour éviter que de nombreux jeunes de moins de 13 ans soient présents sur votre plateforme ? Rien !

Mme Nicky Soo. Cette question concerne toute l’industrie. Nous devons concilier la sécurité et la protection des données privées. Nous explorons toutes les solutions, y compris les plus innovantes, raison pour laquelle nous nouons des partenariats avec des acteurs extérieurs.

Mme Laure Miller, rapporteure. Des solutions existent déjà, même si elles sont imparfaites. Pourquoi n’en retenez-vous pas d’ores et déjà une pour vérifier l’âge des personnes qui s’inscrivent sur votre plateforme ?

Mme Brie Pegum. Nous utilisons différents systèmes et mécanismes de contrôle de l’âge. Nous appliquons aussi le DSA et nous attendons les nouvelles directives relatives à son article 28 sur la protection des mineurs en ligne. C’est notre responsabilité.

Dans le même temps, notre approche doit être équilibrée. Nous devons déterminer quels éléments de vérification concrets nous pouvons demander aux utilisateurs, en fonction de l’expérience qu’ils veulent vivre sur la plateforme. Les créateurs de lives, par exemple, sont soumis à une vérification formelle car nous estimons que ces contenus présentent davantage de risque. Si un utilisateur veut faire appel, au motif que nous l’aurions considéré à tort comme trop jeune, des outils lui permettent de nous communiquer des éléments personnels comme la photo de sa carte d’identité, mais tout le monde ne dispose pas d’un document d’identité officiel.

Mme Laure Miller, rapporteure. Vous ne répondez pas directement à ma question. Rien, techniquement, ne vous empêche d’appliquer une solution, même imparfaite, pour renforcer la vérification de l’âge à l’inscription. Cela n’aurait pas d’impact économique puisque, comme l’ont expliqué vos collègues lors d’une précédente audition, votre cœur de cible publicitaire est les utilisateurs majeurs, en particulier les 25-35 ans. Vous y gagneriez même l’image d’une plateforme plus fiable.

Mme Brie Pegum. Nous sommes capables d’estimer l’âge d’un utilisateur et d’empêcher qu’il soit ciblé par des publicités. Toutefois, avant de se prononcer de façon définitive sur l’âge d’une personne, il faut être sûr de son fait. C’est pourquoi nous travaillons avec différentes technologies et suivons les lignes directrices de la Commission européenne pour identifier la solution globale la plus adaptée.

M. le président Arthur Delaporte. Quelle est la marge d’erreur lorsque vous estimez l’âge à partir du comportement et de l’apparence physique ? Les comportements ne sont pas fondamentalement différents selon qu’on a 17 ou 18 ans.

Mme Brie Pegum. Nos systèmes d’estimation ne visent pas à déclarer l’âge de l’utilisateur, mais plutôt à soumettre les comptes suspects aux modérateurs humains. Si un doute persiste, nous pouvons demander à l’utilisateur d’apporter des preuves supplémentaires de son âge.

M. le président Arthur Delaporte. Si la marge d’erreur est d’un an et demi, vous pouvez considérer qu’un utilisateur de 17 ans a 18 ans et demi. Par ailleurs, il est sans doute difficile de s’apercevoir qu’un utilisateur qui se déclare majeur n’a en fait que 15 ans, ou que celui qui dit avoir 13 ans n’en a que 11.

Mme Brie Pegum. Quand nous avons le sentiment qu’un utilisateur ment sur son âge, au vu d’éléments observés sur son compte, nous demandons aux modérateurs humains de détecter son âge. Quand ces derniers ne peuvent pas se prononcer, nous bannissons le compte. Si l’utilisateur en question a bien l’âge requis, il peut faire appel de cette décision et nous fournir des preuves en utilisant une des technologies auxquelles vous faites référence, qui empiètent sur la protection de la vie privée.

M. le président Arthur Delaporte. J’en reviens à notre discussion sur le design addictif, non pas au sens scientifique du terme, mais au sens de la captation de l’attention pour donner envie aux utilisateurs de rester. Confirmez-vous que le processus du live est conçu pour capter l’attention et ressembler à un jeu ?

M. Vincent Mogniat-Duclos. Le live ne contient pas de publicité. Le modèle de monétisation est donc différent. Il est plus direct qu’un modèle publicitaire.

M. le président Arthur Delaporte. Plus on reste, plus on est accro, plus on est pris et plus et on a envie de donner. J’ai suivi plusieurs heures de live : on finit par devenir dingue ! On a envie de donner et de participer, on est dans la team ! Vous arrive-t-il de regarder des lives pendant plusieurs heures ? N’avez-vous pas envie d’entrer dans la team ?

M. Vincent Mogniat-Duclos. Mon travail et celui de mon équipe consistant à accompagner les créateurs, nous regardons bien entendu des lives. L’objectif est que les créateurs utilisent au mieux la plateforme afin de proposer un divertissement intéressant pour l’audience. Nous avons tous types de contenus – musique, sciences…

M. le président Arthur Delaporte. Nous connaissons les différents types de contenus, mais les plus grands livers ne sont pas ceux qui font de la musique. Ce sont ceux qui disent : « Allez la team, on donne ! Merci Coco Pops, Coco Pops, Coco Pops ! » Vous le voyez comme moi. Est-ce le modèle que vous encouragez ? En tout cas, c’est manifestement celui qui rapporte le plus.

M. Vincent Mogniat-Duclos. Le fait d’appeler régulièrement au don est une infraction à nos règles de monétisation.

M. le président Arthur Delaporte. Avez-vous déjà regardé un live de M. Julien Tanti ?

M. Vincent Mogniat-Duclos. Oui.

M. le président Arthur Delaporte. N’est-ce pas ce qu’il fait constamment ?

M. Vincent Mogniat-Duclos. Je ne sais pas s’il le fait constamment. J’ai déjà regardé ses lives, et je n’ai personnellement pas eu l’occasion de le voir appeler régulièrement au don.

M. le président Arthur Delaporte. Il ne s’agit pas d’appeler à donner de l’argent, mais de remercier en continu, en criant le nom des donateurs. Crier en continu le nom des donateurs et dire « Allez la team ! », est-ce un encouragement au don ?

M. Vincent Mogniat-Duclos. Je ne considère pas qu’un remerciement soit un encouragement à donner. C’est de la politesse.

M. le président Arthur Delaporte. Quand une star remercie ses fans et leur donne de la considération, n’est-ce pas une forme d’encouragement ?

M. Vincent Mogniat-Duclos. Je pense qu’un remerciement est une bonne chose. Je ne pense pas que ce soit une incitation.

M. le président Arthur Delaporte. Si je fais un cadeau à M. Kylian Mbappé, qui est l’une des plus grandes stars françaises, et s’il me remercie publiquement devant de nombreux autres fans, reconnaissez que c’est une forme de gratification. Ce n’est pas seulement de la politesse. Non seulement je fais partie de sa communauté de fans, mais en plus, il me témoigne sa considération. Je précise que M. Kylian Mbappé ne fait pas de live. Je prends cet exemple pour donner une idée de ce que peuvent véhiculer les lives.

Le remerciement n’est-il pas une forme de gratification, donc d’encouragement à donner ?

M. Vincent Mogniat-Duclos. Le remerciement est une forme de gratification, mais je ne sais pas si c’est un encouragement au don. En tout cas, sur TikTok Live, plusieurs mécanismes nous permettent d’éviter tout type d’addiction. Ainsi, il n’existe pas de lien direct entre le don de cadeaux et le compte en banque de l’utilisateur.

M. le président Arthur Delaporte. Alors que je suis plutôt protégé de ce type de contenu, je me suis senti captivé, happé, et j’ai eu envie de faire gagner la team. Ne pensez-vous pas que des utilisateurs plus vulnérables que moi auront davantage envie de donner et de faire gagner la team ?

M. Vincent Mogniat-Duclos. Si par « vulnérables » vous faites allusion aux mineurs, je précise à nouveau que les mineurs n’ont pas la possibilité de donner.

M. le président Arthur Delaporte. C’est une impossibilité théorique. Dans la réalité, des mineurs donnent. Même si un seul mineur donne, car son âge n’a pas été vérifié, c’est un mineur de trop.

M. Vincent Mogniat-Duclos. Nous tendons toujours vers le 100 %, même s’il peut arriver que la vérification de l’âge soit contournée. Nous sommes un acteur responsable.

M. le président Arthur Delaporte. Bien sûr, vous tendez vers le 100 %. Mais je vous dis que dans une classe d’école, un élève sur vingt-cinq en moyenne, soit 4 %, participe à des lives. Certes, c’est de la statistique « au doigt mouillé », mais on peut estimer que plusieurs centaines de milliers de jeunes peuvent participer à des lives. Ne sont-ils pas plusieurs centaines de milliers de trop ?

M. Vincent Mogniat-Duclos. Je ne peux pas me référer à cette statistique, mais je sais que la plupart de nos donateurs ont entre 25 ans et 49 ans, et que la moitié d’entre eux sont dans la tranche des 25-39 ans.

Mme Claire Marais-Beuil (RN). Quand quelqu’un ne boit qu’un verre d’alcool, mais le fait tous les jours, pensez-vous qu’il souffre d’une addiction ? Est-ce que regarder un live et donner deux pièces tous les jours est une addiction ?

Mme Nicky Soo. Nous ne sommes pas psychologues. Je ne peux donc pas vous répondre au sujet de la définition clinique et scientifique de l’addiction. Qui plus est, le niveau acceptable de consommation dépend de chacun. En l’occurrence, nous voulons que les utilisateurs fassent les choix qui sont les bons pour eux.

Nous faisons tout notre possible pour que le visionnage de vidéos, qu’elles soient en live ou non, crée une relation positive, et pour que le temps d’écran des utilisateurs de 13 à 17 ans soit limité à soixante minutes par jour – fonctionnalité que nous avons développée avec le Boston Children’s Hospital Digital Wellness Lab. Il existe aussi une fonctionnalité de contrôle parental qui permet de bloquer l’accès des enfants à TikTok. Il n’existe pas de consensus scientifique concernant le temps d’écran approprié, mais nous avons fixé la limite à soixante minutes pour nos utilisateurs les plus jeunes, de manière proactive.

La limitation du temps d’écran est disponible pour tout le monde, mais nous l’activons par défaut pour les 13-17 ans. Les interruptions de connexion permettent aux plus jeunes de faire autre chose et de s’éloigner régulièrement de TikTok.

M. le président Arthur Delaporte. Existe-t-il un classement des streamers en fonction des niveaux de dons obtenus dans les lives ?

M. Vincent Mogniat-Duclos. Ce classement inclut les dons et d’autres interactions.

M. le président Arthur Delaporte. Que sont ces autres interactions ?

M. Vincent Mogniat-Duclos. La mention « j’aime », par exemple.

M. le président Arthur Delaporte. Comment est effectuée la pondération ?

M. Vincent Mogniat-Duclos. Je n’en ai pas le détail.

M. le président Arthur Delaporte. Existe-t-il des badges spéciaux pour les plus gros donateurs ?

M. Vincent Mogniat-Duclos. Oui, il y a des badges pour les gros donateurs, sous la forme d’un chiffre qui s’affiche à côté de leur pseudo.

M. le président Arthur Delaporte. Avoir un badge spécial parce qu’on est un gros donateur, donc reconnu par la communauté, n’est-il pas une forme d’encouragement au don ?

M. Vincent Mogniat-Duclos. Le live est un format de divertissement direct, puisqu’il n’y a pas de publicité. Il est donc important, pour les streamers, de savoir qui se connecte à leurs lives.

M. le président Arthur Delaporte. Ils ont la liste de ceux qui se connectent, mais je parlais du classement en fonction des utilisateurs qui donnent le plus. Il suffit d’aller sur TikTok Live pour savoir qui a donné quoi et combien. Nous sommes donc dans un système dual, entre une logique de casino ou de pari, et une logique d’équipe sportive. La mécanique n’est-elle pas similaire à celle des jeux d’argent ?

M. Vincent Mogniat-Duclos. Tous les jeux d’argent ou de casino sont interdits sur TikTok Live. Il n’y a pas d’espérance de gain, contrairement au casino. On envoie un cadeau virtuel pour montrer que l’on apprécie un contenu, sans espérance de gagner de l’argent.

M. le président Arthur Delaporte. Le gain n’est-il pas la reconnaissance par la communauté et par une star ? Nous avons reçu plusieurs témoignages en ce sens.

M. Vincent Mogniat-Duclos. Quand on détecte un contenu ayant trait à des paris ou à des jeux de casino, il est retiré et des sanctions sont appliquées au compte. Ce type de contenu n’existe donc pas.

M. le président Arthur Delaporte. J’en ai pourtant vu, certes il y a longtemps. Quoi qu’il en soit, la question n’est pas de savoir s’il existe des mécanismes de jeu dans les lives, mais si le live en lui-même n’est pas assimilable à un mécanisme de jeu d’argent. En effet, les utilisateurs dépensent de l’argent et peuvent en recevoir, au travers de contre-dons et de coffres, mais surtout de la reconnaissance qui, en soi, vaut cher.

M. Vincent Mogniat-Duclos. Pouvez-vous préciser votre question ?

M. le président Arthur Delaporte. M. Tanti nous a par exemple expliqué qu’il recevait des membres de sa communauté sur un bateau à Dubaï. N’est-ce pas une forme de reconnaissance matérielle, au-delà de la reconnaissance symbolique, qui incite à participer à des jeux et à faire partie de la communauté ? Les meilleurs donateurs reçoivent des formes de gratification indirecte.

M. Vincent Mogniat-Duclos. Je l’ai appris en écoutant l’audition de M. Tanti. D’une part, il ne me semble pas que ce soit une pratique courante. D’autre part, ce qui se passe dans la vraie vie, en dehors de la plateforme, n’est vraiment pas de notre ressort.

M. le président Arthur Delaporte. C’est la plateforme qui organise le jeu et la communauté. M. Tanti l’a expliqué.

M. Vincent Mogniat-Duclos. Vous faites référence à M. Tanti, qui invite des personnes sur un bateau. Cela n’a absolument rien à voir avec la plateforme.

M. le président Arthur Delaporte. Il invite des personnes qui participent à ses lives, qui donnent et qui font partie de sa communauté. L’une des contreparties indirectes est le fait d’être reçu sur ce bateau. Puisque vous considérez que ces contenus peuvent poser problème, effectuez-vous une surveillance particulière des plus gros livers de France ?

M. Vincent Mogniat-Duclos. En tant que responsable de TikTok Live pour la France, je ne peux pas contrôler qui se rencontre dans la vraie vie ni pourquoi.

M. le président Arthur Delaporte. Surveillez-vous particulièrement les lives de M. Tanti, qui sont suivis par des millions de personnes et qui vous rapportent des milliers, voire des millions d’euros chaque année ?

M. Vincent Mogniat-Duclos. La modération s’applique à tout le monde, et 100 % du contenu est modéré.

M. le président Arthur Delaporte. Je vous demande s’il existe une surveillance particulière pour les plus gros livers.

M. Vincent Mogniat-Duclos. Pas à ma connaissance. La modération s’applique de façon égale à tout le monde.

M. le président Arthur Delaporte. Ne pensez-vous pas que cela pose problème dès que des dizaines de milliers d’euros, voire des millions, sont en jeu ?

M. Vincent Mogniat-Duclos. Je ne peux pas commenter plus que cela. La modération qui est effectuée sur la plateforme est équivalente pour tous les créateurs de contenu.

M. le président Arthur Delaporte. Qu’en pensez-vous à titre personnel ? Cela vous ennuierait-il qu’un de vos enfants participe à des lives, joue et entre en contact avec un liver en espérant recevoir des invitations spéciales ? Cela s’est déjà fait.

M. Vincent Mogniat-Duclos. Je suis sensible à votre question, étant moi-même père de famille. Comme employé de TikTok depuis un an, je remarque que nous sommes un acteur responsable et que nous avons placé des garde-fous contre l’accès des mineurs à la plateforme. Encore une fois, un mineur n’a pas accès à la fonctionnalité d’envoi de cadeaux virtuels.

M. le président Arthur Delaporte. Des parents ont pourtant indiqué dans la presse que leurs enfants avaient donné de l’argent, mais nous n’allons pas y revenir. Remboursez-vous les familles quand elles vous signalent qu’un mineur a acheté des pièces ?

M. Vincent Mogniat-Duclos. L’achat de pièces peut avoir lieu sur plusieurs plateformes, en direct sur TikTok mais aussi par l’intermédiaire de vendeurs sur des applications comme App Store ou Google Play Store, ou par le biais de cartes à gratter. Le cas échéant, les modalités de remboursement sont celles du canal de vente. Pour ce qui est de TikTok, si je ne dis pas de bêtise, il existe un délai de quatorze jours pour demander le remboursement de pièces si elles n’ont pas été consommées.

M. le président Arthur Delaporte. Des témoignages indiquent que certains livers envoient des messages privés pour inciter au don. Est-ce sanctionné ?

M. Vincent Mogniat-Duclos. Oui. L’incitation au don qui n’est pas authentique est sanctionnée. Cela inclut les commentaires et les messages.

M. le président Arthur Delaporte. Merci.

Vous n’avez pas été en mesure de nous fournir certains éléments, dont une partie était pourtant demandée dans les questions écrites que nous vous avons communiquées il y a quinze jours, comme l’évolution du nombre de modérateurs. En quinze jours, il me semble que vous auriez dû être capables d’élaborer un tableau retraçant cette évolution. C’est le cœur de votre métier.

Au cours de cette audition, nous avons également noté des divergences avec vos réponses écrites. Peut-être vous communiquerons-nous un questionnaire complémentaire.

Enfin, vous avez indiqué que vous nous communiqueriez certaines informations ultérieurement. Si tel n’est pas le cas, nous n’hésiterons pas à vous convoquer à nouveau devant cette commission, qui est d’utilité publique. Notre analyse de TikTok et les mécanismes permettant de mieux protéger les mineurs que nous espérons identifier doivent s’appliquer plus largement à l’ensemble des plateformes sur lesquelles des problématiques similaires peuvent s’observer.

58.   Audition de Mme Marlène Masure, responsable du contenu États d’Europe, du Moyen-Orient et de l’Afrique, directrice exécutive du développement commercial et marketing, et Mme Marie Hugon, responsable des enquêtes réglementaires européennes, responsables de TikTok France (jeudi 12 juin 2025)

La commission auditionne conjointement Mme Marlène Masure, responsable du contenu États d’Europe, du Moyen-Orient et de l’Afrique, directrice exécutive du développement commercial et marketing, et Mme Marie Hugon, responsable des enquêtes réglementaires européennes, responsables de TikTok France ([56]).

M. le président Arthur Delaporte. Nous poursuivons notre série d’auditions des responsables de TikTok en recevant Mmes Marlène Masure et Marie Hugon. Dans la mesure du possible, nous vous demanderons d’être aussi concises que possible et d’éviter de répéter les informations qui auraient été portées à la connaissance de la commission d’enquête ce matin. Nous vous prions également de nous déclarer, dans votre propos liminaire, tout intérêt public ou privé de nature à influencer vos déclarations ; si, par exemple, vous êtes rémunérées par TikTok, il faudra le préciser.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(Mmes Marlène Masure et Marie Hugon prêtent successivement serment.)

Mme Marlène Masure, responsable du contenu États d’Europe, du Moyen-Orient et de l’Afrique, directrice exécutive du développement commercial et marketing de TikTok. Mon rôle, chez TikTok, est d’accompagner, avec mon équipe, une sélection de partenaires, de créateurs et de personnalités publiques dans leur stratégie de contenu sur la plateforme. Nous travaillons également à l’élaboration de partenariats avec des acteurs de la culture, du sport et des médias. Notre objectif est d’encourager la création de contenus créatifs, éducatifs, divertissants et de qualité au service d’une communauté très engagée de 25 millions d’utilisateurs chaque mois en France.

Plus de 250 médias sont aujourd’hui présents sur la plateforme, parmi lesquels Le Monde, France Info, France Télévisions, Le Figaro, Le Parisien, Arte, l’AFP (Agence France-Presse) ou encore Brut. Notre mission consiste à les aider à développer leur audience en favorisant l’interaction avec de nouveaux publics. Nous avons récemment travaillé avec « Le masque et la plume », l’émission emblématique de critique cinématographique, théâtrale et littéraire diffusée sur France Inter, en permettant à ses intervenants de partager leurs impressions à chaud à la sortie des projections du festival de Cannes. Ce dispositif leur a permis de toucher une nouvelle audience grâce à un format innovant et immersif.

Dans le domaine sportif, nous sommes partenaires du Tour de France pour la troisième année consécutive, dans l’objectif commun d’amplifier la ferveur et la liesse populaire autour de cet événement mythique.

Je citerai également notre soutien à la promotion de films comme L’Amour ouf et Le Comte de Monte-Cristo, notre dispositif exceptionnel pour les Jeux olympiques et paralympiques de Paris 2024 ou encore notre partenariat avec l’Institut national de l’audiovisuel (INA). Nous sommes particulièrement fiers de ces initiatives qui favorisent la diffusion de contenus culturels de qualité et mobilisent une diversité d’acteurs sur l’ensemble du territoire.

Mes équipes accompagnent également les créateurs de contenu. TikTok est un véritable tremplin pour des milliers de créateurs et de professionnels qui vivent aujourd’hui de leur passion et de leur créativité dans tous les domaines : la musique, le cinéma, la danse, l’agriculture ou encore l’enseignement. Ces créateurs partagent quotidiennement des contenus inspirants et pédagogiques qui permettent aux utilisateurs de découvrir de nouveaux univers. Par exemple, une trentaine de créateurs enrichissent le fil Stem, un nouveau flux que nous avons lancé en avril 2024 et qui propose une sélection de contenus pédagogiques et éducatifs dans les quatre domaines qui forment en anglais l’acronyme Stem – sciences, technologie, ingénierie et mathématiques. Pour inciter les plus jeunes à découvrir ces sujets, les utilisateurs de moins de 18 ans voient le fil Stem par défaut ; en France, 27 % d’entre eux le consultent une fois par semaine.

Nous créons également des programmes qui facilitent la découverte de contenus utiles à notre communauté. Parmi eux, le programme #ApprendreSurTikTok, dont l’ambition est de valoriser toutes les formes de savoir et qui permet à des scientifiques, des experts, des professeurs, des acteurs culturels de partager leur savoir auprès d’une très grande communauté, a rencontré un vif succès et a généré, à travers ses 250 000 vidéos éducatives, plus de 5 milliards de vues depuis son lancement en 2023.

En quelques années, TikTok est devenu une véritable vitrine sur le monde. Chaque mois, plus de 175 millions de personnes à travers l’Europe se rendent sur TikTok. Le foisonnement créatif de sa communauté et la liberté d’expression qu’elle y trouve façonnent une nouvelle culture populaire.

Conscients que les tendances et les sujets sociétaux qui émergent sur TikTok, comme sur l’ensemble des plateformes numériques, résonnent dans la vie réelle, nous nous engageons à agir en responsabilité en accompagnant les utilisateurs, créateurs, entreprises, partenaires et institutions, en soutenant les contenus utiles et positifs et en veillant à la sécurité et au bien-être de notre communauté. Cet engagement guide chacune de nos actions au service d’un espace numérique inclusif, encadré et porteur de sens. Il s’inscrit dans le strict respect des réglementations en vigueur, à commencer par le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act, le DSA, un texte pionnier qui couvre des enjeux cruciaux en matière de protection des mineurs. Sur ce point essentiel, je laisse la parole à ma collègue Marie Hugon, qui pilote ces sujets au sein de TikTok.

Mme Marie Hugon, responsable des enquêtes réglementaires européennes de TikTok. Au sein de l’équipe juridique, je suis responsable des enquêtes réglementaires européennes, notamment dans le cadre du DSA. Mon rôle est de faciliter un dialogue constructif et transparent avec les autorités réglementaires.

Garantir la sécurité de notre communauté est une priorité essentielle pour TikTok : c’est sur la sécurité que repose la confiance des utilisateurs qui font vivre la plateforme en créant quotidiennement du contenu positif et inspirant. TikTok s’engage pleinement à respecter les cadres réglementaires en vigueur dans tous les pays où nous opérons. Nous cultivons une collaboration étroite et proactive avec les régulateurs en plaçant la transparence, la responsabilité et l’intégrité au cœur de nos interactions. Cette approche nous permet non seulement de protéger nos utilisateurs mais aussi de participer activement à l’évolution des meilleures pratiques du secteur.

TikTok a été désigné en tant que « très grande plateforme en ligne », ou VLOP, par la Commission européenne le 28 avril 2023, en application du DSA. TikTok est convaincu que ce nouveau cadre juridique au niveau européen constitue une avancée majeure pour l’ensemble des plateformes numériques en établissant de nouvelles exigences en matière de transparence, de responsabilité et d’atténuation des risques. TikTok a toujours soutenu ces progrès et continuera à s’adapter à mesure que le droit évolue.

En plus des paramètres de sécurité et de confidentialité pour nos utilisateurs âgés de 13 à 17 ans, qui existaient avant août 2023, TikTok a pris de nombreuses mesures pour se conformer au DSA, notamment la réalisation d’évaluations détaillées des risques systémiques et, plus précisément, des risques liés à la protection des mineurs, ainsi que la mise en œuvre de mesures d’atténuation raisonnables, proportionnées et efficaces, dont l’ajustement des conditions d’utilisation et des fonctionnalités de la plateforme, le renforcement des politiques de modération, la modification des systèmes de recommandation ou encore la promotion de l’éducation aux médias. De plus, TikTok établit annuellement des audits externes et indépendants publiés sur son site.

Conformément au DSA, TikTok publie également des rapports de transparence portant sur ses efforts de modération de contenu dans les vingt-sept pays membres de l’Union européenne ; ces rapports détaillés et exhaustifs sont aussi disponibles en ligne. Ils incluent notamment le nombre d’utilisateurs actifs mensuels dans chaque État membre de l’Union européenne ou encore le nombre de suppressions proactives et de signalements de contenus illégaux qui enfreignent nos règles communautaires. Par exemple, aujourd’hui en France, 91 % des contenus problématiques sont supprimés avant même qu’ils n’aient été vus sur TikTok. En plus des technologies de modération, des milliers de collaborateurs en Europe œuvrent à la sécurité de la plateforme, dont 509 modérateurs en langue française. Seul 1 % du contenu publié est retiré ; cela se justifie par le fait qu’il enfreint les règles communautaires.

Notre engagement en matière de transparence s’applique également au fonctionnement de notre système de recommandation. Nous expliquons de manière claire comment les contenus sont sélectionnés et proposés dans le fil de nos utilisateurs, mais également comment ces derniers peuvent personnaliser et gérer eux-mêmes leur expérience.

En ce qui concerne la sécurité des mineurs, notre approche repose sur un engagement ferme et global combinant des politiques de tolérance zéro, des technologies innovantes, des fonctionnalités de contrôle intégrées à l’application ainsi que des ressources pédagogiques destinées à sensibiliser et à accompagner les jeunes utilisateurs et leurs parents. Face à l’évolution rapide du paysage numérique et à la complexité croissante des enjeux liés à la protection des mineurs, nous continuons à nous adapter. C’est tout l’objet du travail que TikTok mène en collaboration avec d’autres acteurs du secteur, avec des associations, les chercheurs, les régulateurs, les gouvernements afin de mettre en œuvre des solutions pour mieux protéger les mineurs sur internet.

C’est dans le cadre du DSA que TikTok a participé aux réunions de travail organisées par la Commission européenne avec l’ensemble des très grandes plateformes pour la préparation des lignes directrices relatives à la protection des mineurs qui viennent d’être publiées. TikTok rendra ses observations concernant ces lignes directrices d’ici quelques jours.

Je me tiens à votre disposition pour répondre à vos questions concernant ces enjeux réglementaires, en particulier le DSA. J’ai également apporté nos rapports de transparence et nos rapports de risques.

M. le président Arthur Delaporte. Je vous remercie. Nous les avons lus.

Mme Laure Miller, rapporteure. Ma première question est générale : avez‑vous – vous ou vos équipes – suivi nos auditions depuis le début de la commission d’enquête ? Si oui, cela vous a-t-il inspiré des pistes d’évolution ?

Mme Marlène Masure Il est un peu tôt pour proposer une analyse car vous avez auditionné une centaine de personnes. Bien entendu, nos équipes se sont mobilisées pour écouter toutes les auditions. Notre entreprise a une vraie culture du feed-back : elle est à l’écoute des avis et des expériences ; nous avons l’humilité de penser que nous pouvons toujours faire mieux. L’application a été lancée en France et à l’échelle mondiale en 2018 ; elle rassemble aujourd’hui une communauté de 1 milliard d’utilisateurs. L’enjeu de la sécurité est au cœur de nos actions. Nous avons des équipes mobilisées. C’est une obsession du quotidien que de toujours faire mieux et d’apporter le plus de sécurité possible aux utilisateurs. Nous grandissons avec le soutien de tous les partenaires qui nous accompagnent : des signaleurs de confiance, des experts, des associations engagées à nos côtés en matière de sécurité. Nous sommes très à l’écoute des recommandations qui émergeront de la commission d’enquête et qui peuvent être utiles à l’ensemble des plateformes numériques.

Mme Laure Miller, rapporteure. Vous avez dit dans votre propos liminaire, comme vous l’aviez affirmé il y a deux ans devant nos collègues sénateurs, que vos contenus « contribuent au dynamisme de notre société » et que vous avez « la responsabilité d’offrir le meilleur contenu possible dans un espace sûr et inclusif ». Nous avons entendu les mêmes mots ce matin. Confirmez-vous ces propos ? Estimez-vous qu’ils sont conformes à la réalité des contenus de TikTok ?

Mme Marlène Masure. TikTok rassemble 1 milliard d’utilisateurs autour d’un principe, qui est de permettre à chacun de s’exprimer. Cela apporte une liberté d’expression à des minorités, à des personnalités isolées qui auraient besoin de soutien. La force de TikTok est d’être une somme de microcommunautés qui se rassemblent pour échanger autour d’un sujet qui les passionne – par exemple, la natation, les comics ou les livres.

L’enjeu est d’apporter un maximum de sécurité en encadrant, grâce à tous les efforts dont nous avons parlé ce matin, l’usage de la création sur la plateforme. Chacun a le droit de s’y exprimer ; notre responsabilité est d’instaurer des règles communautaires qui encadrent le travail de modération.

Avec mon équipe, nous travaillons à l’échelle locale avec une sélection de créateurs, environ un millier en France, qui parlent de sujets éducatifs ou utiles ; nous avons aussi 400 partenaires, dont j’ai déjà parlé. L’enjeu est de lancer des programmes qui créent l’engouement sur des sujets qui nous semblent importants ; c’est, par exemple, le rôle des programmes #S’informerSurTikTok ou #ApprendreSurTikTok.

Mme Laure Miller, rapporteure. Affirmeriez-vous que TikTok est aujourd’hui un espace sûr et sécurisé ?

Mme Marlène Masure. Qui suis-je pour l’affirmer ? Je suis une salariée collaboratrice d’une très grande entreprise. Ce que je peux vous dire, c’est que nos équipes Trust and Safety, dédiées à la sécurité des utilisateurs, sont mobilisées et emploient des outils technologiques très puissants. Si ce n’est pas déjà fait, nous vous invitons à visiter notre centre de transparence à Dublin pour voir comment nous procédons à la modération des contenus ; c’est une tâche pour laquelle nous mobilisons 6 000 personnes. Les procédures sont en place. Je ne peux pas vous dire que le système est infaillible. Aucune plateforme ne pourrait avoir la prétention de dire que son système de modération est infaillible, mais nous avons des procédures très solides que nous continuons de faire évoluer. Nous sommes preneurs de retours, de conseils et de recommandations, si vous pensez que nous pouvons faire mieux.

Mme Laure Miller, rapporteure. Je comprends que vous n’êtes pas en capacité de me dire que TikTok est un espace sûr et inclusif. Vous affirmez que TikTok contribue au dynamisme de notre société. Je me permets donc de vous lire certains témoignages que j’ai sélectionnés parmi le flot de messages qui sont parvenus sur l’adresse mail de la commission d’enquête. Les prénoms ont été changés.

Thibaut, qui a 20 ans aujourd’hui : « J’ai moi-même été pris dans la spirale de TikTok à partir de 2020. Je suis tombé dedans comme beaucoup d’autres, d’abord par curiosité, puis par habitude, puis par automatisme. Ce swipe infini a été plus addictif que tout ce que j’avais connu auparavant. Pendant plus d’un an et demi, j’ai été pris dans ce flux. Ce n’est qu’en entrant dans une période de dépression que j’ai pleinement mesuré la violence de ce système. L’algorithme a amplifié mon état en m’inondant de contenus en lien avec ma détresse. Il savait exactement ce que je ressentais et il me le servait en boucle. Ce qui était un divertissement est devenu un piège. J’ai mis des mois à m’en sortir. »

Manon, qui a 20 ans aujourd’hui, a commencé à se rendre sur TikTok à 15 ans. Elle dit : « Lorsque j’ai découvert TikTok, c’était une application pleine de bonne humeur, de créativité, d’humour, de bienveillance. C’était un endroit où on se sentait léger, compris, parfois inspiré. Mais au fil des années, cette atmosphère s’est peu à peu dégradée. Aujourd’hui, TikTok est saturé de contenus violents, dégradants, sexualisés ou tout simplement toxiques. On y voit des vidéos où des personnes sont dénudées, des propos racistes, sexistes, discriminants, des violences verbales ou physiques souvent tournées en dérision, des tendances qui prônent des standards irréalistes de beauté. Personnellement, le flot constant de contenus centrés sur le corps, l’apparence, la compétition sociale m’a profondément affectée. J’ai développé des complexes, une mauvaise image de moi-même et même des idées noires. Ce n’est pas une influence positive, c’est devenu une pression constante. »

Pierre, qui est aujourd’hui père de deux adolescentes, nous explique : « Je vois bien comment TikTok et son écosystème sapent la motivation, l’ambition, l’esprit critique de nos filles. Tout est lié : les publicités pour les vapoteuses, l’hyperconsommation avec Shein, le langage appauvri, les comportements violents, le désintérêt pour l’effort. Elles finissent par vivre par procuration à travers des mises en scène déconnectées du réel. Cela les rend profondément malheureuses. Ce sont des modèles de vie toxiques qui colonisent l’imaginaire de nos enfants. »

Aurore, elle, a 20 ans. Voilà ce qu’elle nous raconte : « Je suis passée par une période compliquée après mon hypokhâgne. TikTok est devenu un endroit où je pouvais éteindre mon cerveau. Je ne voulais pas penser et réfléchir et donc j’avais constamment TikTok devant les yeux. J’ai même des amis qui mettent le défilement automatique pendant qu’ils se brossent les dents. »

Sylvie, qui est enseignante dans un collège, explique : « Comme mes collègues, je voulais juste faire entendre notre voix pour signaler qu’il est urgent de protéger nos enfants de cette addiction, leurs parents n’étant pas toujours au courant ou conscients de l’emprise de TikTok sur leur façon de penser – ou de ne plus penser – par eux-mêmes. »

Jeanne explique : « TikTok a détruit une partie de ma vie. Voir toutes ces filles si belles me faisait tellement complexer, voir les jeunes de mon âge sortir, faire tant de choses… Je les enviais tellement ! Je passais ma nuit dessus, beaucoup, beaucoup de temps. La prise de conscience est difficile, cela requiert de la maturité. Maintenant, j’ai 17 ans, je passe moins de temps dessus la nuit, je me sens mieux dans mon corps. Alors, avec beaucoup de recul, je pense que TikTok devrait être limité à ceux ayant plus de 14 ans, par exemple, mais avec des sessions de discussion en classe à ce propos, pour voir leur ressenti, pour leur faire prendre conscience des risques de TikTok. »

Matthieu a 15 ans. Il explique : « Mon avis : je pense que TikTok devrait être supprimé ou limité aux moins de 16 ans en France. Tous les jeunes sont sur TikTok, ils sont influencés par ce réseau social. Ils perdent tout leur potentiel à scroller des heures et des heures. Cela nous rend complètement faibles mentalement. Nos relations sociales sont impactées car nos discussions sont fondées sur TikTok grâce aux références, donc si tu n’as pas TikTok, ça reste difficile de sociabiliser avec les autres. Aujourd’hui, je vous demande de faire quelque chose de concret sur l’accès limité de TikTok. »

Nadège est Tiktokeuse depuis cinq ans. Elle dit : « Jusqu’à il y a trois ans, TikTok était une plateforme plutôt sympathique. Mais depuis deux ans, l’argent a pris le contrôle et il se passe des choses graves : blanchiment d’argent, prostitution, doxing, harcèlement, intimidation. »

Enfin, Émilie, professeure au collège, dit : « Nous sommes sur le point de former une génération d’adultes dont la réflexion est réduite à néant. Actuellement, nous ne sommes plus en capacité de former des citoyens face à l’ensemble de ces réseaux. Ils ne deviennent que de simples consommateurs qui, par ailleurs, se dirigent de plus en plus vers des extrêmes tant ils sont influençables et en quête de sens. N’oublions pas que ce sont eux qui feront le monde de demain. »

À l’aune de ce florilège, considérez-vous toujours que votre contenu contribue au dynamisme de notre société ?

Mme Marlène Masure. Ces témoignages sont importants et nourriront sans doute les recommandations de votre commission. Je crois néanmoins que le sujet dépasse TikTok : il s’agit de l’usage du digital et du numérique au sens large. De même, le sujet de la santé mentale déborde le cadre des plateformes.

Vous avez reçu ces témoignages : c’est le rôle de cette commission d’enquête. Pour notre part, nous recevons, tous les jours, des témoignages formidables de créateurs qui nous disent combien TikTok les a aidés à trouver des communautés pour les soutenir, à créer des business, etc. Les auditions de ce matin ont abordé la question de la valeur économique des emplois qui ont été créés grâce à la plateforme. Vous avez aussi reçu en audition des créateurs, comme M. Lechat, qui vous a expliqué comment on pouvait éduquer à travers la plateforme.

Il n’y a pas de réponse binaire. La situation est plus complexe. Quoi qu’il en soit, nos équipes sont mobilisées pour créer les contenus les plus intéressants et ludiques possible grâce au portefeuille de 400 partenaires et de 1 000 créateurs à l’échelle du pays.

Mme Laure Miller, rapporteure. En effet, il est important de nous dire ce qui fonctionne et je ne doute pas que la plateforme abrite de nombreux contenus positifs. Ce qui nous intéresse, toutefois, c’est de comprendre pourquoi subsistent autant de contenus négatifs. Assumez-vous qu’une partie de la jeunesse soit sacrifiée au bénéfice de jeunes qui, eux, vivent bien la plateforme ?

Mme Marlène Masure. Jeunesse sacrifiée, personnellement, je n’y crois pas, mais cela mériterait de longues heures de conversation.

Nous avons 25 millions d’utilisateurs chaque mois en France. Beaucoup d’entre eux y trouvent du divertissement et du plaisir. Depuis 2018, nous travaillons avec des associations et des ONG, sur la base d’études, pour développer et faire évoluer des outils, disponibles sur la plateforme, pour mieux maîtriser son expérience. TikTok a été la première plateforme à proposer une limite de 60 minutes de temps d’écran pour les mineurs. Nous avons aussi développé une adaptation des notifications push et sophistiqué les outils de contrôle parental. Aujourd’hui, un parent peut contrôler quasiment toute l’expérience de son enfant : le temps d’écran, le type de personnes qui peuvent interagir avec ses contenus et laisser des commentaires, les horaires, qui peuvent être personnalisés au jour le jour ; il peut bloquer des créneaux horaires durant lesquels l’enfant ne pourra pas se connecter à la plateforme. L’enjeu est avant tout de continuer à faire connaître ces outils de contrôle parental. Nous avons probablement la possibilité d’aller plus loin.

Mme Marie Hugon. Je vous remercie d’avoir partagé ces témoignages avec nous. Comme l’a dit ma collègue, nous accueillons tout témoignage, tout ressenti, et nous nous éduquons car nous sommes une entreprise relativement jeune.

Depuis 2020, le cadre juridique est totalement différent, grâce au DSA, qui est directement applicable en France. La France a participé à la construction de ce cadre juridique, notamment grâce à Monsieur le commissaire Thierry Breton. Nous avons mis en place de nouvelles règles avec l’ensemble du secteur.

Nous sommes identifiés comme une très grande plateforme en ligne, ce qui implique une responsabilité et des obligations assez importantes. Plus de 1 000 personnes au sein de la société travaillent sur le DSA. Nous nous engageons sur l’analyse de risques systémiques et sur leur atténuation.

Nous dialoguons en permanence avec notre autorité de tutelle, qui est la Commission européenne, mais également avec l’autorité de régulation des médias d’Irlande, la Coimisiún na Meán ; nous avons des échanges quasi hebdomadaires avec elles.

Aujourd’hui, on a un cadre. Comme vous le savez pertinemment, des enquêtes sont en cours. Il faut laisser un peu de temps au droit pour s’adapter, s’établir. Nous n’oublions en aucun cas les témoignages.

Je ne vais pas reparler des sujets qui ont déjà été évoqués, mais il n’y a plus de publicité personnalisée pour les personnes âgées de 13 à 17 ans, ce qui est une grande avancée. Nous allons continuer en ce sens. Alors que les lignes directrices relatives à la protection des mineurs viennent juste d’être publiées, toute l’industrie œuvre ensemble pour établir un cadre et un standard pour l’Europe entière. Il est très important de laisser le droit s’appliquer.

Mme Laure Miller, rapporteure. Lors de votre audition, en juin 2023, par la commission d’enquête du Sénat sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence, vous avez dit, madame Masure : « Bien entendu, on ne prendra pas de risque ni sur le respect du RGPD (règlement général sur la protection des données) ni du DSA. Tous ces sujets ont forcément été pris en compte […] Des équipes travaillent depuis plus d’un an sur le sujet du DSA. Nous sommes donc confiants quant à notre capacité à nous conformer à ce règlement au mois d’août. Nous n’avons, à ma connaissance, aucune inquiétude sur la question ».

Malgré tout, le mois dernier, vous avez été doublement épinglés : d’une part, pour non-respect du RGPD par l’Autorité de protection des données irlandaise et, d’autre part, pour non-respect du DSA par la Commission européenne. J’ai pleinement conscience que ces procédures sont en cours ; vous disposez évidemment d’un droit de réponse. Cela dit, alors qu’il paraissait si simple, à vous entendre en 2023, de se conformer à ces règles, on constate que ce n’est finalement pas le cas.

Par ailleurs, vous venez de dire qu’il faut laisser un peu de temps au droit pour s’adapter. Or personnellement, lorsqu’une nouvelle règle est votée, je ne dispose pas d’un délai de deux ans pour m’y conformer. Comment expliquez-vous que la situation actuelle contraste autant avec les propos optimistes que vous teniez il y a deux ans ?

Mme Marie Hugon. Nous avons tout mis en œuvre – des moyens, des ressources humaines – et nous nous sommes vraiment adaptés. Nous ne sommes pas les seuls à nous être fait « épingler », pour reprendre votre terme – qui ne me paraît d’ailleurs pas adapté car des enquêtes et une instruction sont en cours.

La Commission européenne peut poser des questions et ouvrir des enquêtes pour améliorer la transparence et la collaboration. C’est dans ce cadre que s’applique pleinement le DSA. M. Breton l’a dit lors de son audition : il faut laisser un peu de temps pour que les enquêtes puissent se dérouler. Ce sont des sujets complexes, sur lesquels travaillent non seulement des juristes, mais aussi des ingénieurs et des personnes chargées du Trust and Safety et des politiques internes. Il faut un peu de temps pour que la Commission européenne puisse faire son travail et appliquer ce règlement.

M. le président Arthur Delaporte. On nous a dit également qu’il fallait des procédures solides parce que vous avez des camions d’avocats.

Mme Marie Hugon. Je ne suis pas sûre que nous ayons des camions entiers ! Je suis seule à gérer ce sujet à Paris. J’ai une petite équipe.

M. le président Arthur Delaporte. Peut-être vos équipes ne sont-elles pas suffisantes…

Mme Marie Hugon. On s’adapte.

M. le président Arthur Delaporte. TikTok a été condamné à une amende de 530 millions d’euros car il n’a pas été capable de démontrer que les données personnelles des Européens, accessibles à distance en Chine, bénéficient dans ce pays d’un niveau de protection équivalent à celui de l’Union européenne. TikTok va-t-il payer l’amende ?

Mme Marie Hugon. Je ne travaille pas sur cette procédure spécifique ; elle est traitée par mes collègues chargés de la protection des données personnelles. Nous avons fait appel de la décision ; l’instruction est toujours en cours.

Dans le cadre du projet Clover, nous avons mis en place des mesures significatives en matière de sécurité des données pour que celles-ci soient bien hébergées en Europe. Nous continuons à œuvrer dans ce cadre.

Mme Marlène Masure. Le projet Clover vous a-t-il été expliqué ? Souhaitez-vous qu’on vous en expose les grandes lignes ?

M. le président Arthur Delaporte. Vous pouvez développer.

Mme Marlène Masure. Le projet Clover repose sur le principe de souveraineté numérique. L’idée est de créer une enclave numérique au sein de laquelle seraient hébergées les données personnelles des utilisateurs. Le même projet existe aux États-Unis – vous l’avez peut-être lu dans la presse –, c’est le projet Texas, qui sécurise les données sur le territoire américain.

L’ambition est identique en Europe. Un budget de 12 milliards d’euros d’investissement a été validé pour sécuriser les données. Concrètement, il s’agit d’ouvrir des data centers en Europe pour héberger les données personnelles des utilisateurs situés en Europe. Ce travail est en cours. Un certain nombre de data centers ont été ouverts à Dublin, en Finlande, en Norvège. Ce travail est réalisé en toute transparence ; nous en avons discuté avec toutes les autorités compétentes.

Nous sommes très innovants en la matière : aucune autre plateforme n’est allée aussi loin. Pour prouver notre bonne foi, nous travaillons avec un tiers de confiance, NCC Group, qui valide toutes les procédures de transfert de données. Ce projet très ambitieux montre notre engagement et notre volonté d’aller encore plus loin que la référence du marché en matière de sécurisation des données.

M. le président Arthur Delaporte. Reconnaissez-vous là, implicitement, qu’aujourd’hui les données ne sont pas suffisamment sécurisées ni suffisamment souveraines, – je fais référence à leur hébergement sur le continent européen ? À l’heure actuelle, ce projet n’étant pas encore abouti, la protection des données reste un enjeu.

Mme Marlène Masure. Non, le contrat avec NCC est en cours d’exécution. Les données sont hébergées de manière sécurisée dans des pays – les États-Unis, Singapour – avec lesquels l’Europe a conclu des accords.

Une grande partie des données ont été transférées vers ces nouveaux data centers. Ce transfert prend du temps mais sera sans doute bientôt finalisé. C’est une question très technique. Si vous souhaitez entrer dans le détail, je ne suis pas la meilleure experte. En revanche, on peut organiser une session d’échanges ou vous envoyer des éléments écrits sur la mise en œuvre du projet Clover. Sachez qu’il va plus loin que ce que nous impose la norme.

Mme Laure Miller, rapporteure. Nous avons de nombreuses questions à vous poser qui font écho aux témoignages que je vous ai lus tout à l’heure. L’un des sujets qui revient régulièrement est l’algorithme de recommandation, qui est très spécifique à TikTok. Pourriez-vous nous en expliquer le fonctionnement ? Comment réagissez-vous à ce que certains jeunes décrivent, à savoir une forme d’enfermement dans une bulle de contenus ? Certains contenus peuvent être positifs, mais on peut vite se retrouver enfermé dans des contenus tristes. Y a-t-il des règles spécifiques pour les mineurs ?

Mme Marlène Masure. Le principe de TikTok, c’est d’être une plateforme qui propose du contenu basé sur les centres d’intérêt. La différence avec d’autres plateformes qui seraient plus connues ou présentes sur le marché depuis plus longtemps, c’est qu’on ne va pas vous proposer des contenus sur la base de vos connexions ou de vos amis, mais en fonction de ce que vous consommez sur la plateforme.

Par exemple, si deux utilisateurs ont regardé deux contenus similaires, et que le deuxième utilisateur regarde un troisième contenu, nous suggérerons au premier utilisateur de regarder ce troisième contenu, car nous supposons qu’ils ont les mêmes centres d’intérêt. L’algorithme est basé sur une préférence de contenu, et c’est sur cette base que nous vous recommanderons du contenu. Mettons que je regarde un contenu cinéma et foot ainsi qu’un contenu livre. Si Mme Hugon a regardé un contenu cinéma et foot, l’algorithme considérera qu’elle sera aussi intéressée par le contenu livre. Le principe du fonctionnement de l’algorithme, c’est de vous proposer des contenus qui vous intéressent a priori.

Ensuite, il y a des enjeux relatifs à des contenus que nous allons considérer comme sensibles, qui peuvent être classés comme « matures », par exemple. Ces contenus sont soumis à des règles de classification, ce qui permet d’éviter qu’ils soient proposés aux mineurs. S’ils sont classés comme « non recommandés », ils ne seront pas proposés aux mineurs ; ils peuvent ne pas apparaître non plus dans le flux « Pour toi », qui est le plus consommé sur la plateforme. C’est un point très important.

Nous appliquons en outre un principe de dispersion des contenus : pour les contenus pouvant être considérés comme sensibles, nous veillons à ce qu’ils n’apparaissent pas de manière répétée dans le flux « Pour toi », afin d’éviter la formation de bulles et de prévenir tout risque d’enfermement.

Mme Marie Hugon. Je vais apporter un complément au sujet du renforcement des mesures de sécurité, notamment pour les jeunes utilisateurs. De nombreux contenus ne sont visibles que par des adultes. Les mineurs ne verront que des contenus visionnables par tous. Le contenu créé par des personnes de moins de 16 ans n’est pas éligible aux recommandations dans le cadre du système de classification ; il n’apparaîtra donc pas dans le fil « Pour toi ».

Nous œuvrons à rendre notre système de recommandation vraiment transparent. D’ailleurs, le DSA prévoit une obligation de transparence. Les signaux – le temps passé sur une vidéo, le fait d’aimer une vidéo, les raisons pour lesquelles on voit une vidéo… – font l’objet d’une grande transparence sur notre site, qui concerne également la manière dont ces signaux sont intégrés dans les algorithmes qui sont à la base du système de recommandation. Nous essayons d’avoir de plus en plus de transparence et d’éducation sur ces sujets. Cela étant, il y a vraiment des pare-feu pour protéger les mineurs.

Mme Marlène Masure. Des outils sont disponibles sur la plateforme. On peut notamment utiliser le mode « restreint », qui permet de s’assurer que l’on ne sera pas exposé aux contenus les plus complexes. On peut également procéder à un filtrage en indiquant le type de contenus – par exemple sportifs ou culturels – qu’on a le plus envie de voir : on peut, à cette fin, changer les paramètres au sein de l’application. Aujourd’hui, de nombreuses fonctionnalités sont disponibles pour personnaliser son expérience.

M. le président Arthur Delaporte. Nous allons aborder la question de la mise en avant des contenus par l’algorithme en fonction de certaines règles éditoriales.

Mme Sophie Taillé-Polian (EcoS). Il y a toujours un contraste entre la manière dont vous décrivez TikTok, qui serait un lieu sûr où la créativité s’épanouirait, et ce que l’on constate lorsqu’on ouvre l’application.

J’ai été attentive à ce que vous avez dit concernant le système de recommandation, notamment la classification des contenus « non recommandés » qui ne sont pas diffusés sur le fil « Pour toi ». Ne faut-il pas inverser la logique ? Vous avez évoqué les partenariats avec les médias, qui sont nombreux à essayer de trouver des formats pouvant correspondre aux utilisateurs et aux utilisatrices de TikTok. S’agissant de la jeunesse, ne serait-il pas pertinent de faire des recommandations éducatives afin de parvenir à cet environnement sûr ?

Vous avez parlé de certains programmes qui relèvent presque de l’éditorialisation. Pour éviter que les jeunes ne soient enfermés dans une boucle où il leur serait proposé toujours les mêmes types de contenus en lien avec leurs centres d’intérêt, ne pourrait-on pas offrir des contenus à visée éducative labellisés ? Je pense notamment à la norme JTI (Journalism Trust Initiative) proposée par Reporters sans frontières. L’idée serait de proposer dans le fil « Pour toi » – quand bien même les jeunes n’ont jamais consulté de contenus similaires auparavant – des contenus adaptés à la jeunesse émanant de certains médias qui garantissent la sécurité de l’information.

L’avenir des plateformes, c’est peut-être aussi de proposer, en association avec des partenaires fiables, des contenus intéressants, intelligents et sûrs pour les enfants et les jeunes, sans avoir besoin de les soumettre à des milliers de filtres ou de vérifications.

Mme Marlène Masure. Absolument. Je pense que c’est le sens de l’histoire. J’ai évoqué le programme #ApprendreSurTikTok. Soixante-dix ambassadeurs, parmi lesquels figurent les plus grands médias de France, créent du contenu éducatif en utilisant ce hashtag, ce qui nous permet de le faire émerger plus facilement. Certains contenus ont reçu le label officiel, ce qui leur confère une forme de caution supplémentaire. C’est tout le travail éditorial que nous faisons aujourd’hui.

S’agissant du hashtag #S’informerSurTiktok, nous travaillons avec de nombreux partenaires, tels l’AFP et Le Monde, qui vont aider les utilisateurs à développer leur esprit critique. Même si la raison d’être de TikTok est de divertir, on est confronté à une réalité : les événements que nous vivons au sein de la société sont commentés sur la plateforme. Donc, collectivement, toutes les plateformes doivent travailler à l’éducation à l’esprit critique. Aussi, dans le cadre d’une campagne que nous avons lancée avec l’AFP en novembre 2024, crée-t-on des ressources pour expliquer comment décoder des vidéos engendrées par l’intelligence artificielle ou des fake news.

L’enjeu, pour nous, est de continuer à travailler là-dessus et à faire émerger, sur les sujets d’actualité, les partenaires reconnus ; c’est la direction que nous prenons. Pour ce faire, nous avons besoin que les médias s’engagent. Aujourd’hui, nous disposons d’une base solide de 250 médias. Notre travail au quotidien est de leur expliquer que c’est une audience intéressante, utile, et que, collectivement, nous avons la responsabilité de créer du contenu intéressant, utile et véridique.

Mme Marie Hugon. #BookTok est une excellente trend, qui a été reprise partout en Europe, où de nombreux critiques littéraires parlent de littérature. Ce genre de trends positives, très intéressantes culturellement, sont mises en avant.

Mme Sophie Taillé-Polian (EcoS). Ma question était plutôt la suivante : recommandez-vous ces contenus, même si l’algorithme qui définit les centres d’intérêt ne le ferait pas ? Les poussez-vous, ou attendez-vous qu’ils soient poussés ? Si vous ne les mettez pas en avant, les contenus resteront en marge. La question est de savoir comment l’algorithme les fait émerger directement dans les fils.

Mme Marlène Masure. Différents outils sont à disposition au sein de l’application. Je vais en détailler les aspects techniques.

Prenons l’exemple de Roland-Garros, de Paris 2024 ou du Festival de Cannes. Lorsqu’on travaille sur des évènements de cette ampleur, on développe un search hub qui permet de traiter, de façon qualitative, toutes les requêtes faites au sein de l’application sur un thème particulier. Durant le Festival de Cannes, nous avions un search hub dédié qui permettait de faire émerger, de manière bien structurée, sur une page très bien construite, les contenus officiels – ceux du festival, du diffuseur, des studios. Cela permet de traiter un certain nombre de requêtes spécifiques relatives à de grands événements culturels et sportifs qui nous paraissent importants et qui sont de grands carrefours d’audience.

Si vous envoyez la requête #ApprendreSurTiktok, une page dédiée s’affichera avec des contenus labellisés officiels. Ce label leur donne une caution, qui favorise un meilleur engagement naturel et permet de les faire émerger sur la plateforme.

Les soixante-dix partenaires du programme #ApprendreSurTiktok travaillent à la création d’un contenu éducatif intéressant, qui crée de l’engagement. Il n’y a pas de façons – entre guillemets – « d’abuser » du système. Nos utilisateurs sont très intelligents : ils vont regarder les contenus qu’ils trouvent engageants. Nous sommes toujours à la recherche de la qualité, d’histoires. Il faut que le contenu soit intéressant. S’il ne l’est pas, il ne sera pas vu.

L’enjeu, pour nous, n’est pas de pousser des contenus pour pousser des contenus, mais d’utiliser ces carrefours d’audience pour pousser des contenus utiles. À titre d’exemple, nous avons travaillé avec France Inter sur l’astronomie. Nous avons organisé la visite des studios de la radio pour Zebroloss, un créateur qui a produit un contenu hyper intéressant sur l’astronomie, vu près d’un million de fois. C’est cela, notre travail. Nous nous assurons que, sur des questions un peu complexes, on travaille avec les médias, mais aussi avec des créateurs qui peuvent raconter une histoire de manière adaptée à l’audience.

Les créateurs et les personnalités publiques mènent un travail d’éducation permanent. M. Thomas Pesquet est venu sur la plateforme. Les équipes l’ont onboardé – comme on dit dans notre jargon : elles lui ont présenté la plateforme et les bonnes pratiques. Aujourd’hui, il y publie un contenu absolument passionnant pour tous les passionnés d’astronomie.

Évidemment, on n’aura jamais fini. On peut toujours faire mieux. Mais, dans chaque pays, les équipes accomplissent un travail colossal pour créer des contenus qui nous paraissent utiles, sérieux et qualitatifs.

M. le président Arthur Delaporte. Je rebondis sur BookTok, qui a fait l’objet d’un certain nombre d’articles et d’enquêtes. Je vous livre le témoignage d’une créatrice très active sur la tendance : « Aujourd’hui, on trouve quasiment tout le temps des trigger warnings. On prévient les gens s’il y a des thèmes compliqués. […]  Le réseau BookTok a […] évolué, je vois clairement la différence ». Cela concerne notamment le fait qu’on y trouverait beaucoup de dark romance, qui met en scène des relations hypersexualisées, parfois de l’inceste. Est-ce là le BookTok dont vous parlez ?

Mme Marlène Masure. Absolument pas. Comme l’a dit Mme Hugon, BookTok est une tendance, née sur la plateforme en 2020. Nous n’avons pas la capacité d’influencer des tendances ; la communauté va décider des sujets dont elle a envie de s’emparer. La communauté BookTok est née naturellement sur la plateforme ; elle a été créée par des passionnés de livres. Comme je l’expliquais tout à l’heure, la plateforme est une somme de microcommunautés qui se passionnent pour des sujets. La communauté BookTok a crû de manière exponentielle de façon très rapide. Elle partage des moments de lecture, des extraits, des façons de vivre ou exprime sa passion pour tel ou tel environnement.

Je vous invite à interroger les maisons d’édition, qui peuvent témoigner de l’impact de BookTok sur les succès en librairie. BookTok permet de donner une deuxième vie à certains titres. Les auteurs vont raconter l’histoire, livrer les coulisses, expliquer l’intention qui se trouve derrière chaque livre, donner envie de découvrir une œuvre. De la même manière, dans le monde de la musique, les artistes utilisent la plateforme pour raconter leur univers, donner à comprendre l’histoire sous-jacente à une œuvre. BookTok est une communauté de passionnés de livres qui partagent des moments de lecture, qu’il s’agisse d’œuvres littéraires classiques ou plus modernes.

M. le président Arthur Delaporte. Comment analysez-vous ce phénomène, qui est évoqué dans de nombreux articles. Quelles sont, à vos yeux, les tendances ? L’IA permet d’analyser les évolutions et d’orienter les maisons d’édition vers ce qui marche ou ce qui ne marche pas. La dark romance fait-elle partie de ce qui cartonne ?

Mme Marlène Masure. Bien sûr, la dark romance fonctionne. Les directeurs d’édition – je suis mal placée pour en parler car je ne suis pas directrice d’édition – expliquent que ce qui les intéresse, c’est d’identifier des créateurs qui performent sur TikTok pour développer leurs contenus et leurs livres. Par exemple, Paulo le Sportix, un expert du sport qui crée des contenus très intéressants et décode les grands événements sportifs, a été récemment publié.

Certains chefs, grâce au succès rencontré sur la plateforme, remplissent leur restaurant et publient leurs livres de recettes.

M. le président Arthur Delaporte. Attention, nous ne nions pas que la plateforme puisse avoir des effets positifs en matière d’accès à l’information et à la culture – nous ne conduisons pas cette commission d’enquête de manière manichéenne. Cela étant, nous essayons d’identifier ce qui peut être source d’effets négatifs sur les mineurs. En l’occurrence, certains jeunes peuvent être choqués par des contenus très explicites pouvant être mis en valeur dans le cadre de la tendance BookTok.

Mme Marlène Masure. Je ne sais pas. Je vous invite à regarder le compte @entouteslettres de Valentine.

M. le président Arthur Delaporte. Vous citez des exemples. Reconnaissez-vous que cette tendance peut également exister, à côté de ces comptes ?

Mme Marlène Masure. Je suis prête à recevoir toutes les critiques mais BookTok, c’est une si belle histoire ! C’est une histoire formidable : les maisons d’édition sont très heureuses de ce qui s’est passé sur la plateforme. Des créateurs organisent des temps de lecture, qui sont des moments de rencontre avec leur communauté et qui vont donner envie de relire des grands classiques.

Je crois donc qu’il ne faut pas opposer les mondes. L’audience sur TikTok permet de recréer du lien. Grâce au phénomène BookTok, on crée des expériences autour du cinéma, notamment le book to screen – du livre à l’écran. Il existe plein d’histoires autour de succès BookTok qui ont donné lieu à des films ou à des séries à succès. Je crois que c’est globalement une très belle communauté.

M. le président Arthur Delaporte. Je vais citer un article du Temps : « Les livres de dark romance remportent un grand succès en librairie tout comme en ligne, sur TikTok en particulier. L’engouement pour ces histoires de la part de jeunes filles entre 12 et 15 ans interpelle en raison de leur contenu sexuellement explicite et violent. Les récits y mettent en scène des relations amoureuses toxiques, majoritairement hétérosexuelles et souvent situées dans l’univers interlope du crime organisé. La soumission, l’emprise et le viol en sont des thèmes récurrents. » C’est cela dont je parle, et c’est présent sur la plateforme. Agissez-vous sur l’algorithme pour que ces sujets soient un peu moins visibles ?

Mme Marlène Masure. Je peux citer La Femme de ménage ou des poèmes qui rencontrent du succès.

M. le président Arthur Delaporte. Ce n’est pas ma question.

Mme Marlène Masure. La plateforme ne diffuse pas exclusivement des contenus de dark romance. Et non, nous ne manipulons pas l’algorithme sur BookTok. C’est la communauté qui va décider quels sujets et thématiques de livres sont intéressants.

Mme Laure Miller, rapporteure. L’algorithme soulève une vraie problématique : lorsqu’on va sur TikTok, l’algorithme nous propose non pas ce qui correspond à nos intentions profondes mais ce qui capte notre attention. C’est une différence majeure. Pour reprendre la métaphore de la voiture : je roule sur l’autoroute où un accident s’est produit, je regarde comme n’importe qui, enfant ou adulte, parce que ma curiosité, sur le moment, me pousse à regarder, même si ce n’est pas mon intention profonde ; je ne suis pas intéressée par le fait de voir un accident, mais mon attention est captée par le carambolage. L’algorithme tient compte de cela et non de notre véritable intention. N’y a-t-il pas un problème évident concernant cet algorithme qui pousse, peut-être, certains à être entourés de contenus qu’ils aiment, mais qui enferme aussi beaucoup d’autres dans une boucle de contenus qu’ils n’apprécient pas, au fond, et qui peut nuire à leur santé mentale, sujet qui est au cœur de nos travaux ?

Mme Marie Hugon. C’est une question clé que la Commission européenne est en train d’examiner, dans le cadre des enquêtes en cours. La question des systèmes de recommandation est relativement nouvelle ; les algorithmes, c’est de l’intelligence artificielle qui connaît une évolution rapide. Nous avons vraiment une politique de transparence concernant ces systèmes de recommandation. L’utilisateur peut ne pas avoir de personnalisation du tout : on lui propose alors un fil très générique, comportant du contenu général, sur ce qui se passe en France aujourd’hui – cela peut être, par exemple, Roland-Garros, le Festival de Cannes ou encore la fête de la musique. En revanche, si l’on veut personnaliser son flux, on peut le réactualiser : si, par exemple, je visionne beaucoup de tennis mais, qu’à un moment donné, je veux regarder autre chose, il me suffit de cliquer sur la fonction « réinitialiser son flux », qui réinitialise l’algorithme.

Vous avez évoqué la notion de contenu répétitif. Sans entrer dans le détail, il existe des systèmes de dispersion précis, pour ne pas voir le même contenu à répétition et ne pas tomber dans cette bulle, en particulier pour les jeunes de moins de 18 ans.

Pour replacer cette question dans le cadre du DSA, on peut continuer à évoluer. D’ailleurs, les lignes directrices de la protection des mineurs comportent une partie entière sur la transparence des systèmes de recommandation ; nous avons envoyé nos observations et je pense qu’on peut aller encore plus loin. C’est un effort du secteur. Y aura-t-il plus de standards, plus de transparence ? Nous y travaillons, avec les autorités européennes.

Mme Laure Miller, rapporteure. Pour continuer sur ce sujet, un jeune nous expliquait, il y a quelques semaines, qu’il passait toutes ses soirées à nettoyer le fil de sa petite sœur – il était plus âgé qu’elle, bien qu’encore mineur –, et à cliquer sur « pas intéressé », « pas intéressé » pour les contenus qu’il estimait problématiques pour elle ; il racontait qu’il était obligé de renouveler l’opération le lendemain, le surlendemain, et ainsi de suite. Est-ce à dire que la mise à jour des contenus ne fonctionne pas ? Est-on obligé de refaire chaque jour la même chose, alors que, normalement, l’algorithme est censé s’adapter à ce qu’on lui dit et à ce qu’on fait ressortir comme centres d’intérêt ?

Mme Marlène Masure. Je ne connais pas cet exemple en particulier ; cela mériterait que l’on y regarde de plus près. Ce qui est intéressant, c’est qu’à travers le mode « connexion famille », vous avez la possibilité de filtrer des mots-clés – qui sont conservés. Si vous voulez supprimer des mots-clés parce que vous estimez qu’ils appellent des contenus inappropriés, vous pouvez les inscrire. Vous pouvez inscrire ces mêmes mots-clés dans les commentaires. Vous pouvez activer le mode restreint. Vous pouvez faire un tas de choses dans le mode « connexion famille ». Au-delà de faire un refresh et de réadapter, ou de « réannuler », la personnalisation des contenus, il me semble plus pertinent d’utiliser toutes les fonctionnalités du mode « connexion famille ».

Mme Claire Marais-Beuil (RN). J’ai bien entendu qu’il y a sur TikTok de très nombreux contenus intéressants, de nature à faire grandir nos jeunes. Cependant, vous avez certainement conscience que de nombreux contenus sont aussi dérangeants, voire perturbants, et qu’ils peuvent entraîner des dégâts sur des jeunes en construction. Comment voyez-vous le fait que les parents doivent faire la démarche pour leurs enfants, afin qu’ils n’aient pas accès à certains contenus ? Tous les parents ne sont pas forcément derrière eux pour cliquer toutes les trente secondes. Comment, en tant que plateforme, pouvez-vous faire en sorte qu’ils n’aient pas accès à ces contenus dérangeants qui risquent de perturber complètement leur développement sexuel, intellectuel et leur construction. Car oui, il y a du bien sur TikTok, mais aussi du moins bien.

Mme Marlène Masure. C’est absolument essentiel et c’est tout l’enjeu de nos règles communautaires, qui vont instruire la façon de modérer nos contenus. Ces règles communautaires permettent de programmer les outils de modération. La majeure partie de la modération est effectuée par des outils de modération ; cela permet de s’assurer que 100 % des contenus sont vus. Ensuite, nos modérateurs vont utiliser ces mêmes règles communautaires pour appliquer des restrictions sur ces contenus. Évidemment, des contenus matures, je l’ai déjà dit, seront labellisés comme tels et ne seront pas visibles par les mineurs.

Ce qui est important, c’est que cet effort de modération s’exerce à trois niveaux. Le premier niveau est celui de nos outils de modération, que nous continuons de sophistiquer. L’intelligence artificielle a cela de bon qu’elle va nous permettre d’aller plus vite et d’être plus efficaces ; nous continuerons donc de faire évoluer ces outils, qui permettent aussi de protéger nos modérateurs humains devant des contenus qui seraient complètement inappropriés. Nous avons ensuite des modérateurs humains qui étudient les contenus dits problématiques ou ceux que l’algorithme identifie comme étant problématiques. Enfin, nous avons surtout cette communauté de 1 milliard d’utilisateurs qui représente un outil formidable, parce que chacun peut signaler un contenu. Moi, tous les jours, je peux dire : tel ou tel contenu pose question, je ne suis pas complètement sûre qu’il soit conforme aux règles communautaires, donc je me permets de le signaler.

M. le président Arthur Delaporte. Nous en reparlerons tout à l’heure.

Mme Marlène Masure. Je peux signaler ce contenu. Parfois j’ai raison, parfois non. Nous avons une communauté très engagée, qui peut nous aider à faire émerger…

M. le président Arthur Delaporte. Pour l’instant, la communauté que nous avons auditionnée est très sceptique sur sa capacité à agir véritablement sur la limitation – mais nous y reviendrons. Je propose qu’on reste sur le fonctionnement de l’algorithme, qui fait l’objet de nos questions pour l’instant.

Vous avez expliqué qu’on ne pouvait pas altérer l’algorithme pour promouvoir certains contenus et que c’étaient les expériences des utilisateurs qui conduisaient à les mettre en avant. De manière générale, les influenceurs que nous avons auditionnés, que ce soit ceux entendus cette semaine et qui nous avaient été signalés comme problématiques, ou ceux que nous avons auditionnés la semaine précédente dont on pensait qu’ils produisaient un contenu de qualité et pédagogique, nous ont tous dit la même chose : pour performer, pour capter l’attention, il faut être dans le clash, il faut être dans la recherche du choc dès les premières secondes. N’y a-t-il pas là un problème intrinsèque à la construction de l’algorithme, qui valorise la radicalité au détriment de la raison, de la culture, de l’émancipation ?

Mme Marlène Masure. Je vais me permettre un pas de côté. J’ai travaillé dans l’industrie du cinéma auparavant, sur des bandes-annonces de films. L’enjeu était, de la même façon, de créer de l’intérêt. Si vous voulez faire découvrir la bande-annonce d’un film, il faut que l’histoire que vous racontez tienne debout et qu’elle soit intéressante. Si vous êtes super ennuyeux les trois premières secondes, vous n’avez aucune chance d’être vu. C’est tout l’enjeu des contenus audiovisuels de manière générale : il faut raconter une histoire qui…

M. le président Arthur Delaporte. Y a-t-il des dérives liées à ce fonctionnement ?

Mme Marlène Masure. La dérive, c’est si le contenu n’est, au fond, pas très intéressant ou que cela crée de l’engagement sur un contenu peu intéressant – je n’ai pas forcément d’exemple en tête. Mais il me semble assez logique que, lorsqu’on crée un contenu, le début de l’histoire doive être intéressant.

M. le président Arthur Delaporte. Mais n’y a-t-il pas une mise en valeur du contenu provoc au détriment du contenu posé ? Si je fais une vidéo dans laquelle j’explique le fonctionnement des institutions et de l’Assemblée nationale, je ne ferai que 500 ou 1 000 vues sur TikTok. Si je fais une vidéo dans laquelle je commence par manger un yaourt, cela cartonne tout de suite. N’y a-t-il pas des effets de biais algorithmiques ? C’est quand même moins intéressant de manger un yaourt ; pourtant, cela a l’air d’être plus provocateur.

Mme Marlène Masure. Il y a effectivement ce qu’on appelle des trends, qui sont des phénomènes culturels. Vous avez parfois des musiques qui vont devenir tendance et si vous créez un contenu en utilisant l’une d’entre elles…

M. le président Arthur Delaporte. En gros, la bouffe, ça marche, c’est choc ; le droit constitutionnel, un peu moins.

Mme Marlène Masure. Votre sujet n’est pas facile.

M. le président Arthur Delaporte. Même lorsqu’on essaie de le rendre intéressant. De manière générale, on nous a expliqué que cela marche lorsqu’on fait du buzz ou qu’on fabrique du drama. C’est l’une des conséquences de tout cela : les gens vont fabriquer du drama parce que cela engendre des vues et que, derrière, un modèle fonctionne.

Mme Marlène Masure. Il y a aussi Brut, qui a 12 millions d’abonnés et qui fait des cartons d’audience parce qu’il raconte ce qui se passe dans la société. HugoDécrypte, que vous avez auditionné et qui produit des contenus hyper intéressants, éducatifs et éclairants, cartonne sur la plateforme et a 7 millions d’abonnés. Pour reprendre l’exemple donné par notre directeur créatif qui accompagne les marques sur la création des formats publicitaires, il faut « faire son intéressant », il faut être intéressant et avoir une histoire à raconter. Si vous n’avez pas d’histoire à raconter et que vous n’êtes pas authentique sur la plateforme, vous ne performez pas. On n’est pas dans le beauty shot, comme on dit, dans la jolie image sophistiquée, mais dans l’histoire. C’est ce qu’on explique à toutes les personnalités publiques, comme les athlètes, qui veulent venir sur la plateforme : ce qui intéresse les gens, c’est leur préparation ou la façon dont ils ont vécu leur compétition, c’est-à-dire les moments authentiques. C’est effectivement ce qui fonctionne, plus que tenter de jouer une trend avec le risque, assez majeur, que cela ne soit pas repris.

Mme Laure Miller, rapporteure. Pour en venir à la santé mentale des mineurs, qui est l’objet de notre commission d’enquête, vous expliquez, dans le questionnaire que vous nous avez renvoyé, que TikTok dispose d’un réseau varié d’équipes internes, qui comprennent des experts en matière de psychologie. Pouvez‑vous nous confirmer que ce sont, ou que ce ne sont pas, des psychologues ou des psychiatres ? En effet, la réponse n’est pas claire.

Mme Marie Hugon. Je ne connais pas toutes les équipes. À ma connaissance, ce sont des experts qui travaillent avec des chercheurs externes.

M. le président Arthur Delaporte. Qu’est-ce qu’un expert ?

Mme Marie Hugon. Vous avez rencontré ma collègue Nicky Soo, qui est une ancienne chercheuse et une experte sur ces sujets du numérique et de la santé mentale. Dans le cadre du DSA, les très grandes plateformes ont l’obligation de mettre à disposition des chercheurs une API – une interface de programmation d’application. Désormais, plus de 600 chercheurs peuvent effectuer des recherches sur le contenu de TikTok, parmi lesquels certains travaillent spécifiquement sur les enjeux de santé mentale. Nous travaillons aussi avec des associations externes sur ce sujet.

Mme Laure Miller, rapporteure. Dans votre rapport de 2024, vous admettiez qu’il y avait de véritables risques associés à la santé mentale. Ne pensez‑vous pas qu’il serait pertinent d’employer dans vos équipes des psychologues ou des psychiatres ?

Mme Marlène Masure. Nous pourrons revenir vers vous sur la nature même des expertises. Ce qui est certain, c’est que nous travaillons avec beaucoup d’associations. Par exemple, nous avons réalisé des études avec Internet Matters sur différents territoires en Europe, qui nous ont permis de faire évoluer plusieurs fonctionnalités, telles que les horaires d’envoi des notifications aux plus jeunes. Nous avons aussi travaillé avec l’hôpital pour enfants de Boston, ce qui nous a permis de faire émerger l’idée de limiter à soixante minutes le temps d’écran des mineurs. Nous avons donc tout un tas d’experts qui nous permettent de remettre en cause les outils à notre disposition. Nous avons, effectivement, des personnes en interne : Mme Nicky Soo est titulaire d’un PhD – un doctorat – et est bien sûr très compétente. Elle n’est pas seule : nous avons bien sûr d’autres experts – nous pourrons vous préciser cela.

Nous travaillons aussi avec un panel d’associations qui nous aident. Sur l’anorexie, les recommandations et les ressources ont été écrites par la Fédération française anorexie boulimie, qui s’y est employée pour nous. C’est hyper important, sur chacun des sujets, d’aller chercher les meilleurs experts. Certes, il est important d’avoir des psychologues et j’imagine que nous en avons – nous allons le vérifier. Néanmoins, chaque sujet est très spécifique et chaque problématique singulière – quand on parle d’anorexie, on ne parle pas de suicide, etc. La pertinence des associations et des ONG avec lesquelles nous travaillons fait que nous sommes meilleurs dans la rédaction des ressources qui sont mises à la disposition des utilisateurs.

M. le président Arthur Delaporte. Vous évoquez les experts. Je voudrais qu’on fasse un point aussi sur les usagers. Vous avez créé, à l’échelle mondiale, un comité des usagers qui intègre des jeunes – vous l’évoquez dans votre rapport de transparence. Pourquoi ne compte-t-il pas de jeunes Français ? N’envisagez-vous pas de créer un comité par pays, pour recueillir l’expérience des utilisateurs de la manière la plus fine possible ? Le comité que vous avez créé rassemble une quinzaine de jeunes issus d’une dizaine de pays dans le monde, mais qu’y a-t-il de commun entre l’expérience d’un utilisateur indien et celle d’un jeune utilisateur français ? N’y a-t-il pas des sujets ou des tendances spécifiques selon les pays ? Ne serait-il pas utile de mettre en place ce type de structures ?

Mme Marie Hugon. Cela peut faire partie de retours d’observations, dans le cadre des lignes directrices de la Commission européenne, afin de mettre en place cela au niveau sectoriel. Nous pourrions avoir – c’est une proposition que je fais, en réfléchissant avec vous – un hub européen, de jeunes Européens.

M. le président Arthur Delaporte. C’était un peu ma question : avoir un hub français. Plusieurs millions de jeunes Français sont sur TikTok. Cela ne vaudrait-il pas le coup de créer un comité des usagers ? En effet, ils savent ce qu’ils voient.

Mme Marlène Masure. Cela me semble être une excellente idée de suggérer d’avoir un Français au sein du comité – cela n’engage que moi, car je ne le gère pas, mais nous suggérerons cette idée. Je pense qu’il y a quand même une représentativité européenne dans ce comité des jeunes. Mais, oui, il pourrait être intéressant de choisir un ambassadeur qui pourra représenter la France.

M. le président Arthur Delaporte. Il ne s’agit pas d’avoir des ambassadeurs : l’idée est plutôt que des jeunes partagent leur expérience. Avec un seul jeune, vous ne bénéficierez pas d’une diversité de points de vue et d’âges.

Mme Laure Miller, rapporteure. Amnesty international a publié, fin 2023, des rapports sur la santé mentale des jeunes – vous avez dû les voir. J’aimerais savoir si la lecture de ces études vous a conduits à procéder à certains changements. J’ai bien entendu que vous aviez déjà quelques éléments d’information, comme la limitation du temps d’écran à soixante minutes, mais avez-vous des chiffres là‑dessus ? Dans quelle mesure les outils de contrôle parental et de contrôle de l’utilisation de TikTok par un jeune sont-ils utilisés ? Une chose, en effet, est de les mettre en place, une autre est de les rendre très visibles et peut-être même un peu plus contraignants pour un jeune.

Mme Marie Hugon. Je ne peux pas vous donner de chiffres aujourd’hui, mais c’est un point que l’on peut creuser. Je voudrais revenir sur le rapport des risques systémiques de 2024, dont vous avez repris une ligne. Nous travaillons justement sur l’analyse des risques et de leur atténuation pour cette année ; elle sera rendue à la Commission européenne fin août, puis publiée. Nous essayons d’extraire des données, à la fois sur la gestion des risques et l’atténuation de ceux-ci, en particulier concernant la santé mentale des mineurs mais pas seulement. C’est un sujet sur lequel nous travaillons actuellement. Nous sommes conscients qu’il s’agit aussi d’un sujet sectoriel. Je vous invite à poser les mêmes questions à d’autres plateformes car il serait intéressant d’avoir un ensemble de retours sur ce sujet.

M. le président Arthur Delaporte. Il y a quelque chose que je ne comprends pas : vous dites que vous êtes en train d’y travailler alors qu’il y avait déjà des éléments clairs l’an dernier, voire l’année précédente, permettant d’identifier ces sujets. Pourquoi faut-il toujours attendre six mois pour que vous travailliez de nouveau ? On a l’impression que, chaque fois que vous identifiez une problématique, il faut attendre. Il y a un an, nous avons adopté des mesures pour empêcher la promotion de corps idéalisés et la publication dans les for you de contenus assurant cette promotion ou celle de questions liées au poids, etc. Nous avons été proactifs. Or, un an plus tard, avec SkinnyTok, j’ai l’impression que vous êtes encore à nous dire que vous le ferez l’an prochain. En tout cas, ces sujets ne sont pas réglés.

Mme Marie Hugon. Comme je l’ai expliqué dans mon propos liminaire, c’est un travail continu, une évolution permanente, sur la manière dont la plateforme et les communautés évoluent. Nous répondons à ces risques par différentes mesures d’atténuation, telles que de nouveaux contrôles pour que les utilisateurs aient davantage de maîtrise sur le produit, des changements de nos politiques internes, des spécificités ou des éléments que nous allons changer dans nos règles communautaires. Nous ne faisons pas des annonces sur chaque changement, mais je sais que nos règles de communauté sont en perpétuelle évolution. Ce rapport est annuel, et nous travaillons dessus de manière permanente, comme nous travaillons en permanence sur les modalités d’atténuation des risques.

Mme Marlène Masure. Nous faisons beaucoup de choses. Nos équipes de modération travaillent à la suppression des contenus qui enfreignent les règles communautaires. Ainsi, entre octobre et décembre – c’est spécifié dans le rapport de transparence – 1,7 million de vidéos ont été retirées s’agissant de la France. De mémoire – mais nous pourrons revenir vers vous si je me trompe sur le chiffre – 400 000 vidéos concernaient des sujets de santé mentale. L’action et les procédures sont donc en place.

Cependant, il est difficile d’anticiper une tendance avant qu’elle n’émerge. Pour nous, l’enjeu est d’identifier collectivement, le plus rapidement possible, ces tendances, avec les associations avec lesquelles nous travaillons, les autorités publiques – puisque nous travaillons aussi avec la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (Pharos) – et les ONG, et d’y répondre.

Mme Laure Miller, rapporteure. Nous vous avons interrogé, dans le questionnaire, sur les Kentucky Files. Vous avez écrit : « Les affirmations avancées étaient inexactes car il ne s’agissait pas d’une étude interne de TikTok, mais d’un résumé d’une étude Pew datant d’avril 2018, qui porte de manière générale sur “l’usage intensif du téléphone et d’internet” et non spécifiquement sur TikTok ou même l’usage des réseaux sociaux ». Confirmez-vous la réponse que vous nous avez communiquée par écrit ?

Mme Marlène Masure. C’est l’information que j’ai. TikTok est arrivé sur les différents marchés en 2018. Je ne connais pas cette étude en détail et cela mériterait qu’on la regarde plus précisément, mais la chronologie me semble étonnante sachant que TikTok arrivait tout juste. Pardonnez-moi mais je n’ai pas le détail de cette étude et je ne dispose pas de plus d’informations.

Mme Laure Miller, rapporteure. Par ailleurs, nous lisons dans la presse, je cite : « Nous devons avoir conscience “des conséquences que peut avoir l’algorithme sur” le sommeil, la nutrition, le fait de se déplacer dans la pièce ou de regarder quelqu’un dans les yeux ». C’est un cadre de l’entreprise qui l’expliquait dans les documents révélés par la Kentucky Public Radio, et cela a été publié notamment dans Libération le 12 octobre 2024. On lit encore : « Les communications internes indiquent que TikTok reconnaissait que son algorithme pouvait influencer le sommeil et la nutrition des utilisateurs, et qu’une utilisation excessive pouvait mener à une dépendance après seulement 260 vidéos visionnées ». Confirmez-vous vos propos et le fait que vous n’avez pas le sentiment que ce soit propre à TikTok ?

Mme Marlène Masure. Je ne connais absolument pas cette étude ni ne sais d’où viennent ces propos. Il est donc compliqué pour moi de me prononcer là‑dessus. Ce que je peux vous dire, c’est que, si nous continuons de faire évoluer nos outils de gestion du temps, c’est parce que nous sommes conscients de l’enjeu, qui est de permettre à chacun de contrôler sa gestion de temps numérique. Ce n’est pas un sujet propre à TikTok : il concerne les plateformes digitales au sens large. Je n’ai pas de chiffres et ne connais pas cette étude mais ce qui est certain, c’est que les équipes sont mobilisées pour faire évoluer ces outils de gestion du temps. Elles examinent toutes les études qui pourraient émerger et nous apporter des éclairages ou des informations supplémentaires pour continuer à faire évoluer la plateforme.

Mme Laure Miller, rapporteure. Comprenez-vous quand même que nous soyons étonnés : les éléments qui ont été divulgués ont fait l’objet d’un énorme scandale aux États-Unis. Vous êtes responsable du contenu, certes pas aux États‑Unis, mais il s’agit d’une seule et même société. Comprenez-vous que nous trouvions très étrange que vous n’ayez pas eu la curiosité de vous pencher sur ce sujet, d’autant que nous l’avons évoqué dans le questionnaire écrit qui vous a été transmis avant cette audition ?

Mme Marlène Masure. En 2018, je ne faisais pas partie de l’entreprise et, à ma connaissance, on n’est pas complètement aligné avec ces propos ou ces déclarations. Il y a aussi beaucoup de désinformation au sujet de TikTok. Vous avez probablement noté la complexité de la situation aux États-Unis en ce moment. Donc je pense qu’il faut replacer ces propos dans leur contexte – contexte qui nous dépasse, nous, équipe France. Je ne suis pas certaine que la nature de ces propos soit véridique et que cette étude ait réellement existé. Je ne peux pas vous en dire plus.

Mme Marie Hugon. Cela fait partie d’une procédure qui a lieu aux États‑Unis, en ce moment ; il y a diverses procédures. Je ne travaille pas dessus. Cela fait partie de documents qui n’avaient pas le droit d’être divulgués en externe et que des journalistes ont en effet repris. Dans ce cadre, il y a une enquête en cours, des réponses en cours et des équipes qui y travaillent. Vous savez sans doute que la Commission européenne mène aussi actuellement une enquête, notamment sur certains points que vous avez évoqués. Ce sont des éléments qui font partie d’une enquête. On ne peut pas se prononcer davantage.

M. le président Arthur Delaporte. Non, mais tous les sujets ne font pas l’objet d’enquêtes. Même si des enquêtes sont en cours, cela n’empêche pas de se poser des questions sur le rapport des jeunes à la plateforme, sur les questions d’âge, etc. Sinon, à partir du moment où il y a une enquête, vous ne répondez plus à rien !

Mme Marie Hugon. Nous sommes ici pour répondre de manière diligente à vos questions mais ce texte précis fait partie d’un contentieux en cours aux États-Unis. Je n’en ai pas connaissance, ma collègue non plus ; donc on ne peut pas en dire plus.

En revanche, si on parle, de manière générale, des limites de temps d’écran, nous avons effectivement mis en place des systèmes pour limiter le temps d’écran des mineurs, notamment la nuit : pour les adolescents âgés de 13 à 15 ans, les notifications push sont automatiquement désactivées entre 21 heures et 8 heures ; pour les adolescents âgés de 16 à 17 ans, elles sont désactivées entre 22 heures et 8 heures. On a des temps d’écran limités pour les mineurs. La question du temps d’écran est donc gérée par beaucoup de paramètres sur la plateforme.

M. le président Arthur Delaporte. Ces notifications sont automatiquement désactivées, mais le mineur peut-il, de façon proactive, les réactiver ? Le mineur peut-il décider, alors que la plateforme limite le temps d’écran, de faire sauter cette limite ?

Mme Marie Hugon. À ma connaissance, ces paramètres par défaut ne peuvent pas être modifiés par les utilisateurs, ce qui garantit des périodes de repos et d’interruption numérique.

M. le président Arthur Delaporte. Vous évoquez les mineurs âgés de 13 à 15 ans, mais il faudrait être plus précis et parler des mineurs dont l’âge renseigné sur la plateforme est entre 13 et 15 ans. En effet, de nombreux mineurs mentent sur leur âge. Le reconnaissez-vous ?

Mme Marlène Masure. En 2024, nous avons supprimé, en France, 642 000 comptes d’enfants qui n’avaient pas l’âge d’en posséder un.

M. le président Arthur Delaporte. Dont 130 000 à l’échelle française, je crois.

Mme Marlène Masure. Non, 642 000 en France.

M. le président Arthur Delaporte. Ces mineurs peuvent ouvrir de nouveaux comptes.

Mme Marlène Masure. Non, car si l’ouverture d’un compte est refusée, la personne ne peut pas retenter sa chance. On renseigne une date et ensuite on est bloqué. Les 642 000 comptes supprimés ont été identifiés sur la plateforme comme appartenant à des mineurs âgés de moins de 13 ans car ils n’ont pas été capables de prouver le contraire.

M. le président Arthur Delaporte. Reconnaissez-vous que de nombreux jeunes mentent sur leur âge pour pouvoir s’inscrire sur la plateforme ?

Mme Marlène Masure. À notre connaissance, ils étaient 642 000 en 2024.

M. le président Arthur Delaporte. C’est beaucoup, non ?

Mme Marlène Masure. Oui, mais nous les avons attrapés.

M. le président Arthur Delaporte. Combien de mineurs ont un compte TikTok ?

Mme Marlène Masure. Nous vous avons communiqué ce chiffre par écrit, je ne suis pas certaine que nous puissions le divulguer publiquement.

M. le président Arthur Delaporte. Je vais le faire : parmi vos utilisateurs, 4,5 % sont âgés de 13 à 17 ans.

Mme Marlène Masure. Ce n’est pas moi qui l’ai dit !

M. le président Arthur Delaporte. Selon Médiamétrie, qui opère des mesures sur les téléphones des jeunes, 64 % des enfants âgés entre 11 et 17 ans vont sur TikTok tous les mois et 40 % tous les jours. Contestez-vous ces données ?

Mme Marlène Masure. À ma connaissance, nous n’avons pas d’accord avec Médiamétrie, donc j’ignore dans quelle mesure ils peuvent mesurer nos audiences.

M. le président Arthur Delaporte. Lors de leur audition, les responsables de Médiamétrie nous ont expliqué qu’ils mesuraient les comportements des utilisateurs sur leur téléphone, notamment la consultation des médias. Il n’est pas nécessaire d’avoir un accord spécifique pour procéder à de telles évaluations.

Mme Marlène Masure. Je connais un peu le fonctionnement de Médiamétrie : cela reste de l’échantillon. Les accords sur les mesures d’audience rendent les études plus fiables ; or Médiamétrie n’en a pas avec TikTok.

Le chiffre que nous vous avons communiqué résulte de nos statistiques internes. Comme il s’agit de données non publiques, je n’étais pas à l’aise pour vous communiquer ce pourcentage.

M. le président Arthur Delaporte. J’ai effectué un calcul : 75 % des 11‑17 ans fréquentent la plateforme, soit 3,2 des 5 millions de jeunes ayant cet âge en France. Or vous déclarez 25 millions d’utilisateurs en France. Ce ne sont donc pas 4,5 % mais près de 13 % des mineurs âgés de 11 à 17 ans qui utilisent l’application, soit trois fois plus que votre estimation. Les chiffres de Médiamétrie comportent une marge d’erreur, mais celle-ci n’est pas de 50 %, elle est tout au plus de quelques points ; ils montrent qu’environ deux tiers des mineurs mentent sur leur âge.

Mme Marlène Masure. Je ne connais pas cette enquête de Médiamétrie : il faudrait que j’étudie la méthodologie pour comprendre la taille de l’échantillon et la méthode de collecte des données. Leurs chiffres semblent en effet diverger des nôtres, mais, encore une fois, nous n’avons pas d’accord avec cette société.

M. le président Arthur Delaporte. Au-delà de ces chiffres scientifiquement fondés, nous pouvons nous fier à notre expérience : Mme la rapporteure et moi-même avons constaté qu’environ 40 % des élèves d’une classe de CM2 levaient la main lorsque nous leur demandions qui avait un compte TikTok. Nous avons répété l’exercice à de nombreuses reprises.

Mme Marie Hugon. Vous ne pensez pas qu’ils utilisent le compte de leurs parents ?

M. le président Arthur Delaporte. En tout cas, ils ont accès à TikTok. Ils connaissent les influenceurs AD Laurent et Alex Hitchens, que nous avons auditionnés mardi dernier, et, pour certains d’entre eux, HugoDécrypte.

Mme Marlène Masure. J’ai travaillé dans l’industrie du divertissement : beaucoup d’enfants connaissent l’univers Star Wars sans jamais avoir vu un film de la saga. Ils peuvent entendre parler dans la cour de récréation de certaines choses dont ils ignorent le contenu. Une telle expérience n’a pas la valeur d’une étude.

Je rejoins Mme Marie Hugon : de nombreux mineurs utilisent le compte de leurs parents. Nous n’avons pas la prétention de dire que les 642 000 comptes supprimés représentent l’ensemble des cas ; il y en a peut-être d’autres.

M. le président Arthur Delaporte. En l’occurrence, vous n’avez traité qu’un tiers de cette population, donc une minorité.

Mme Marie Hugon. Le débat actuel sur la vérification de l’âge est important. Je ne participe pas aux nombreux forums portant sur cette question technique, mais certains de mes collègues le font. Il n’existe pas de mécanisme standardisé à l’échelle européenne.

En revanche, la Commission européenne vient de publier une nouvelle méthodologie très intéressante, fondée sur une approche graduée des risques et de vérification de l’âge. La mesure doit être proportionnée à la plateforme et à ses contenus. La confidentialité, la sécurité et la protection des mineurs sont prises en considération, mais également les droits fondamentaux, la liberté d’expression, etc. Il est essentiel que l’ensemble des acteurs du secteur trouvent un standard de vérification applicable à toutes les plateformes.

Mme Laure Miller, rapporteure. Avez-vous la capacité technique de vérifier l’âge d’une personne qui s’inscrit sur TikTok ?

Mme Marie Hugon. L’âge est déclaratif. Sans entrer dans des détails techniques dont je ne suis pas spécialiste, il existe des modèles, comme celui de Médiamétrie, j’imagine, qui étudient le comportement et les signaux des comptes. Ces modélisations visent à établir l’âge du mineur.

Mme Laure Miller, rapporteure. Je vous demande si vous possédez un dispositif capable de vérifier l’âge au moment de l’inscription, pas a posteriori.

Mme Marie Hugon. Nous évoluons dans le cadre législatif européen, lequel n’impose pas aux plateformes de vérifier l’âge des détenteurs des comptes. Ces lignes directrices sont absolument cruciales pour l’industrie. Nous sommes très actifs sur le sujet. En fonction de la gradation du risque, nous déploierons différents systèmes de vérification de l’âge. La réflexion est en cours à l’échelle européenne et le texte qui en sortira sera crucial pour la suite.

Mme Laure Miller, rapporteure. Vous mettez beaucoup en avant, dans votre intervention liminaire comme dans le « à propos » publié sur le site de TikTok, votre capacité à accueillir les utilisateurs sur une plateforme sûre. Or bien que vous puissiez, techniquement, installer un système de vérification de l’âge, vous préférez ne pas le faire, en prétextant, au moyen d’une argumentation assez faible, que les autres ne le font pas. Vous dites que vous le ferez tous ensemble. Votre plateforme pourrait pourtant sortir grandie de se montrer plus responsable que les autres en déployant dès maintenant un tel outil.

Mme Marie Hugon. Quelle serait la méthode proportionnée et adaptée ? C’est la question cruciale qui se pose dans le cadre du DSA.

M. le président Arthur Delaporte. Vous employez une méthode d’estimation de l’âge que vous considérez comme adaptée au cadre existant. Cette méthode, qui ne prévoit pas de possibilité de recours au e-wallet, est imparfaite mais néanmoins préférable à une simple déclaration. Si elle était installée sur la plateforme au moment de l’inscription, vous auriez peut‑être un peu moins de détections a posteriori à effectuer.

Mme Marie Hugon. Les autorités européennes travaillent sur le e-wallet, qui n’est pas encore disponible. Il s’agit d’une proposition technique très intéressante. Il y en a d’autres comme celle qui consiste à procéder à la vérification dans les magasins d’applications. Tous les acteurs de l’écosystème doivent se pencher sur le sujet.

M. le président Arthur Delaporte. Ce n’est pas ma question. Vous disposez d’une solution de contrôle, que vous avez décidé d’utiliser a posteriori : pourquoi ne pas l’appliquer a priori, sans attendre l’harmonisation européenne ?

Mme Marie Hugon. Nous en discutons en interne, car ce sujet se situe au cœur des réflexions européennes. L’action doit être collective : toutes les plateformes doivent utiliser un outil standardisé.

Mme Laure Miller, rapporteure. Nous avons auditionné la semaine dernière des personnes qui travaillent dans l’administration de l’éducation nationale : elles nous ont expliqué qu’une réunion s’était tenue avec les différentes plateformes au printemps 2024, au cours de laquelle elles vous ont proposé le dispositif ÉduConnect, qui permet de vérifier l’âge des utilisateurs. Or vous avez refusé l’installation de cette solution. Là encore, ne trouvez-vous pas regrettable de ne pas prendre les devants en vous montrant plus responsables que les autres ?

Ou alors, dites-nous que vous avez tout intérêt à ce que des enfants n’ayant pas l’âge requis pour s’inscrire sur la plateforme l’utilisent ! Au moins, nous comprendrions votre logique, ce qui n’est pas le cas actuellement, d’autant qu’on nous a dit lors de précédentes auditions que l’enjeu n’était pas économique car ce ne sont pas les enfants qui consomment et qui vous rapportent de l’argent. Par conséquent, pourquoi ne les protégez-vous pas davantage ?

Mme Marie Hugon. C’est un sujet en cours de discussion. Nous nous adapterons en fonction…

M. le président Arthur Delaporte. Ce n’est pas ce que nous vous avons demandé !

Mme Marie Hugon. …des lignes directrices européennes.

Je ne connais pas la proposition du ministère de l’éducation nationale.

M. le président Arthur Delaporte. Madame Masure, je vous pose la même question car vous pouvez déployer des politiques proactives. Avez-vous déjà envisagé d’instaurer un contrôle a priori de l’âge de la personne dès que celle-ci installe l’application ?

Mme Marlène Masure. Cette question dépasse mon champ de compétences. Je ne travaille pas sur ces aspects. L’enjeu de la commission d’enquête est de poser les fondements de l’encadrement de l’usage des plateformes au sens large. Cette réflexion est intéressante mais elle doit englober l’ensemble des plateformes. Comme dans les autres domaines, nous nous conformons à la loi. Nous disposons d’outils de détection des mineurs. Nous avons la prétention de penser que nous faisons un assez bon travail, même s’il n’est en effet pas parfait.

M. le président Arthur Delaporte. Nous vous entendons défendre votre bilan, mais je vous ai montré qu’au moins deux tiers des mineurs n’étaient pas identifiés. Parmi les 600 000 comptes que vous avez supprimés, certains pouvaient appartenir à une même personne. Lorsque nous discutons avec des jeunes, ils nous disent posséder deux, trois voire quatre comptes TikTok. Les jeunes titulaires de ces 600 000 comptes ne sont peut-être donc que 200 000 ou 300 000.

Il y a la démarche que vous dites suivre et il y a la réalité que nous constatons. Tout votre discours se fonde sur l’absence d’accès des mineurs à l’application, la limitation du temps d’écran et la restriction des contenus qu’ils peuvent consulter, mais, dans les faits, les mineurs ont un accès complet à l’application parce que deux tiers d’entre eux sont inscrits comme des majeurs.

Mme Marlène Masure. Certains outils permettent d’identifier les mineurs.

M. le président Arthur Delaporte. Ils ne fonctionnent pas.

Mme Marlène Masure. Nous utilisons la technologie de Yoti pour la vérification de l’âge : cette solution française, éprouvée, est utilisée par la Française des jeux. Nous pouvons identifier, grâce à des mots-clés, plusieurs indices permettant de détecter les mineurs. Ces opérations continueront de se perfectionner, sous l’effet des progrès technologiques. Faut-il interdire ou prévenir ? Cette question se pose à tout le secteur, pas uniquement à TikTok.

Mme Laure Miller, rapporteure. Votre réponse ne nous satisfait pas. Nous regrettons votre manque de proactivité dans ce domaine, alors que vous avez la capacité technique d’agir. Si vous le faisiez, vous pourriez vous targuer d’être une plateforme plus responsable que les autres. Meta diffuse actuellement des publicités incitant à la création d’une réglementation européenne. On se demande pourquoi aucune plateforme ne se montre plus responsable que les autres.

Puisque l’âge réel des mineurs n’est pas véritablement vérifié, certains jeunes mentent sur leur âge et passent entre les mailles du filet. Dès lors, il faut protéger tout le monde, puisque les personnes qui devraient être exclues de la plateforme ne le sont pas. Vous nous parlez beaucoup des outils que vous avez déployés pour détecter les mineurs, mais confirmez-vous que le dépassement du plafond de temps passé sur la plateforme par les mineurs, fixé à 60 minutes quotidiennes, n’entraîne pas de blocage d’accès à l’application ?

Mme Marlène Masure. Si le contrôle parental est activé, le mot de passe est renouvelé chaque jour et seul le parent peut permettre au mineur de dépasser le plafond de 60 minutes. Si le contrôle parental n’est pas activé, l’enfant peut prolonger son expérience et recevra un deuxième rappel après 100 minutes passées sur la plateforme.

Mme Laure Miller, rapporteure. Le questionnaire grand public que nous avons publié sur le site de l’Assemblée nationale a donné lieu à 30 000 réponses, qui évoquent très peu l’installation d’un dispositif de contrôle parental sur les téléphones. Pensez-vous qu’un enfant qui a entre 13 et 17 ans – voire moins puisqu’on peut supposer que certains mentent – puisse restreindre son usage, quand on connaît – j’emploie des guillemets – le caractère « addictif » de la plateforme ? Pensez-vous qu’il puisse de lui-même activer des dispositifs de limitation du temps passé sur l’application ?

Mme Marlène Masure. La question est de savoir s’il vaut mieux interdire ou accompagner et éduquer à l’usage des plateformes. Personnellement, j’estime qu’il faut sans cesse améliorer la communication sur les fonctionnalités et les outils. L’outil de contrôle parental est très facile à utiliser : il y a lieu de le faire connaître et d’encourager les familles à se l’approprier.

Le plafond de 60 minutes permet de prendre conscience du temps passé sur la plateforme. Le jeune se dit : je me suis mis une limite de temps d’écran, car les contenus qui me sont proposés m’intéressent. Quand je suis en vacances et que j’ai du temps libre, je peux rester longtemps sur la plateforme et le plafond de 60 minutes agit comme un avertissement. Il est également possible de connaître la durée d’utilisation hebdomadaire de la plateforme. Ces outils permettent une prise de conscience qui n’empêche rien mais qui encadre l’usage.

Mme Laure Miller, rapporteure. Il y a quelques années, le patron de Netflix disait ceci : « Nous sommes en compétition avec le sommeil et nous sommes en train de gagner. »

Une lycéenne nous a expliqué les conséquences de son utilisation de TikTok au collège : « J’ai ressenti une sorte de désintérêt général pour tout ce qui ne relevait pas de TikTok. Troubles du sommeil, fatigue chronique, l’utilisation de TikTok a eu un impact majeur sur mon sommeil malgré les consignes de mes parents de ne plus utiliser mon téléphone après 21 heures. J’avais beaucoup de mal à résister et je me disais " juste une vidéo de plus " et je me retrouvais à regarder l’application jusqu’à 1 heure ou 2 heures du matin. Cette privation de sommeil se répercutait directement sur ma journée : j’étais fatiguée en cours, j’avais du mal à me concentrer, j’étais souvent irritable, mes résultats scolaires ont commencé à baisser significativement au deuxième trimestre. Difficultés de concentration, procrastination : un autre problème majeur que j’ai rencontré concernait ma capacité à me concentrer sur mes devoirs. (…) »

Le témoignage montre que, si les adultes peuvent se restreindre pour préserver leur temps de sommeil, les enfants ne le peuvent pas. Il y a un décalage entre vos intentions et la réalité : vous installez des outils qu’écartent les enfants souffrant d’addiction aux vidéos. N’est‑il pas nécessaire de déployer des dispositifs plus contraignants pour les mineurs, compte tenu de l’ensemble des études et des rapports montrant les troubles qu’engendrent ces pratiques sur le sommeil et la capacité d’attention de nos enfants, écueils que vous reconnaissez vous‑mêmes ?

Mme Marlène Masure. Je ne me permettrai pas de faire un commentaire sur les troubles du sommeil car je n’ai aucune compétence en la matière. Les questions que vous soulevez concernent l’ensemble du secteur et de la consommation digitale. Nous avons pour habitude de respecter la loi : si celle-ci évolue, nous nous adapterons.

Mme Marie Hugon. La gestion du temps d’écran est une question pour l’ensemble de la filière. Il s’agit du temps passé sur notre téléphone à consulter de nombreuses applications. Vous avez d’ailleurs évoqué Netflix : nous savons tous que le binge watching existe. Nous menons régulièrement des campagnes de prévention à destination des familles, afin de les sensibiliser au bien-être numérique. Nous construisons un centre de sécurité pour les adolescents en collaboration avec notre Conseil mondial de la jeunesse, qui pourra accueillir, potentiellement, des enfants français.

M. le président Arthur Delaporte. Ce n’est pas ce que j’ai dit : nous n’avons pas besoin d’ambassadeurs mais d’un conseil indépendant.

Mme Marie Hugon. La culture du feed-back est très importante chez TikTok. Nous proposons des contenus destinés à éduquer les enfants. Certains dispositifs de contrôle parental sont logés dans le téléphone, d’autres dans l’application. Nous allons œuvrer collectivement pour que les choses aillent dans le bon sens.

M. le président Arthur Delaporte. Vous reconnaissez tout de même que des mécanismes de captation de l’attention sont présents sur TikTok ?

Mme Marlène Masure. La proposition faite aux utilisateurs est fondée sur les contenus, sous la forme d’un flux de vidéos correspondant à leurs attentes. Si notre travail est bien fait, les vidéos proposées à chaque utilisateur correspondront à ses centres d’intérêt. Si une série m’intéresse sur Netflix, je vais la regarder jusqu’au bout.

M. le président Arthur Delaporte. Des experts nous ont affirmé que la singularité de TikTok réside dans l’efficacité et la puissance de son algorithme. D’après certains témoignages, l’algorithme sait mieux que l’utilisateur ce que celui-ci veut voir. Voilà pourquoi il parvient à le capter et à le maintenir devant son écran. Ne trouvez-vous pas qu’il y a quelque chose de vertigineux là-dedans ?

Mme Marlène Masure. Ce qui fait la force de TikTok, c’est sa communauté et tous les gens qui créent des contenus. Nous restons une plateforme.

M. le président Arthur Delaporte. Les gens sont venus par appétence pour la plateforme et tombent parfois dans une forme d’addiction. Avant la communauté, il y a un mécanisme viral de captation de l’attention.

Mme Marlène Masure. Nous ne sommes rien sans les gens qui créent du contenu, nous ne sommes qu’une plateforme technologique.

M. le président Arthur Delaporte. C’est de la langue de bois !

Mme Marlène Masure. Je suis une utilisatrice convaincue.

M. le président Arthur Delaporte. De la langue de bois ou de TikTok ?

Mme Marlène Masure. De TikTok ! Je peux vous montrer mon flux, il est hyper intéressant.

M. le président Arthur Delaporte. Le mien est un peu pollué par M. Jordan Bardella à cause de mon appétence pour la politique.

Mme Marlène Masure. C’est parce que vous regardez beaucoup ses contenus !

M. le président Arthur Delaporte. Non. J’ai indiqué que je n’aimais pas ses contenus, mais la plateforme continue de me les proposer. C’est un biais.

Dans la masse des témoignages que nous avons reçus, énormément de jeunes nous ont dit qu’ils ne parvenaient pas à s’en sortir, qu’ils passaient leurs nuits sur la plateforme et qu’ils cherchaient à contourner les mécanismes de limitation de temps parce qu’ils étaient happés et qu’ils ne pouvaient plus se passer de TikTok. Ce qui nous obsède dans cette commission d’enquête, c’est que c’est évitable.

Mme Laure Miller, rapporteure. Vous ne cessez de dire que l’algorithme capte les centres d’intérêt de l’utilisateur : c’est faux, j’en ai fait l’expérience. J’ai été ensevelie sous des contenus que je n’avais pas choisis et qui m’ont été imposés parce que j’avais eu le malheur de rester plusieurs secondes sur certaines vidéos dont le sujet était la tristesse. Mon intention profonde n’était pas de tomber là‑dessus, je n’ai tapé aucun mot dans la barre de recherche ni renseigné le moindre centre d’intérêt. Il est fondamental de distinguer un algorithme qui met en avant les centres d’intérêt de l’utilisateur et un autre dont la fonction est de retenir l’attention.

Nous avons le sentiment, en vous écoutant, que vous avez allumé un gigantesque incendie que vous tentez d’éteindre avec un verre d’eau. Les dispositifs que vous déployez n’éteindront jamais le feu de la très forte dépendance à la plateforme, ce qui est sans doute ce que vous recherchez, au fond, puisque c’est évidemment un moteur de croissance économique – les gens consomment lorsqu’ils sont vraiment dépendants. Vos dispositifs ne sont pas à la hauteur de la très grande dépendance des mineurs à l’égard de la plateforme.

M. le président Arthur Delaporte. Dans les auditions que nous avons menées, l’une de vos spécificités, désormais copiée, a été mise en avant : celle de l’infinite scrolling – autrement dit, les contenus ne s’arrêtent jamais. C’est vous qui l’avez inventé, n’est-ce pas ?

Mme Marlène Masure. Cela existe sur de nombreuses plateformes aujourd’hui. Nous ne sommes pas les seuls à faire des vidéos verticales.

M. le président Arthur Delaporte. C’est vous qui l’avez inventé, puis vous avez été copiés.

Mme Marlène Masure. Il est vrai que TikTok est arrivé avant.

M. le président Arthur Delaporte. Réfléchissez-vous à l’élaboration d’algorithmes moins addictifs ?

Mme Marlène Masure. L’enjeu est d’offrir une palette de moyens et de solutions à chaque utilisateur. Les besoins et les envies divergent selon que l’on a 18 ou 45 ans. Nous voulons continuer de développer des fonctionnalités qui permettent de contrôler son expérience. Les utilisateurs peuvent supprimer la personnalisation du flux, mais les contenus ne seront alors plus liés à leurs centres d’intérêt et leur apparaîtront probablement moins intéressants.

L’algorithme me propose parfois des contenus visant à diversifier mon flux, qui ne sont pas nécessairement liés à mes centres d’intérêt. Si vraiment je ne les aime pas, je peux l’indiquer, pour m’assurer qu’ils ne me soient plus proposés. L’éducation à l’usage de la plateforme est importante pour que les utilisateurs contrôlent mieux leur expérience. Les outils de gestion du temps sont, me semble‑t‑il, la meilleure solution.

M. le président Arthur Delaporte. L’algorithme utilise notamment le temps de visionnage d’une vidéo pour déterminer si elle nous intéresse. Or un contenu choquant crée un effet de sidération ; même si l’utilisateur ne l’aime pas, l’algorithme nous en proposera de plus en plus.

Mme Marlène Masure. Cela m’est déjà arrivé à l’occasion de certains événements géopolitiques : je n’avais pas envie d’être exposée à de tels contenus et je me suis assurée qu’ils ne me seraient plus proposés. Il m’arrive également de bloquer des créateurs dont je n’aime pas les contenus. Il faut promouvoir ces fonctionnalités pour que chaque utilisateur puisse mieux contrôler son expérience.

M. le président Arthur Delaporte. Vous ne communiquez donc pas assez bien !

Mme Marlène Masure. Peut-être.

Mme Laure Miller, rapporteure. J’entends ce que vous dites, mais vous êtes adulte, responsable et, de surcroît, vous connaissez très bien l’algorithme. Notre préoccupation concerne les enfants, qui ne sont pas des adultes miniatures : ils sont en pleine croissance, n’ont pas le même cerveau ni les mêmes capacités que les adultes. S’ils voient un contenu qui les sidère, ils ne vont pas nécessairement le bloquer et le regarderont jusqu’au bout. Ils vont ainsi se trouver face à des contenus totalement inappropriés pour leur âge. On ne va pas leur dire qu’ils auraient dû bloquer la première vidéo sidérante. Penser cela, ce n’est ni sérieux, ni à la hauteur de l’enjeu.

Tout le monde vous demande – la société entière vous demande – pourquoi vous ne protégez pas concrètement les mineurs sur votre plateforme. Nous recevons des tonnes de mails, de témoignages d’enfants, dans les écoles, qui viennent nous voir, à chaque fois, pour nous dire qu’ils voient des contenus inappropriés de scarification. Ma nièce a vu, sans le demander, des contenus de scarification et de suicide.

M. le président Arthur Delaporte. À plusieurs reprises !

Mme Laure Miller, rapporteure. C’est inacceptable ! Vous n’avez pas une obligation de moyens mais de résultat. C’est la protection de nos enfants qui est en jeu ! Il m’est insupportable de vous entendre dire que vous mettez en place des outils, que vous faites votre maximum, que vous êtes de bonne volonté et que le DSA va arriver, alors qu’aujourd’hui, on trouve encore une grande quantité de contenus inacceptables pour les enfants.

Mme Marie Hugon. Je comprends votre point de vue et votre témoignage personnel. Nous avons fait preuve d’une grande transparence et nous vous avons donné beaucoup d’éléments techniques. Nous vous avons expliqué les systèmes d’algorithme, ceux de dispersion, de variété, de contrôle, etc. Nous continuons d’œuvrer pour améliorer les algorithmes. Nous avons en outre installé des modérations de contenu. Le DSA et les lignes directrices européennes ne semblent pas répondre à vos attentes, mais nous continuons de travailler dans le cadre existant pour la protection des mineurs.

M. le président Arthur Delaporte. Les témoignages que nous recevons vous touchent-ils un peu ? Je suppose que vous en avez également lu dans la presse. Ils sont tout de même assez glaçants.

Mme Marie Hugon. Je suis un être humain et, bien que je n’aie pas d’enfant, je suis touchée quand des drames se produisent.

M. le président Arthur Delaporte. Ne vous dites-vous pas que ces drames sont évitables ? Je me souviens de cette maman qui nous a raconté lors d’une audition que son fils se scarifiait derrière une porte et qu’elle ouvrait les armoires pour prendre des lames de rasoir et les donner à son fils. Elle attendait parce qu’elle n’arrivait pas à le priver de TikTok et à le contrôler, car il était obsédé et ne pouvait pas s’empêcher de se scarifier. Vous pourriez agir contre ça !

Mme Marie Hugon. Nous continuons à agir. Comme vous le savez, certains mots comme « suicide » sont interdits dans le moteur de recherche. De nombreuses vidéos sont retirées. Nos règles communautaires obéissent à une politique très précise. Je ne peux pas me prononcer sur certains éléments, car une procédure judiciaire est en cours en France.

M. le président Arthur Delaporte. Ce que j’ai évoqué ne fait pas forcément l’objet d’une procédure. J’ai rencontré des parents de jeunes qui se scarifient : ils parlent de Tiktok, ils ne parlent pas d’autres plateformes. C’est votre application qui est mise en cause ! Il s’agit d’un phénomène, pas simplement d’une procédure judiciaire qui concerne quelques personnes. Nous vous demandons quelles mesures vous mettez en place.

L’audition est suspendue de seize heures quinze à seize heures trente.

M. le président Arthur Delaporte. Pourriez-vous nous apporter des éléments sur les différences entre la version chinoise de TikTok et la version monde ?

Mme Marlène Masure. L’application chinoise, qui s’appelle Douyin, diffère complètement des autres versions. Elle est opérée en Chine par des équipes chinoises. Je n’ai pas eu l’occasion de la tester, donc il m’est très difficile de répondre à votre question. Ce sont deux produits différents.

M. le président Arthur Delaporte. L’entité mère possède les deux filiales, n’est-ce pas ?

Mme Marlène Masure. Tout à fait. ByteDance est un très grand groupe technologique, qui développe de nombreux produits et solutions. On y trouve des solutions de logiciel en tant que service (Saas), du cloud, des applications de montage vidéo, des applications de streaming de musique. Certains produits sont développés pour le marché chinois et d’autres pour l’international. En Chine, on accède au cloud par Volcano Engine, alors que la solution internationale est BytePlus.

TikTok est l’entité la plus connue du groupe ByteDance, car il s’agit d’un produit B2C – commerce entre une entreprise et des particuliers – alors que les autres solutions sont plutôt B2B, c’est-à-dire qu’elles sont dédiées aux entreprises.

M. le président Arthur Delaporte. On entend souvent dire que Douyin protège davantage les mineurs que TikTok : vous êtes-vous renseignés à ce sujet ?

Mme Marlène Masure. Cette opinion a été avancée lors de la commission d’enquête sénatoriale il y a deux ans. J’ai également lu des commentaires allant dans le même sens, mais n’ayant pas expérimenté l’application, je ne peux pas avoir d’avis tranché. Je ne prétends pas connaître tous les produits de la galaxie ByteDance, même si ce serait sûrement très satisfaisant sur le plan intellectuel.

M. le président Arthur Delaporte. Comptez-vous vous renseigner à la suite de nos questions écrites ?

Mme Marlène Masure. Nous pouvons les transmettre à nos collègues chinois si vous êtes intéressés par le marché chinois.

M. le président Arthur Delaporte. Ce qui nous intéresse, c’est de savoir s’il existe des mécanismes de protection des mineurs, des corrections algorithmiques sur le marché chinois sur lesquels nous pourrions nous appuyer, en Europe, pour avancer dans ce domaine.

Mme Marie Hugon. Ni ma collègue ni moi ne nous occupons du marché chinois. Nous ne connaissons pas Douyin et je n’ai pas de contacts avec les équipes responsables de ce produit, donc nous ne sommes malheureusement pas en mesure de répondre à votre question. Si vous souhaitez nous la transmettre par écrit, nous vous répondrons.

M. le président Arthur Delaporte. Nous vous l’avons adressée il y a douze jours dans le questionnaire. Si vous avez besoin d’un délai supplémentaire pour y répondre, prenez‑le.

Mme Marie Hugon. Nous avons répondu au questionnaire.

Mme Marlène Masure. Douyin est une entité complètement à part. TikTok SAS n’a pas de lien avec Douyin. Mon patron est à Londres, le sien est à Los Angeles et le patron de celui-ci est à Singapour. Nous travaillons avec des équipes internationales, mais pas avec les équipes de Douyin. Celles-ci opèrent sur un marché dont les régulations sont très différentes.

Je ne sais pas s’il est possible de dresser un parallèle entre la régulation chinoise de l’usage digital et celle qui s’applique en France. Les deux pays sont très différents, notamment sur le plan culturel.

Encore une fois, n’ayant jamais utilisé cette plateforme et n’ayant aucun contact avec Douyin, il m’est très difficile de répondre à votre question.

Mme Laure Miller, rapporteure. Ce matin, les responsables de TikTok que nous avons auditionnés nous ont apporté des explications sur la manière dont la modération fonctionnait. Nous avons obtenu en partie les réponses à nos questions. Aujourd’hui, de nombreux moyens – hashtags ou mots-clés détournés, lettres en moins remplacées par des émoticônes, etc – permettent de contourner les dispositifs de modération. En avez-vous conscience ? Consacrez-vous les moyens nécessaires, en matière de modération, pour faire face à ces contournements ?

Mme Marie Hugon. Nos collègues vous ont en effet déjà apporté beaucoup de réponses ce matin. Comme vous le savez, nous supprimons tous les contenus qui enfreignent la loi locale mais aussi nos règles communautaires, lorsqu’ils nous sont signalés ou lorsque l’algorithme les détecte. Tous les contenus sont modérés.

Vous avez soulevé un point particulier sur le détournement des hashtags qui est parfois appelé algospeak – il arrive aussi que l’on mette un zéro à la place du « o ». Nous rééduquons en permanence nos algorithmes à l’aide des nouveaux éléments dont nous disposons. Nous modérons et scrutons en permanence la plateforme et incorporons ces données.

Mme Laure Miller, rapporteure. Dans ce cas, comment expliquez-vous, par exemple, qu’en tapant le mot « scarificacion » au lieu de « scarification » dans le moteur de recherche ou en tapant l’émoticône zèbre – alors qu’on connaît ce moyen de détournement depuis un certain temps – on obtienne encore des contenus relatifs à la scarification ? Ma collègue a fait le test tout à l’heure.

Mme Marie Hugon. C’est un travail continu ; nous allons évidemment reparler de ces éléments avec nos équipes.

M. le président Arthur Delaporte. Aviez-vous entendu parler de l’émoticône zèbre ?

Mme Marlène Masure. Oui, mais je ne voudrais pas parler à la place de nos équipes de modération. Plus largement, d’après ce que nous avons compris du fonctionnement de la modération, celle-ci réagit en fonction de la taille de la communauté qui va publier avec ce hashtag. Un hashtag en soi ne veut rien dire ; il faut un certain nombre de contenus et de vues associés à celui-ci.

Quand on s’aperçoit qu’une communauté grandit autour d’une thématique qui, potentiellement, peut être problématique, on ira jusqu’à supprimer le hashtag. S’agissant du SkinnyTok, par exemple, certains créateurs nous ont contactés car ils considèrent que c’était un vrai sujet et souhaitaient créer des contenus éducatifs sur la question. Quand on cherchait un contenu SkinnyTok, on trouvait des contenus positifs qui expliquaient qu’il fallait faire attention. Le fait de supprimer le hashtag empêche de trouver les ressources et les vidéos bienveillantes qui permettent d’éveiller les consciences.

M. le président Arthur Delaporte. À moins de supprimer les seules vidéos problématiques sans retirer les bonnes.

Mme Marlène Masure. Il a fallu supprimer le hashtag #SkinnyTok pour qu’aucune recherche ne soit possible car la communauté grandissait autour de cette problématique. Après discussion avec les associations et les ONG, on a décidé d’aller jusque-là. En réalité, ce qu’il faut regarder, c’est le nombre de publications et de vues en lien avec un hashtag pour déterminer s’il est réellement problématique. Cela étant, s’agissant du terme « scarification », il n’y a pas de débat : il est problématique. D’ailleurs, il est interdit dans nos règles communautaires.

M. le président Arthur Delaporte. On nous a signalé l’utilisation de l’émoticône zèbre il y a un mois lors d’une audition. À cette occasion, j’avais fait passer un message aux responsables de TikTok en leur disant que, s’ils nous regardaient, il fallait qu’ils pensent à supprimer cette émoticône.

Aujourd’hui, lorsqu’on tape l’émoticône zèbre dans la barre de recherche, on tombe sur des contenus problématiques. Nous allons vous les montrer : ils ont été signalés, mais aucune mesure de modération n’a été prise.

Mme Laure Miller, rapporteure. Dans les réponses à notre questionnaire, vous avez indiqué : « Lorsqu’un utilisateur recherche des contenus liés au suicide ou à l’automutilation […], les résultats de recherche sont bloqués et nous affichons le message suivant avec le numéro d’appel d’urgence pertinent selon le pays. » C’est effectivement ce qui apparaît pour les recherches « suicide » ou « scarification ».

Cependant, comment justifiez-vous que les recherches « je veux mourir », « j’ai envie de mourir » et « je veux me pendre » ne donnent lieu à aucun blocage ni à aucun message de prévention ? Comment justifiez-vous que les recherches « comment se pendre » ne donnent lieu à aucun blocage ? Comment justifiez-vous que la recherche « mes parents me battent » ne donne lieu à aucun blocage ni à aucun message de prévention ? (La commission projette des captations d’écran de l’application TikTok correspondant à ces recherches.)

Mme Marie Hugon. Je n’ai pas de réponse à vous donner aujourd’hui sur ces points. Si vous le voulez bien, vous pouvez les reprendre en détail dans un questionnaire écrit auquel nous répondrons avec nos équipes de modération.

Mme Marlène Masure. Ce qui est important, c’est de regarder la nature du contenu. Ces mots sont problématiques. On peut évidemment faire la recommandation – et la faire remonter – qu’une ressource doit être affichée avant les vidéos.

Actuellement, l’équipe de modération travaille contenu par contenu. Donc, parfois, des vidéos apparaissent à la suite d’une recherche qui est potentiellement problématique alors que leur contenu en lui-même ne l’est pas. Il est nécessaire de regarder les quatre vidéos en question et de vérifier si elles concernent réellement le sujet lié à la recherche.

M. le président Arthur Delaporte. Les premiers contenus sur lesquels je tombe lorsque je recherche « mes parents me battent » sont humoristiques alors que ces mots sont aussi un appel à l’aide. Lorsque je fais la recherche « comment se pendre » sur Google, le premier résultat est : « aide disponible », accompagné du numéro national de prévention du suicide.

En fait, vous êtes capables de le faire – nous l’avons constaté pour SkinnyTok. Pourquoi ne le faites-vous pas alors même que TikTok devient, notamment pour les jeunes, un moteur de recherche pour toutes ces questions liées au mal-être ?

Mme Marlène Masure. Encore une fois, cela n’engage que moi, mais je pense qu’il peut être utile de se demander, en effet, comment on peut aller plus loin sur les ressources liées aux requêtes. Il est hyper important de remettre les choses dans le contexte et de dire que les contenus ne sont pas, potentiellement, problématiques – s’ils n’ont pas été modérés, c’est qu’a priori ils ne le sont pas. Il faut regarder vidéo par vidéo et, le cas échéant, les signaler. Ces ressources existent ; il est donc assez facile de les associer à ces requêtes.

M. le président Arthur Delaporte. Sur l’une des quatre vidéos qui sont à présent affichées à l’écran, on peut lire « trois manières de se $uicider sans douleur » – le $ remplaçant le s de suicide –, ce qui est quand même problématique. Or ce sont les premiers résultats qui ressortent, c’est le top des résultats : autrement dit, c’est ce que vous mettez en avant.

Mme Marlène Masure. J’ai très envie de prendre mon téléphone pour regarder, mais je vais vous faire confiance.

M. le président Arthur Delaporte. Allez-y, faites-le, car vous n’aurez peut-être pas le même algorithme, ce serait intéressant de voir. Ces captures ont été obtenues à partir d’un compte classique.

Mme Marlène Masure. Déjà, la formule « comment se pendre » n’apparaît pas sur mon flux. J’obtiens les résultats suivants : « comment se pendre les cheveux sans gant », « comment se pendre la barbe », « comment se pendre sur Spider-Man ». Il est nécessaire de regarder vidéo par vidéo ce qui apparaît sur les interfaces.

Mme Laure Miller, rapporteure. En effet, il y a les suggestions. Mais nous vous demandions simplement de taper la phrase in extenso : « Comment se pendre » ; sinon, cela peut suggérer autre chose.

J’ai évoqué tout à l’heure la recherche avec le mot « scarification », pour laquelle il suffit de changer une lettre. Je voulais vous montrer quelques vidéos à ce sujet. Il est difficile de justifier pourquoi, si on modifie quelques lettres et que l’on tape « sacrificacion » ou que l’on remplace, dans ce dernier mot, les « a » par un 4, il n’y a aucun blocage ni message de prévention. Si l’on effectue la recherche avec le mot « zèbre », on tombe également sur des contenus de scarification, comme nous l’ont signalé les membres du collectif Algos Victima que nous avons reçus il y a un mois. Cela ne fait toujours pas l’objet d’une modération ni d’un message de sensibilisation.

Par ailleurs, nous avons effectué quelques recherches sur le thème de la santé mentale et sommes tombés sur des contenus à ce sujet. Mais comment expliquez-vous que lorsqu’on tape « comment » dans la barre de recherche – cela rejoint ce que vous avez essayé de faire – les premières suggestions soient « comment se scarifier ? » ?

Mme Marlène Masure. Je n’ai pas de réponses à ces questions. Encore une fois, cela mériterait que l’on regarde cela en détail. Ce qui est certain, c’est que le sujet de la scarification est interdit dans nos règles communautaires et que ces contenus font l’objet d’une modération. Les premières vidéos que vous avez montrées sur la scarification me semblaient plutôt être des contenus positifs, qui avaient pour objet de sensibiliser. En tout cas, dans leur nature, dans les messages qui étaient portés, cela semblait plutôt être…

M. le président Arthur Delaporte. Ce qui veut dire qu’il peut y avoir une volonté de mise en avant de certains contenus ?

Mme Marlène Masure. Non, ce que je dis, c’est que les contenus qui ont été montrés semblaient expliquer pourquoi ce n’est pas une bonne chose. Un mot-clé, en lui-même, ne présage pas la négativité absolue de l’ensemble des contenus qui y sont liés. C’est la raison pour laquelle nos règles communautaires s’appliquent contenu par contenu.

Mme Laure Miller, rapporteure. Si cela dépend de ce qu’on peut trouver derrière un mot-clé en tant que tel, pourquoi avez-vous censuré « suicide » ?

Mme Marlène Masure. « Scarification » l’est aussi, à ma connaissance.

M. le président Arthur Delaporte. Les exemples à l’écran ont été obtenus en tapant « sacrificacion ». La lettre « c » a été déplacée, et le « t » remplacé par un « c ».

Mme Marlène Masure. On doit effectivement continuer à faire évoluer le travail de modération sur chacun des hashtags. Les outils nous permettent d’identifier à quel moment les communautés, autour d’un hashtag, commencent à devenir significatives et présentent un problème. Je ne sais pas combien de contenus sont associés à « sacrificacion » ; vous en avez quatre, potentiellement, et peut-être les contenus en eux-mêmes ne sont-ils pas problématiques. C’est compliqué pour moi de vous répondre sans regarder les vidéos.

M. le président Arthur Delaporte. N’est-ce pas, déjà, quatre de trop ?

Mme Marlène Masure. Encore une fois, je ne sais pas si ces vidéos sont…

M. le président Arthur Delaporte. Vous nous expliquez qu’il faut que cela devienne significatif.

Nous avons effectué une recherche avec l’émoticône zèbre, pour laquelle nous avons sélectionné plusieurs vidéos. Voici la première. Il est écrit : « la première fois où je me suis [émoticône zèbre] », ce qui veut dire scarifié. Cela n’a l’air de rien, comme ça, mais cela veut dire que l’on a commencé, puis que l’on n’a jamais arrêté. Nous avons signalé cette vidéo, mais elle n’a pas été retirée, parce qu’elle n’a pas été considérée comme problématique. Pourtant, on voit bien qu’elle l’est !

Mme Marlène Masure. Cela mérite que l’on échange avec nos équipes de modération pour avoir leur retour. Il faudrait savoir combien de fois cette vidéo a été vue. A-t-elle été supprimée du fil « Pour toi » ? A-t-elle été définie comme Non recommended ? Nous avons une gradation dans la modération – Marie l’a évoqué ; Mmes Nicky Soo et Brie Pegum en ont parlé également ce matin. C’est un peu l’enjeu. Derrière une vidéo, on ne connaît pas nécessairement son niveau d’exposition. C’est cela qu’il faut regarder.

M. le président Arthur Delaporte. Même avec un faible niveau d’exposition, on peut considérer que c’est déjà problématique. Comme nous avons fait une recherche par mot-clé et que ce mot-clé a été signalé, vous auriez pu faire une recherche proactive de ces contenus problématiques. Ce qui nous intéresse, c’est aussi de comprendre quels moyens vous consacrez à ce type de recherches, même lorsqu’il ne s’agit pas encore de tendances très marquées. Il serait préférable d’arrêter la tendance dès le départ, surtout sur ces sujets, identifiés par Google. Je veux bien admettre que Google est bien plus fort que TikTok, mais vous êtes quand même assez forts en algorithmes. Puisque vous avez su mettre en place, pour SkinnyTok, le petit numéro SOS suicide ou « T’as besoin d’aide », cela devrait être possible aussi pour « Comment se pendre » ou « zèbre ».

Regardons les vidéos suivantes. On voit à l’écran une femme qui pleure ; il est écrit : « Quand tu te rend encore compte que tu rechute/quand tu pensais t’en être sorti ». Venons-en à la troisième vidéo, obtenue toujours avec la recherche « zèbre » : « Cet été tu vas devoir assumer des traces tu es prête ? » – il s’agit des traces de scarification puisqu’en été, on retire ses vêtements, ou ils sont plus courts, et on dévoile ses marques de scarification sur les bras. Toutes ces vidéos ont été signalées récemment, mais nous avons reçu une réponse négative de la modération. Nous avons fait appel et nous avons reçu une réponse négative de l’appel.

Mme Marlène Masure. Est-ce que je peux me permettre de vous demander les raisons qui vous ont été opposées ?

M. le président Arthur Delaporte. Elles s’affichent à l’écran : « 5/6/2025 : Signalement envoyé. Tu as signalé la vidéo […] pour cause d’infraction aux règles de la communauté. 5/6/2025 13 h 18 : Nous étudions ton signalement […]. 5/6/2025 13 h 48 : Aucune infraction trouvée. » Là, nous avons fait appel. « 6/6/2025 12 h 02 : Nous t’enverrons une notification […] ». « 6/6/2025 12 h 32 [donc, c’est assez rapide] : Aucune infraction trouvée. Nous avons examiné la vidéo […] et déterminé qu’elle n’enfreint pas nos règles de la communauté ».

Mme Marie Hugon. Pouvez-vous préciser la manière dont vous avez signalé ce contenu ? Avez-vous eu la possibilité d’avoir une explication ? Parfois, il y a des encadrés dans lesquels on peut expliquer un peu plus le contexte de la vidéo.

M. le président Arthur Delaporte. Avions-nous expliqué le contexte de la vidéo ? Non, peut-être pas.

Mme Marie Hugon. Dans le contexte, comme l’expliquait Mme Masure, il y a des personnes qui trouvent aussi le moyen de parler de ces sujets difficiles à d’autres personnes, parce qu’elles ne peuvent pas le faire dans un environnement familial. Je ne connais pas la vidéo, je ne l’ai pas vue. Je dis juste que, comme on l’a expliqué dans le cadre de SkinnyTok – puisque vous allez sans doute nous poser des questions à ce sujet –, il y a aussi des explications sur certaines notions qui sont potentiellement taboues.

M. le président Arthur Delaporte. Je précise que toutes ces vidéos étaient visibles depuis un compte mineur. Nous nous sommes créé un compte mineur ; nous avons respecté les règles et n’avons pas cherché à tricher sur l’âge – ou, au contraire, nous avons triché dans l’autre sens.

Nous avons fait la même chose avec le mot « suicide » – nous passerons rapidement dessus. Nous avons tapé également l’émoticône du drapeau de la Suisse – Suisse, suicide –, comme cela nous avait été indiqué également lors de l’audition des représentants du collectif Algos Victima, il y a un mois. Je pensais que des équipes de TikTok regardaient forcément cela. Mais, visiblement, cela n’est pas remonté jusqu’à vous. Je suppose que cela vous a été signalé par ailleurs, par d’autres moyens, car c’est connu.

Regardons une première vidéo correspondant à notre recherche avec l’émoticône du drapeau suisse. Il est écrit : « Car à qui je manquerai si je m’en vais [ces mots étant suivis du drapeau de la Suisse] » – cela n’a pas grand-chose à voir avec les glaciers de la Suisse. Sur la deuxième vidéo, on peut lire  : « Des fois je me dit que le [drapeau suisse] est la seule solution ». Autre vidéo : « Fin du chapitre, j’ai de nouveau des idée de [drapeau suisse] ». Vidéo suivante : « Profites bien de moi ma date de [drapeau suisse] arrive bientôt ». Ou encore « Pk pleurer quand j’ai juste a me [drapeau suisse] » ; « Le [drapeau suisse] est le chemin le plus court » et « Le [drapeau suisse]ides est le chemin le plus court ».

Nous n’avons pris que deux exemples, « zèbre » et « Suisse », parmi tous ceux qui nous ont été transmis, tous les mots-clés et toutes les manières de contourner le système. Une action sera peut-être menée concernant ces contenus – tout comme il y en a eu une sur SkinnyTok, parce qu’il y a eu une mobilisation politique en France, il faut le dire –, mais pourquoi attendre autant avant d’en arriver là, alors même que des témoignages de jeunes qui se suicidaient sont arrivés il y a au moins un an de cela ? Pourquoi ne pas avoir cherché à discuter avec les jeunes pour savoir, de façon proactive, quels étaient les contenus qu’ils regardaient lorsqu’ils n’allaient pas bien, quels hashtags ils tapaient ?

Ils ont des stratégies ; ils nous ont expliqué ce qu’ils faisaient et raconté comment. Lorsqu’on ne va pas bien et qu’on est dans une communauté pro‑ana – pro anorexie –, on se refile les recettes ou les hashtags. Ce n’est donc pas simplement une question de volume. C’est une petite communauté – mais vous savez très bien que les petites communautés, ça marche – qui a ses codes, sur laquelle vous devriez agir de façon proactive.

Mme Marlène Masure. Je mesure l’importance du sujet ; nos équipes sont mobilisées et on ne peut pas dire que rien n’est fait. En 2024, 6,6 millions de vidéos ont été supprimées en France grâce au travail de modération effectué par nos équipes. De plus, les signaleurs de confiance nous aident à identifier ces tendances et ces risques. Nous travaillons aussi avec Pharos et de nombreux autres partenaires qui nous aident à aller le plus vite possible. Vous avez raison, ces nouvelles tendances émergent trop vite et à une grande fréquence. Collectivement, nous avons envie de faire toujours mieux, mais on ne peut pas dire que rien n’est fait.

M. le président Arthur Delaporte. On ne peut pas dire que rien n’est fait, mais des jeunes sont morts à cause de ces tendances. Vous dites qu’elles émergent trop vite, mais les tendances dont nous parlons datent d’il y a un ou deux ans, pas d’une semaine. Elles ont un impact sur la vie des gens qui va bien au-delà de l’exposition à la vidéo d’un chaton dans un mixeur – qui peut aussi être traumatisante. Ce que disent les jeunes lorsqu’on discute avec eux des contenus qui les choquent sur les réseaux sociaux, c’est que les images leur restent longtemps en tête.

Pourquoi ne vous êtes-vous pas donné une obligation de moyens illimitée et de résultat ? Vous avez une responsabilité sur la vie des gens : on ne parle pas d’une simple marge d’erreur concernant certains contenus.

Ces morts sont la cause originelle de la création de cette commission d’enquête. Or vous donnez le sentiment de ne parler que de chiffres et de statistiques. Vous dites que vous avez retiré 6 millions de contenus en France et 21 millions à l’échelle de l’Europe au cours des six derniers mois. C’est très bien, mais s’il reste 1 million de contenus problématiques, c’est toujours 1 million de trop ; s’il en reste 100 000, c’est toujours 100 000 de trop. Il nous suffit de nous pencher un peu sur la question pour en trouver : pourquoi ne le faites-vous pas ?

Mme Marie Hugon. Encore une fois, nous sommes collectivement et personnellement sensibles à ce sujet.

Ce matin, déjà, par la voix de nos collègues, et depuis plus de deux heures maintenant, nous vous avons expliqué tous les dispositifs de modération et de mise à jour de nos algorithmes. Nous faisons partie d’un collectif et nous devons nous conformer à la réglementation européenne. Nous continuons d’œuvrer pour tenir compte de ces enjeux très importants.

Nous sommes ici pour discuter avec vous de potentielles solutions. Nous travaillons avec des associations, avec les pouvoirs publics ; nous sommes en contact permanent avec nos autorités de tutelle et avec d’autres institutions comme l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) – M. Martin Ajdari, son président, vous l’avait dit lors de sa propre audition.

Il y a des systèmes de signalement, mais il existe aussi des moyens de les contourner : aujourd’hui, ce sont les émoticônes du zèbre ou du drapeau suisse – je découvre ce dernier ; demain, une autre émoticône sera détournée.

Permettez-moi de dresser un parallèle – peut-être un peu tiré par les cheveux – avec la cybersécurité : les attaques contre les autorités publiques, en particulier les hôpitaux, sont permanentes. Nous sommes une entité privée et nous avons également des failles ; pour y remédier, nous mettons à jour nos systèmes de signalement en permanence, nous y consacrons des moyens et nous sommes en discussion continuelle avec les pouvoirs publics.

Mais nous avons besoin des régulateurs et des différentes communautés, aussi petites soient-elles, pour discuter des trends. Nous souhaitons poursuivre notre dialogue avec tous ces partenaires et continuer de travailler avec eux sur tous ces sujets essentiels, sans être systématiquement placés en position d’accusés. Certes, cette commission d’enquête n’est pas un tribunal mais nous nous sentons un peu dans cette position.

Mme Laure Miller, rapporteure. Je comprends vos propos et je vous confirme que nous ne sommes pas un tribunal. Je suis désolée que vous ayez cette impression, mais il est vrai que nous avons du mal à comprendre certaines choses et qu’il nous est très utile de vous interroger à leur sujet ; vous êtes des personnes‑clés.

Vous dites dialoguer avec les autorités. Il y a quelques jours, des responsables de TikTok ont été reçus par la ministre Aurore Bergé, qui leur a signalé des contenus. En avez‑vous fait quelque chose ?

Certaines auditions publiques de cette commission d’enquête ont permis de faire connaître des tendances particulièrement nocives, qu’il faudrait de toute évidence bannir. Ces tendances ne datent ni d’hier ni d’avant-hier ; elles existent depuis plusieurs mois, voire plusieurs années, et ne sont toujours pas bannies.

Par conséquent, nous avons le sentiment que vous ne tenez pas compte de ce qui est dans l’air du temps. Si nous savons que l’émoticône du zèbre ou celui du drapeau suisse sont détournés, vous êtes forcément au courant puisque vous êtes TikTok !

Trouvez-vous normal qu’il faille attendre l’interpellation d’un ministre, Aurore Bergé en l’occurrence, pour qu’AD Laurent soit finalement banni ? S’il faut en passer par là, on n’y arrivera jamais. Vous parlez beaucoup du DSA. En principe, ce n’est pas comme cela que ça doit fonctionner : ce n’est pas l’intervention d’un ministre à propos d’un influenceur parmi tant d’autres qui doit déclencher son bannissement. Ou alors il va nous falloir endosser un nouveau rôle, consistant à vous signaler tous les influenceurs problématiques !

J’entends ce que vous nous dites : vous ne pouvez pas contrôler tous les contenus dans un tel océan, mais pour rester sur cet exemple, AD Laurent a des millions de followers. Il n’est pas si difficile d’identifier les influenceurs les plus suivis, de retirer les contenus inappropriés, voire de bannir ceux qui contreviennent aux règles, a fortiori lorsqu’ils ont déjà été exclus d’autres plateformes – AD Laurent avait été banni par Snapchat et Instagram, d’après ses propres déclarations sous serment.

Mme Marlène Masure. À ma connaissance, nous prenons ces sujets très au sérieux. SkinnyTok, qui est apparu il y a quelques mois, a été lancé par une toute petite communauté ; ses contenus, d’après ce que je comprends, ne contrevenaient pas nécessairement à nos règles communautaires. Puis la communauté a grossi et la tendance est devenue suffisamment problématique pour que nous supprimions ce hashtag.

Cette solution n’a pas notre préférence, parce qu’elle fait aussi disparaître les contenus positifs visant à combattre cette tendance, qui peuvent – j’emploie des guillemets – « contrebalancer » les autres.

La tendance « CP Pizza » a aussi été supprimée. Nous avons plutôt été félicités par les autorités. Nos équipes pourraient probablement donner des exemples plus étayés, mais en matière de rapidité de retrait des contenus problématiques, nous sommes plutôt de bons élèves par rapport aux plateformes numériques au sens large.

En tout état de cause, nous prenons note de votre feed-back. Nous pouvons probablement aller plus loin et nous améliorer sur certains sujets.

M. le président Arthur Delaporte. Ce matin, vos équipes ont indiqué travailler avec l’association Stop Fisha sur les questions de sexisme. Des membres de cette association nous ont signalé AD Laurent et Alex Hitchens, que nous avons auditionnés mardi ; ils ont dû vous les signaler aussi. Comment se fait-il que vous ayez maintenu le compte d’AD Laurent, alors qu’il vous a été signalé par les experts avec lesquels vous travaillez ? Pourquoi avoir attendu le signalement d’Aurore Bergé pour le supprimer ?

Mme Marie Hugon. D’après nos recherches, des signalements ont bien été faits et des contenus retirés. Comme vous l’ont expliqué nos collègues ce matin, on ne peut pas bannir un compte en raison d’un seul contenu. Je ne connais pas les contenus de cette personne en particulier, mais le bannissement d’un compte est un processus graduel : il intervient après un, deux, trois ou quatre contenus problématiques.

M. le président Arthur Delaporte. Après combien de contenus, précisément ? On nous a dit qu’on nous transmettrait l’échelle d’estimation.

Mme Marie Hugon. Nous vous la transmettrons, bien sûr.

Mme Aurore Bergé est intervenue, mais sur ces sujets-là, je crois que nous pouvons avoir un dialogue qui ne soit pas médiatisé. Nous répondons à toutes les demandes de rendez-vous des pouvoirs publics.

Dans le cadre du DSA, vous pouvez transmettre ces sujets à l’Arcom ou à Coimisiún na Meán ; celle-ci nous les transmet en cas d’urgence. Nous avons donc une ligne directe de communication avec notre autorité de tutelle, qui a notamment servi pour retirer certains challenges ou hashtags.

Médiatiser un sujet permet certes de mettre un coup de pression, mais il existe un processus réglementaire, dans le cadre du DSA, qui fonctionne.

M. le président Arthur Delaporte. Le compte d’Alex Hitchens avait été signalé par beaucoup de monde. Pourtant, alors que nous l’avions auditionné mardi, il a fallu attendre ce début d’après-midi pour qu’il soit supprimé. L’un de ses comptes a été supprimé il y a quelques minutes, parce que nous avons indiqué ce matin à vos collègues que nous vous demanderions des comptes, cet après-midi, sur des contenus comme : « Le jour où vous abandonnerez l’égalité, on en discutera. Par contre, tant que vous allez nous parler d’égalité, nous faire chier avec ça, tu mets une gifle, je t’en remets une et je te jure qu’avec la taille de ma main, je ne suis même pas sûr que tu vas te relever. »

Ces contenus ont été signalés plusieurs fois ; des vidéos ont été supprimées, à la suite des signalements que nous avons effectués ce matin pendant l’audition de vos collègues, mais on les retrouve sous d’autres formats. Pourquoi ne pas les avoir supprimées lorsque nous les avons signalées, voire dès mardi, quand nous avons reçu Alex Hitchens ?

Vous semblez assez réactifs quand on vous en parle, s’agissant de son compte principal ; mais il nous a dit en avoir quarante-trois ou quarante-six. Il ne sait pas lui-même exactement combien il en a, parce qu’outre les comptes qu’il détient en propre, d’autres comptes, sous contrat avec lui, reproduisent ses contenus et font de la promotion de ses formations masculinistes.

Ce n’est pas un sujet anodin : nous parlons de quelqu’un dont les vidéos dénigrant le travail de notre commission ont fait des millions de vues et ont fait parler d’elles hier dans les collèges et les lycées.

Je suis issu de la communauté enseignante et l’on m’a rapporté qu’un gamin était venu voir un professeur de sciences économiques et sociales que je connais pour lui dire qu’il avait vu l’audition d’Alex Hitchens : pour un jeune à qui il a été possible d’expliquer ce qu’il en était, combien ont été convaincus qu’Alex Hitchens avait raison, qu’il était trop fort, qu’il avait fait apparaître la commission comme minable et qu’il était tout à fait légitime de dire, comme il l’a fait, qu’une femme ne peut pas se balader après vingt-deux heures dans la rue ou que, si ta femme fait une bêtise, il faut la punir, sans quoi elle recommencera ? Voilà en effet ce qu’il professe à des millions de jeunes collégiens et lycéens. Il a fallu attendre ce matin pour que son compte soit banni, alors que son nom est public et que de nombreux articles ont été publiés. Peut-être avez-vous un service de veille ou d’affaires publiques qui voit les comptes de ce genre…

Ce cas est symptomatique d’un sentiment d’impuissance collective : il faut que vous soyez mis devant le fait accompli et que nous vous recevions, alors que nous ne devrions pas avoir à nous saisir de cette question et que cet influenceur aurait dû être banni depuis longtemps.

Mme Marlène Masure. J’imagine que vous avez vu que ce créateur est présent sur l’ensemble des plateformes.

M. le président Arthur Delaporte. Nous questionnerons les autres plateformes.

Mme Marie Hugon. Nous avons été les premiers à retirer ce compte après des signalements. Où sont les autres plateformes ?

Mme Laure Miller, rapporteure. Nous les auditionnerons, mais nous renvoyer vers les autres plateformes est un argument assez faible. Vous êtes aujourd’hui la plateforme la plus attractive pour la jeunesse et, à la limite, nous nous moquons de savoir ce que font les autres : c’est à vous d’être le plus responsable possible.

Nous avons lancé sur le site de l’Assemblée nationale une enquête qui nous a permis de recueillir un peu plus de 30 000 réponses, dont plus de la moitié de la part de lycéens et collégiens, parmi lesquels une majorité de lycéens. Environ 20 000 de ces réponses expriment un manque de confiance dans la fiabilité des informations véhiculées sur votre plateforme en particulier. Cette information vous fait-elle réagir ?

Mme Marlène Masure. Un chiffre doit être situé dans un contexte. Il faudrait que nous examinions cette étude en détail pour essayer de comprendre les réponses et que nous en examinions la méthodologie avant de revenir vers vous. La question de la désinformation est très importante et n’est pas propre à TikTok. C’est un sujet sectoriel, auquel nous attachons beaucoup d’importance. Nous avons d’ailleurs travaillé avec l’Agence France-Presse (AFP) sur une campagne portant sur cette question en novembre 2024, et avons créé des ressources dédiées, des grilles de lecture de contenus, pour apporter des explications. Nous essayons de nous associer aux meilleurs, raison pour laquelle nous travaillons avec 250 médias sérieux, qui publient du contenu sur la plateforme. Le travail sur la désinformation est permanent et nous avons évidemment à cœur de toujours faire mieux.

Mme Marie Hugon. En matière de lutte contre la désinformation, nous sommes impliqués dans des efforts plus larges. Nous avons travaillé très longuement sur le code de conduite de l’Union européenne sur la désinformation et restons actifs sur tous les meetings. Ce code a été récemment intégré dans le DSA. Nous présidons des groupes de travail sur les élections et sur la transparence institués pour préparer ce code.

Comme l’a dit Mme Masure, nous travaillons également avec des partenaires indépendants pratiquant la vérification de faits, qui évaluent si l’information est vraie ou fausse et peuvent signaler ce qu’il en est. Il s’agit d’un processus permanent. Nous restons actifs dans ce domaine au niveau européen, avec d’autres plateformes – dont certaines, à la différence de la nôtre, ne participent plus à ce processus.

Mme Marlène Masure. J’ai signalé tout à l’heure que nous avons développé un programme intitulé « S’informer sur TikTok », dont l’objectif est précisément d’emmener avec nous tous les acteurs sérieux, les médias, qui produisent un contenu éducatif intéressant. Nous avons la volonté de continuer à nourrir et à faire grandir ce programme.

Mme Claire Marais-Beuil (RN). Ce matin, j’ai interrogé vos collègues à propos des challenges, et en particulier à propos du dernier d’entre eux, qui a entraîné la mort d’une Américaine. On m’a répondu que ce challenge, qui consistait à inhaler du spray anti-poussière, n’avait pas été lancé sur TikTok. J’ai cherché des informations à l’heure du déjeuner et j’ai vu que si vous n’êtes, en effet, pas à l’initiative du challenge, vous relayez toutes les vidéos des gens qui y participent – il suffit de taper #DustChallenge pour les trouver. Vous en êtes donc partie prenante, et responsable de ce qu’il peut provoquer – or il y a quand même un mort.

Mme Marie Hugon. Je n’ai eu connaissance de ce challenge que ce matin. Les challenges sont un sujet que nous regardons avec intérêt. Notre autorité de tutelle irlandaise, avec laquelle nous en avons discuté récemment, nous fait remonter des informations, parallèlement à la modération que nous assurons sur la base de ces trends. Nous avons plusieurs moyens d’agir, par exemple en retirant le mot-clé ou le hashtag, ou encore les vidéos qui semblent problématiques et celles qui peuvent conduire à refaire un challenge même si elles ne sont pas à l’origine de la trend. Je vais examiner cette question. N’hésitez pas à revenir vers nous.

M. le président Arthur Delaporte. Je vous propose de taper « challenge » dans la base : nous allons trouver pas mal de choses. J’ai entré « TikTok » dans une autre application, dénommée Google Alertes, et je reçois maintenant, dès qu’il y a un problème avec TikTok, des articles de presse consacrés aux nouvelles tendances apparues sur TikTok. Si on entre le mot « challenge », on reçoit également des Google Alertes faisant état du travail de vérification par les médias et des tendances mises en avant. Il pourrait être utile d’abonner au moins les services de modération à des systèmes d’alerte ou de veille de ce type.

Mme Marlène Masure. Je crois qu’ils sont abonnés. Ce sont des gens sérieux et nous travaillons avec de nombreux partenaires qui nous signalent les tendances qu’ils voient émerger, notamment pour les mineurs – e-Enfance est un très bon partenaire dans ce domaine. Pour ce qui est des tendances, il vaut la peine de regarder les contenus qui sont liés et de voir ce que les gens sont réellement en train de faire : s’ils participent à un challenge dangereux, il y a une faille de modération ; s’ils n’y participent pas, il n’y en a pas. Encore une fois, la question mérite d’être remise dans son contexte ; il faut voir si les contenus en eux-mêmes sont problématiques.

M. Stéphane Vojetta (EPR). Nous avons l’habitude de vous entendre, vous et vos concurrents. En vous écoutant avec attention depuis le début, je trouve l’exercice assez frustrant. Mme la rapporteure a dit tout à l’heure que vous aviez allumé un incendie et que vous essayiez de l’éteindre, mais je pense que, si vous, réseaux sociaux, collectivement, avez bien allumé un incendie – il n’est que de voir l’impact de votre activité sur la santé mentale et les choix des mineurs –, il semble bien, malheureusement, que vous n’essayiez pas de l’éteindre. Vous venez déguisés en pompiers, avec un joli camion, mais ce camion de pompiers est bien petit ! Vous dites que vous êtes prêts, que vous avez tous les outils et qu’il suffit que les enfants, les parents ou les éducateurs s’en emparent mais, en réalité, ces outils ne sont pas utilisés.

Même si l’identification des comptes appartenant à des mineurs est très imparfaite et si les comptes identifiés comme tels ne représentent qu’une minorité de ceux qui le sont réellement, quel pourcentage de ces comptes représentent ceux qui activent les outils de contrôle parental, de modération et de temps d’usage ? Je souhaiterais vraiment que vous puissiez nous donner un chiffre, car je l’ai demandé plusieurs fois à vos prédécesseurs, à Instagram et à Snapchat, mais on ne nous le donne pas. Je vous saurais gré de faire aujourd’hui, pour la première fois, cet effort.

Je vous vois dans l’attitude de représentants d’une corporation ou d’une entité privée qui recherche les profits et qui est engagée dans une course aux parts de marché avec d’autres concurrents dont aucun ne veut être le premier à prendre – ce qui devrait pourtant être l’évidence – la mesure la plus juste et la plus protectrice des mineurs, identifiés ou non comme tels, présents sur vos réseaux. Vous avez de bonnes excuses, que vous offrez à AD Laurent ou à d’autres, qui peuvent dire que le fait que leurs contenus ne soient pas accessibles à des mineurs ne relève pas de leur responsabilité de créateurs de contenus, mais de celle de TikTok ou de Meta. Quant à vous, vous dites qu’il appartient à l’Union européenne ou à un régulateur quelconque de vous obliger à vérifier l’identité des personnes qui se connectent ou de vous imposer un véritable contrôle parental par défaut.

Je souhaitais exprimer cette frustration. Ma seule question est donc de savoir quel est le pourcentage des comptes de mineurs qui sont réellement protégés par les outils de contrôle parental que vous nous avez décrits.

Mme Marie Hugon. Je ne suis pas en mesure de vous répondre sur ces points techniques. Je vous signale en revanche, même si vous allez dire que je me retourne à nouveau vers Bruxelles, que la Commission mène actuellement une enquête assez importante sur certaines de ces questions. Nous répondons régulièrement à de multiples questionnaires en fournissant de nombreuses données. Ces instructions font l’objet d’une certaine confidentialité. La Commission européenne, rendra, à terme, les conclusions de cette enquête dans le cadre du DSA. Nous pourrons revenir vers vous avec certaines données sur ces points particuliers si vous nous adressez vos questions par écrit.

Mme Marlène Masure. Nous ne disposons pas, en effet, de ces données aujourd’hui, mais cela fait partie des efforts que réalisent nos équipes chargées du marketing et de la communication pour développer des campagnes de promotion de ces outils, notamment en matière de safety et de contrôle parental. On a bien en tête qu’il est important…

M. Stéphane Vojetta (EPR). Je suis désolé de vous interrompre, mais nous sommes en commission d’enquête. Nous avons d’ordinaire des conversations avec des gens bien élevés qui nous reçoivent – j’ai été reçu, par exemple, à Washington, par le responsable mondial Children Safety de Meta. Mais, en commission d’enquête, vous avez l’obligation de dire la vérité. Or je ne vous crois pas lorsque vous dites que vous ne savez pas quel est le pourcentage de comptes officiellement identifiés comme étant mineurs sur lesquels a été installé votre outil de contrôle parental. Je ne parviens pas à vous croire car, si c’est vrai, c’est hallucinant.

Mme Marlène Masure. Permettez-moi de préciser à nouveau le cadre de nos fonctions. Je suis, pour ma part, chargée du contenu, c’est-à-dire de la création des contenus organiques sur la plateforme pour la zone EMEA – États d’Europe, du Moyen-Orient et de l’Afrique. Ma responsabilité consiste à travailler avec des créateurs, des personnalités publiques et des partenaires dans leur stratégie éditoriale sur TikTok. Dans mon périmètre d’action, je n’ai pas la responsabilité de la modération de tous ces sujets. C’est un fait que je ne dispose pas de la donnée que vous demandez. Je ne dis pas que nous ne pouvons pas vous la fournir : nous allons évidemment la demander mais nous ne disposons pas, aujourd’hui, de cette information.

M. le président Arthur Delaporte. Êtes-vous en mesure de nous dire qui a cette information ?

Mme Marie Hugon. Il faudrait que l’on fasse des recherches en interne auprès de nos équipes, notamment des équipes Trust and Safety, auxquelles vous avez parlé ce matin, monsieur Vojetta. Pour ma part, je suis juriste dans le cadre des enquêtes réglementaires sur le DSA, mais certaines équipes ont en effet accès à ces données, notamment à Dublin.

Mme Marlène Masure. Assez logiquement, nous pouvons également interroger nos équipes en charge du marketing produit, qui travaillent précisément à la promotion de ces fonctionnalités. Il est probable que, lorsque nous lançons une campagne pour développer la notoriété de ces fonctionnalités, nous savons d’où nous partons. J’ai donc bon espoir que nous ayons ces informations et soyons en mesure de vous les donner.

M. le président Arthur Delaporte. Nous comptons sur vous.

J’en reviens aux dispositifs de signalement. Rémunérez-vous les signaleurs de confiance ? Avez-vous une politique de financement et subventionnez-vous des associations comme e-Enfance ?

Mme Marie Hugon. Pas à ma connaissance.

Mme Marlène Masure. Pas à ma connaissance non plus. Encore une fois, ce n’est pas dans notre périmètre, et nous pourrons revenir vers vous par écrit. Nous concluons des partenariats et versons des subventions à des ONG ou à des associations qui défendent une cause que nous jugeons importante. Je ne crois pas que ce soit au titre de leur rôle de signaleurs de confiance qu’elles sont rémunérées, mais il est certain que nous soutenons des associations et des ONG au moyen de ce que nous appelons des crédits publicitaires, pour pousser des campagnes de sensibilisation à certains sujets.

M. le président Arthur Delaporte. On voit bien que se pose la question de l’accompagnement en amont, de la détection et du lien. E-Enfance et Génération numérique, parmi d’autres, qui sont au contact des élèves et confrontées au quotidien à ces tendances et à leurs effets, pourraient être de très bons canaux, mais il y a une question de moyens. Les subventions annuelles que vous versez à e-Enfance représentent quelques milliers ou dizaines de milliers d’euros, soit même pas ce que vous versez en un mois à Julien Tanti. N’y a-t-il pas là une certaine disproportion entre le niveau de subventionnement par la plateforme des acteurs qui agissent pour avoir un internet plus sain et les financements dont bénéficient ceux qui participent à entretenir le buzz, le clash, et pas forcément à créer du contenu positif ?

Mme Marlène Masure. Je manque d’éléments de contexte pour répondre précisément à cette question, car je ne sais pas exactement quel budget est versé à ces associations. Nous pouvons tout à fait prendre acte de vos recommandations à ce propos et les mettre en débat interne. Quand nous vous disons que nous investissons 12 milliards d’euros sur la sécurité et que nous construisons un espace de sécurité à l’échelle européenne, il s’agit de moyens significatifs, et non pas de subventions à des ONG. Nous avons vraiment une ambition sérieuse en la matière.

M. le président Arthur Delaporte. Ces 12 milliards qui vont à la technique ne remplacent pas l’humain, le travail de terrain de tous ces acteurs. Si vous investissiez ne serait-ce que 500 millions d’euros par an, ce qui ne serait pas beaucoup, par rapport au budget global, pour soutenir toutes ces organisations, peut-être y aurait-il plus de contrôle et de remontées. Quelle proportion représente le budget investi en faveur de toutes ces associations de protection de l’enfance par rapport aux dons versés dans les lives ? Ce qui me choque, c’est la facilité avec laquelle on peut se faire de l’argent, alors que nous avons dû nous battre, au Parlement – je me tourne vers M. Vojetta – pour trouver 1 million d’euros pour e-Enfance, ce qui ne représente pas même ce que gagne Julien Tanti chaque année grâce à TikTok. La mise en parallèle de ces montants est sidérante.

Mme Marie Hugon. Dans le cadre du DSA, chaque très grande plateforme est obligée de payer un supervisory fee, c’est-à-dire un certain pourcentage destiné à la supervision et à la mise en conformité avec le DSA. Certaines redevances sont donc, dans ce cadre, versées aux autorités publiques.

M. le président Arthur Delaporte. Donc à la Commission européenne.

Mme Marie Hugon. Laquelle est notre autorité de tutelle, qui s’occupe de la mise en conformité avec ce règlement sur la sécurité en ligne en Europe.

M. le président Arthur Delaporte. Concernant e-Enfance, nous avons vérifié, c’est 70 000 euros par an. N’hésitez pas à multiplier cette contribution par dix : cela permettra d’augmenter de 20 % le budget de l’association. Pour la protection des enfants, ils seront preneurs.

Comprenez-vous la frustration, que nous avons évoquée ce matin, éprouvée par exemple par les membres de Stop Fisha en constatant que les signalements documentés effectués à titre individuel ne sont pas traités, tandis que ceux qui le sont au titre d’une organisation sont traités rapidement ? De fait, les réponses sont négatives à 100 % lorsque l’appel émane d’un individu et sont plus favorables, dans la plupart des cas, lorsqu’il émane d’une organisation. Il existe certes quelques organisations, dont nous venons de parler, mais la capacité des utilisateurs eux‑mêmes à être des vigies s’épuise lorsqu’ils constatent que la plupart de leurs signalements ne sont pas concluants. Comment renforcer l’efficacité de la prise en compte des signalements par les utilisateurs, à l’image de ceux que l’on a évoqués tout à l’heure lors de la projection des captures d’écran ?

Mme Marie Hugon. Nous vous remercions du temps que vous avez pris pour faire remonter tous ces points. Je serais curieuse de connaître certaines des observations qui vous seront remontées à la suite de l’appel que vous avez lancé, pour que nous puissions connaître tous les éléments et témoignages que vous avez pu recueillir. Nous sommes engagés dans un processus de gestion de risques, d’amélioration et d’atténuation des risques, et allons continuer à travailler sur ce sujet dans le cadre du DSA, d’autres lignes directrices s’il en existe et de la loi applicable localement, avec les pouvoirs publics, les trusted flaggers, ou signaleurs de confiance, les chercheurs et les associations.

Mme Laure Miller, rapporteure. On a le sentiment qu’il y a une marge d’erreur : vous voulez atténuer les risques, mais ceux-ci subsisteront toujours. Considérez-vous que la réglementation européenne vous impose simplement une obligation de moyens, ou avez-vous une obligation de résultat en matière de protection des mineurs ?

Mme Marie Hugon. D’après ce que je lis dans le texte, le cadre n’est pas celui d’une obligation de moyens ou de résultat. Comme dans le cas de la cybersécurité, le texte prévoit une analyse de risques, avec évidemment une certaine subjectivité. Nous faisons aujourd’hui nos analyses de risques systémiques mais le DSA ne prévoit pas officiellement de standardisation des risques en la matière. Nous observons les systèmes d’analyse et de gestion du risque existants, comme la norme ISO ou l’Online Safety Act (OSA), au Royaume-Uni, qui émet lui aussi de très bonnes recommandations. Nous regardons tout ce qui existe dans ce domaine et analysons tous les risques, qu’il s’agisse des grands risques systémiques ou de points qui peuvent le devenir ultérieurement, et nos équipes adaptent continuellement les mesures d’atténuation de ces risques. Il s’agit donc plutôt d’une obligation de moyens, au titre de laquelle nous nous efforçons d’obtenir le meilleur résultat possible. Comme toutes les plateformes, nous ne parviendrons pas à avoir zéro contenu potentiellement problématique, mais nous continuerons à travailler sur ces questions. Tous les partenariats et tout l’engagement de l’écosystème sont très importants.

Mme Laure Miller, rapporteure. Je regrette que vous sembliez considérer que tout ce qui n’est pas, à vos yeux, massif est sans gravité. Peut-être la connaissance des tendances n’est-elle pas suffisante pour en retirer un maximum de contenu. Vous considérez qu’une marge d’erreur est possible et acceptable. De fait, en temps réel, vous ne pouvez pas anticiper les tendances de demain, mais lorsqu’elles arrivent, vous semblez ne pas pouvoir toutes les arrêter et les retirer. Or, pour nous, cette marge d’erreur, c’est la vie de nos enfants.

Mme Marlène Masure. Cette marge d’erreur, nous ne l’acceptons pas et nous travaillons dur, avec nos équipes de modération, à l’amélioration de nos systèmes de modération, de nos outils, et continuons à former nos modérateurs et à nous entourer des meilleurs, des associations, des partenaires, pour aller plus vite et être plus efficaces. Nous essayons de lutter contre des contenus qui peuvent créer des drames. Nous sommes tous mobilisés sur ces enjeux.

Nous sommes aussi, je tiens à le rappeler, très fiers des opportunités qu’offre la plateforme et de ce qu’elle apporte à sa communauté d’utilisateurs. Si la communauté grandit aussi vite et est aussi engagée, c’est parce que la plateforme propose beaucoup de belles choses, que l’on crée de la valeur, de l’engagement, qu’on y raconte de belles histoires et qu’on y crée des carrières. Il faut aussi penser à cela lorsqu’on se livre à des analyses et que l’on dresse le bilan.

Mme Laure Miller, rapporteure. Je vous assure que si vous mettez en place avant les autres un système technique efficace de vérification de l’âge, vous serez encore plus fiers de vous.

M. le président Arthur Delaporte. La création de cette commission d’enquête sur TikTok s’explique par deux raisons principales. D’abord, TikTok est l’application la plus utilisée par les mineurs pour ce qui est du temps d’utilisation, avec une heure vingt-sept par jour, en moyenne, pour les 11-17 ans, c’est-à-dire notamment pour les moins de 13 ans. Ensuite, des jeunes sont morts. Certains ont certes été exposés à des contenus sur d’autres plateformes, mais la plupart des remontées étaient liées à la vôtre. C’est la raison pour laquelle nous avons choisi de centrer notre investigation sur les mineurs, sachant que les adultes peuvent aussi être exposés à des contenus problématiques, et qu’il ne suffira donc pas de restreindre aux mineurs la protection algorithmique ou la recherche des biais.

Nous pensons en outre que la régulation que nous pourrons imposer pour les uns profitera aussi aux autres. Il s’agit d’un modèle global dans lequel vous êtes en concurrence avec d’autres plateformes, mais il faut améliorer les choses. Si tel n’est pas le cas et que, demain, d’autres jeunes se suicident, ce sera la fin de votre modèle, qui risquera l’interdiction. Si l’on se rend compte que des jeunes meurent parce qu’ils sont surexposés à ces contenus, cette menace est bien réelle. Face à ces drames, les législateurs et les États membres de l’Union européenne finiront en effet par dire que ça suffit.

Cela ne signifie pas pour autant que ce soit la seule question. Notre commission s’est efforcée d’être aussi nuancée que possible, mais nous savons tout de même pourquoi et pour qui nous travaillons. Nous partons de l’échelle de l’individu, de l’utilisateur, et non pas de celle du million, qui est celle de la plateforme. Nous nous battons pour des jeunes en chair et en os, qui sont les enfants de tout le monde. C’est ce qui nous motive – et qui, je l’espère, vous motive également. C’est aussi ce qui nous laisse un peu sur notre faim, ce que vous comprendrez peut-être si vous vous mettez à notre place.

Nous attendons maintenant toutes les réponses écrites à toutes les questions qui restent en suspens. Nous avons eu ce matin peu de réponses sur la question du modèle et nous ne savons toujours pas, à titre d’exemple, ce que représentent les lives en pourcentage de vos ressources, ni l’ordre de grandeur des revenus publicitaires. Certains des influenceurs que nous avons reçus nous ont dit que seule une part minime de leurs revenus provenait de TikTok ; nous souhaiterions savoir si c’est vraiment aussi faible qu’ils l’ont dit. De nombreuses questions méritent encore des réponses de votre part. Si nous estimons que les éléments fournis ne sont pas suffisants – et ils ne l’étaient pas encore totalement dans vos réponses aux
questionnaires –, nous n’hésiterons pas à vous réinviter autour du 15 juillet.

Je vous remercie, mesdames.

59.   Audition de Mme Sarah Sauneron, directrice générale par intérim à la Direction générale de la santé, et M. Kerian Berose-Perez, chef du bureau Santé mentale (lundi 16 juin 2025)

La commission auditionne Mme Sarah Sauneron, directrice générale par intérim à la Direction générale de la santé, et M. Kerian Berose-Perez, chef du bureau Santé mentale ([57]).

M. le président Arthur Delaporte. En préambule à nos auditions de ce matin, je souhaite rappeler que cette commission d’enquête a déjà auditionné un grand nombre de psychiatres, d’experts, de scientifiques, mais aussi plus largement des professionnels de l’accompagnement de l’enfance, des parents, des familles de victimes. Nous avons également reçu des influenceurs qui interviennent notamment sur les sujets de désinformation en santé, et plus largement sur le rapport à l’information. La semaine dernière, nous avons auditionné des influenceurs qualifiés de problématiques ou qui nous avaient été signalés par des participants à notre grande consultation citoyenne sur le site de l’Assemblée nationale.

Je tiens à souligner ce point car vous avez peut-être constaté les tentatives de dénigrement des travaux de cette commission d’enquête qui fleurissent dans la presse. Nous accomplissons notre mission avec le plus grand sérieux, dans le souci de donner la parole à l’ensemble de la chaîne des acteurs, en particulier aux administrations publiques concernées par ces sujets, dont vous faites partie.

Je vous souhaite donc la bienvenue et vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mme Sarah Sauneron et M. Kerian Berose-Perez prêtent serment.)

Mme Sarah Sauneron, directrice générale par intérim à la Direction générale de la santé. Je vous remercie vivement de nous inviter à nous exprimer sur un sujet aussi essentiel pour la Direction générale de la santé. Dans cette présentation, nous nous attacherons à développer l’analyse et les actions menées par la DGS pour remédier aux impacts sanitaires de l’exposition aux écrans, notre action ne portant pas spécifiquement sur TikTok mais plus largement sur l’ensemble des plateformes numériques. Ces impacts sanitaires recouvrent à la fois les effets sur la santé somatique et sur la santé mentale, tant des supports numériques euxmêmes que des contenus qu’ils diffusent.

Notre attention se concentre prioritairement sur les enfants et les jeunes, compte tenu de leur vulnérabilité particulière. Cette période de la vie constitue en effet le moment où s’ancrent les habitudes de santé pour l’ensemble de l’existence et où se creusent les inégalités sociales de santé, d’où l’importance d’agir dès cet âge.

L’utilisation des écrans fait désormais partie intégrante de notre quotidien dès le plus jeune âge, et les foyers français comptent en moyenne près de dix écrans selon le baromètre numérique de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep). L’ensemble de la population mineure consacre en moyenne quatre à cinq heures par jour aux écrans. Ces statistiques, qui datent un peu et mériteraient d’être actualisées, montrent, notamment grâce à la cohorte Elfe, que plus l’exposition commence tôt, plus la croissance de l’usage au fil des années s’intensifie. Enfin, 86 % des 8-18 ans sont inscrits sur les réseaux sociaux et les messageries selon le baromètre annuel de l’association e-Enfance.

Même si les écrans offrent des potentialités d’ouverture, d’expression, de création et d’inclusion qu’il convient de valoriser, les signaux d’alerte se multiplient quant à leurs effets sanitaires délétères, justifiant ainsi l’intervention de la DGS.

Face à ces constats, le plan d’actions « Pour un usage raisonné des écrans par les jeunes et les enfants » porté par Adrien Taquet, secrétaire d’État en charge de l’enfance et des familles en 2022 a éveillé les consciences et donné lieu à la mise en place d’un premier plan d’action interministériel. Plus récemment, le rapport « Enfants et écrans : à la recherche du temps perdu », remis en avril 2024 au président de la République par la commission pluridisciplinaire présidée par la docteure Servane Mouton et le Professeur Amine Benyamina, a insufflé une nouvelle dynamique interministérielle sur la base de constats sanitaires désormais mieux établis.

En effet, les observations scientifiques sur les conséquences de la surexposition aux écrans convergent et se consolident au fur et à mesure de l’enrichissement de la littérature scientifique. Il est ainsi avéré que cette surexposition contribue à l’émergence de troubles oculaires, à l’altération de la qualité et de la quantité de sommeil, ainsi qu’à l’augmentation de la sédentarité et donc du risque de surpoids et d’obésité. Elle favorise également l’exposition des mineurs à des contenus inadaptés et à des mécanismes de captation de l’attention à fort potentiel addictif et enfermant, susceptibles de déclencher ou d’aggraver des troubles psychologiques en cas de vulnérabilité préexistante. Enfin, la surexposition entrave l’acquisition de compétences sociales, émotionnelles et cognitives essentielles au bien-être physique, mental et social des enfants et des adolescents.

Les réseaux sociaux, et TikTok en particulier, contribuent à cette exposition excessive car leur modèle, fondé sur l’économie de l’attention, qui valorise financièrement le temps passé sur les contenus et donc sur les écrans, n’intègre pas les externalités négatives de ces pratiques. Nous faisons face à un enjeu interministériel qui dépasse la seule DGS, et c’est pour cela que nous travaillons en étroite collaboration, notamment avec la direction générale des entreprises (DGE).

Notre stratégie d’action s’est structurée pour prendre à bras-le-corps ce sujet en créant, en octobre 2024, une chefferie de projets consacrée à la santé des enfants face aux écrans, aujourd’hui rattachée au bureau de la santé mentale de la DGS. La première étape de notre stratégie a consisté à renforcer nos liens avec les acteurs du champ de la régulation du numérique, tout en recueillant les besoins des partenaires territoriaux et de la société civile. Auparavant en effet, le couloir de la régulation du numérique et le couloir sanitaire ne dialoguaient pas suffisamment. Nous avons ainsi créé ce pont quotidien pour bâtir une vision partagée des enjeux avec les administrations, notamment la DGE, mais également le ministère de l’éducation nationale ou encore l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) qui constitue l’un des acteurs majeurs de la réponse. Ce renforcement de nos liens se concrétise particulièrement par la participation de la DGS au réseau national de coordination de la régulation des services numériques établi par la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique.

Nous avons rapidement identifié la nécessité d’œuvrer à l’émergence d’un discours clair et unifié, fondé sur des données probantes en la matière. Pour rappel, le rapport de la commission Mouton-Benyamina préconise une absence totale d’écrans avant 3 ans et, de 3 à 6 ans, une exposition strictement occasionnelle, basée sur des contenus à qualité éducative élevée et toujours accompagnée par un adulte. À partir de 11 ans, la possibilité d’un téléphone sans connexion internet et, à partir de 13 ans, un téléphone avec connexion internet mais sans accès aux réseaux sociaux ni aux contenus illégaux. Enfin, à partir de 15 ans, un accès aux réseaux sociaux mais éthiques.

Nous nous approprions ces recommandations et les déclinons opérationnellement, en priorisant, au titre de notre ministère, la petite enfance, avec par exemple la refonte du carnet de santé de l’enfant. Mais nous nous intéressons évidemment aux autres âges et contribuons aux travaux menés par l’éducation nationale, notamment concernant l’interdiction d’utilisation des smartphones dans les collèges, ou aux actions conduites par la ministre déléguée à l’intelligence artificielle et au numérique qui ciblent les tranches d’âges supérieures.

Nous agissons enfin pour répondre aux enjeux spécifiques des mésusages et de la prévention des addictions. Si l’addiction aux écrans n’est pas aujourd’hui reconnue comme pathologie, les mécanismes d’engagement déployés par les plateformes justifient néanmoins l’usage du référentiel d’intervention basé sur les trois facteurs que sont le produit, l’environnement et les capacités d’agir. À titre d’exemple, pour le tabac, concernant le produit, nous limitons la nicotine ou les saveurs des cigarettes, pour l’environnement, nous interdisons de fumer autour des écoles, quant aux capacités d’agir, nous développons des campagnes de communication sur les paquets ou la prise en charge des substituts nicotiniques. Cette même logique doit être appliquée à l’exposition des plus jeunes aux écrans.

Concernant les produits numériques, trois points appellent concrètement notre vigilance et notre intervention. Tout d’abord, la modération encore insuffisante des contenus à risque (violents, sexistes ou de désinformation). Ensuite, les interfaces conçues pour capter et retenir l’attention des utilisateurs, notamment des jeunes. Enfin, les logiques d’enfermement algorithmique qui exploitent les vulnérabilités des mineurs pour prolonger leur exposition. À ce titre, TikTok, par l’efficacité de ses algorithmes, illustre de manière emblématique ces dérives. Dans ce contexte, la mise en œuvre du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) représente un levier majeur pour exiger des évaluations de risques par les grandes plateformes et mieux intégrer les enjeux de santé publique dans leur gouvernance et la mise en œuvre de ces algorithmes.

Le deuxième niveau d’intervention consiste à agir sur l’environnement, ce qui implique de repenser la place des écrans au sein de notre société en sensibilisant et en accompagnant les parents et les professionnels. Plusieurs outils sont ainsi déjà mobilisés ou le seront dans les prochaines semaines. Le carnet de santé, par exemple, contient dorénavant un message de prévention dédié pour les parents, comme l’a récemment annoncé la ministre Catherine Vautrin. Le référentiel national de la qualité d’accueil du jeune enfant, qui sera prochainement rendu opposable par un arrêté, rappelle quant à lui l’importance de l’absence d’écran dans l’entourage des enfants de moins de 3 ans en raison des effets délétères des technoférences. Le site jeprotegemonenfant.gouv constitue une ressource utile et nécessaire pour les parents, mais nous reconnaissons certaines insuffisances sur lesquelles nous travaillerons avec nos collègues de la direction générale de la cohésion sociale (DGCS). Les ressources labellisées « parents numériques », accessibles localement, s’inscrivent toujours dans cette logique de parentalité numérique. Nous devons travailler à les rendre plus visibles et lisibles.

Nous nous attachons également à favoriser les lieux et les temps déconnectés. Nous finançons des programmes à travers le fonds de lutte contre les addictions, cogéré avec l’assurance maladie, et promouvons également un usage raisonnable des outils numériques dans le cadre scolaire en garantissant ce droit à la déconnexion des élèves.

Le troisième axe consiste à renforcer la capacité individuelle et collective d’agir. La DGS prévoit tout d’abord la diffusion, dans le cadre de la grande cause nationale 2025, de supports de communication ciblant la thématique des écrans. Nous agissons pour développer les compétences psychosociales, ces compétences de vie qui passent par des programmes multisectoriels pour apprendre aux plus jeunes à gérer leur stress, à développer l’empathie, à prévenir les conduites à risque, créant ainsi une société plus résiliente. Inspirés par les pays scandinaves, très impliqués en la matière, nous menons désormais un programme ambitieux sur plusieurs années pour renforcer ces compétences.

Enfin, nous devons développer l’esprit critique et l’éducation à la santé en donnant aux plus jeunes des clés d’analyse. Cela s’inscrit notamment dans la lutte contre l’obscurantisme engagée par le ministre chargé de la santé, Yannick Neuder.

En conclusion, la question des écrans s’impose aujourd’hui comme un enjeu social majeur, dont la dimension de santé publique doit être pleinement reconnue et portée à la hauteur des défis qu’elle représente. Pour être efficaces, les réponses doivent s’inscrire dans une coordination cohérente aux niveaux européen, national et territorial. La priorité doit demeurer la protection de l’intérêt supérieur de l’enfant, et c’est cette exigence qui guide l’ensemble des actions menées par la DGS.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. La question qui se pose, et que nous avons pu percevoir à travers nombre de nos auditions, concerne l’impression que la prévention sur le sujet des réseaux sociaux en particulier, et des écrans de manière plus générale, constitue une bataille actuellement affaiblie par l’absence de consensus scientifique sur le lien direct entre l’usage de ces technologies et l’impact sur la santé mentale des jeunes. Contrairement à la cigarette, pour laquelle le lien établi avec la santé a permis la mise en œuvre de politiques de prévention plus efficaces, nous semblons ici confrontés à une difficulté supplémentaire. Existe-t-il aujourd’hui un consensus scientifique sur la relation directe entre l’usage des réseaux sociaux et l’impact sur la santé mentale ?

Mme Sarah Sauneron. Établir les impacts sanitaires constitue effectivement l’un des enjeux majeurs pour démontrer que notre action ne relève pas d’une démarche moralisatrice, répressive ou vaine contre la surexposition aux écrans, mais bien d’une volonté de protection de notre jeunesse. C’est précisément cette perspective qui justifie l’intervention publique. En cela, la commission Enfants et écrans du docteur Mouton et du professeur Benyamina a véritablement marqué une étape décisive dans la lutte et c’est également à ce moment précis que la DGS, auparavant en retrait sur cette thématique, s’est structurée autour de cette impulsion.

Les impacts sur la santé somatique sont aujourd’hui parfaitement établis à trois niveaux principaux. Premièrement, la littérature scientifique démontre clairement l’impact sur la myopie. Nous faisons face à une véritable épidémie dans ce domaine, notamment en raison de l’usage des écrans qui provoque à la fois une exposition à la lumière bleue et une réduction de l’exposition à la lumière naturelle. L’exemple de la Corée du Sud est particulièrement frappant, avec une augmentation de 30 points de prévalence de la myopie chez les jeunes, trajectoire vers laquelle nous nous dirigeons également. Deuxièmement, les données établissent clairement les liens de causalité concernant l’altération du sommeil, tant en qualité qu’en quantité. L’hypervigilance, la connexion tardive et l’exposition aux lumières artificielles perturbent considérablement le cycle du sommeil, ce qui impacte directement la santé mentale de nos jeunes. Enfin, la sédentarité induite par l’usage des écrans réduit l’activité physique et contribue significativement au surpoids.

Les données en matière de santé mentale s’avèrent en revanche plus complexes à analyser. Si nous observons une corrélation évidente, le débat porte encore sur l’établissement d’un lien de causalité direct. Il n’est pas encore établi que les troubles préexistants incitent les jeunes à se réfugier davantage dans les écrans, ou si ces derniers en sont la cause. Néanmoins, force est de constater une dégradation significative de la santé mentale de nos jeunes depuis la période covid, dégradation qui persiste cinq ans après comme le démontre la dernière étude EpiCov de la direction de la recherche, des études, de l’évaluation et des statistiques (Drees).

Sur le temps long, nous observons une augmentation continue des troubles anxiodépressifs depuis 2010, avec une accélération à la suite du covid. Parmi les facteurs corrélés à ces troubles, nous identifions le niveau social, la sédentarité et, de manière particulièrement marquée, un temps d’exposition aux écrans supérieur à cinq heures quotidiennes, indépendamment des autres facteurs. Cette corrélation s’observe dans tous les pays et coïncide précisément avec l’essor des réseaux sociaux. Nous pouvons donc légitimement établir un effet significatif des réseaux sociaux sur la santé mentale, particulièrement chez les jeunes préalablement vulnérables dans ce domaine.

Mme Laure Miller, rapporteure. Concernant la prévention, êtes-vous actuellement en mesure d’évaluer l’impact des campagnes sanitaires et des messages publicitaires, notamment ceux qui, depuis plusieurs années, nous encouragent à bouger plus ? Parvenez-vous à quantifier l’efficacité de ces campagnes ? Pourrions-nous envisager la création de messages similaires, sous votre pilotage, spécifiquement consacrés aux outils numériques en général et à l’usage des réseaux sociaux en particulier ?

Mme Sarah Sauneron. La DGS pilote effectivement la campagne « Pour votre santé, évitez de manger trop gras, trop sucré, trop salé » et nous prévoyons prochainement d’en déployer une sur les jeux de hasard. Ces messages publicitaires font l’objet d’évaluations rigoureuses menées par l’Institut national de la santé et de la recherche médicale (Inserm) et par Santé publique France (SPF). Les études démontrent que ces messages, mis en place depuis 2007, ont significativement contribué à une meilleure connaissance des repères nutritionnels, désormais bien intégrés par la population. Nous constatons toutefois un phénomène d’habituation croissant. Ces messages, statiques et positionnés en bas de l’écran, sont progressivement moins remarqués par les téléspectateurs. Les deux études précitées recommandent désormais de les présenter sur un écran distinct après le spot publicitaire, ce qui soulève naturellement la question du financement, puisqu’il s’agirait d’un temps publicitaire supplémentaire à la charge des industriels.

Ces analyses confirment néanmoins que des messages visibles, répétés et régulièrement renouvelés, à l’instar de ceux figurant sur les paquets de cigarettes, s’avèrent efficaces pour élever le niveau d’information du public et contrecarrer les stratégies marketing, comme le démontrent clairement les études en sciences comportementales. Il n’existe aucune raison de réserver le marketing social aux seuls industriels et les pouvoirs publics possèdent toute légitimité pour diffuser leurs informations sanitaires.

Dans cette perspective, la DGS soutient pleinement le développement de messages spécifiques sur les spots publicitaires liés aux écrans ou directement sur l’emballage des appareils mobiles, rappelant par exemple l’interdiction pour les enfants de moins de 3 ans. Cette question relève toutefois d’un enjeu interministériel. Bien que les objections fréquemment avancées concernent les restrictions potentielles à la liberté du commerce, l’analyse de nos services juridiques indique que le motif d’intérêt général pourrait parfaitement justifier cette restriction.

Un obstacle supplémentaire résiderait dans la nécessité de notifier ces mesures à la Commission européenne, dont l’interprétation des directives commerciales s’avère souvent plus complexe. Nous connaissons bien cette difficulté pour le secteur du tabac, où notre législation plutôt protectrice est régulièrement questionnée.

Mme Laure Miller, rapporteure. Concernant la santé mentale, identifiée comme grande cause nationale 2025, pourriez-vous nous détailler concrètement ce que cela implique aujourd’hui ? Par ailleurs, la question de l’usage des réseaux sociaux et de l’impact du numérique chez les jeunes a-t-elle été intégrée dès l’origine dans son périmètre ?

Mme Sarah Sauneron. Bien que le lancement de la grande cause nationale ait été retardé en raison du changement de gouvernement, l’usage des écrans a en effet toujours été identifié comme l’une des composantes essentielles de la réponse interministérielle aux enjeux de santé mentale. La stratégie s’articule autour de plusieurs volets qui seront déployés progressivement, avec un plan d’action interministériel qui se concrétisera dès cette année. Sans pouvoir préciser le calendrier exact des annonces, nous constatons déjà que la ministre Catherine Vautrin a commencé à présenter son volet d’action concernant les enfants de 0 à 3 ans. Cela comprend l’envoi de messages par la Caisse nationale de l’assurance maladie (Cnam) et la branche famille aux parents, une campagne de communication ainsi que la refonte du carnet de santé, entre autres initiatives. Les écrans constitueront donc indéniablement l’une des composantes majeures de notre réponse globale.

Nous développons également un plan sommeil, le ministère se concentrant prioritairement sur l’aspect préventif. Parallèlement, la direction générale de l’offre de soins (DGOS) traite les questions relatives à la psychiatrie, qui ont fait l’objet d’annonces par le ministre chargé de la santé la semaine dernière.

La DGS coordonne la réponse concernant les écrans sous l’égide du ministère et propose également des mesures en termes de secourisme en santé mentale, élément essentiel pour le repérage précoce des troubles chez les jeunes, aspect directement lié à la problématique des écrans. Un ensemble complet de mesures sera ainsi annoncé progressivement tout au long de l’année.

Mme Laure Miller, rapporteure. Ma prochaine question porte sur un sujet précis évoqué lors de notre rencontre avec le collectif Algos Victima. Les parents des jeunes filles victimes des réseaux sociaux nous ont signalé que leurs enfants, hospitalisées en services psychiatriques, conservaient un accès non régulé à leurs téléphones et au numérique pendant leur séjour. Ce constat était particulièrement troublant pour ces parents, puisque ces mêmes outils numériques constituaient la cause première des troubles psychiatriques de leurs enfants. Ces jeunes filles demeuraient ainsi connectées aux sources mêmes de leur mal-être. Existe-t-il actuellement une réglementation ou des normes encadrant l’usage des téléphones et du numérique dans les services hospitaliers psychiatriques, particulièrement dans les unités accueillant des enfants ?

Mme Sarah Sauneron. Cette question relevant de la compétence de la DGOS, nous ne disposons pas de la réponse précise. Je peux néanmoins partager un retour d’expérience intéressant. Lors d’une visite à l’hôpital Robert Debré avec la ministre il y a quelques mois, dans le service du professeur Richard Delorme, une soignante nous a expliqué leur décision d’interdire l’usage des écrans. Elle a souligné que les premières résistances sont venues des professionnels eux-mêmes, certains craignant que retirer ces appareils, considérés presque comme des objets transitionnels, ne déstabilise davantage les jeunes patients. Finalement, contre toute attente, les jeunes ont immédiatement compris la nécessité de se séparer de ces outils qui sont tout sauf réconfortants et cette privation est finalement devenue un sujet de discussion thérapeutique. Si cette pratique est aujourd’hui pleinement acceptée dans son service, il est donc particulièrement instructif de constater que les principales réticences provenaient initialement de la communauté professionnelle elle-même.

M. Kerian Berose-Perez, chef du bureau Santé mentale. Sans empiéter sur les prérogatives de la DGOS qui pourra s’exprimer plus précisément sur ce sujet, le principe général veut que tout patient conserve l’accès à ses effets personnels, téléphone et tablettes inclus. Toutefois, en cas d’indication médicale spécifique, cet accès peut être restreint dans le strict respect des libertés individuelles du patient. Certaines situations particulières, comme une crise grave nécessitant une intervention, peuvent justifier la confiscation temporaire des effets personnels, particulièrement lorsque le patient est mineur. Ces mesures restent cependant strictement encadrées juridiquement, car elles touchent aux libertés fondamentales.

Mme Laure Miller, rapporteure. Cette audition, comme d’autres, a mis en lumière une incompréhension persistante chez les parents confrontés à ces situations complexes. Leur constat récurrent porte sur un possible manque de formation spécifique des professionnels de santé concernant ces problématiques. Ils décrivent les réseaux sociaux comme « l’éléphant au milieu de la pièce » dans le contexte du mal-être adolescent, soulignant que les soignants n’ont pas systématiquement le réflexe d’interroger l’enfant sur son usage numérique, ses habitudes sur les réseaux sociaux, ou son exposition potentielle à des contenus inappropriés. L’impression qui ressort des témoignages parentaux suggère des lacunes dans la formation des professionnels de santé sur ces questions. Partagezvous cette analyse et des initiatives sont-elles engagées pour y remédier ?

Mme Sarah Sauneron. Nous sommes effectivement engagés dans des travaux sur cette question. Nous partageons le constat que les professionnels de santé se trouvent, comme nous tous, dépassés par l’ampleur de cette problématique. Nous travaillons actuellement avec la DGOS pour intégrer des modules spécifiques dans les formations initiale et continue des professionnels de santé, ainsi que des professionnels de la petite enfance, ces derniers représentant également des acteurs essentiels dans l’élaboration d’une réponse adaptée.

M. Kerian Berose-Perez. L’enjeu majeur consiste à renforcer substantiellement les liens entre les acteurs du numérique et les professionnels de santé. Cette démarche englobe tant l’acquisition de connaissances par les soignants sur les ressources disponibles, notamment pour accompagner les parents sur les questions de parentalité numérique, que la diffusion des constats sanitaires auprès des associations et professionnels du secteur de la cohésion sociale. La recherche doit favoriser la collaboration entre psychiatres et spécialistes du numérique, tout comme le champ de la prévention et l’administration doivent développer ces synergies.

Mme Laure Miller, rapporteure. Vous avez évoqué l’interview accordée ce week-end par la ministre de la santé sur le sujet des réseaux sociaux et des écrans, notamment avec cette préconisation d’absence d’écran avant 3 ans. Observez-vous une accélération des travaux sur ces sujets ? Votre calendrier a-til été révisé ? Disposez-vous désormais d’échéances précises pour la mise en œuvre des mesures que nous venons d’évoquer ?

Mme Sarah Sauneron. Nous constatons effectivement une accélération, ce dont nous nous réjouissons après les ralentissements liés aux récents changements ministériels. Nous ne pouvons que saluer la volonté de la ministre d’agir rapidement en nous fixant des objectifs précis et travaillons actuellement à réduire au maximum tous les délais. Sans attendre, nous avions déjà intégré certaines recommandations dans le carnet de santé refondu au 1er janvier. La ministre nous demande maintenant de compléter le carnet de maternité, dont la refonte était prévue, avec des informations spécifiques sur ce sujet avant la fin de l’année. Par ailleurs, un message de sensibilisation sera diffusé aux parents à la rentrée, un moment particulièrement opportun, par la Cnam et la Caisse nationale des allocations familiales (Cnaf). Enfin, l’arrêté concernant le référentiel, qui comprend un passage spécifique sur les écrans, élaboré en collaboration interservices, sera publié dans les prochaines semaines.

Mme Laure Miller, rapporteure. Ce référentiel est-il destiné aux professionnels de la petite enfance ?

M. Kerian Berose-Perez. En effet.

Mme Laure Miller, rapporteure. Existe-t-il un délai prévisible avant la diffusion complète des nouveaux carnets de santé ? Je présume que chaque département produit ou du moins personnalise son propre carnet, ce qui suppose un temps nécessaire pour écouler les stocks existants avant l’introduction effective des nouveaux carnets intégrant les recommandations sur les écrans.

Mme Sarah Sauneron. Les départements sont effectivement responsables de l’impression et de la gestion de leurs stocks. Cependant, lors de nos échanges avec eux, nous avons constaté que le renouvellement s’effectuait assez rapidement. Ayant été informés en amont de l’arrivée d’un nouveau carnet de santé, ils ont anticipé en limitant leurs impressions pour faciliter cette transition progressive. Il convient de préciser qu’ils utilisent notre maquette nationale, avec la possibilité d’y apposer leur identité visuelle. Le carnet de santé constitue véritablement un outil concret et quotidien et l’un des derniers supports papier d’information qui demeure une référence absolue pour les parents.

M. le président Arthur Delaporte. Mes questions porteront sur le sujet de la promotion de la minceur, véritable enjeu contemporain. Quelle action proactive mène la DGS pour lutter contre ce type de promotion ? Quels sont vos liens avec la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) ? Quelle stratégie mettez-vous en place sur TikTok, mais également plus largement sur l’ensemble des réseaux sociaux, voire sur tous les sites, y compris les sites d’information sérieux ? Je pense notamment aux sites de presse où nous sommes constamment exposés à des publicités pour des compléments alimentaires minceur. Quelle est votre stratégie à cet égard, considérant que la surexposition à ce type de publicité n’est pas sans conséquence sur l’image de soi et que ces produits s’avèrent parfois problématiques pour la santé ?

Mme Sarah Sauneron. Nous sommes parfaitement conscients de ces problématiques et de l’effet d’amplification des réseaux sociaux, ainsi que des algorithmes qui enferment les utilisateurs. Une étude démontre d’ailleurs que les personnes prédisposées aux troubles du comportement alimentaire ont plus de 4 343 % de risques supplémentaires d’être exposées à des vidéos concernant ce type de troubles.

Cette situation soulève effectivement la question plus générale de la désinformation en santé et des contenus dangereux sur lesquels nous travaillons activement. Nous collaborons étroitement avec la DGCCRF, qui sollicite notre expertise sanitaire pour qualifier les faits et leurs conséquences. Nous avons mené ce travail sur différentes plateformes et organes de presse et produisons des analyses scientifiques et des rapports visant à qualifier ces situations.

Concernant les actions à entreprendre, nous envisageons la mise en place de signaleurs de confiance spécialisés en santé, à l’instar de ce qui existe avec Point de contact et e-Enfance. Il s’agirait d’associations labellisées auxquelles nous apporterions les moyens nécessaires pour effectuer ce travail quotidien que nous réalisons avec la DGCCRF, mais que nous ne pouvons étendre à l’ensemble des réseaux sociaux. Cette piste nous semble particulièrement intéressante.

Nous créons par ailleurs, comme l’a annoncé le ministre, un observatoire national de la désinformation en santé, qui réunira tous les acteurs concernés et favorisera une modération plus rigoureuse des contenus en santé sur les plateformes. Nous souhaitons également impliquer les professionnels de santé dans cette modération.

M. Kerian Berose-Perez. Nous traitons cette problématique en collaboration avec l’Arcom, avec qui nous analysons précisément ce phénomène, tant du point de vue numérique que sanitaire. Nous travaillons également avec l’éducation nationale, la direction générale de l’enseignement scolaire (DGESCO) et le Centre de liaison de l’enseignement et des médias d’information (Clemi) sur l’éducation critique en santé, afin de renforcer la capacité des jeunes à adopter une posture critique face à ces contenus.

Je souhaite également souligner la difficulté particulière posée par ces contenus. D’une part, certains sont intrinsèquement problématiques, voire potentiellement délictueux, notamment lorsqu’ils promeuvent des comportements directement dangereux pour la santé. D’autre part, nous faisons face à une multitude de contenus qui, pris individuellement, ne sont pas problématiques, mais dont l’exposition massive et récurrente auprès d’un public vulnérable, comme les adolescentes, constitue un véritable risque de santé publique à l’échelle globale.

La meilleure approche pour traiter en masse ces contenus, non délictueux individuellement mais pourtant problématiques, réside dans le cadre du règlement européen sur les services numériques, notamment à travers les rapports d’analyse de risque produits par les plateformes qui, actuellement, ne prennent pas suffisamment en compte ce risque spécifique, se concentrant davantage sur les contenus intrinsèquement problématiques. Nous travaillons sur cet aspect dans le cadre des lignes directrices sur la protection des mineurs relevant de l’article 28 du règlement. La DGS s’investit particulièrement sur ce point, en coordination avec l’ensemble des ministères impliqués dans cette négociation européenne.

M. le président Arthur Delaporte. Estimez-vous qu’un renforcement du cadre juridique national pour qualifier la désinformation en santé soit nécessaire ?

Mme Sarah Sauneron. Bien que nous n’ayons pas identifié de besoin spécifique en la matière pour l’instant, nous restons ouverts à cette réflexion. Notre approche privilégie actuellement l’aspect pratique. Par exemple, nous élaborons avec la DGCCRF un protocole de signalement pour clarifier les responsabilités de chacun. Nous intervenons également en bout de chaîne avec les ordres professionnels lorsqu’il faut signaler une usurpation de titres. Je ne suis pas convaincue qu’une nouvelle base légale soit nécessaire à ce stade.

M. Kerian Berose-Perez. Sur cette question spécifique, nous n’avons pas identifié de besoin d’évolution de la base légale. Nous attendons par ailleurs la publication des lignes directrices finalisées sur la protection des mineurs pour déterminer si des besoins complémentaires émergeront.

Un enjeu majeur concerne en revanche la pratique et la mise en place de signaleurs de confiance formés aux questions de santé. Actuellement, e-Enfance et Point de contact constituent nos deux seuls signaleurs de confiance dans ce domaine, sans qu’ils disposent nécessairement d’une expertise santé spécifique. Ils relaient parfois des signalements émanant de « mini-signaleurs de confiance » non accrédités officiellement. Le renforcement de notre capacité d’analyse représente un véritable défi face à l’immensité des contenus à traiter, et c’est précisément là que nous identifions l’enjeu principal.

M. le président Arthur Delaporte. Combien de personnes travaillent sur ce type de problématique à la DGS ?

M. Kerian Berose-Perez. Au total, environ sept personnes travaillent sur ce sujet de manière ponctuelle et transversale. Nous bénéficions également de contributions ponctuelles, notamment du bureau de la sous-direction à l’environnement et à l’alimentation. Par ailleurs, nous finançons des partenaires tels que la Fédération française anorexie boulimie, qui nous apporte une aide considérable sur la thématique des troubles du comportement alimentaire. Très récemment, dans le cadre de nos travaux avec l’Arcom sur le phénomène SkinnyTok, nous les avons directement sollicités et avons collaboré étroitement avec eux. Dans le cadre du travail que nous menons actuellement sur la territorialisation de notre action, nous nous appuyons également sur les agences régionales de santé (ARS).

M. le président Arthur Delaporte. Disposez-vous de mécanismes de veille sur les tendances émergentes et entretenez-vous des interactions avec les plateformes à ce sujet ? Un élément qui m’a particulièrement interpellé lors de notre audition avec TikTok, c’est leur découverte apparemment récente de la tendance SkinnyTok, alors que la promotion de la maigreur excessive constitue une problématique ancienne et persistante sur les réseaux sociaux.

Au-delà de votre expertise sur cette question, comment assurez-vous le suivi et la surveillance de ces sujets qui mettent en danger la vie des utilisateurs ?

Par ailleurs, comment interprétez-vous le discours de TikTok concernant l’importance de diffuser des contenus sur la récupération d’après-crise ? Actuellement, nous observons en effet une prolifération de vidéos dans lesquelles des personnes partagent leurs avancées avec des messages apparemment positifs qui peuvent en réalité dissimuler du contenu SkinnyTok. Avez-vous développé une expertise spécifique sur ces types de contenus et sur la pertinence, ou non, d’exposer les utilisateurs à de tels messages ?

M. Kerian Berose-Perez. Votre question rejoint précisément ce que j’évoquais concernant les contenus qui, pris isolément, ne présentent pas de caractère problématique mais qui, considérés dans leur ensemble, constituent une véritable préoccupation de santé publique. Les SkinnyTok que vous mentionnez s’inscrivent effectivement dans un phénomène plus large de promotion de la maigreur excessive que nous analysons sur le temps long, en intégrant l’ensemble des contenus associés.

Concernant les mécanismes de veille que vous évoquez, nous orientons précisément nos efforts dans cette direction. Des membres de mon équipe ont notamment rencontré récemment le service de vigilance et de protection contre les ingérences numériques étrangères (Viginum) pour étudier leurs pratiques et explorer des possibilités de partage d’expérience, afin de construire un dispositif adapté à nos spécificités tout en améliorant l’efficacité de notre veille sur ces contenus.

Dans la mesure où la DGS ne peut assumer seule cette mission, nous établissons actuellement des protocoles avec la DGCCRF et l’Arcom afin de progresser sur ces questions, avec la volonté ferme d’adopter une vision globale et d’apporter des réponses concrètes aux problématiques de santé publique soulevées par les contenus que vous mentionnez.

M. le président Arthur Delaporte. Cela signifie donc qu’il n’existe actuellement aucun véritable système de veille opérationnel.

Mme Sarah Sauneron. Un système de veille est assuré par la délégation à l’information et à la communication (Dicom), qui surveille les réseaux sociaux pour détecter notamment les problématiques liées aux fausses informations. La Dicom coordonne avec notre service, par l’intermédiaire de notre mission communication, les réponses appropriées à apporter, tout en veillant à ne pas générer d’effet d’amplification qui serait contre-productif sur les réseaux sociaux. Ce dispositif nous a notamment permis d’identifier le « Paracétamol challenge » avant sa médiatisation dans la presse, ce qui nous a permis de suivre étroitement la situation.

M. Kerian Berose-Perez. Nous avions également identifié le phénomène SkinnyTok par nos propres moyens, car notre équipe utilise des comptes enfants et adolescents pour explorer les réseaux sociaux. Je ne qualifierais toutefois pas cette démarche de dispositif de veille structuré, nous procédons simplement ainsi par nécessité pour évaluer certaines fonctionnalités ou pour demander la suppression de certaines options auprès de la Commission européenne lorsque nous identifions des risques.

M. le président Arthur Delaporte. Cela met en lumière la nécessité de structurer de véritables outils de captation et d’analyse, car nous sommes confrontés à des contenus qui se situent à la frontière de la légalité. Comme vous l’avez souligné, la difficulté réside dans le fait que la modération s’effectue individuellement sur chaque contenu, et non sur un ensemble de contenus formant un tout cohérent. C’est la raison pour laquelle les plateformes nous indiquent ne pas pouvoir interdire certains types de publications.

Parallèlement, nous constatons que les utilisateurs eux-mêmes développent des stratégies sophistiquées, telles que l’utilisation détournée d’émoticônes, pour parvenir à regrouper des contenus qui, pris isolément, peuvent paraître anodins mais qui, assemblés, révèlent une toute autre dimension. Dans ce contexte, l’État semble démuni, tandis que les plateformes manquent de base légale pour intervenir efficacement.

C’est précisément pour cette raison que je vous interrogeais plus tôt sur le renforcement du cadre juridique, afin de déterminer comment nous pourrions doter l’État ou le juge de moyens concrets pour ordonner le retrait de contenus. Si le système fonctionne relativement bien pour les contenus terroristes, nous rencontrons de réelles difficultés concernant la capacité des acteurs individuels à obtenir le retrait de contenus problématiques. Lors de nos échanges à Bruxelles, il nous a été demandé pourquoi nous ne saisissions pas la justice, alors que de nombreux parents nous font part de leur impuissance face à cette situation. Comment pouvons-nous donner aux juges les outils nécessaires pour adresser des injonctions directes aux plateformes sans multiplier les intermédiaires ? Cela pose la question du fondement légal.

M. Kerian Berose-Perez. La complexité de ce sujet, sur lequel nous n’avons pas nécessairement de position définitive, réside dans sa technicité et ses multiples implications. Nous y travaillons avec détermination, particulièrement au niveau européen. Nous réfléchissons notamment à des mécanismes permettant de briser les logiques d’enfermement dans des bulles de filtres, où les utilisateurs se retrouvent constamment exposés aux mêmes types de contenus, qu’il s’agisse de publications esthétisant la dépression ou promouvant des comportements alimentaires dangereux. Notre approche consiste à imposer une diversification des contenus et à introduire une part d’aléatoire pour contrer les mécanismes de personnalisation algorithmique et limiter la formation systématique de ces bulles de filtres, particulièrement face aux algorithmes les plus performants. Ces actions s’inscrivent principalement dans le cadre du DSA, même si nous reconnaissons que les avancées ne progressent pas toujours aussi rapidement que nous le souhaiterions. Ce travail exige une compréhension approfondie des mécanismes en jeu et une maîtrise de textes réglementaires parfois complexes à appliquer.

M. le président Arthur Delaporte. J’ai le sentiment que l’État demeure insuffisamment outillé face aux enjeux massifs et en rapide évolution qui touchent la santé publique. Chaque année qui passe expose davantage de jeunes, et même de très jeunes, à des contenus préjudiciables. Ce phénomène concerne l’ensemble de la société et chaque mois d’inaction nous conduit à accumuler un retard considérable.

J’entends la volonté de la ministre de promouvoir l’interdiction des écrans pour les moins de 3 ans dans un journal qui, par ailleurs, véhicule de la désinformation. Je le précise à titre personnel, puisque ce même journal met en cause notre commission quelques pages plus loin, prétendant que le recours aux auditions par visioconférence ne constitue pas la norme pour les commissions d’enquête. En tant que défenseur de l’information rigoureuse, je tiens à souligner que nous menons depuis trois mois des auditions sérieuses avec diverses administrations par visioconférence sans que cela n’ait jamais posé un problème. Le véritable problème réside dans le détournement de la procédure et non dans l’usage de la visioconférence. Cette précision me paraît nécessaire pour le compte rendu de notre commission.

Pour revenir à notre sujet, annoncer des mesures pour les enfants de moins de 3 ans constitue certes une avancée, mais nous devons également nous préoccuper des adolescents de 14 ou 15 ans. Le temps que les mesures d’interdiction des écrans pour les plus jeunes produisent leurs effets, il faudra compter dix à douze ans alors que la question centrale porte sur notre capacité d’action immédiate pour endiguer ce phénomène. Nous devons manifestement renforcer nos moyens car sept équivalents temps plein ne suffiront pas. Même si la création d’un bureau dédié à la santé mentale liée à l’exposition au numérique marque une étape positive, nous avons besoin de mécanismes de signalement plus directs et efficaces entre l’administration et les plateformes.

Nous constatons que pour les contenus terroristes, des systèmes de signalement très performants existent entre les administrations et les réseaux sociaux. En revanche, lorsque nous examinons les rapports de transparence concernant la santé mentale ou la protection des mineurs, les chiffres de signalements administratifs sont proches de zéro. Cela démontre que l’administration ne mobilise pas pleinement son pouvoir de signalement, ce qui nous laisse démunis. Des mécanismes existent déjà, d’autres restent à inventer ou à renforcer, mais commençons par utiliser plus efficacement les outils à notre disposition.

Disposez-vous d’un contact direct chez TikTok au niveau de la DGS, ou sollicitezvous systématiquement l’Arcom lorsque vous devez les contacter ?

M. Kerian Berose-Perez. J’ai effectivement déjà établi des contacts avec les plateformes mais, jusqu’à présent, nous avons privilégié une collaboration par l’intermédiaire de l’Arcom.

Mme Sarah Sauneron. La lutte contre le terrorisme constitue effectivement un modèle de référence et c’est précisément dans ce domaine que nous avons développé les actions les plus avancées, justifiées par un impératif évident de sécurité publique. Dans la mesure où nous faisons aujourd’hui face à des données plus complexes à analyser concernant les écrans, nous devons intensifier la recherche afin d’établir des constats incontestables qui s’imposeront à tous, particulièrement lorsqu’ils touchent à la liberté d’expression.

Comme vous l’avez parfaitement souligné, les discours liés à la santé mentale sont plus difficiles à analyser que ceux liés au terrorisme. Dans ce dernier domaine, nous avons considérablement progressé en termes de signalement et de collaboration avec les plateformes. Ce modèle, également appliqué dans la lutte contre la pédopornographie, constitue notre référence à suivre.

Je ne voudrais pas laisser entendre que seules sept personnes au sein du ministère s’intéressent à la question des écrans. Pour avoir travaillé sur ce sujet depuis plusieurs années, notamment en suivant dès 2022 le plan du secrétaire d’État chargé de la protection de l’enfance Adrien Taquet, je constate un véritable tournant depuis la commission Mouton-Benyamina. Bien que ces avancées puissent être jugées insuffisantes, nos relations avec les ministères de l’économie et de l’éducation nationale ont considérablement évolué.

Le ministère de la santé démontre toute sa légitimité en fournissant les justifications scientifiques nécessaires à l’action auprès des jeunes et des parents. Cette approche constitue la clé de notre stratégie, comme cela a été le cas pour le tabac, car c’est lorsque nous avons établi les liens avec le cancer du poumon que nous avons pu imposer des mesures face aux industriels.

Le ministère de la santé doit ainsi jouer pleinement ce rôle concernant les écrans, sans se limiter aux enfants de moins de 3 ans, bien que cette action précoce demeure essentielle. Nos adolescents doivent prendre conscience des risques auxquels ils s’exposent et cette sensibilisation passe notamment par l’éducation nationale, car ce ministère dispose d’un public captif et de toute la légitimité pour agir auprès des adolescents, en collaboration avec les parents. Dans cette perspective, le droit à la déconnexion et la généralisation de l’expérimentation des collèges sans smartphone apparaissent indispensables.

Je tiens à souligner que la France n’est nullement à la traîne au niveau européen sur ce sujet et qu’elle est, au contraire, citée en exemple par d’autres États membres. L’Organisation mondiale de la santé (OMS) Europe, qui nous rendra visite cette semaine au ministère, nous a spécifiquement demandé d’aborder la question de la santé mentale des jeunes face aux écrans. Plusieurs pays, dont l’Espagne, ont sollicité la traduction du rapport du docteur Mouton et du professeur Benyamina. Cette reconnaissance internationale reflète une véritable prise de conscience et une volonté d’agir à la hauteur des enjeux.

M. le président Arthur Delaporte. Malgré les réserves ou inquiétudes que j’ai pu exprimer concernant le sentiment d’impuissance que peuvent ressentir certains utilisateurs, je tiens à vous remercier pour votre travail et pour le sens de l’État et de l’intérêt général que porte la DGS.

Un travail considérable reste encore à accomplir et je constate que vous vous êtes pleinement saisis de ces enjeux. La réactivité collective qu’imposent ces défis devrait conduire à un renforcement des moyens de veille et de signalement afin de lutter efficacement contre les tendances dangereuses. Mme la rapporteure et moi-même sommes quotidiennement interpellés sur les réseaux sociaux concernant des publications problématiques et dangereuses, notamment cette publicité massive pour les compléments alimentaires. Si ces dernières prolifèrent, c’est qu’elles génèrent des profits considérables. Il convient donc d’intervenir sur le plan financier et de saisir directement les plateformes, cette problématique dépassant largement le seul cas de TikTok.

Je vous remercie et vous invite à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.

60.   Audition de M. Anton’Maria Battesti, directeur des affaires publiques France de Meta, et Mme Aurore Denimal, responsable des affaires publiques France, Mme Claire Dilé, directrice des affaires publiques de X, et M. Thibault Guiroy, directeur des affaires publiques France et Europe du Sud de YouTube (mardi 17 juin 2025)

La commission auditionne conjointement, M. Anton’Maria Battesti, directeur des affaires publiques France de Meta, et Mme Aurore Denimal, responsable des affaires publiques France, Mme Claire Dilé, directrice des affaires publiques de X, et M. Thibault Guiroy, directeur des affaires publiques France et Europe du Sud de YouTube ([58]).

M. le président Arthur Delaporte. Notre commission d’enquête se réunit pour la soixantième fois. Depuis environ trois mois, nous avons déjà entendu 144 personnes, durant plus de 75 heures.

Nous recevons en audition conjointe les représentants de Meta, de X et  en visioconférence – de YouTube. Les représentants de Snapchat ont également été convoqués, mais ils n’étaient pas disponibles et seront auditionnés la semaine prochaine.

Même si notre commission d’enquête a pour objet d’étudier les effets psychologiques de TikTok sur les mineurs, nous avons constaté une forme d’interopérabilité entre les plateformes. Les utilisateurs – et parfois les influenceurs problématiques – ont à la fois des comptes sur Instagram, Snapchat, YouTube ou X. Vous comprendrez donc que nous ayons souhaité vous entendre.

Nous avions envisagé d’élargir la commission d’enquête à l’ensemble des plateformes, car elles s’inspirent les unes des autres et peuvent toutes affecter la santé mentale des mineurs. Mme la rapporteure m’a convaincu de circonscrire nos travaux à TikTok, en raison de son caractère émergent, de sa très forte attractivité vis-à-vis des jeunes et de la spécificité de son algorithme. Néanmoins, les conclusions de nos travaux – qui devront être présentées au plus tard le 12 septembre – pourront dépasser ce cadre. La loi a en effet vocation à s’appliquer de façon universelle et la régulation ne peut concerner un seul acteur économique.

Je vais vous donner la parole pour une intervention liminaire, qui précédera notre échange sous forme de questions et réponses, et je vous remercie de préciser tout intérêt public ou privé de nature à influencer vos déclarations.

Auparavant, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Anton’Maria Battesti, Mme Aurore Denimal, Mme Claire Dilé et M. Thibault Guiroy prêtent successivement serment.)

M. Anton’Maria Battesti, directeur des affaires publiques France de Meta. Je suis directeur des affaires publiques pour Meta en France. Étant dans cette entreprise depuis bientôt douze ans, j’ai une certaine expérience des sujets qui vous intéressent, et qui sont plus ou moins nouveaux. En tout cas, il est important d’aborder la question des contenus, de savoir qui décide et comment, et d’essayer d’améliorer les choses.

Notez que sous l’impulsion de la France, l’Europe s’est dotée d’un cadre exigeant et performant. Le « jeune » règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), dit Digital services act (DSA), a déjà trouvé des applications très concrètes.

Nous sommes là pour répondre à vos questions. Je ne serai pas trop long, afin de laisser du temps à l’échange. Une actualité récente peut néanmoins vous intéresser et être pertinente pour vos travaux. Instagram propose désormais des comptes pour les adolescents, qui permettent de distinguer les 13-15 ans et les 1618 ans et d’encadrer le temps passé sur l’application, les contenus auxquels ils peuvent être exposés, ainsi que les possibilités de prendre contact avec eux. La supervision et l’autorisation parentale constituent la clé de voûte du dispositif. Nous aurons certainement l’occasion de traiter l’ensemble de ces sujets, mais je tenais à mentionner ce produit dès à présent.

Mme Aurore Denimal, responsable des affaires publiques France de Meta. La vérification de l’âge est un sujet à propos duquel nous sommes très engagés. Il sera intéressant de l’évoquer, pour apprécier les effets que produisent les comptes « Ado » et ceux qu’ils pourraient produire s’ils atteignaient leur cible de manière pleine et entière.

Mme Claire Dilé, directrice des affaires publiques de X. Je suis chargée des affaires publiques de la plateforme X en France, depuis environ quatre ans.

J’ai pris le parti d’une intervention peut-être un peu longue, mais complète, afin d’aborder l’ensemble des questions posées dans le questionnaire qui nous a été adressé. Il est important pour nous de pouvoir expliquer les mesures que nous prenons.

X est une plateforme d’information en temps réel, où la conversation est publique. Selon notre dernier rapport de transparence établi dans le cadre du DSA, qui a été publié en avril, nous totalisons 17 millions d’utilisateurs mensuels actifs et 11 millions de personnes possèdent des comptes en France.

Notre ambition est de servir et de protéger la conversation publique et de garantir un environnement sûr pour que chacun puisse y participer librement et en toute confiance.

L’approche de X en matière de sécurité est étayée par ses conditions d’utilisation, y compris les règles et politiques, qui sont conçues pour garantir que tout utilisateur puisse participer à la conversation publique de manière sûre. Chacun doit pouvoir s’exprimer sur la plateforme et nous ne tolérons pas les comportements qui harcèlent, menacent ou intimident dans le but de faire taire la voix d’autrui. Nous nous engageons à maintenir un environnement inclusif, où des perspectives diverses peuvent être partagées, débattues et appréciées.

Notre service se caractérise par le fait que les utilisateurs rejoignent une conversation sur les sujets qui les intéressent ou sur ce qui se passe dans le monde à un moment donné. C’est un peu comme un groupe WhatsApp global, public et en temps réel. Les gens viennent principalement sur X pour suivre et commenter l’actualité sportive, politique et culturelle ou du monde du divertissement, pour débattre de sujets de société ou pour échanger avec leur communauté.

Nous essayons de créer les conditions pour que les utilisateurs puissent être activement engagés dans la conversation, tout en leur laissant le choix de l’utilisation qu’ils souhaitent avoir du service. Ils peuvent contrôler et personnaliser leur expérience sur X.

Ainsi, ils peuvent consulter un fil d’actualité organisé par notre algorithme de recommandation, voir les publications des comptes auxquels ils sont abonnés de manière antéchronologique, ou encore accéder aux listes qu’ils ont créées ou qui existent déjà. Nous leur fournissons des outils de contrôle du contenu qu’ils souhaitent voir, en fonction des sujets qui les intéressent ou de la sensibilité des publications. Ils ont la possibilité de protéger leurs posts et de limiter les personnes pouvant leur envoyer des messages privés. Ils peuvent également gérer les notifications qu’ils reçoivent de la part de la plateforme et avoir recours aux fonctionnalités de sécurité, telles que l’exclusion des mots clés, les contrôles de conversation ou les fonctions de blocage et de silence. Enfin, ils peuvent dépersonnaliser leur expérience et limiter le partage de leurs données avec des tiers.

Afin de garantir la sûreté des utilisateurs sur le réseau, X s’appuie sur un ensemble de règles et de politiques. Elles s’articulent autour de trois piliers : la sécurité, la confidentialité et l’authenticité. La conduite haineuse, les comportements inappropriés et violents, ainsi que les discours violents, l’exploitation sexuelle des enfants ou la nudité non consentie sont notamment proscrits sur la plateforme.

Concernant l’application de notre politique, notre philosophie est la suivante : nous permettons aux utilisateurs de comprendre les différentes facettes d’un problème et nous encourageons une discussion ouverte autour d’opinions et de points de vue différents. Cette approche permet la coexistence de nombreuses formes de discours sur notre plateforme et promeut en particulier le contrediscours.

Lorsque nous prenons des sanctions, elles peuvent concerner une partie précise du contenu – un post ou un message privé par exemple –, ou un compte. Nous pouvons également avoir recours à une combinaison de ces options. Dans certains cas, nous intervenons, car le comportement concerné enfreint les règles de fonctionnement de X. Dans d’autres, nous agissons en réponse à une demande légale valide d’une entité autorisée dans un pays donné.

Nous prenons des mesures de suspension d’un compte si nous déterminons qu’un utilisateur a enfreint de manière répétée nos politiques ou a commis des infractions à des politiques spécifiques qui représentent un risque majeur pour X – publication d’un contenu illégal, tentative de manipulation de la plateforme ou d’envoi massif de messages indésirables aux utilisateurs, utilisation de la plateforme pour inciter à la violence, etc. – ou qui constituent une menace pour nos utilisateurs – fraude, violation de la vie privée, menace violente, harcèlement ciblé, etc. Toutes nos décisions de modération sont compilées dans notre rapport de transparence globale, que nous mettons à jour tous les six mois et que vous pouvez consulter librement sur notre site internet.

Ce travail de modération est conduit par une équipe internationale et pluridisciplinaire, qui est disponible vingt-quatre heures sur vingt-quatre et maîtrise plusieurs langues.

Afin de garantir que nos modérateurs sont habilités à remplir leurs fonctions, nous leur fournissons un système de soutien solide. Chaque modérateur suit une formation approfondie et des cours de remise à niveau, dispose de différents outils lui permettant d’accomplir efficacement son travail et bénéficie d’une série d’initiatives en matière de bien-être. Nous continuons à investir dans la sécurité, notamment dans nos équipes et nos technologies, et nous mettons en place un centre d’excellence dédié à la modération de contenus.

J’aborderai la question de la protection des mineurs dans le cadre de la discussion.

M. Thibault Guiroy, directeur des affaires publiques France et Europe du Sud de YouTube. YouTube a pris des mesures pour protéger les mineurs sur la plateforme. Dans ce domaine, notre approche est guidée par des grands principes que nous avons élaborés – comme nous le faisons toujours – en collaboration avec des experts de la protection de l’enfance.

Le premier de ces principes est que la vie privée, la sécurité physique, la santé mentale et le bien-être des enfants et des adolescents exigent des protections particulières en ligne et qu’ils doivent être au cœur de la conception de nos produits. C’est pour cette raison que nous avons créé YouTube Kids il y a dix ans, en 2015. Il s’agissait de mettre à la disposition des parents une application permettant aux enfants de moins de 13 ans de regarder des vidéos adaptées à leur âge.

YouTube Kids est disponible dans plus de quatre-vingts pays. Cette version filtrée de YouTube propose des contenus adaptés aux enfants grâce à un système fondé sur les retours des parents, des filtrages automatiques et des examens manuels.

Parmi les spécificités de YouTube Kids, figurent des profils adaptés selon l’âge, pour les plus petits de 4 ans et moins, pour les petits de 5 à 8 ans et pour les grands de 9 à 12 ans. Les parents ont plusieurs paramètres de contrôle. Ils peuvent bloquer très rapidement des contenus ou des chaînes entières, désactiver la fonctionnalité de recherche de contenus, désactiver la lecture automatique ou mettre en place un minuteur, par exemple pour limiter le temps d’écran à trente minutes. Les parents peuvent aussi faire en sorte que leurs enfants n’aient accès qu’à un corpus de contenus qu’ils auront eux-mêmes choisi.

Les contenus jugés trop commerciaux, tels que les vidéos qui se concentrent sur le déballage de produits ou qui encouragent directement les enfants à dépenser de l’argent, sont supprimés de YouTube Kids. Par ailleurs, les placements de produits payants n’ont jamais été autorisés sur YouTube Kids.

Outre YouTube Kids, nous proposons, depuis 2021, des expériences supervisées sur la plateforme YouTube classique. Les parents ont la possibilité de créer des comptes supervisés et de restreindre l’expérience des mineurs sur la plateforme, en limitant les contenus qu’ils peuvent regarder et rechercher. Les paramètres définis pour ces comptes modifient également en profondeur les fonctionnalités que les enfants peuvent utiliser. Le paramètre « Découverte » propose une gamme de vidéos généralement adaptée aux utilisateurs de 9 ans et plus, tandis que le paramètre « Découverte Plus » propose une gamme de vidéos plus large, généralement adaptée aux spectateurs de plus de 13 ans. Enfin, un dernier paramètre permet d’accéder à pratiquement tout YouTube, à l’exception des vidéos marquées comme réservées aux plus de 18 ans.

Pour certains de ces paramètres, les fonctionnalités disponibles sur la version standard de YouTube sont désactivées. Ainsi, les mineurs utilisant la plateforme avec ces paramètres ne peuvent pas regarder ou poster des diffusions en direct, créer des chaînes ou des vidéos courtes, poster des commentaires, réaliser des achats ou souscrire à des contenus payants.

D’autres fonctionnalités, que je ne détaillerai pas, existent pour protéger les mineurs sur la plateforme. Nous avons notamment instauré des rappels pour inciter à faire une pause ou signaler l’heure du coucher. Ils sont activés par défaut, pour limiter le temps d’écran de tous les utilisateurs âgés de 13 à 18 ans. Ces rappels sont proposés depuis 2018, mais nous les rendons chaque année un peu plus présents et plus réguliers, afin de tenir compte de l’évolution des usages et des retours des parents.

En 2018, YouTube a créé une équipe d’experts indépendants dans les domaines des contenus pour enfants, du développement de l’enfant, de l’apprentissage numérique et de la citoyenneté. Issus de milieux scientifiques, universitaires et associatifs, ces treize experts internationaux constituent un comité qui conseille YouTube sur l’évolution des besoins des jeunes, en s’appuyant sur des travaux de recherche reconnus et sur sa propre expertise. Ils donnent également leurs avis sur les produits, les règles et les services que nous proposons aux jeunes et aux familles.

Enfin, des mesures ont été prises pour réduire la recommandation de contenus nocifs pour les plus jeunes. Selon les experts que je viens de mentionner, les adolescents sont plus susceptibles que les adultes de développer des croyances négatives sur eux-mêmes, lorsque les contenus qu’ils consomment les exposent de manière répétée à des messages sur des standards, notamment physiques. Depuis 2023, nous avons identifié des catégories de contenus qui peuvent paraître totalement inoffensifs lorsqu’ils sont visionnés de manière isolée, mais qui peuvent s’avérer néfastes ou toxiques à long terme pour la santé mentale des adolescents lorsqu’ils sont visionnés de manière répétée. Nous avons pris la décision de restreindre leur diffusion, en limitant les recommandations de ces contenus sur la plateforme.

Je vais citer quelques-unes de ces catégories et nous pourrons approfondir le sujet pendant la discussion. Il s’agit notamment de l’idéalisation de normes malsaines ou de comportements problématiques, de niveaux de forme physique ou de poids corporels spécifiques, de la comparaison de caractéristiques physiques et de l’idéalisation de certains types par rapport à d’autres. L’une de nos expertes expliquait récemment que si une jeune fille peut sans problème regarder une vidéo sur le contouring, elle commencera certainement à se poser des questions sur son apparence physique si elle en regarde dix ou quinze. Une dernière catégorie concerne l’encouragement à l’intimidation physique ou au dépassement physique, la violence verbale et les interactions conflictuelles de manière générale.

J’évoquerai plus tard les autres initiatives qui ont été prises, notamment les panneaux d’information à destination des adolescents concernant la prévention des troubles de santé mentale.

Mme Laure Miller, rapporteure. Chacun est dans son rôle et il est normal que vous mettiez en évidence les mesures prises par vos plateformes respectives pour améliorer la pertinence du contenu proposé à vos utilisateurs. Certaines de ces initiatives sont intéressantes, mais nous souhaitons surtout évoquer les dysfonctionnements – vous reconnaîtrez sans doute qu’ils existent  et les solutions qui permettraient d’y mettre fin.

Mon fils de 5 ans a un tracteur électrique à deux vitesses, dont la première est destinée aux plus petits. Malheureusement, le fabricant n’a pas prévu de pouvoir empêcher l’utilisation de la vitesse la plus rapide. Par conséquent, avoir deux vitesses ne sert à rien. Mon fils cherche en permanence à passer la seconde vitesse, parce qu’elle lui procure davantage de sensations fortes.

Pour transposer cet exemple dans le domaine des plateformes, si vous élaborez des dispositifs pour protéger nos enfants, il faudrait les imposer au lieu de seulement les proposer, car ils ne les utiliseront pas d’eux-mêmes.

Pourriez-vous nous donner des précisions sur vos modèles économiques ? Comment fonctionnent vos algorithmes ? Leur objectif est-il de capter l’attention des utilisateurs et de les « retenir » pour qu’ils visionnent davantage de publicités ?

M. Anton’Maria Battesti. Je possède également ce tracteur et, théoriquement, une bride peut être vissée pour empêcher l’utilisation de la seconde vitesse. Cet exemple montre en tout cas que l’information donnée aux parents et aux consommateurs est essentielle pour qu’ils puissent se servir correctement de nos outils.

S’agissant de notre modèle économique, la publicité représente l’essentiel du chiffre d’affaires de Meta. Vous avez le choix entre un modèle payant sans publicité et un modèle gratuit avec de la publicité ciblée en fonction de différents critères, comme vos centres d’intérêt, votre âge ou votre localisation. L’objectif est de vous proposer l’expérience publicitaire la plus pertinente possible. Ce n’est pas une boîte noire. En cliquant dessus, vous pouvez accéder à des explications sur les raisons pour lesquelles vous voyez telle ou telle publicité. Cet outil de transparence vous permet d’ajuster votre expérience publicitaire, si vous le souhaitez. Je donnerai aux administrateurs un document public – le « Meta Consumer profiling techniques » –, qui est publié dans le cadre du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques), dit Digital markets act (DMA). Vous y trouverez beaucoup plus de détails sur notre façon de fonctionner.

Les principes que je viens de vous décrire ne concernent pas les mineurs, puisque le DSA nous demande de ne pas leur proposer de publicité. C’est tout à fait bien qu’ils ne soient pas exposés à de la publicité sur nos plateformes. Ils peuvent l’être par ailleurs, dans d’autres types d’expériences vidéoludiques, mais pas sur les réseaux sociaux, et ça doit continuer ainsi.

Pour ce qui est de l’attention, il faut que vous ayez une bonne expérience pour que vous utilisiez le service. Il n’existe pas de compagnie aérienne sans passagers. Si vous n’êtes pas en confiance, vous ne venez pas. Par conséquent, il est important que le réseau ne soit pas une poubelle. Sinon, les gens s’en détournent et préfèrent d’autres expériences. Il faut également préserver les annonceurs. J’ai connu quelques campagnes de boycott radicales. Quand ils ne veulent pas que leurs marques soient associées à certains contenus, ils le font comprendre et arrêtent de faire des campagnes sur vos plateformes. Quand votre chiffre d’affaires dépend de la publicité, c’est un paramètre important.

L’objectif est que vous ayez une bonne expérience. Vous pouvez appeler ça « économie de l’attention », mais il faut quand même que vous trouviez de l’intérêt à ce qui vous est proposé. Au-delà des règles et des lois qui doivent – cela va de soi – être respectées, il ne faut pas dériver vers des choses qui ne seraient pas dans l’intérêt économique de la plateforme.

Mme Claire Dilé. Le modèle économique de X repose sur trois éléments. La publicité est l’un d’eux. Nous travaillons avec des annonceurs et beaucoup de marques qui utilisent notre service comme un espace publicitaire. Nous avons également développé les abonnements. Cette utilisation payante du service ne s’accompagne d’aucune publicité. Enfin, nous commercialisons les accès aux interfaces de programmation d’application (API).

Notre modèle repose donc sur ces trois éléments, mais principalement sur les annonceurs.

M. le président Arthur Delaporte. Quelle est la répartition entre ces sources de revenus, en pourcentage ?

Mme Claire Dilé. Je n’ai pas ces chiffres avec moi. Je pourrai regarder, mais vous pouvez retenir que nos revenus proviennent principalement de la publicité et des annonceurs.

Nous ne leur proposons pas de publicité ciblée, mais les mineurs ne constituent de toute façon pas un public cible pour X. Il est important de le mentionner.

Concernant le fonctionnement de notre algorithme, j’ai rappelé dans mon propos introductif que les utilisateurs pouvaient choisir entre une présentation algorithmique et antéchronologique de leur fil d’actualité.

Les centres d’intérêt renseignés au moment de l’inscription sur la plateforme, les interactions avec les différents types de contenus, les comptes suivis, les contenus partagés ou aimés, tous ces éléments informent l’algorithme des contenus qui sont censés nous intéresser. Les propositions sont faites sur la base de ces signaux.

Nous sommes conscients que ces recommandations peuvent amplifier les contenus. Or il est important pour nous d’avoir une approche responsable. C’est la raison pour laquelle tous les contenus préjudiciables ou contraires à la loi sont exclus des recommandations algorithmiques. On les filtre pour limiter leur visibilité sur le réseau.

En tant qu’utilisateur, vous avez en outre la possibilité d’indiquer que vous n’êtes pas intéressé par un contenu. Dans ce cas, il ne vous sera pas reproposé. Vous pouvez également filtrer des comptes.

Un réseau comme X a intérêt à proposer à ses utilisateurs un environnement sûr, y compris pour des raisons économiques. Les annonceurs et les marques avec lesquels nous travaillons sont très sensibles à cet aspect-là. Nous sommes certifiés par des organismes comme DoubleVerify, qui informent les annonceurs de la capacité des différents réseaux à préserver leur intégrité et leur réputation. C’est un élément que nous suivons avec beaucoup d’attention. Nous faisons en sorte que notre réseau soit sûr.

M. Thibault Guiroy. Je ne possède pas le tracteur auquel vous avez fait référence, mais l’analogie est intéressante, notamment pour aborder les questions liées à la vérification de l’âge et appréhender la manière dont nous pouvons offrir une expérience appropriée à chaque utilisateur en fonction de son âge.

Le modèle économique de YouTube repose sur deux piliers, qui sont d’une part la publicité, et d’autre part les revenus issus des abonnements YouTube Premium. Nous avons 125 millions d’abonnés dans le monde. S’agissant des revenus publicitaires, nous les partageons avec les créateurs des contenus, qui en conservent 55 %. Le reste revient à YouTube.

L’algorithme de recommandation de YouTube a pour but d’aider chaque utilisateur à découvrir les vidéos qu’il a envie de regarder, en optimisant sa satisfaction sur le long terme. Ce point est important, car nous sommes une plateforme de temps long, sur laquelle les utilisateurs passent beaucoup de temps à regarder majoritairement des contenus longs.

Pour associer chaque utilisateur aux vidéos qu’il est le plus susceptible de regarder et d’apprécier, l’algorithme de recommandation utilise plus de 80 milliards de signaux. Dans les grandes lignes, il s’agit de ce que l’utilisateur regarde, des chaînes auxquelles il est abonné, des contenus qu’il n’a pas regardés ou du temps pendant lequel il a regardé un contenu. Les historiques de visionnage et de recherche peuvent cependant être désactivés à tout moment, pour avoir une expérience sans recommandation.

Le système prend par ailleurs en considération le fait que d’autres utilisateurs ont regardé une vidéo jusqu’à la fin, ce qui est souvent un signe de qualité, ou qu’ils ont abandonné peu de temps après avoir commencé à la visionner.

Le pays de l’utilisateur et l’heure de la journée peuvent aider à lui proposer des actualités locales pertinentes.

D’autres éléments importants sont les mentions « j’aime » et « je n’aime pas », les partages, les commentaires – notamment la mention « pas intéressé » qu’il est possible d’indiquer pour refuser une recommandation de contenu et s’assurer que celui-ci ne sera pas reproposé – ou les sondages effectués avant ou après le visionnage pour savoir si le contenu proposé était pertinent et de qualité.

Ces signaux peuvent être complétés ou modifiés par nos grands principes en matière de responsabilité. YouTube accorde une prime aux contenus qui font autorité ou qui sont considérés comme fiables et les remontent dans la sélection, notamment en réponse à des recherches sur des thèmes de société, comme les élections ou le réchauffement climatique. Il peut s’agir de contenus de médias, mais aussi de contenus proposés par certains créateurs jugés particulièrement fiables.

À l’inverse, la visibilité des contenus qui sont à la limite de franchir nos conditions d’utilisation, mais qui ne les franchissent pas, peut être réduite.

Enfin, je préciserai qu’il était totalement impossible, même avant l’entrée en vigueur du DSA, de faire de la publicité ciblant les mineurs sur la plateforme.

M. le président Arthur Delaporte. Nous allons essayer d’organiser nos débats en trois temps, en commençant par le modèle économique et l’algorithme. Nous aborderons ensuite les logiques de modération et enfin les questions de vérification d’âge et de protection des mineurs.

Vous avez tous plus ou moins reconnu que votre modèle repose sur l’économie de l’attention, qui vous permet de vendre de la publicité. Théoriquement, vous ne pouvez pas cibler les mineurs, mais peut-être le faites-vous du côté de Meta ? Il me semble que vous n’avez pas totalement clarifié ce point, contrairement à X.

Les influenceurs obtiennent plus de vues, et donc sont mieux rémunérés, lorsqu’ils tiennent des propos cash ou clash, car l’algorithme renforce leur visibilité. Considérez-vous comme un problème, au moins d’un point de vue éthique, que des contenus qui peuvent être qualifiés de problématiques génèrent davantage de trafic et de revenus que des contenus de qualité, qui sont moins viraux ?

M. Thibault Guiroy. Ce que je viens de vous décrire répond à votre question. Nous avons deux systèmes qui vont totalement à l’encontre d’une mise en avant des contenus qui génèrent potentiellement du clash ou sont de piètre qualité. Nous accordons une prime aux contenus de médias ou de sources qui font autorité, en les affichant de manière prééminente. Cette pratique est peut-être contre-intuitive sur un plan économique, mais nous avons décidé de prendre ce parti chez YouTube. Par ailleurs, nous réduisons la viralité et la visibilité de certains contenus que nous ne pouvons pas supprimer, parce qu’ils ne violent ni la loi française ni nos conditions d’utilisation, mais qui sont potentiellement nuisibles ou que nous ne souhaitons pas voir recommandés. Nous le faisons de manière transparente, conformément aux obligations fixées par le règlement sur les services numériques, le DSA, mais nous n’hésitons pas à le faire à chaque fois que c’est nécessaire.

Mme Claire Dilé. Nous avons une sorte de pyramide avec différents étages. Le premier, ce sont nos conditions d’utilisation, qui sont comparables aux règles d’un jeu de société. Elles s’appliquent de façon globale. Le deuxième, c’est la loi applicable en France, notamment la loi  2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. Nous suspendons sur le territoire national tous les contenus qui sont illégaux.

Nous réfléchissons par ailleurs à la granularité de la modération. Certains contenus violent assez clairement nos règles de fonctionnement et certains contenus violent assez clairement la loi, mais d’autres sont plutôt du domaine du clash. Pour ces contenus gris, nous développons des filtres de visibilité. Nous avons lancé une action de modération qui s’appelle Freedom of Speech, not Freedom of Reach. Les contenus dont nous considérons qu’ils violent de manière potentiellement moins grave certaines de nos règles sont affichés comme tels et désamplifiés algorithmiquement. Nous empêchons en outre les gens d’interagir avec ces contenus. C’est une façon un peu plus fine d’agir sur ces contenus gris, mais néanmoins sensibles.

X est moins une plateforme d’influenceurs aujourd’hui, mais nous conservons un programme pour les créateurs de contenu. Les règles qui régissent le fonctionnement de ce type d’activité sur la plateforme sont plus strictes que les règles applicables aux utilisateurs classiques. Je ne vais pas vous les détailler, mais par exemple un créateur de contenu ne peut pas faire de la promotion en utilisant des événements sensibles de l’actualité. Il ne peut pas monétiser une tragédie. Même si ça coule de source, il s’agit de l’une de nos règles.

M. le président Arthur Delaporte. Depuis quelques mois, je suis surpris par l’augmentation du nombre de publicités relatives aux cryptomonnaies sur X. J’ai l’impression de ne voir que ça, alors que je ne clique jamais dessus. En outre, ces publicités sont souvent accolées aux publications de M. Elon Musk et de M. Donald Trump. Leur contenu politique est-il particulièrement mis en avant par l’algorithme ? Comment expliquez-vous la recrudescence des publicités concernant les cryptomonnaies, dont il est d’ailleurs probable qu’une grande partie contrevienne au droit français ?

Mme Claire Dilé. Les règles sont plus strictes pour les publicités. Je n’ai pas sous les yeux les publicités sur la cryptomonnaie auxquelles vous faites référence, mais elles peuvent être couvertes par ces règles.

Nous avons deux façons d’agir, d’une part la détection – qui fonctionne très bien pour certains types de contenu et moins bien pour d’autres, notamment ceux basés sur du texte – et d’autre part le signalement. Aujourd’hui, nous nous reposons principalement sur les signalements. Normalement, vous devez avoir la possibilité de signaler ces publicités. La plateforme s’engage à les retirer de plus en plus rapidement. Nous travaillons également au renforcement de la détection, afin de proposer un environnement plus sécurisé. Voilà globalement comment nous fonctionnons.

N’hésitez pas à m’envoyer ces publicités, si vous voulez que nous les examinions de façon plus précise.

M. le président Arthur Delaporte. Je vais vous envoyer tout mon fil X !

Mme Claire Dilé. Le fonctionnement de notre algorithme est identique pour tous les comptes, y compris ceux que vous avez mentionnés. J’ajoute qu’il est toujours possible de bloquer ou de mettre en sourdine des comptes qu’on ne souhaite pas suivre.

M. Anton’Maria Battesti. On peut se focaliser sur les contenus problématiques, mais les contenus positifs sur les droits des LGBTQI – c’est le mois des fiertés – ou le changement climatique ont également des audiences de plusieurs millions de personnes. Des choses très positives pourraient faire de l’ombre à ces choses très négatives. Je tiens à vous rassurer sur le fait qu’il n’y a pas de préférence pour les choses négatives par rapport aux choses positives.

S’agissant de l’argent et du modèle économique, la relation entre les influenceurs et les marques est directe sur Instagram. Les marques leur donnent de l’argent pour qu’ils fassent la promotion de leurs produits. La réglementation nous demande de garantir la transparence et de faire en sorte que ce soit bien affiché, ce qui est tout à fait normal. En revanche, nous n’avons aucun intérêt dans cette relation commerciale.

En ce qui concerne la publicité, les annonceurs comme Nike ou Adidas veulent savoir si les utilisateurs aiment faire du sport, plutôt que s’ils suivent telle ou telle personne. C’est plus parlant pour eux de savoir que vous avez liké la page du Stade de France ou la page du PSG. Ce sont ces signaux-là qui sont pertinents pour les annonceurs et qui leur permettent de cibler un homme entre 35 et 45 ans, urbain, qui s’intéresse au sport et qui pourrait acheter une nouvelle paire de Nike par exemple.

Vous trouverez beaucoup de précisions dans les documents que nous pourrons vous transmettre, mais je ne voulais pas laisser circuler l’idée que nous aurions un quelconque intérêt économique avec ces individus. Nous pourrons discuter de leur présence sur les plateformes et de la manière de la réguler, mais je préférais être clair à ce sujet.

M. Thierry Sother (SOC). Des études universitaire et scientifique ont prouvé que les propos radicaux étaient « poussés » par les algorithmes, car ils permettaient plus d’interactions. Vos différentes plateformes ont-elles recours à de telles pratiques pour maintenir l’attention et s’assurer d’une présence accrue de leurs utilisateurs ?

M. Anton’Maria Battesti. Je ne peux répondre que pour Meta.

Il faut avoir une approche globale de l’économie dite de l’attention. Elle concerne aussi la télévision – je me souviens des débats sur la télé poubelle – ou les jeux vidéo. Nous devons engager collectivement une réflexion à propos des écrans et de la concurrence qui peut exister en matière de temps passé. Néanmoins, je voudrais vous rassurer sur le fait que ce phénomène n’est pas nouveau. On a toujours cherché à faire en sorte que les gens regardent le programme qu’on propose plutôt que celui du voisin. La nouveauté est que nous sommes à l’heure des réseaux sociaux.

Je serai intéressé par les études auxquelles vous avez fait référence, car il en existe de nombreuses et nous avons observé que ce n’étaient pas forcément les contenus radicaux qui suscitaient le plus d’engagement, c’est-à-dire qui étaient le plus likés, commentés ou partagés. Il peut aussi s’agir de contenus positifs – et c’est mieux comme ça.

Parfois, certains contenus font réagir les gens de manière énervée. Ils peuvent être choqués par une actualité ou par ce qu’ils voient. Ça ne fait pas d’eux des radicaux. Ils réagissent à une situation de façon outragée, émotive, etc. En tous cas, ils réagissent, positivement ou négativement. Un réseau social fonctionne horizontalement. Vous ne faites pas que recevoir du contenu, comme à la télévision. Vous pouvez réagir et partager avec d’autres utilisateurs. C’est ce qui est vraiment différent. Il faudrait entrer dans les détails pour déterminer quels contenus font réagir, positivement ou négativement.

Mme Claire Dilé. Tout dépend de ce que vous considérez comme des contenus radicaux. Ce qui relève de la conduite haineuse, du discours violent, du harcèlement ou des abus est interdit.

Effectivement, il y a une forme d’émotion dans ce que partagent les gens. Potentiellement, cela suscite de l’engagement autour d’événements internationaux qui peuvent choquer ou amener à réfléchir. Je ne vais pas répéter ce qui a été dit par Anton’Maria Battesti, car c’est la même chose pour X que pour Meta. L’algorithme fait remonter les contenus qui suscitent de l’engagement dans le fil de recommandation, car il considère que les contenus qui sont partagés ou likés intéressent les utilisateurs.

Quel est notre intérêt en matière de promotion des contenus ? Ce n’est que mon expérience, mais je constate que nous travaillons beaucoup avec des annonceurs qui sont des marques. Leur intérêt est d’avoir un environnement sûr et sans controverse. L’intérêt économique d’une plateforme comme la nôtre est donc de proposer un tel environnement. À mon avis, ce n’est pas dans notre intérêt de procéder comme vous l’avez indiqué. Néanmoins, l’algorithme fonctionne en effet sur la base de l’engagement que suscitent les contenus.

M. Thibault Guiroy. Nous n’avons absolument aucun intérêt à pousser ces contenus. Chez YouTube, nous allons même dans la direction opposée, en déviralisant des contenus qui ne contreviennent pas directement à nos conditions d’utilisation. Dans les 80 milliards de signaux utilisés pour recommander des contenus, il n’y a aucun critère lié à la radicalité des propos. En outre, comme l’ont dit mes collègues, ces contenus-là ne sont pas particulièrement attractifs pour les annonceurs. J’ajoute que sur YouTube, il est possible de démonétiser certains contenus. Les contenus qui sont déviralisés ont, par essence, vocation à l’être.

Même si c’est un peu ancien, certaines études ont pu prétendre que telle ou telle opinion politique était plus représentée sur telle ou telle plateforme. En réalité, nous constatons que certains partis, souvent les plus radicaux, s’emparent mieux que d’autres des plateformes en ligne, ce qui peut donner l’impression que les opinions radicales sont davantage récompensées sur certaines plateformes. La solution serait que tous les autres partis du spectre politique investissent également les plateformes et y soient représentés. Parfois, nous n’avons pas la possibilité de montrer une pluralité d’opinions sur un sujet, parce que les vidéos ou les chaînes qui permettraient de le faire n’existent pas.

Sur notre plateforme, la monétisation des contenus n’est pas automatique. Il s’agit d’une décision purement discrétionnaire de la part de YouTube. Pour l’obtenir, il faut avoir au moins 1 000 abonnés et des contenus qui ont totalisé 4 000 heures de visionnage au cours des douze derniers mois. Elle n’est donc pas ouverte au premier venu qui souhaiterait diffuser des contenus extrêmement radicaux et en tirer profit.

M. Stéphane Vojetta (EPR). Le tracteur du fils de Mme la rapporteure nous livre un exemple très pertinent. Le passage de la première à la seconde vitesse illustre la capacité que nous avons, en tant que parents, d’exercer un contrôle sur des modes d’utilisation qui peuvent devenir dangereux.

Vous avez décrit avec beaucoup de précision l’ensemble des instruments que vous mettez à disposition des parents et des familles pour contrôler et encadrer l’usage des réseaux par les enfants et les adolescents, mais quel est, pour chacune de vos plateformes, le taux d’utilisation de ces outils pour les comptes que vous identifiez comme appartenant à des mineurs ?

Pour reprendre cette analogie, ne pensez-vous pas que la solution idéale serait, plutôt que d’empêcher le passage d’une vitesse à l’autre, de vendre un tracteur configuré par défaut avec la première vitesse ? Il reviendrait aux parents qui le souhaitent de débrider le véhicule, de manière volontaire, pour permettre son utilisation à une vitesse plus rapide.

M. le président Arthur Delaporte. Vous avez pris un peu d’avance par rapport à notre programme, mais en effet le tracteur n’aurait-il pas dû être vendu bridé par défaut ? Ne devrait-il pas en être ainsi également pour les réseaux sociaux ? Pourquoi ne pas bloquer certaines fonctionnalités par défaut ? Sinon, il est trop facile de créer un compte majeur quand on est mineur.

Mme Aurore Denimal. Dans le monde, 54 millions de jeunes ont accès aux comptes « Ado » et 97 % restent dans le dispositif. Son utilisation est donc massive.

Les comptes « Ado » sont un dispositif par défaut, comme un tracteur qui serait vendu bridé.

M. Anton’Maria Battesti. Nous ne fabriquons pas de terminaux. Nous pourrions réfléchir collectivement à une approche centralisée, qui permettrait d’adapter les équipements en fonction de l’âge et de prendre en compte toute l’expérience numérique (jeux vidéo, plateformes de contenus, réseaux sociaux, etc.). Certains produits sont adaptés pour les enfants, comme les appareils VTech, mais que se passe-t-il entre 8 et 15 ans ? Il existe plein de contrôles parentaux et de systèmes divers, mais nous pourrions aborder le sujet autrement, en impliquant les opérateurs de télécoms, les fabricants de téléphones, les plateformes, etc. Même si des progrès ont été faits, nous devons continuer à avancer dans ce domaine.

Mme Claire Dilé. Pour reprendre l’image du tracteur et de ses différentes vitesses, les plus jeunes ont l’interdiction de le conduire. Vous n’avez pas le droit d’être sur X entre 0 et 13 ans. Nous n’avons pas de version Kids. Entre 13 et 15 ans, il existe une procédure de consentement parental. Si vous essayez de vous inscrire en indiquant l’âge de 14 ans, nous vous renverrons vers le formulaire de consentement, qui devra être rempli par le parent ou le tuteur légal. Jusqu’à l’anniversaire des 16 ans, il faut une autorisation pour être sur le réseau social. Entre 16 et 18 ans, les mineurs sont placés dans un environnement protégé, qui est identique à celui qui s’applique par défaut aux utilisateurs verrouillés. Tout le monde peut d’ailleurs décider d’évoluer dans cet environnement.

Entre 16 et 18 ans, les paramètres en matière de vie privée, de sûreté et de sécurité sont renforcés, ce qui signifie que certains types de contenus, notamment des contenus sensibles, ne sont pas accessibles. Même en cliquant sur ces contenus, ils resteront derrière un filtre. Par ailleurs, les jeunes ne peuvent pas être contactés par des messages personnels et privés et leurs tweets seront vus seulement par leurs amis. La géolocalisation est en outre désactivée par défaut et le mode de recherche est sécurisé, puisque l’option Safe Search est activée par défaut. Enfin, modifier l’âge renseigné au moment de l’inscription est impossible. S’il est compris entre 16 et 18 ans, il ne sera pas possible de prétendre que vous avez en fait 22 ans.

L’une des pierres angulaires de l’efficacité de ce dispositif est la vérification de l’âge. Le sujet sera probablement abordé plus tard dans notre discussion, mais je voulais expliquer le type d’environnement dans lequel évoluent les utilisateurs mineurs.

M. Thibault Guiroy. YouTube Kids connaît un succès très important en France depuis dix ans et compte plusieurs dizaines de millions d’utilisateurs dans le monde. Les parents manifestent un réel engouement pour cette plateforme.

Nous redirigeons vers YouTube Kids les parents qui, à partir de la plateforme YouTube classique, consultent majoritairement des contenus qui se trouvent sur cette plateforme. Nous organisons régulièrement des campagnes à destination du grand public pour améliorer sa notoriété et faire en sorte qu’elle soit mieux connue des parents.

Le taux d’adoption des expériences supervisées – que j’ai évoquées dans mon propos introductif – est également excellent. Je vous communiquerai les chiffres après l’audition. Nous proposons le paramètre « Découverte » pour les 912 ans, car nous avons constaté qu’à partir d’un certain âge, certains enfants ne souhaitaient plus rester sur la plateforme YouTube Kids. Ils voulaient suivre certains contenus en particulier ou accéder à une gamme de contenus beaucoup plus large. Les expériences supervisées répondent à cette demande.

Monsieur le député Vojetta, vous estimez qu’il est important que les outils de contrôle parentaux soient disponibles par défaut sur les terminaux. Nos collègues ingénieurs de Google ont développé la solution Family Link, qui permet des réglages fins. Elle est désormais offerte à toute personne utilisant un téléphone équipé de l’OS Android.

Tous ces garde-fous devraient permettre de répondre à vos préoccupations.

Mme Laure Miller, rapporteure. Vous avez tous indiqué que vous n’aviez aucun intérêt économique à promouvoir des contenus négatifs et à leur laisser prendre de l’ampleur sur vos plateformes. Pourriez-vous affirmer qu’aucune solution technique ne permet de paramétrer l’algorithme pour que les contenus négatifs qui suscitent beaucoup de réactions et d’engouement ne soient plus mis en avant ?

M. Anton’Maria Battesti. Dans ce domaine, il faut certainement combiner la technique et l’humain.

La plupart des contenus que vous voyez sont ceux que vous décidez de suivre. Ils proviennent des pages ou des comptes auxquels vous êtes abonnés. Lorsque ce n’est pas le cas, il s’agit souvent de contenus partagés par l’un de vos contacts, c’est-à-dire un ami ou un proche. Je ne sais pas quelle marge de manœuvre nous avons dans ce domaine, mais en effet vous êtes susceptible de voir des contenus partagés par quelqu’un que vous connaissez.

Des évolutions sont intervenues dans les barres de recherche, sur Instagram et Facebook. Après avoir fait l’objet d’une vérification, les fake news ont vu leur visibilité s’effondrer de 90 %.

Les logiques que vous évoquez existent. Je n’ai pas de réponse à vous apporter immédiatement, mais votre question est pertinente et ouvre une réflexion pour l’avenir. Des études permettraient peut-être d’avancer. Nous ne devons pas non plus être trop interventionnistes. Gardons à l’esprit que nous sommes une plateforme d’expression. Les gens viennent pour ça. Néanmoins, nous sommes sortis de l’époque où il n’y avait pas tous ces dispositifs. Il faut continuer à approfondir le sujet.

Mme Laure Miller, rapporteure. Votre réponse est intéressante, mais la question s’adressait surtout à X. J’aimerais d’ailleurs la compléter. S’agissant des contenus de MM. Elon Musk et Donald Trump, leur mise en avant n’est pas le fruit de notre imagination. Des médias ont mis ce phénomène en évidence. Il ne m’a pas semblé que vous le contestiez. En revanche, pouvezvous me confirmer que les utilisateurs doivent indiquer qu’ils ne sont pas intéressés par ces contenus pour qu’ils disparaissent de leur fil ?

Mme Aurore Denimal. Je ne réponds pas à la place de X, mais je voulais compléter ce qu’a dit M. Anton’Maria Battesti.

Ce n’est pas dans notre intérêt de promouvoir des contenus sensibles. Nous avons déjà des outils qui permettent aux utilisateurs de les signaler, d’indiquer les contenus qu’ils ne veulent pas voir, de masquer des mots, etc. Nos ingénieurs ont également développé des outils internes, avec des technologies d’IA, qui permettent de masquer automatiquement les contenus sensibles. Vous avez probablement vu ce type d’écran sur Instagram.

S’agissant des algorithmes de recommandation, les plateformes Meta laissent la possibilité aux utilisateurs de choisir les contenus qui leur sont proposés. Ils peuvent décider de les limiter aux comptes qu’ils suivent ou de les présenter chronologiquement. Ce n’est pas parfait, mais les utilisateurs ont quand même la main sur les contenus qu’ils voient, au moins dans une certaine mesure.

Mme Claire Dilé. Notre algorithme est configuré avec des filtres qui permettent d’exclure les contenus préjudiciables, ceux qui sont potentiellement violents, évidemment ceux qui sont contraires à la loi, etc. Il est entraîné par des outils d’apprentissage automatique, à partir de contenus qui lui sont montrés, afin de reconnaître ces contenus et les contenus similaires. Ce n’est pas complètement infaillible. Ça reste une machine. En tout cas, c’est ainsi que ça doit fonctionner.

Est-ce que nous pouvons faire mieux ? C’est évident et l’IA peut être un moyen d’améliorer la reconnaissance de ce type de contenus.

M. le président Arthur Delaporte. Je suis désolé de vous interrompre, mais la question portait sur une éventuelle mise en avant des contenus politiques de MM. Donald Trump et Elon Musk.

Mme Claire Dilé. J’y viens. Je voulais d’abord répondre à la question de Mme la rapporteure, pour être complète.

Comme je l’ai expliqué, l’algorithme fonctionne à partir de signaux qui montrent l’intérêt des utilisateurs pour certains contenus. Ils amplifient les contenus qui suscitent de l’engagement.

Il n’y a pas de raison pour que les deux comptes que vous avez mentionnés soient particulièrement mis en avant. Par qui le seraient-ils ? En revanche, ces personnes tweetent beaucoup et leurs comptes sont suivis par beaucoup de personnes. Donc, ils suscitent de l’intérêt. Par rapport à d’autres comptes qui ont des millions de followers, ces comptes peuvent d’ailleurs générer moins d’engagement.

Concernant le fait de potentiellement pousser les contenus du président américain, l’algorithme ne prend pas en compte la dimension politique. Il se fonde sur des signaux qui permettent d’identifier ce qui intéresse les gens. Néanmoins, ça reste un gros compte.

M. le président Arthur Delaporte. Connaissez-vous l’étude réalisée par l’université technologique du Queensland ?

Mme Claire Dilé. Cela ne me dit rien.

M. le président Arthur Delaporte. Elle analyse les biais constatés sur X durant les élections de 2024. Elle montre que l’algorithme de la plateforme a été modifié pour augmenter la visibilité des posts de M. Elon Musk à la suite de son soutien à M. Donald Trump.

Mme Claire Dilé. Si la question est de savoir si j’ai connaissance de cette étude, je n’en ai pas connaissance.

S’agissant de l’algorithme de X, une enquête de la Commission européenne est en cours. En tant qu’entreprise, nous collaborons avec elle. Nous travaillons en bonne intelligence avec ses services. S’il y a un souci avec notre algorithme, le DSA donne les moyens à la Commission européenne de le vérifier. Elle a les moyens de s’assurer qu’il n’y a pas de problème avec notre algorithme.

M. le président Arthur Delaporte. Ou de constater qu’il y en a…

Si vous pouvez modifier l’algorithme pour augmenter la visibilité de certains posts, vous pouvez le faire plus largement et agir de manière proactive sur certains contenus, au-delà de la prise en compte de l’engagement.

Mme Claire Dilé. Est-ce une question ?

M. le président Arthur Delaporte. Oui. Si vous pouvez modifier la visibilité de certains posts à caractère politique, vous pouvez le faire de manière plus générale et agir sur l’algorithme pour qu’il ne tienne pas seulement compte de l’engagement des utilisateurs. Est-ce que vous le confirmez ?

Mme Claire Dilé. À ma connaissance, nous ne pouvons pas faire ça.

M. le président Arthur Delaporte. À votre connaissance…

Mme Laure Miller, rapporteure. Pouvez-vous nous décrire comment fonctionne la modération pour chacune de vos plateformes ? Combien avez-vous de modérateurs sur le continent européen ? Sont-ils formés et, le cas échéant, de quelle façon ?

M. le président Arthur Delaporte. Vous pouvez commencer par nous indiquer combien vous avez de modérateurs et comment leur nombre a évolué.

M. Anton’Maria Battesti. À l’échelle globale, le chiffre que je peux vous citer est de 15 000 modérateurs. Les rapports transmis à la Commission européenne dans le cadre du DSA font état d’environ 600 personnes qui travaillent pour le marché français. Nous sommes obligés d’être transparents à ce sujet et c’est très bien. Néanmoins, l’effort en matière de modération doit s’apprécier en prenant également en compte l’IA. Elle joue un rôle énorme dans la modération de plateformes comptant plusieurs centaines de millions d’utilisateurs. C’est un peu comme le pilotage automatique, qui aide les pilotes dans les avions.

Le nombre de modérateurs n’est pas le seul élément important. Ce qui compte, c’est plutôt la combinaison entre la technologie et l’humain.

M. le président Arthur Delaporte. S’agissant du nombre de modérateurs, la tendance est-elle à la hausse ou à la baisse ? Chez TikTok, ces effectifs ont baissé de 20 %. Est-ce également le cas chez Meta ?

M. Anton’Maria Battesti. À ma connaissance, les chiffres sont stables. Il faudrait reprendre les rapports de transparence de ces dernières années, mais ceux que j’ai consultés montrent une certaine stabilité, même une légère hausse.

Mme Aurore Denimal. Selon nos rapports de transparence, le nombre de modérateurs évolue plutôt à la hausse.

M. le président Arthur Delaporte. Malgré les améliorations de l’IA, vous avez quand même recruté des modérateurs…

M. Anton’Maria Battesti. Ce n’est pas incohérent. C’est ceinture et bretelles ! Il faut des humains, parce que l’IA ne peut pas tout faire, et il faut plus d’IA pour ce qu’elle sait faire.

M. Thibault Guiroy. Chez Google, 20 000 personnes effectuent de la modération de contenus. Le dernier rapport remis à la Commission européenne indique qu’un peu plus de 400 personnes sont francophones, pour modérer les contenus français. Ces chiffres sont relativement stables.

Mme Claire Dilé. Dans le dernier rapport de transparence publié dans le cadre du DSA, nous avons indiqué que 1 486 personnes effectuaient de la modération de contenu, dont 63 de langue maternelle française et 73 pour lesquelles le français est la deuxième langue. Ces chiffres n’ont pas évolué depuis les précédents rapports.

M. le président Arthur Delaporte. Nous vérifierons tout ça.

Mme Aurore Denimal. Je peux préciser les chiffres de Meta. Pour la période allant d’avril à septembre 2023, nous disposions de 206 modérateurs. Pour la dernière période qui a fait l’objet d’un rapport, c’est-à-dire la fin de l’année 2024, ils étaient 630. L’évolution est donc importante.

M. Thierry Sother (SOC). Je souhaite revenir sur la modération, pour évoquer un exemple qui a été documenté et repris dans la presse. En février 2023, à l’occasion du Super Bowl aux États-Unis, de nombreux articles de presse ont mentionné que l’algorithme de X avait été modifié dans la nuit pour mettre spécifiquement en avant les contenus du propriétaire de la plateforme. Quatrevingts personnes ont été mobilisées pour rendre ses tweets 1 000 fois plus visibles.

Plus récemment, en janvier, le « 20 heures » d’une chaîne du service public a, dans une rubrique intitulée « L’œil du 20 heures », fait l’expérience de créer un nouveau profil sur X – je suis désolé de cibler cette plateforme. Sans suivre aucun compte et sans avoir d’activité spécifique, les contenus des comptes évoqués tout à l’heure par M. le président étaient particulièrement mis en avant.

Les plateformes ont la capacité d’augmenter la visibilité de certains contenus. Puisqu’elles ont intérêt à offrir l’espace le plus sécurisé possible aux annonceurs, desquels elles tirent leur profit, pourquoi ne modifient-elles pas leur algorithme pour privilégier les contenus les moins toxiques ? J’emprunte ce terme à David Chavalarias, qui est chercheur au Centre national de la recherche scientifique (CNRS) et qui a démontré une forte croissance des contenus toxiques dans le fil des utilisateurs les plus fréquents de X.

Mme Claire Dilé. J’ai lu les mêmes articles que vous concernant le compte du propriétaire de X. Je vous ai expliqué comment fonctionne notre algorithme. À ma connaissance, il n’amplifie pas les contenus de cet utilisateur en particulier. Je ne peux pas vous apporter plus de précisions, parce que je n’en ai pas.

M. le président Arthur Delaporte. Vous n’aviez pas connaissance de biais liés à la modification de l’algorithme, mais vous en avez appris l’existence dans la presse, est-ce exact ?

Mme Claire Dilé. Ce n’est pas exactement ce que j’ai dit. J’ai lu les articles de presse qui évoquent ce sujet, mais à ma connaissance, l’algorithme ne pousse pas certains comptes de manière spécifique, y compris ceux que vous avez mentionnés.

M. le président Arthur Delaporte. Donc, c’est la presse qui se trompe…

Mme Claire Dilé. Je vous fais cette réponse, car j’ai prêté serment au début de cette audition et que je me dois d’être totalement honnête avec vous.

M. le président Arthur Delaporte. Je ne sais pas si vous répondez totalement à la question de M. Sother.

Mme Laure Miller, rapporteure. Pour revenir à la modération, pouvezvous nous indiquer combien de modérateurs sont situés sur le continent européen, en précisant dans quels pays ils se trouvent. Quelle est la part de la sous-traitance ?

M. Anton’Maria Battesti. Je ne dispose pas de tous les chiffres, mais je vous rassure sur le fait que des Français travaillent à la modération chez Meta.

Quand je parle de modération, j’englobe celle qui est effectuée au jour le jour par des gens devant des écrans, mais aussi la supervision et les équipes qui traitent de sujets particulièrement sensibles comme la lutte contre le terrorisme, la protection de l’enfance ou celle des élections. Nous disposons de rapports à ce sujet et je pourrai vous les transmettre.

Aucun modérateur n’est basé à Paris. Ces personnes sont notamment à Dublin. Il est de notoriété publique que nous avons eu un centre de sous-traitance à Barcelone. Le gouvernement français l’avait visité il y a quelques années – en 2019, je crois –, dans le cadre de la mission de régulation des réseaux sociaux dirigée par M. Loutrel. Il n’y a rien de mystérieux. Il faudrait que je recherche des chiffres à jour concernant la sous-traitance. Je ne les ai pas.

En tout cas, il y a bien des Français parmi les modérateurs, même s’ils ne sont pas basés à Paris. À l’heure du numérique, ils peuvent exercer leur métier de n’importe où. Ils restent néanmoins proches géographiquement, rassurez-vous ! J’espère avoir répondu à vos questions.

M. le président Arthur Delaporte. Vos réponses manquent un peu de précision concernant la géographie, mais vous nous transmettrez ces informations.

Mme Claire Dilé. Nous avons des modérateurs partout dans le monde, parce que la modération doit être effectuée en temps réel, au moment où les violations potentielles des règles de la plateforme surviennent. Je ne connais pas la localisation précise de ces équipes dans l’Union européenne, mais je pourrai vous communiquer ces informations par écrit. Je n’avais pas particulièrement préparé cette question.

M. le président Arthur Delaporte. Elle figurait pourtant dans le questionnaire que nous vous avions transmis.

M. Thibault Guiroy. Je ne connais pas la répartition des modérateurs au sein de l’Union européenne.

Nous disposons d’un très grand centre de sécurité à Dublin. Ce n’est pas un secret, puisque la ministre chargée de l’IA et du numérique, Clara Chappaz, s’y est rendue il y a quelques semaines.

S’agissant de la localisation de nos personnels, il est important de préserver leur sécurité. Par conséquent, il est préférable de ne pas être extrêmement précis à ce sujet, sauf dans nos réponses à vos services ou à la Commission européenne.

Nous disposons également d’un bureau de renseignement. Des équipes interviennent en amont de la modération pour analyser ce qui se passe sur l’intégralité du web, dont les plateformes, les messageries privées, etc. Elles essayent d’anticiper les menaces qui peuvent ensuite toucher d’autres plateformes. Ces équipes sont francophones et connaissent parfaitement le contexte local. Elles sont en mesure de réagir très rapidement lorsqu’un incident survient, comme nous avons malheureusement pu le vérifier au cours des dernières semaines.

Nous avons donc 402 modérateurs francophones dans l’Union européenne, selon les derniers rapports que nous avons soumis à la Commission européenne. Je ne connais pas la part de sous-traitance, mais je vais me renseigner et je transmettrai cette information à vos services.

M. le président Arthur Delaporte. Les réseaux exposent les mineurs à des scènes choquantes ou à des propos choquants. La qualité de la modération constitue donc un enjeu majeur. La localisation des équipes peut être importante, car elle influe sur leur connaissance du contexte. C’est également un élément de comparaison entre les différentes plateformes.

Pouvez-vous nous expliquer pourquoi X ne dispose que de 1 000 modérateurs ? Avezvous vingt fois moins de modérateurs que les autres parce que votre algorithme de modération est vingt fois plus efficace ? Êtes-vous vingt fois moins performants qu’eux ?

Mme Claire Dilé. Non, ce n’est pas lié à ça. Tout d’abord, nous sommes une plus petite entreprise. Nous n’avons que 11 millions de comptes en France. Vous allez me dire que ce n’est pas le même ratio…

M. le président Arthur Delaporte. Vous avez deux fois moins de comptes que d’autres, mais vous avez dix fois moins de modérateurs.

Mme Claire Dilé. La modération est évidemment une question de personne, mais nous utilisons également des algorithmes pour détecter certains contenus. En matière d’exploitation sexuelle des enfants, de terrorisme ou de discours violent par exemple, le traitement est automatisé. Les modérateurs interviennent plutôt après des signalements. Ils traitent les contenus spécifiques, qui nécessitent de comprendre le contexte.

Regardez les temps de réponse qui sont mentionnés dans nos rapports de transparence. Ils sont relativement courts.

L’efficacité de notre modération est liée à la manière dont nous gérons les volumes. Audelà du nombre de personnes, nous souhaitons disposer d’équipes internes et de centres d’excellence, dans lesquels les employés sont mieux formés et comprennent mieux les enjeux et les subtilités des règles. Je comprends votre question sur le nombre de personnes, mais la situation doit être appréciée de manière globale, en tenant compte de la formation, des outils technologiques, etc.

M. le président Arthur Delaporte. Vous avez raison. C’est la raison pour laquelle la localisation des modérateurs est également un élément important pour nous.

Chez YouTube, considérez-vous que la performance de la modération soit liée au nombre de modérateurs ?

M. Thibault Guiroy. Nous utilisons un mélange d’intelligence artificielle et de revue humaine.

Nous retirons 8 à 9 millions de vidéos par trimestre dans le monde et, ce qui est assez peu, environ 65 000 par trimestre en France. Dans 95 % des cas, ces contenus ont d’abord été signalés par l’intelligence artificielle, mais une intervention humaine peut être nécessaire. Ce coût est incompressible, notamment lorsqu’il faut comprendre le contexte. Une machine n’est pas en mesure de le faire, en tout cas pour le moment. Si vous prenez l’exemple d’une vidéo réalisée dans une zone de guerre, elle ne saura pas dire si la vidéo relève de l’apologie du terrorisme ou d’un témoignage journalistique, si elle est extraite d’un documentaire, etc.

Nous nous appuyons énormément sur l’intelligence artificielle, mais nous avons aussi besoin de modérateurs humains.

Par ailleurs, le règlement sur les services numériques nous oblige – nous le faisions déjà chez YouTube – à donner aux utilisateurs la possibilité de faire appel de la décision lorsqu’un de leurs contenus est supprimé de la plateforme. Ce sont des cas où nous avons besoin de modérateurs humains. En outre, la personne qui traite l’appel doit être différente de celle qui a pris la première décision.

Mme Aurore Denimal. Je ne l’avais pas mentionné, car il ne s’agit pas vraiment d’un modérateur, mais nous avons quelqu’un à Paris qui répond notamment aux réquisitions judiciaires et qui traite les cas extrêmement graves de pédopornographie, sextorsion, suicide ou conduite terroriste avec un risque imminent. Cette personne connaît parfaitement le contexte franco-français et peut répondre à ces urgences.

Comme YouTube, Meta permet aux utilisateurs de faire appel des décisions, à plusieurs niveaux. Ce sont des modérateurs humains qui interviennent, et pas seulement une machine. Nous avons également un conseil de surveillance pour revoir certains contenus. Nous pourrons y revenir, si le sujet vous intéresse.

M. le président Arthur Delaporte. Voulez-vous ajouter quelque chose, madame Dilé ?

Mme Claire Dilé. Non, pas particulièrement. J’ai dit tout ce que j’avais à dire.

Mme Laure Miller, rapporteure. J’ai l’impression que vous êtes surpris par le niveau de détail que nous attendons dans vos réponses. Nous avons eu ce même sentiment lors de l’audition des représentants de TikTok. Malgré le questionnaire qui vous a été remis au préalable, vous ne semblez pas maîtriser – au moins certains d’entre vous – toutes les données relatives à la modération. Or cette dernière occupe une place centrale dans nos travaux, car de nombreux contenus problématiques subsistent sur les différentes plateformes.

Quelle est, pour chacune de vos plateformes, la stratégie en matière de modération ? Repose-t-elle sur de grandes lignes directrices ? Le cas échéant, qui les fixe ? Comment sont-elles déclinées par les modérateurs qui sont derrière leur ordinateur ?

En moyenne, combien de contenus sont modérés par chaque modérateur ?

M. Anton’Maria Battesti. Nous essayons d’être le plus précis possible. Nous vous transmettrons les éléments qui pourraient manquer, mais essayons d’avancer dès aujourd’hui.

Je ne connais pas la part de sous-traitants parmi les 15 000 personnes que j’évoquais. Néanmoins, tous les modérateurs appliquent les mêmes règles et reçoivent le même entraînement. Ce qui compte, c’est que les règles s’appliquent.

S’agissant des règles, les standards de la communauté sont publics. Leurs évolutions peuvent également être consultées. Ils fixent de manière très détaillée ce qu’il est possible de faire et de ne pas faire sur la plateforme. Je ne vais pas vous les lire, parce qu’il faudrait un certain temps, mais ces règles existent. Il est vraiment important que nos utilisateurs les connaissent et les respectent.

Nous nous appuyons sur des professionnels qui viennent de tous les horizons, qui ont toutes les nationalités et qui pratiquent toutes les langues. C’est une équipe internationale. Nos utilisateurs se trouvent à 80 % en dehors des ÉtatsUnis d’Amérique. Nous devons en tenir compte. Tout le monde n’est pas là-bas ou dans l’Union européenne. Ces professionnels ont des expériences variées, notamment dans le domaine juridique. Certains ont travaillé pour la justice. Nous avons également des avocats.

Le processus de modération nous amène à effectuer beaucoup de consultations sur le terrain. Nous travaillons avec des associations, des ONG ou des experts de certains sujets. Pour vous citer un exemple, le déni de l’holocauste, donc le négationnisme, était auparavant soumis à la loi locale. Quoi qu’on en pense, il n’est pas illégal dans tous les pays. Nous l’avons toutefois intégré dans les règles de l’entreprise – les standards de la communauté – et il est désormais interdit partout. Nous avons pris cette décision, car beaucoup de parties prenantes nous le demandaient. Elles considéraient qu’autoriser ce type de contenus était inacceptable.

Nos règles ont beaucoup évolué. L’important est de le faire de manière transparente. Il faut que ce soit connu et auditable.

Pour ce qui est des chiffres, je ne veux pas être trop long, parce que tout est accessible en ligne. Vous trouverez la part de contenus qui est modérée par l’humain et celle qui fait l’objet d’une détection proactive, c’est-à-dire par la machine. Les contenus terroristes sont identifiés à 99 % par la machine et il y a d’autres domaines dans lesquels elle est assez efficiente. La prévalence des contenus problématiques, c’est-à-dire la part qu’ils représentent pour 10 000 contenus postés par exemple, est une autre donnée disponible. Tout ça est intéressant pour évaluer l’efficacité de nos dispositifs.

On a parfois l’impression que tout est négatif, mais est-ce vrai, est-ce mesurable ? Nous avons fait d’énormes progrès. La réglementation a joué un rôle, mais la notion de transparence est vraiment essentielle. La modération ne doit pas être une boîte noire. Les questions que vous nous posez le sont depuis un certain nombre d’années. Ce qui a changé depuis le DSA, c’est que j’ai beaucoup plus de choses à dire et à montrer. Il y a cinq, six ou sept ans, nous communiquions moins. Nos chiffres étaient moins précis. Nous pouvons collectivement nous féliciter de ces évolutions.

Nous ne voulons pas vous inonder de chiffres aujourd’hui, mais nous veillerons à ce que vous ayez toutes les données qui vous intéressent.

Mme Claire Dilé. Nos règles communautaires reposent sur trois piliers : la vie privée, la sécurité et l’authenticité. Elles sont publiques et accessibles à tous. Nous rendons également publique la façon dont nous appliquons ces règles, c’està-dire les différentes sanctions appliquées en fonction des différents types d’infractions.

Ces règles ont été progressivement consolidées, en fonction des violations qui étaient observées sur la plateforme et de l’évolution des usages. Par exemple, nous avons constaté qu’en ce moment, certains utilisateurs malveillants utilisaient un mot de manière détournée, avec l’intention de nuire. Nous travaillons avec des partenaires associatifs et des signaleurs de confiance, que nous n’avons pas encore évoqués, pour détecter et gérer ces pratiques.

Après les événements du 7 octobre 2023, nous avons observé une montée de l’antisémitisme en Europe. En réaction, nous avons fait évoluer les règles encadrant le traitement de ce sujet sur la plateforme, pour intégrer les nouveaux termes et les nouveaux usages que nous avons malheureusement vus apparaître. Nous avons modifié nos outils de formation en interne et nous les avons envoyés à des modérateurs contractuels pour qu’ils en prennent connaissance. C’est l’une des raisons pour laquelle nous souhaitons renforcer nos équipes en interne. Cela nous permettra de mieux les former à l’application de nos règles.

La modération est effectuée par rapport à nos règles communautaires, mais nous avons également des personnes en interne qui s’assurent du respect de la loi et du retrait des contenus illégaux. Ils connaissent les lois françaises, les lois en Europe ou dans d’autres juridictions.

M. Thibault Guiroy. Chez YouTube, nous avons également deux grilles de lecture – le droit français et nos conditions d’utilisation – pour retirer des contenus. Les différences entre les deux sont ténues, ce dont nous pouvons nous féliciter. Généralement, ce qui contrevient au droit français contrevient également à nos conditions d’utilisation.

Comme X et Meta, nous avons besoin de flexibilité et nous faisons évoluer nos politiques de retrait de contenus très fréquemment. L’exemple le plus marquant est la période de la pandémie de covid. D’un jour à l’autre, les injonctions, y compris du corps médical, étaient totalement contradictoires, notamment concernant la prise d’hydroxychloroquine. Nous avions besoin d’un avis sur certains contenus, pour les retirer le plus rapidement possible après signalement. Nous nouons donc des partenariats avec l’écosystème externe, avec les signaleurs de confiance ou avec l’Organisation mondiale de la santé. Une équipe de YouTube est d’ailleurs spécialisée dans le domaine de la santé.

Donc, nous faisons évoluer nos politiques de retrait très régulièrement, pour tenir compte des événements internationaux, comme les conflits qui se déroulent actuellement. Nous avons par ailleurs mesuré l’efficacité de notre modération et je peux vous citer quelques chiffres. On évalue le taux de succès de la modération en calculant un taux de vues non conformes. Ce système est probablement assez proche de celui de Meta. Au premier trimestre 2025, notre taux de vues non conformes était de 0,1 %. Cela signifie que pour 10 000 vues de contenus sur YouTube, seulement dix concernaient des contenus qui ont ensuite été retirés en raison de leur non-conformité à nos conditions d’utilisation. Un autre indicateur que nous suivons est le nombre de vues générées par un contenu avant qu’il soit supprimé. Or 80 % des vidéos sont retirées avant d’avoir généré dix vues et 55 % le sont avant d’avoir généré une seule vue.

La séance est suspendue de quinze heures trente-cinq à quinze heures cinquante.

Mme Laure Miller, rapporteure. Nous avons auditionné des jeunes, victimes des réseaux sociaux. Outre leurs témoignages relatifs à TikTok, l’un d’entre eux a fait part de son sentiment d’avoir été submergé par des contenus prônant l’automutilation et la scarification sur Instagram. Lorsque nous l’avons rencontré, il allait mieux, mais il lui a été difficile de s’en sortir. L’automutilation et la promotion du suicide ne sont pas des sujets nouveaux et je sais que vous vous en êtes saisis. Comment parvenez-vous à modérer ces contenus, alors qu’il faut parfois utiliser des hashtags ou des mots détournés pour les faire apparaître ? Avez-vous fait évoluer votre modération ?

M. Anton’Maria Battesti. Il serait intéressant de savoir à quelle époque ce jeune a vécu ces choses terribles. Nous ne pouvons que reconnaître que, dans ce cas, quelque chose ne va pas. Nous faisons de notre mieux et nous devons faire plus que notre mieux. Notre travail consiste certes à expliquer ce qui fonctionne, mais aussi à reconnaître quand cela ne va pas.

Une fois qu’on a dit cela, que fait-on ? La logique des comptes « Ado » vise notamment à traiter la question des contenus, mais aussi le temps passé ou les contacts. L’objectif est que les adolescents ne soient plus exposés à des contenus problématiques, tels que ceux promouvant la chirurgie esthétique, la violence, la mutilation, etc. Les contenus auxquels ils sont exposés doivent être adaptés à leur âge. Ce n’est pas encore le cas à 100 %, mais nous devons viser ces 100 %.

Le DSA est très exigeant dans le domaine de la protection des mineurs, comme nous le sommes tous, que nous soyons parents ou non. Les comptes « Ado » sont l’expression pratique de l’idée qu’il faut offrir un cadre adapté à ces publics. Toutes les personnes éligibles au compte « Ado » et inscrits sur la plateforme ont un compte « Ado ». Nous vous enverrons des détails sur leur fonctionnement.

Mme Aurore Denimal. Les contenus sensibles faisant l’objet de restrictions portent nomment sur le suicide, l’automutilation ou encore la chirurgie esthétique.

En outre, couplée aux comptes « Ado », la supervision parentale permet aux parents de se co-saisir du sujet – avec les plateformes, qui sont évidemment actrices en la matière. Les parents peuvent voir les comptes que leurs enfants suivent et les sujets qui les intéressent, afin d’engager des discussions avec eux. Encore une fois, la supervision parentale ne se substitue pas au rôle des plateformes et à notre obligation de restreindre la visibilité de ces contenus. C’est simplement un outil supplémentaire.

M. Anton’Maria Battesti. Nos partenaires comme e-Enfance ou Point de contact nous alertent sur l’émergence des nouvelles pratiques. Nous l’avons vu dans d’autres domaines, comme l’antisémitisme ou les discours de haine, certains mots peuvent être détournés. Je salue leur travail, parce que sans eux, nous ne parviendrions pas à détecter certaines tendances. Avec les signaleurs de confiance, le 3018 et les mesures instaurées par e-Enfance ou Génération numérique pour l’éducation numérique, il existe un écosystème français remarquable.

Mme Claire Dilé. Il faut distinguer l’exposition à des contenus qui promeuvent le suicide ou l’automutilation et appellent une modération, de la protection des utilisateurs qui ont ce type de comportement sur la plateforme. Ces deux volets sont aussi importants l’un que l’autre.

Quand des utilisateurs recherchent du contenu en utilisant des mots liés au suicide ou à l’automutilation, ils sont renvoyés vers notre partenaire SOS Amitié, dont la hot-line peut leur apporter de l’aide et du soutien.

Cette protection fait aussi partie du mandat de la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements, Pharos, avec laquelle nous coopérons en France. Pharos a d’ailleurs déjà contacté le réseau – la plateforme a mon numéro de téléphone personnel, entre autres – parce qu’un utilisateur avait posté un contenu non pas illégal, mais laissant entendre qu’il pourrait attenter à ses jours ou mettre sa vie en danger. Le cas échéant, nous fournissons les données utilisateurs à la plateforme, pour qu’elle puisse remonter jusqu’à eux, afin de les protéger.

Mme Laure Miller, rapporteure. Si je tape « scarification », je serai orientée vers une plateforme de type SOS Amitié ou autre. Mais que se passeratil si j’utilise un mot détourné ou mal orthographié, par exemple « sc4rification » ? Parvenez-vous à adapter le système de protection aux mots-clés détournés, notamment par le jeune public ?

M. Anton’Maria Battesti. Oui. Nous pourrions faire le test, mais j’imagine que vous n’avez pas de compte « Ado ».

M. le président Arthur Delaporte. Ces mots détournés peuvent aussi être utilisés par des majeurs.

M. Anton’Maria Battesti. Les variantes de lettres sont prises en compte. Cela étant, les jeunes ont beaucoup d’imagination. Nos partenaires sont essentiels dans ces domaines.

Mme Aurore Denimal. De nombreux mots détournés nous sont communiqués par e-Enfance. M. Sother évoquait tout à l’heure le reportage diffusé dans « L’œil du 20 heures » de France 2, qui traitait de la pédopornographie. Nous travaillons avec les signaleurs de confiance, notamment pour identifier les nouvelles orthographes.

M. Thibault Guiroy. Les contenus incitant au suicide, à l’automutilation ou aux troubles alimentaires, destinés à choquer ou à susciter du dégoût, ou présentant un risque élevé pour les spectateurs, ne sont pas autorisés sur la plateforme YouTube.

Par ailleurs, nous utilisons des fenêtres interstitielles entre les requêtes en relation avec l’automutilation, le suicide ou les troubles alimentaires et les résultats de recherche. Nos équipes de YouTube Santé travaillent en lien avec des établissements de santé en France et des partenaires comme le 3114, numéro national de prévention du suicide, ou la Fédération française anorexie boulimie, dont le rôle consiste à mieux mettre en valeur des contenus qui font autorité, pour de telles requêtes.

M. le président Arthur Delaporte. Nous avons reçu des influenceurs santé.

M. Thibault Guiroy. Le Conseil national de l’Ordre des médecins effectue un important travail de cadrage. Nous l’avons aidé à élaborer une charte du médecin créateur de contenu responsable.

Sur YouTube, si vous tapez certains mots-clés relatifs aux sujets dont nous venons de parler, vous ne verrez pas les résultats de recherche s’afficher, mais une page qui vous redirigera soit vers le 3114, soit vers la Fédération française anorexie boulimie, et qui vous demandera si vous souhaitez malgré tout accéder aux pages des résultats de recherche.

Nos équipes de YouTube Santé essaient aussi de développer le contenu relatif à la préservation de la santé mentale. Nous évaluons à environ 35 000 les contenus relatifs à la santé mentale pour la France. Ils totalisent 180 millions de vues. Ce n’est pas anecdotique et nous entendons accélérer dans ce domaine. Ces données chiffrées sont disponibles sur le site de l’organisation YouTube Health.

M. le président Arthur Delaporte. J’ai tapé #Skinny sur X, et je suis tombé, parmi les premiers résultats, sur un contenu « I’ll be soon skinny », dans lequel une personne mesure l’épaisseur de son ventre avec une carte bancaire, et qui comptabilise près de 50 000 vues, 4 000 likes et 200 retweets. D’autres personnes montrent un ventre un peu plus épais, mais des traces de scarification.

J’ai fait l’exercice sur X, mais nous avons reçu des signalements similaires concernant des reels sur Instagram, notamment autour de la communauté de l’influenceuse Ophenya. Nous pourrons vous montrer des captures d’écran. Certains reels montrent des scarifications récurrentes, ou des contenus du type « Rechutez en silence » avec des marques de sang sur des mouchoirs. En général, ce sont des jeunes, voire des très jeunes qui suivent cette influenceuse, laquelle gagne beaucoup d’argent avec des personnes dont le mal-être est certain.

Comment modérez-vous ces contenus visuels, a priori ou dès leur publication ?

Ces contenus existent et sont assez choquants, même s’il est écrit « C’est juste une petite entaille ». Je vous les montrerai, nous n’allons pas les diffuser à l’écran. Je précise toutefois que, sur Instagram, on tombe plus souvent que sur TikTok sur des zèbres plutôt que sur des scarifications, avec la requête « zèbre ».

Mme Aurore Denimal. Nous sommes preneurs de ces contenus. S’ils peuvent nous être remontés par les signaleurs de confiance, c’est un excellent levier pour agir plus rapidement.

M. le président Arthur Delaporte. Comment expliquez-vous qu’ils passent entre les mailles du filet ? Avez-vous des dispositifs spécifiques de détection ?

M. Anton’Maria Battesti. La question est de savoir si les mineurs voient ces contenus.

M. le président Arthur Delaporte. En l’occurrence, ce sont des mineurs.

M. Anton’Maria Battesti. Les voient-ils ou les publient-ils ?

M. le président Arthur Delaporte. Les deux.

M. Anton’Maria Battesti. Il y a donc effectivement un problème.

M. le président Arthur Delaporte. TikTok est particulièrement concerné, mais l’intérêt de cette audition est de montrer que ces problèmes ne sont pas isolés et s’observent partout.

Sur YouTube, nous n’avons pas nécessairement observé ces contenus spécifiques, mais d’autres types de contenus n’en sont pas moins problématiques. Nous parlions tout à l’heure de la désinformation en santé. Lors d’une rencontre organisée par YouTube au sujet de la charte de l’Ordre des médecins, le compte de M. Casasnovas avait été pointé. Celui-ci, qui compte 2 millions d’abonnés, fait la promotion du crudivorisme et de pratiques qui ne sont pas sans danger.

Comment mieux réguler ce domaine ? Avez-vous des suggestions d’amélioration de la base légale ? Notre rôle étant de faire évoluer le droit, elles nous intéressent.

M. Thibault Guiroy. Nous ne disposons pas de base nous permettant d’agir concernant les contenus que vous avez mentionnés, que ce soit en vertu du droit ou de nos conditions d’utilisation. C’est d’autant plus regrettable que la personne que vous citez a fait l’objet de dizaines de signalements à la Miviludes, la mission interministérielle de vigilance et de lutte contre les dérives sectaires, avec laquelle nous travaillons.

M. le président Arthur Delaporte. Cette personne a-t-elle fait l’objet d’une condamnation judiciaire ?

M. Thibault Guiroy. Je l’ignore. Le cas échéant, c’était une condamnation pour exercice illégal de la médecine, pas pour ses propos. Peut-être y a-t-il un vide juridique à combler.

En tout cas, soyez rassurés, nous travaillons avec les autorités et nous essayons d’échanger le maximum d’informations au sujet de créateurs problématiques. Mais nous n’avons pas de base sur laquelle nous appuyer.

De fait, le règlement sur les services numériques nous oblige à engager des actions en vertu de critères précis – le droit local ou nos conditions d’utilisation. En l’absence de base juridique, nous risquons d’être poursuivis par les personnes contre lesquelles nous engageons une action. Cela arrive d’ailleurs assez régulièrement. Il existe des contenus que nous ne voulons pas voir sur la plateforme, mais en l’état actuel du droit, il est compliqué de s’appuyer sur une base juridique solide pour empêcher leur publication.

Mme Laure Miller, rapporteure. Avez-vous besoin que le droit soit plus clair pour vous permettre de retirer les contenus relevant de zones dites grises, comme les sujets que nous venons d’évoquer ou encore le sexisme ou le masculinisme ? Ne pourriez-vous pas durcir vos conditions d’utilisation et votre règlement interne ? Seriez-vous poursuivis par les créateurs de contenus dès lors que le droit n’interdit pas certains propos ?

M. Thibault Guiroy. Le fait que certains créateurs de contenu ne soient pas condamnés par un tribunal pour leurs propos pose problème. S’il existait de telles condamnations, il serait plus simple pour nous d’engager des actions visàvis de ces contenus.

S’agissant des propos sexistes ou misogynes, nous avons demandé une analyse à un avocat spécialisé en droit de la presse – nous sommes très diligents, dès que nous recevons des signalements. Cet avocat nous a transmis son analyse, d’une dizaine de pages, qui explique pourquoi ces contenus ne violent pas la législation française en l’état actuel du droit. C’est un problème. Ces contenus peuvent être considérés comme choquants ou nauséabonds, mais en l’état actuel du droit, ils ne franchissent pas la ligne.

Par ailleurs, si des propos et des comportements potentiellement choquants ne sont pas réprimés par le législateur, car il ne l’a pas jugé utile, il est compliqué de le faire par le biais de nos conditions d’utilisation. Toutefois, celles-ci ont vocation à évoluer. Ainsi, si le droit français réprimait certains propos, elles pourraient évoluer.

M. le président Arthur Delaporte. Dans les conditions générales d’utilisation de YouTube, je lis : « Nous n’autorisons pas les contenus qui incitent à la violence ou à la haine envers certains individus ou groupes d’individus en fonction des caractéristiques suivantes : sexe […]. » Globalement, nous retrouvons de telles clauses dans toutes les conditions générales d’utilisation.

Pourquoi ne pouvez-vous pas être mieux-disants que le droit en vigueur ? Ne pouvez-vous pas exercer une part de libre arbitre et fixer des conditions générales plus protectrices que les règles qui régissent l’espace social ?

M. Thibault Guiroy. La mise en balance entre liberté d’expression et suppression de contenus potentiellement choquants est toujours délicate. Je pourrai vous faire parvenir, à titre confidentiel, l’analyse de l’avocat. Elle est très précise.

Les jurisprudences relatives à la liberté d’expression sont claires, dans l’Union européenne, y compris quand elles concernent des contenus choquants. On peut s’en féliciter, parfois. Ces décisions ont permis que des journaux satiriques continuent à exercer librement leur activité dans notre pays.

Si le droit doit évoluer, il n’y a pas de raison que nos conditions générales d’utilisation n’évoluent pas.

Mme Laure Miller, rapporteure. Qu’en est-il pour Meta et X ? Pourquoi ne fixez-vous pas de conditions générales d’utilisation plus vertueuses que le droit ? Vous pourriez, par exemple, demander à vos utilisateurs de ne pas tenir de propos sexistes. Vous pourriez être mieux-disants.

M. Anton’Maria Battesti. Il faut distinguer l’intention de l’impact. L’intention, on peut la partager. Il ne faut pas toujours tenir le DSA pour intouchable. Il a le mérite de créer un cadre général, selon lequel les plateformes doivent instaurer des moyens de modération et expliquer comment ils fonctionnent. Dans la pratique quotidienne, les mêmes questions se posent, État membre par État membre, situation par situation, cas particulier par cas particulier. Nous avons parfois été mieux-disants. Par exemple, le déni de l’Holocauste est désormais modéré y compris dans des pays où ces propos sont autorisés au titre de la liberté d’expression.

On peut faire évoluer nos conditions d’utilisation, mais on ne devrait pas nous laisser en décider seuls. Il faut un minimum de consensus entre toutes les parties prenantes, dont l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) et vous. Sinon, nous pourrions prendre des décisions qui ne seraient pas les bonnes, mais aussi être critiqués et notre légitimité pourrait être remise en cause. C’est un débat auquel nous sommes confrontés au quotidien.

La régulation existe. On ne peut pas faire sans. Ce cadre est précis et a été spécifiquement créé pour nous. Mais, dans la pratique quotidienne, il faut des engagements multiacteurs. L’Observatoire de la haine en ligne, qui a été créé par la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet dite loi Avia et est rattaché à l’Arcom, doit vivre. Le groupe de contact permanent du ministère de l’intérieur n’a pas été réuni depuis plusieurs mois. Il avait été créé pour réunir les plateformes et l’État afin de parler de ces questions  pas seulement du terrorisme.

J’entends vos préoccupations, mais nous n’avons pas vocation à décider seuls de ce que nous pouvons dire ou ne pas dire. Vous nous donnez un pouvoir, mais nous pourrions être critiqués, si nous l’exercions.

Ce n’est pas une manière de nous cacher pour ne rien faire, mais notre message est qu’il faut maintenir une approche multiacteurs. Nous avons signé la charte alimentaire de l’Arcom. Nous réfléchissons aussi à la façon d’être plus vertueux et d’aller plus loin dans ce domaine avec l’Autorité de régulation professionnelle de la publicité (ARPP). Ce processus présente l’avantage de réunir des instances, des autorités publiques et des entreprises, pour avancer ensemble.

J’entends vos intentions. Mais quand la plateforme décide seule, il arrive qu’on s’en plaigne.

Il y a certes, tout là-haut à Bruxelles, le DSA qui existe et que nous devons appliquer. Mais il faut réfléchir à la façon de l’appliquer au quotidien, à l’échelle de notre pays, dans le cadre de notre consensus démocratique et social sur ce qui est acceptable, y compris pour des cas nouveaux.

Je ne suis peut-être pas assez clair, mais je pense qu’on ne doit pas décider seul, même avec les meilleures intentions du monde. Ce n’est pas facile à entendre, parfois.

M. le président Arthur Delaporte. C’est même difficile à entendre.

M. Anton’Maria Battesti. Je m’attendais à votre réaction.

M. le président Arthur Delaporte. Pourquoi avez-vous une politique proactive en matière de nudité, mais pas concernant le sexisme ? N’est-il pas presque plus choquant d’entendre un homme qui appelle à battre les femmes que de voir un bout de téton ?

M. Anton’Maria Battesti. Soyons clairs. Nous parlons ici de mineurs. Une politique stricte, voire très stricte au sujet de la nudité empêche les mineurs de consulter des images à caractère pornographique, ou permet de bloquer les contenus publiés dans le cadre du revenge porn. J’assume pleinement une politique de nudité hyperstricte. Certains la qualifient de puritaine, mais elle a le mérite d’être efficace.

Par ailleurs, les propos incitant à taper ou à attaquer une personne doivent être modérés. On ne parle pas de sexisme du café du commerce, mais de propos qui incitent à la violence. Si nous ne les modérons pas, nous avons des comptes à rendre. Je n’ai pas de désaccord de principe en la matière, heureusement d’ailleurs.

M. le président Arthur Delaporte. C’est au cœur de la question. Vous dites que vous ne pouvez pas être plus durs que le droit, pour respecter la liberté d’expression. Mais la publication d’une image est, en soi, une expression.

Vous censurez une image avec de la nudité, alors que rien, dans le droit, n’interdit de montrer des personnes nues. Vous avez amélioré votre politique, car fut un temps, les photographies de statues grecques étaient censurées sur Meta. Pour autant, certaines personnes que nous avons auditionnées nous ont indiqué que leur contenu avait été bloqué alors qu’elles étaient en tenue de sport.

Nous avons l’impression qu’il existe deux poids, deux mesures.

M. Anton’Maria Battesti. Il est possible de faire appel, car il arrive que nous fassions des erreurs de modération. Cette possibilité est prévue par la réglementation. Une personne qui a fait l’objet d’une surmodération peut faire appel – heureusement – et, normalement, son contenu doit être rétabli.

Par ailleurs, nous ne parlons pas seulement de nudité topless façon émission « Le grand cabaret ». Parfois, nous parlons de nudité que les mineurs ne doivent pas regarder.

M. le président Arthur Delaporte. Nous sommes d’accord avec vous, le contenu pornographique ne doit pas être accessible aux mineurs.

M. Anton’Maria Battesti. C’est le prix à payer.

M. le président Arthur Delaporte. Mais cela signifie que vous tolérez moins le contenu pornographique – qu’on ne vous demande d’ailleurs pas de le tolérer – que du contenu sexiste jugé conforme à la liberté d’expression. Cela ne pose-t-il pas problème, quand on étudie les effets possibles sur des personnes vulnérables, comme les mineurs ? Quand des influenceurs promeuvent des normes de genre inégalitaires, c’est contraire à la devise républicaine.

M. Anton’Maria Battesti. Premièrement, il faut condamner ces propos. Deuxièmement, certains contenus peuvent être de l’ordre du sexisme du café du commerce, que l’on entend à la télévision, par exemple dans l’émission « Frenchie Shore » sur Paramount+. Ces propos peuvent choquer et sont visibles par des mineurs. Malheureusement, le sexisme existe partout et en tout lieu. Il existe donc aussi sur les réseaux sociaux, car il n’existe pas de loi le condamnant urbi et orbi.

Cela étant, les règles doivent se focaliser sur les attaques et sur les appels à la violence, qui vont bien au-delà de ce que l’on peut appeler – cela peut vous choquer – un sexisme du café du commerce. Ces appels à la violence portent atteinte à la sécurité des personnes. Dans ce cas, il est évident que les règles doivent s’appliquer, sinon, nous aurons des comptes à rendre.

Je vous alerte sur le fait que nous n’éradiquerons pas à nous seuls le sujet du sexisme. Il faudrait d’ailleurs déjà le définir. Parfois, on ne parle pas d’appel à la violence, mais de sexisme « d’atmosphère », si je puis dire. Il faudrait le définir et réfléchir à la façon d’agir concernant ces contenus. Pourquoi cette question concerne-t-elle seulement les réseaux sociaux, alors que ces contenus sont librement accessibles par le grand public sur d’autres supports numériques ? Il faut avoir une réflexion à 360 degrés.

Mme Laure Miller, rapporteure. Nous avons le sentiment que vous parvenez à appliquer un principe de précaution s’agissant de la nudité, mais que vous décidez de ne pas le faire pour d’autres formes de contenus problématiques.

M. Anton’Maria Battesti. Il est difficile de censurer une parole a priori. Les gens s’expriment sur une plateforme et, si leurs propos tombent sous le coup de la loi ou des règles de la plateforme, ils sont censurés a posteriori. C’est la règle générale en matière d’expression, si j’ai bien compris le droit applicable. Il est donc difficile de prendre des décisions urbi et orbi, par exemple celle de supprimer le sexisme – sous réserve que cette notion soit précisément définie –, alors qu’il prospère partout dans la société.

Ce pourrait être un choix, mais ce n’est pas un choix que nous devrions prendre seuls. J’invite toutes les parties prenantes à avancer ensemble, plutôt que de nous laisser la responsabilité de la définition de ce qui est attendu et du type de contenu que vous souhaitez que l’on retire. Les choses peuvent évoluer, mais soyons bien au clair sur la méthode.

Mme Laure Miller, rapporteure. J’ai du mal à comprendre l’argument selon lequel il faut avancer groupé et personne ne doit prendre de décision avant les autres. Vous êtes des entreprises privées et nous sommes dans une économie de marché. Vous pourriez considérer le fait d’adopter des pratiques plus vertueuses que les autres comme un avantage concurrentiel. Vous pourriez fonder davantage que d’autres la modération sur le principe de précaution. Cela rendrait peut-être Meta plus attractive que les autres plateformes.

M. Anton’Maria Battesti. Le paradoxe est que vous confiez à une entreprise privée une privatisation complète de la liberté d’expression, qui ne va pas totalement dans le sens de ce qu’a voulu le législateur ces dernières années, puisqu’il nous demande de rendre des comptes en cas d’absence de modération, mais aussi en cas de surmodération.

L’avis du Conseil constitutionnel au sujet de la loi Avia était frappant. Il a considéré comme inconstitutionnel de laisser les plateformes décider en vingt-quatre heures de ce qui est légal ou non, constitutionnel ou non – pas de chance ! Le DSA pose aussi des jalons.

On ne souhaite pas aller vers un système d’utraprivatisation de la liberté d’expression. J’invite à plutôt aller vers une logique multiacteurs. Je ne dis pas que la question posée n’est pas pertinente au fond, bien au contraire. Elle est éminemment importante. Simplement, il faut être clair quant à la manière de décider de retirer du contenu ou des comptes, même si nous ne les apprécions pas.

Mme Claire Dilé. Je suis sensible à votre question. C’est l’un de nos sujets de réflexion permanente, en matière de modération. C’est toujours une question d’équilibre.

S’agissant du sexisme, sur X nous interdisons la conduite haineuse envers des catégories protégées, parmi lesquelles le genre et l’orientation sexuelle. Mais, selon les contenus, il est plus ou moins facile de déterminer s’il s’agit d’attaques. La difficulté vient de là.

Nous pouvons aller plus loin que ce que reconnaît la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) s’agissant de la haine, mais il est difficile de savoir quelle décision prendre. Cela peut sembler évident, mais ça ne l’est pas. Quand le contenu relève clairement de la haine, nous le modérons. Mais, quand nous avons un doute, nous avons plutôt tendance à le laisser en ligne. Dans le doute, en effet, nous préférons privilégier la liberté d’expression.

S’agissant des mots détournés, il serait peut-être trop binaire de ne mentionner que la loi ou nos règles d’utilisation. Il faut aussi recueillir de l’information auprès d’associations qui ont une expertise spécifique, car en tant que plateformes, nous traitons d’un large ensemble de sujets. Nous en avions discuté avec l’Arcom au sujet des signaleurs de confiance. Nourrir cette discussion avec des experts nous permettrait de mieux appréhender les phénomènes et de savoir où placer le curseur.

M. le président a cité un exemple concernant la promotion de la maigreur. Mais je suis parfois interpellée par la présence de mannequins très maigres dans les campagnes publicitaires pour des marques de mode. C’est donc autorisé dans l’espace public. Pour trouver l’équilibre dont je parlais en matière de modération, nous regardons ce qui se fait ailleurs. En l’occurrence, il est difficile de savoir ce qui constitue une apologie de la maigreur. Une campagne de publicité ? Cela se discute. Le post qu’évoquait M. Delaporte correspond-il à du contenu interdit, ou ces propos sont-ils contestables, mais pas interdits ? Il est compliqué de répondre. Nous nous tenons à votre disposition pour vous faire part de nos réflexions en la matière.

Mme Laure Miller, rapporteure. Sur X, les contenus pornographiques sont acceptés.

Mme Claire Dilé. La décision relative aux contenus pour adultes n’a pas été prise par X, elle est antérieure au rachat de la plateforme. Cette question s’inscrit dans celle de la liberté d’expression, dans la mesure où ces contenus ne sont pas illégaux. Quoi qu’il en soit, ces contenus sont restreints, pour les publics mineurs mais pas seulement.

De manière générale, la règle établie par la plateforme est d’installer un filtre de visibilité pour les comptes qui produisent ces contenus : ils ne sont pas dans les zones à haute visibilité de la plateforme et les utilisateurs ne peuvent pas tomber dessus à moins de les chercher activement. Quant aux utilisateurs mineurs, ils sont soumis à un système d’age gating. Ainsi, vous avez raison, ces contenus ne sont pas interdits. Mais ils sont restreints.

M. le président Arthur Delaporte. Au-delà du nom de la plateforme, X, il y a beaucoup de contenu X.

Mme Claire Dilé. Tout dépend de ce que vous entendez par beaucoup. C’est un contenu que nous restreignons, même si nous ne l’interdisons pas. Quand ces contenus sont en fait des liens vers des sites tiers ou du spam, nous modérons.

M. le président Arthur Delaporte. Que se passe-t-il quand un utilisateur présente un extrait de contenu pornographique, en indiquant que l’intégralité peut être visionnée sur son compte OnlyFans ? Le modérez-vous ?

Mme Claire Dilé. Si un contenu renvoie vers un autre compte que nous considérons comme malveillant, nous le modérons en bloquant le compte.

M. le président Arthur Delaporte. Ce n’est pas ma question. Si un acteur pornographique utilise X pour poster des extraits de vidéos et renvoyer vers son compte OnlyFans, est-ce autorisé ?

Mme Claire Dilé. C’est restreint. Il sera derrière un filtre de visibilité.

M. le président Arthur Delaporte. C’est donc autorisé.

Mme Claire Dilé. Oui. Comme je l’expliquais, le contenu pour adultes est autorisé. Mais il faudrait regarder le contenu spécifique dont vous parlez, car tout n’est pas autorisé. Il peut s’agir de nudité pour adulte consentie. En revanche, certains types de contenu sont interdits. L’application de notre politique est granulaire.

M. le président Arthur Delaporte. Est-il autorisé de poster un contenu renvoyant vers une vidéo diffusée en exclusivité sur un compte Mym ?

Mme Claire Dilé. Il m’est compliqué de vous répondre, car je ne suis pas à la modération. Si c’est consenti, derrière un filtre de visibilité et sur un compte restreint, ce n’est a priori pas interdit. S’il s’agit de contenu pour adulte légal, ce n’est pas interdit. Dans le cas contraire, c’est interdit.

M. le président Arthur Delaporte. À aucun moment, je n’ai eu à fournir ma pièce d’identité pour avoir accès à ce contenu. Est-ce normal ou non ?

Mme Claire Dilé. Je ne suis pas sûre de comprendre votre question.

M. le président Arthur Delaporte. J’ai pu accéder, sans fournir de pièce d’identité, à l’extrait d’une vidéo pornographique postée par un influenceur qui renvoie vers son compte Mym pour en visionner l’intégralité, dans une stratégie de monétisation – l’extrait de cette vidéo pornographique sur X sert d’appât. Estce normal ou non ?

Mme Claire Dilé. En l’occurrence, le contenu n’est pas sur X, puisqu’il est sur Mym.

M. le président Arthur Delaporte. L’influenceur renvoie vers un compte Mym, qui héberge la vidéo pornographique complète, en en diffusant un extrait sur X.

Mme Claire Dilé. Cela rejoint la question de la vérification de l’âge pour les mineurs, car l’objectif n’est pas de vérifier l’âge des utilisateurs adultes.

M. le président Arthur Delaporte. Je suis majeur, mais j’aurais pu accéder à ce contenu en étant mineur, puisqu’on ne m’a jamais demandé mon âge.

Mme Claire Dilé. Précisément, c’est la question de la vérification de l’âge et de ce que nous allons mettre en place pour vérifier l’âge des utilisateurs mineurs.

M. le président Arthur Delaporte. Ce que vous « allez mettre en place » ou ce que vous avez déjà mis en place ?

Mme Claire Dilé. Nous avons l’obligation juridique d’appliquer une solution à partir de l’été, dans le cadre de l’application du code de la sécurité en ligne (Online Safety Code) irlandais, qui concernera les utilisateurs français. Nous devons instaurer des systèmes de vérification de l’âge – je pense que l’on peut traduire ainsi « age assurance » – qui permettront de connaître avec un fort degré de certitude l’âge des utilisateurs.

La question de la carte d’identité est sensible, car ce document contient des données personnelles. Nous verrons ce que recommande le régulateur irlandais. A priori, ce serait plutôt un système fonctionnant avec un tiers de confiance, pour limiter l’échange de données personnelles. Nous devons seulement savoir si l’utilisateur est mineur ou majeur.

Nous avons beaucoup travaillé à ce sujet ces derniers mois, au niveau français et au niveau européen. Je pense que mes homologues en témoigneront.

Dans le cadre du code de la sécurité en ligne irlandais et de l’article 28 du DSA, nous disposons d’une check-list des mesures à prendre pour protéger les mineurs, laquelle intègre la vérification de l’âge. C’est une question que nous prenons très au sérieux. Vous avez raison, c’est la pierre angulaire d’un dispositif efficace pour protéger les mineurs.

Tant qu’on ne connaît pas l’âge de la personne qui est face à nous, on ne peut pas la protéger efficacement. Nous devons pouvoir mettre en place un système respectueux de la vie privée, tout en vérifiant l’âge de la personne avec certitude, sans qu’elle soit face à nous.

Thibault Guiroy a évoqué les initiatives de Google pour nous transmettre des informations. Notre point de vue est que la plateforme doit faire sa part du travail, mais que ce sera plus efficace si l’écosystème travaille collectivement, tout au long de la chaîne de valeur, des opérateurs téléphoniques jusqu’aux plateformes. En s’échangeant les signaux permettant de savoir si un utilisateur est mineur ou majeur, nous protégerons mieux les enfants en ligne.

Il y a une vraie dynamique à ce sujet au niveau international. Nous devons y arriver. Ce serait simple si cela ne soulevait pas des enjeux de vie privée. Un équilibre doit être trouvé entre les différents droits, avec la création d’un système proportionné.

Mme Laure Miller, rapporteure. Une chose est sûre, vous n’avez aucun dispositif de vérification de l’âge. Il est donc possible de créer un compte sur X sans avoir à justifier de son âge et d’accéder à du contenu pornographique. J’entends le besoin d’équilibre entre différents droits, mais le droit relatif à la protection de nos jeunes n’est, de toute évidence, pas respecté.

Par ailleurs, de nombreuses personnes nous ont interrogés sur votre rôle de plateformes intermédiaires. En effet, du contenu problématique peut être diffusé sur Snapchat, relayé sur Instagram ou X, puis renvoyé vers des plateformes plus obscures comme Mym ou OnlyFans. Comment assumez-vous ce rôle d’intermédiaire, qui sert un contenu qui n’est pas acceptable ? Parvenez-vous à identifier ces comptes ? Nous avons reçu un influenceur qui était surtout présent sur Snapchat, mais dont les contenus étaient massivement reproduits sur TikTok et plusieurs plateformes.

M. Anton’Maria Battesti. Le fait que des personnes soient présentes sur différentes plateformes est une réalité. Toutefois, les formats techniques sont différents. Snapchat diffuse du contenu éphémère, qui disparaît après vingt-quatre heures, YouTube, de la vidéo et Instagram, surtout des photographies et des reels. Je pense que ces plateformes adaptent leur contenu et je ne sais pas si le sujet en tant que tel pose problème.

Je veux être très clair. Il nous arrive de recevoir des signalements. Si telle ou telle personne affiche des liens vers OnlyFans ou des sites pornographiques, son compte Instagram peut être fermé. Nous n’autorisons pas le contenu pornographique sur la plateforme. Si un lien du type « Viens voir mon contenu OnlyFans ! » est publié sur un compte, nous sommes susceptibles d’engager une action de modération pouvant conduire à la fermeture du compte. C’est déjà arrivé et certains s’en plaignent.

J’espère avoir répondu à votre question.

Mme Aurore Denimal. On peut avoir l’impression que les mêmes contenus se retrouvent sur toutes les plateformes. Mais les influenceurs ou les créateurs de contenus sont souvent assez intelligents pour rester dans les limites et ne pas publier sur Instagram du contenu qui ne passerait pas le filtre de la modération. Nous avons conscience que certains postent des contenus problématiques sur certaines plateformes, pour attirer vers un site tiers. En tout cas, ils ne publient pas ces contenus sur Instagram spécifiquement.

M. le président Arthur Delaporte. Nous avons reçu plusieurs témoignages évoquant des liens vers des comptes Mym depuis Instagram.

Mme Aurore Denimal. Nous en sommes preneurs, car ce n’est pas autorisé. Ces publications ne devraient pas être sur la plateforme.

M. Anton’Maria Battesti. Pardonnez mon ignorance, mais qu’est-ce Mym ? Est-ce comme OnlyFans ?

M. le président Arthur Delaporte. Oui. Nous avons eu l’occasion de faire des tables rondes avec Mym et des équipes de Meta. Vous avez donc sans doute déjà croisé les représentants de Mym, qui sont assez proactifs en matière d’affaires publiques.

M. Anton’Maria Battesti. Je ne suis pas expert en ces domaines. Si Mym est comparable à OnlyFans, la situation que vous évoquez pose une difficulté qui doit être réglée.

M. le président Arthur Delaporte. Mym et OnlyFans sont la même chose, et les liens qui y renvoient depuis d’autres plateformes sont fréquents. Vous indiquez que vous vous fixez pour objectif de modérer ce type de contenu, mais ce n’est pas du tout le cas de X.

Mme Claire Dilé. Comme je le précisais tout à l’heure, tout dépend du contenu. Si les liens renvoient vers du contenu que nous considérons comme interdit sur la plateforme, nous allons le modérer. Il est compliqué de vous répondre sans avoir d’exemple.

M. le président Arthur Delaporte. Mais, dans la mesure où vous autorisez la pornographie et où vous n’avez pas accès au contenu puisqu’il s’agit de vidéos à la demande – vous n’irez pas consulter le contenu de charme ou pornographique sur Mym –, vous autorisez les liens vers cette plateforme. Vous n’avez aucune possibilité de vérifier ce que contiennent les liens et vous les laissez en ligne.

Mme Claire Dilé. Honnêtement, je ne suis pas absolument certaine qu’on les autorise. Par ailleurs, ce n’est pas parce que vous en trouvez que nous les autorisons. Il peut s’agir de liens qui n’ont pas été signalés, ou de spams, comme c’est le cas d’un grand nombre de ces liens.

M. le président Arthur Delaporte. Les posts que j’ai sous les yeux, qui renvoient vers des vidéos pornographiques sur OnlyFans ou Mym, comptabilisent parfois 70 000 vues. Il n’est pas compliqué de les trouver. Nous avons même reçu un influenceur qui publie de tels posts dans cette commission.

Mme Claire Dilé. Je vous propose de m’envoyer ces liens en particulier, pour que nous vous indiquions spécifiquement quelle modération nous appliquons pour tel ou tel contenu.

Par ailleurs, des dispositifs permettent de retirer de X des contenus qui seraient sur Snapchat. Pour la nudité non consentie, par exemple, nous partageons des bases techniques avec StopNCII qui permettent d’attribuer une carte d’identité ou une empreinte aux contenus. Si du contenu intime non consenti est partagé sur Snapchat, cette plateforme peut nous l’envoyer en indiquant qu’elle a reçu des signalements à son sujet, pour que nous le retirions. Nous sommes également membres de plusieurs organismes de lutte contre l’exploitation sexuelle des enfants, comme la Tech Coalition ou Internet Watch Foundation, qui proposent aussi ce type de dispositif. La réflexion pourrait être étendue, à partir de ce qui existe pour ces contenus.

Mme Anne Genetet (EPR). Je voudrais réagir aux propos de M. Battesti. Vous avez mis le doigt sur un point essentiel, au sujet duquel j’ai une différence d’appréciation avec Mme la rapporteure. Les grandes plateformes que vous dirigez sont de grands acteurs commerciaux avec une puissance de frappe considérable. Au départ, ce sont uniquement des sites marchands.

Vous n’êtes pas des élus. Vous n’avez pas été choisis par la population. Par conséquent, vous laisser la responsabilité de choisir ce qui doit être modéré porte le risque d’une dérive qui menacerait la démocratie. Vous renvoyez d’ailleurs au législateur que nous sommes la responsabilité de choisir quel contenu vous devrez modérer et de quelle manière. C’est la bonne approche. Je n’ai pas envie que le choix de dire ce qui est bien ou mal, bon ou mauvais, revienne à des personnes qui n’ont pas été élues, sans que ce choix ait été défini par la représentation nationale que nous incarnons.

Par ailleurs, vous avez mentionné le groupe de contact permanent avec le ministère de l’intérieur. Ne serait-il pas utile de faire constamment évoluer la réglementation, pour que vous puissiez vous y conformer ?

Enfin, existe-t-il des moyens techniques pour couper automatiquement les liens qui revoient vers d’autres plateformes, dès lors qu’un mineur cherche à les activer ?

M. Anton’Maria Battesti. Il ne faut pas se mentir, le DSA laisse peu de marge au législateur national. Concernant la régulation des plateformes, j’ai ici une lettre adressée à la France par la Commission européenne en août 2023 au sujet des lois n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne et n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux. Cette lettre n’est rien d’autre qu’un cours de droit européen, dont il ressort qu’on ne peut rien faire. C’est ainsi, il faut regarder cette réalité en face.

La question est de savoir comment rendre les règles vivantes, pour passer du macro au micro. Les instances avec lesquelles nous sommes en interaction sont bien trop nombreuses. Il y a notamment l’Arcom – c’est normal, car c’est notre coordinateur national. Nous avons aussi hérité du groupe de contact permanent, qui n’est plus réuni, sauf en cas de crise, et qui est plutôt piloté du côté du ministère de l’intérieur. En outre, au gré des crises, les ministres nous convoquent parfois pour nous demander des comptes et le retrait de tel ou tel contenu, en dehors des cadres que je viens de mentionner. Il existe donc une démultiplication des instances dans lesquelles on cherche collectivement à agir. Je ne dis pas que j’ai la réponse magique à ce problème, mais nous qui avons une culture française de la centralisation et de l’efficacité administrative, essayons de trouver quelque chose qui fonctionne, dans l’appareil d’État. L’Arcom semble être le premier choix, le plus évident. Évitons une démultiplication, ou des convocations en fonction de l’actualité. Ces sujets demandent de la constance. Je ne parle pas de cette commission d’enquête, qui participe utilement à la réflexion, mais je parle d’épiphénomènes que j’ai pu constater.

Il faut un réel cadre de dialogue et d’action, pour se réunir sur une base régulière et pas seulement en fonction des situations. D’expérience, je sais que cela permet de faire avancer pas mal de choses. Nous avons tous les outils et toutes les intelligences pour le faire, donc faisons-le. Cela pourrait représenter une avancée importante.

Par ailleurs, les liens que vous évoquiez, vers OnlyFans notamment, ne sont pas autorisés de manière générale sur Instagram, que vous soyez mineur ou majeur. Ils ne doivent pas être proposés et ils font l’objet d’une modération. L’objectif est de fixer des automatismes permettant d’agir à grande échelle. Ce sont des dispositifs que l’on retrouve dans le domaine de la protection du droit d’auteur. Donc, pour vous répondre, ces technologies existent même si je n’en connais pas le détail.

Trouvons les marges que le droit européen et le DSA nous ouvrent. Elles existent, mais elles concernent davantage la mise en œuvre que la réglementation.

Mme Anne Genetet (EPR). Lorsque vous serez obligés de contrôler l’âge de manière efficace, vous disposerez donc déjà des outils qui vous permettront immédiatement d’empêcher toute redirection vers une plateforme comme celles que nous avons mentionnées.

M. Anton’Maria Battesti. Ces liens ne sont pas autorisés, quel que soit l’âge de l’utilisateur. Le cas que vous présentez n’est donc pas le plus difficile.

M. Thierry Sother (SOC). Existe-t-il une hiérarchisation des types de contenu qui vous sont signalés ? Une priorité est-elle donnée à certains ? Le cas échéant, quelle est-elle ?

Pouvez-vous nous détailler la procédure de contrôle de la modération par des acteurs physiques et humains, pour chacune de vos plateformes ? Est-elle contradictoire ? La procédure change-t-elle selon l’auteur du signalement – des utilisateurs lambda, des partenaires associatifs, l’Arcom ? Les signaleurs de confiance font-ils l’objet d’une prise en compte différenciée ?

M. Anton’Maria Battesti. Je tâcherai d’être bref, mais le sujet est non pas complexe, mais vaste. Oui, il y a des différences. C’est normal, selon les types de contenu. Les contenus qui portent atteinte à l’intégrité des personnes ou contiennent des menaces doivent être modérés en priorité. Nos règles sont détaillées et nous distinguons des contenus « rouges », qui ne sont jamais autorisés, d’autres contenus, qui sont autorisés selon le contexte.

M. Thierry Sother (SOC). Que sont les contenus « rouges » ?

M. Anton’Maria Battesti. Le cyberharcèlement, la menace, la violence, les propos haineux, tout ce que l’humanité peut produire de pire et qui peut s’exprimer sur les réseaux. Il s’agit de contenus qui ne laissent pas place au doute, comme des menaces de mort. La liste est assez précise.

Chacun peut nous adresser un signalement et sur tout – commentaire, publication, etc. Nous invitons chacun à le faire, car c’est très utile. Mais il y a aussi du bruit, dans les signalements. Parfois, les gens signalent uniquement ce qu’ils n’aiment pas, par exemple les soirs de match de football, ou de performance de tel ou tel artiste. À partir du moment où l’on accepte tous les signalements, c’est normal.

Les gens signalent tout, ce n’est pas toujours pertinent, mais c’est mieux ainsi. Les signalements sont classés par catégorie, ce qui permet de saisir les équipes de modération spécialisées – pour le harcèlement ou les discours de haine, par exemple.

Enfin, il existe deux types de signaleurs de confiance. Le premier est l’État, au travers de Pharos avec qui notre collaboration est excellente, vingt-quatre heures sur vingt-quatre. Il est essentiel que l’État passe par Pharos, quand il veut nous signaler un contenu, car cela permet une qualification juridique qui garantit l’efficacité du processus. Nos autres signaleurs de confiance, comme eEnfance ou Point de contact, sont reconnus par le DSA et l’Arcom et ont un accès direct à nos équipes de modération.

Vous le voyez, c’est multiforme. L’État et des entités privées peuvent nous signaler des contenus. Malgré tout cela, il peut rester des difficultés. Nous sommes là pour en parler, mais ce système est assez robuste et produit des résultats.

M. Thibault Guiroy. Je ne veux pas répéter ce qu’a dit M. Anton’Maria Battesti, car nous fonctionnons à peu près de la même manière côté YouTube. Nous opérons une hiérarchisation selon le type de signalement.

Nos rapports de transparence, disponibles sur le site de YouTube et sur celui de la Commission européenne, montrent que nous retirons de nombreux spams tous les trimestres. En effet, plusieurs millions de vidéos sont avant tout du spam et du contenu visant à rediriger les utilisateurs hors plateforme, pour leur faire dépenser de l’argent ou les emmener vers des sites de faible qualité. L’intelligence artificielle permet d’appréhender très facilement ces contenus. La machine se nourrit des actions précédentes et de ce qu’ajoutent les modérateurs humains et, in fine, nous aboutirons à un score de pertinence élevé lorsque nous engagerons des actions de modération. Cela nous permettra d’opérer à grande échelle et de supprimer massivement ce type de contenu.

Certains contenus sont assez faciles à appréhender. Pour les plateformes qui interdisent la nudité, par exemple, un algorithme à même de détecter un certain pourcentage de chair devrait être assez efficace.

En revanche, d’autres contenus sont plus compliqués à modérer et imposent de se demander plusieurs fois s’ils relèvent de la liberté d’expression ou s’ils franchissent la ligne rouge. Parfois, il ne faut pas s’en cacher, nos modérateurs prennent les mauvaises décisions. C’est la raison pour laquelle il existe des mécanismes d’appel.

Pendant le covid, nos modérateurs ne pouvaient plus effectuer leur métier correctement, puisqu’ils étaient confinés. Pour protéger leurs familles de contenus choquants, nous nous sommes davantage reposés sur le machine learning et sur l’intelligence artificielle. Nous avons alors constaté qu’on surmodérait et que la possibilité laissée aux gens qui avaient vu leur contenu retiré de faire appel était essentielle. Nous avons également observé un taux de remise en ligne post-appel jamais atteint, pendant cette période, précisément parce qu’on ne peut pas uniquement se reposer sur la machine.

Vous nous avez également demandés si nous prenions différemment en compte les signalements selon leur auteur. Exception faite des signaleurs de confiance, la prise en compte n’est absolument pas différenciée. Nous examinons tout signalement, peu importe la personne dont il émane. Nous sommes même maximalistes. Pour éviter qu’un contenu qui aurait mal été signalé – par exemple un contenu signalé pour pédopornographie, alors qu’il relève de l’incitation à la haine – passe entre les mailles du filet, nous revoyons tous les contenus signalés à l’aune de chacune de nos politiques.

M. le président Arthur Delaporte. Un algorithme peut-il juger en appel, ou est-ce nécessairement un modérateur humain ?

M. Thibault Guiroy. Je ne veux pas vous dire de bêtise, mais je crois que chez nous, les contenus qui font l’objet d’un appel sont systématiquement revus par un modérateur humain. Je le vérifierai et je reviendrai vers vous.

M. le président Arthur Delaporte. J’ai l’impression que chez TikTok, l’appel donne lieu à une revue algorithmique – ce qui explique que le taux de réponse positive en appel soit plus faible.

M. Anton’Maria Battesti. Chez Meta, l’appel est humain. Nous vous fournirons le schéma. La possibilité de faire un vrai appel est une obligation légale. C’est une procédure à prendre très au sérieux. Ce n’est pas juste un gadget.

Mme Aurore Denimal. Il existe trois niveaux d’appel : une première vérification, une deuxième vérification si l’on n’est pas d’accord, puis une troisième, à chaque fois humaine, qui fait tomber les deux premières – sans compter la possibilité de recourir au conseil de surveillance, qui est un organe indépendant, pour un dernier appel.

Mme Claire Dilé. Chez X, les appels donnent lieu à une modération humaine.

Pour la France, il existe deux types de signalement : dans le cadre des règles et dans le cadre du DSA. Dans le cadre des règles, nous avons fait en sorte de rendre le parcours de signalement à la fois simple et complet. Nous posons ainsi plusieurs questions, pour qualifier le type de signalement. Ensuite, le contenu est envoyé à la personne chargée de la modération, qui l’évalue. Si la violation de nos règles est claire, nous appliquons d’emblée une décision de modération – suspension du compte, suspension du contenu, ajout d’un filtre devant le contenu, etc.

Mais, dans certains cas, il convient de faire appel à des équipes plus spécialisées. Quand la personne qui révise n’est pas certaine de la modération à apporter, nous travaillons avec différentes équipes en interne pour essayer de dresser la meilleure évaluation possible du contenu et d’appliquer la règle. Il arrive aussi, comme l’a dit M. Thibault Guiroy, que nous commettions des erreurs, mais il est possible de faire appel. Enfin, pendant que nous procédons à la révision et à l’analyse du contenu, celui-ci reste en ligne.

Mme Laure Miller, rapporteure. Que pensez-vous de la modération chez TikTok ? Vous avez nécessairement un avis, car j’imagine que vous observez vos concurrents et la façon dont ils appliquent les règles. Pouvez-vous nous répondre sans langue de bois ? Vos propos ne seront pas retenus contre vous.

M. Anton’Maria Battesti. C’est la première fois qu’on me demande de me prononcer sur une plateforme concurrente. La réponse simple consisterait à refuser de répondre, mais vous seriez déçue. Je vais donc tâcher de formaliser une réponse, en parlant d’expérience.

D’une part, mes propos vont vous étonner, mais il n’y a pas excès d’honneur ou d’indignité. Beaucoup d’anciens de chez Meta sont partis chez TikTok pour faire de la sécurité – de la safety, dans notre langage – et de la modération. On ne peut pas douter qu’ils veulent bien faire.

D’autre part, nous sommes presque dans une logique de secteur et nous avons tous intérêt à avancer collectivement. Dans l’espace public, j’entends beaucoup « les réseaux sociaux », même si parfois, entre quatre murs, on me dit que c’est un peu mieux chez nous que chez les autres, ou l’inverse. De fait, quand une loi est votée, elle concerne « les réseaux sociaux ».

Qu’il s’agisse de TikTok ou de nous-mêmes, il existe des domaines commerciaux et techniques dans lesquels nous sommes concurrents, mais dans les domaines de la modération des contenus, de la safety et de la protection des jeunes, nous n’avons pas vocation à l’être. Nous travaillons d’ailleurs très bien ensemble. Nous nous voyons, nous sommes souvent dans les mêmes bureaux et dans les mêmes commissions.

Mon intuition est que, quelles que soient les difficultés des uns et des autres – elles existent chez TikTok, mais vous en avez aussi mentionné chez Instagram, je ne vais pas faire de langue de bois –, tout le secteur est impacté par les problèmes rencontrés chez l’un ou chez l’autre. On ne peut donc que s’inviter collectivement à progresser. C’est un message pour nous et pour les autres. Je ne veux pas donner de leçons à qui que ce soit, parce que ce n’est pas simple.

Voilà ce que j’aurais à dire. J’improvise un peu ma réponse, car on ne me la pose jamais ! Au lieu de tenir des propos spécifiques sur une plateforme, qui feront des lignes dans la presse, je préfère faire un zoom arrière et constater que le secteur doit progresser.

Nous n’avons pas d’intérêt individuel à laisser filer les problèmes, y compris parce qu’ils conduisent à des régulations qui nous touchent tous. Voilà ce que j’aurais à dire sur le sujet, en toute humilité.

Mme Claire Dilé. Merci pour cette question, à laquelle nous n’avons pas non plus l’habitude de répondre. Je rejoins les propos de M. Anton’Maria Battesti, d’autant que mon avis serait mal informé, n’étant pas moi-même utilisatrice de TikTok.

Les règles de modération sont toujours adaptées à la réalité d’un service en particulier. Nous appliquons tous une modération adaptée à la façon dont fonctionne notre produit.

Nous observons aussi, à la faveur de cette audition et d’autres réunions, mais aussi de la régulation, une forme de standardisation de la façon dont nous approchons ces problèmes. Nous sommes tous de très grandes plateformes au sens du DSA. À cet égard, nous tirons tous dans le même sens. Même si le DSA s’applique au niveau européen, il exerce aussi une influence sur d’autres juridictions et sur l’évolution en interne de nos réseaux. Il peut arriver que l’on applique une mesure du DSA, puis qu’on l’étende parce que cela a du sens.

En outre, d’autres réseaux sociaux pourraient voir le jour. Cet espace n’est pas figé, comme l’illustre TikTok qui est un réseau social plus récent que d’autres.

M. Thibault Guiroy. Je suis la personne la moins bien placée pour parler de TikTok, parce que je n’utilise pas cette application. Comme l’a rappelé Mme Aurore Denimal, on nous demande parfois pourquoi, alors que telle personne a vu son compte supprimé de telle autre plateforme, nous ne faisons pas de même sur la nôtre. Malheureusement, les créateurs postent des contenus différents selon qu’ils sont sur un réseau social ou sur une plateforme de partage de vidéos ou de streaming comme YouTube. Ainsi, ce n’est pas parce qu’une plateforme a engagé une action à l’encontre d’un contenu, d’un créateur ou d’un influenceur en vertu de ses conditions d’utilisation que nous pouvons faire unilatéralement de même.

Et ce n’est pas parce qu’une plateforme a supprimé un compte que les autres plateformes n’ont pas supprimé qu’elle est plus vertueuse. Nous l’avons vu récemment, lors d’une réunion à laquelle toutes les plateformes étaient présentes, il faut se méfier des décisions de modération qui seraient prises de manière concertée – cela s’appelle une entente – pour couper des comptes unilatéralement, peu importe qu’une infraction ait été constatée sur chacune des plateformes. Je vous rejoins sur ce point, madame Genetet.

Mme Laure Miller, rapporteure. Merci pour vos réponses franches et spontanées. Diriez-vous que l’algorithme de TikTok, qui est assez redoutable, est une source d’inspiration ?

M. Anton’Maria Battesti. Non. Nous avons notre propre identité. Facebook existe depuis 2004, puis il y a eu Instagram, puis Whatsapp, qui ont leur propre identité. Je pense que les gens choisissent un produit parce qu’il correspond à leurs attentes. Ils n’ont pas nécessairement envie qu’Instagram soit comme TikTok. Bien sûr, il y a des tendances : quand tout le monde fait de la vidéo, on trouve de la vidéo partout. Mais chacun est comme il est.

Je pourrais parler d’autres sources de contenu. L’identité du service de l’audiovisuel public n’est pas celle d’une chaîne privée. Je pourrai multiplier les exemples. Je ne crois pas qu’il existe une source d’inspiration en tant que telle.

Pour en revenir au sujet du jour, il n’est pas mauvais de s’inspirer les uns des autres concernant la protection des mineurs. C’est une saine émulation, que les pouvoirs publics peuvent encourager.

Nous parlions de standardisation. Nous sommes dans le champ de la conformité à la loi, mais certaines initiatives sont aussi développées par pure bonne volonté. Je pense au compte « Ado » d’Instragam, qui est notre dernière création, et que nous étendons désormais à Facebook et à toutes nos plateformes. Le législateur pourrait créer une clause du mieux-disant. C’est là que l’État a un rôle à jouer.

M. le président Arthur Delaporte. C’est l’objet de cette commission. Nous devons émettre des préconisations, l’objectif étant de retenir le meilleur de ce qui existe, sans absoudre personne – car ce ne serait pas notre rôle.

M. Anton’Maria Battesti. C’est parfait, alors.

M. le président Arthur Delaporte. Nous avons néanmoins une interrogation. Dans notre idéal, il faudrait retenir le système le plus protecteur. Nous ne le trouvons chez aucun de vous, mais dans d’autres réseaux éthiques qui n’ont pas le même modèle économique et qui ne cherchent pas nécessairement la viralité, mais la qualité.

C’est ce que l’on pouvait retrouver, au départ, chez X ou chez Facebook, quand le contenu défilait sur les « murs » selon une pure logique chronologique. Nous pourrions décider de revenir à cela, mais on nous rétorquerait que nous nous immisçons dans le modèle économique des plateformes. C’est pourtant leur modèle économique qui, en soi, est problématique. Jusqu’où peuton aller ? Jusqu’où le droit national peut-il aller ?

On peut souhaiter une amélioration et une uniformisation par le haut, mais vous finissez par considérer que ce n’est pas conforme au droit européen. N’y atil pas là un paradoxe ?

M. Anton’Maria Battesti. Nous n’avons ni voulu ni organisé l’Union européenne et le droit européen. Il y a, là aussi, un paradoxe. Alors que nous sommes des mégaplateformes à des échelles continentales, il était plus logique de les réguler à l’échelle continentale.

M. le président Arthur Delaporte. Nous sommes d’accord sur ce point.

M. Anton’Maria Battesti. Pour autant, rien n’empêche une forme de mise en œuvre nationale dans la marge que les législateurs se sont eux-mêmes donnée. Nous en sommes là.

Vous évoquez notre modèle économique vis-à-vis des mineurs. Il n’y a pas de publicité pour les mineurs. Il faut donc aller au-delà de cette question, en se demandant si les contenus sur nos produits sont adaptés aux mineurs, si le temps passé peut entraîner des addictions – sous réserve de définir ces phénomènes –, qui contacte qui sur les réseaux sociaux. Il faut également poser la question de la supervision parentale. Dans tous ces domaines, il peut y avoir des outils à développer, soit que les entreprises les créent d’elles-mêmes, soit que les régulateurs et l’État leur demandent de le faire.

Vous évoquez les réseaux sociaux éthiques. Je ne sais pas de quoi il s’agit exactement. On m’a souvent mentionné Mastodon, mais une étude de Stanford a montré que de nombreux problèmes se posaient avec ce réseau. Il faut se mettre d’accord sur ces notions. Ce n’est pas toujours « small is beautiful ». Il existe des outils et le rôle de la standardisation paraît essentiel, comme dans d’autres domaines de la vie économique, par exemple la sécurité des personnes et des biens. Il existe une marge, qu’il faut trouver.

Mme Laure Miller, rapporteure. Je suis un peu frustrée, car vous auriez pu admettre que TikTok vous a tous un peu inspirés. Le flux vertical et continu de vidéos courtes est une marque de fabrique de cette plateforme. Vous semblez tous avoir repris ce dispositif, efficace pour capter l’attention, qui est né sur TikTok. N’hésitez pas à réagir et à reconnaître que c’est en effet le cas.

Pour en venir à la vérification de l’âge, nous vous « embêterions » moins s’il existait un dispositif efficace. Si nous avions la certitude absolue qu’un enfant de moins de 13 ans ne peut pas arriver sur votre plateforme et voir son contenu, ce serait une immense avancée. Mais ce n’est pas le cas. Je vous entends régulièrement, sur les ondes, plaider pour une réglementation européenne. Cela peut prêter à sourire. N’importe quelle plateforme a la capacité technique d’instaurer un dispositif de vérification de l’âge. Faites-le !

Comprenez-vous que nous soyons agacés, alors que notre objectif est la protection des mineurs, en vous entendant vous renvoyer la balle ? Au bout du compte, nous en sommes encore à discuter de contenus nocifs pour les plus jeunes. Pourquoi n’instaurez-vous pas, avant tous les autres, un dispositif efficace de vérification de l’âge ? Vous pourriez être plus vertueux que les autres.

M. Anton’Maria Battesti. Je vais tâcher de ne pas être trop long, car je vois que le temps passe et j’imagine que les autres ont des choses à dire.

D’abord, je rappelle que notre plateforme n’est pas accessible avant 13 ans.

Ensuite, s’il existe des comptes « Ado » sur Instagram, c’est parce que nous demandons aux utilisateurs de déclarer leur âge. Nous ne faisons pas rien dans ce domaine. Nous analysons les signaux laissant penser que l’âge déclaré n’est pas l’âge réel grâce à l’IA ; nous pouvons également nous appuyer sur des signalements de proches. Si un utilisateur a menti et a en réalité moins de 13 ans, son compte peut être supprimé sans délai.

Si le titulaire d’un compte « Ado », parce qu’il se sent bridé, veut modifier sa déclaration d’âge pour passer de 14 ans à 19 ans, puisqu’une telle modification implique le passage à la majorité, nous vérifions sa véracité, dans une logique de « ceinture et bretelles » grâce à de la reconnaissance de la morphologie du visage ou d’autres dispositifs, qui ont fait leurs preuves – ce qui n’était pas le cas il y a encore deux ou trois ans.

La façon de vérifier l’âge n’est la même pour un mineur et pour un majeur de 18 ans. Des outils se développent, mais même au sein de la communauté d’experts, on sent bien que la difficulté n’est pas la même selon l’âge. À 13 ans, on n’a pas de carte bancaire ou de carte d’identité.

La première brique du système – c’est aussi le sens de notre campagne et je vais m’en expliquer – consiste à considérer que lorsque vous avez 13 ans ou moins, le téléphone n’est pas arrivé par magie dans vos mains. La ligne n’a pas été créée par magie, non plus. Le rôle des parents est réel, comme dans tout acte d’éducation. En outre, la meilleure source pour savoir si un enfant a moins de 13 ans, ce sont tout de même ses parents. Cela étant, nous ne vivons pas dans un monde idéal dans lequel les enfants feraient toujours ce que leurs parents leur disent. La question de la vérification de l’âge est donc posée.

Notre campagne consiste à dire que nous devons faire plus et mieux en matière de vérification d’âge – il n’y a pas de défaut de responsabilité, et nous l’avons précisé dans notre contribution pour le DSA. Toutefois, la solution ne peut être qu’industrielle. Dans l’expérience numérique d’un enfant, il n’y a pas que les réseaux sociaux, mais aussi les sites internet et les jeux vidéo. La solution pourrait être de centraliser le contrôle de l’âge. Toute l’expérience numérique de l’enfant pourrait découler d’une information vérifiée sur l’âge, qui pourrait figurer dans la carte SIM ou dans les magasins d’applications.

Je salue les efforts de Google, qui a ouvert des API (application programming interfaces) dans son magasin d’applications pour permettre une meilleure communication avec les plateformes, dans une logique de « ceinture et bretelles » et pour permettre une meilleure vérification de l’âge.

Tel est le sens de notre campagne. Certes, dans les campagnes radiotélévisées, les messages sont un peu raccourcis et simplifiés, car on veut aller vite et marquer les esprits.

Dans notre domaine, nous ne nous opposons pas les uns aux autres, comme le montrent les solutions envisagées par Google, d’après ce que je lis. Nous évoluons nous aussi. Je pense qu’on va y arriver, avec, pour cadre, les lignes directrices du DSA. Mais cela ne réglera pas le problème de l’accès des jeunes à des contenus problématiques en dehors des réseaux sociaux. Quand des enfants reproduisent Squid Game dans les cours de récréation, c’est un problème. Des enfants de 9 ans qui jouent à GTA, c’est un problème. Des enfants qui regardent « Frenchie Shore », c’est un problème.

La question de la vérification de l’âge se pose pour les réseaux sociaux, c’est normal. C’est l’objet de cette commission et je n’essaie pas d’aller sur d’autres terrains. Mais elle se posera aussi pour tout contenu vidéoludique en ligne. Il faut que nous arrivions à créer un cadre, notamment avec l’identité numérique européenne et tout ce qui est en train de se faire en la matière, pour mieux savoir qui est derrière l’écran et pour que les conditions de l’expérience numérique en général, audelà des réseaux sociaux, soient encadrées.

L’État et l’Arcom y travaillent aussi. On va y arriver ! Il y a quelques années, le discours consistait plutôt à dire que c’était compliqué. Aujourd’hui, des solutions se développent. Il faut être confiant.

Je ne voulais pas être trop long, mais je voulais exprimer notre bonne volonté.

Mme Claire Dilé. Je serai concise, car beaucoup a été dit.

M. le président Arthur Delaporte. Il y a peut-être aussi moins à dire au sujet de X.

Mme Claire Dilé. La réflexion est la même que chez Meta, puisque nous devons nous aussi mettre en place un dispositif de vérification de l’âge pour protéger les utilisateurs mineurs, et peut-être davantage encore dans la mesure où nous autorisons le contenu pour adultes. Tout l’enjeu est de parvenir à connaître l’âge d’une personne sans l’avoir face à soi. Les utilisateurs de notre réseau ont acheté leur téléphone auprès d’un opérateur téléphonique, et nous ne savons pas qui ils sont.

La vérification doit être sûre, car si le système de vérification n’est pas parfait, il mettra à mal tout l’édifice. Nous avons rencontré plusieurs tiers de confiance qui pourraient nous aider à vérifier l’âge et, comme Anton’Maria Battesti, je pense qu’on va y arriver. Il y a une vraie dynamique au niveau mondial. La France n’est pas la seule à s’interroger. Les États-Unis le font aussi, de même que l’Angleterre où les vérifications s’imposeront à compter de juin 2025 dans le cadre de l’OSA.

M. le président Arthur Delaporte. Quelles seront ces vérifications ?

Mme Claire Dilé. En Angleterre, la loi impose d’instaurer un « highly effective age assurance ». Il faudra travailler avec un tiers qui permettra d’estimer l’âge avec un haut niveau de certitude. C’est le cas de la biométrie, qui n’est pas infaillible, mais l’objectif est de faire le moins d’erreurs possible.

M. le président Arthur Delaporte. La marge d’erreur est importante, puisqu’elle peut être de plusieurs années.

Mme Claire Dilé. En effet. C’est la raison pour laquelle nous avions émis des doutes concernant certains des vérificateurs que nous avions rencontrés, compte tenu d’erreurs quant au genre et à la couleur de peau. Travailler avec un tiers qui commet de telles erreurs est potentiellement discriminatoire.

Je comprends votre frustration face à la lenteur des avancées, mais il faut que nous trouvions un système qui fonctionne. Avec l’application développée au niveau européen et la réflexion autour d’une identité européenne, le système fonctionnera à brève échéance. Si nous avions la solution technique parfaite, nous ne nous poserions pas toutes ces questions. Mais il faut un ensemble de signaux et d’indications pour bénéficier d’une grande certitude.

Il est plus facile d’avoir la personne dont on cherche à vérifier l’âge face à soi. Les citoyens français n’accepteraient pas que X collecte les données des pièces d’identité de tous les utilisateurs pour protéger les mineurs, qui sont moins nombreux que les majeurs sur la plateforme. Il faut trouver une solution qui coche toutes les cases – protection de la vie privée, efficacité et proportionnalité. Nous y travaillons et je pense que, d’ici six mois, de réelles avancées auront eu lieu.

M. Thibault Guiroy. Si une personne veut créer un compte sur YouTube et fournit une date de naissance indiquant qu’il est en dessous de l’âge du consentement, qui est de 15 ans en France, sa tentative de création de compte sera bloquée et nous l’inviterons à nous mettre en relation avec ses parents, pour que nous puissions l’aider à configurer un compte supervisé, au travers de l’application Family Link ou des expériences supervisées.

Si un utilisateur indique qu’il a dépassé l’âge du consentement mais a moins de 18 ans, nous lui proposerons des protections par défaut, comme l’absence de publicités personnalisées et des protections relatives au contenu réservé aux plus de 18 ans.

Si un utilisateur indique qu’il a 18 ans ou plus, nous soumettons les informations associées à son compte à notre modèle d’estimation de l’âge. Ce modèle, développé par Google, est capable d’indiquer l’âge avec un certain degré de confiance. Je pourrai vous communiquer assez rapidement les chiffres sur sa performance. Que l’utilisateur ait plus ou moins de 18 ans, si le modèle estime qu’il est mineur, son compte sera traité comme appartenant à un mineur jusqu’à preuve du contraire – une pièce d’identité, une carte de crédit ou un selfie.

Notre modèle utilise une variété de signaux, notamment les sites que l’utilisateur a recherchés sur Google ou les catégories de vidéos qu’il a visionnées sur YouTube, ainsi que d’autres éléments comme la longévité du compte. Nous partageons ces signaux entre YouTube et Google. Des requêtes relatives à un prêt immobilier ou à une déclaration de revenus, par exemple, sont a priori des signaux qui indiquent que l’utilisateur est probablement majeur. Je précise, à cet égard, que ni Google ni YouTube ne collectent de données personnelles supplémentaires pour entraîner le modèle. Nous utilisons uniquement les données déjà associées au compte de l’utilisateur. Avec ce haut degré de précision du modèle d’estimation de l’âge, nous répondons de manière appropriée durant la courte période de prédiction ou de prédéduction d’un âge qui suit la création d’un compte.

Je reviens sur la solution dont parlait M. Anton’Maria Battesti. Nos collègues ingénieurs de Google ont développé une solution qui a pour but d’aider les développeurs d’applications, quels qu’ils soient, à vérifier l’âge des utilisateurs à l’aide d’un identifiant numérique, tout en préservant leur anonymat. C’est essentiel, l’objectif étant de vérifier l’âge sans collecter trop largement des données personnelles et en évitant les interconnexions systématiques entre l’application de vérification de l’âge et le site ou l’application que consultera l’utilisateur.

Cette API, Credential Manager, crée un canal sécurisé pour le partage des informations d’identité, y compris l’âge, renseignées dans un portefeuille mobile. Pour vérifier l’âge, Credential Manager utilise la technologie de chiffrement zero-knowledge proof, qui permet aux utilisateurs de prouver qu’ils ont plus de 18 ans sans pour autant révéler d’informations supplémentaires, dont leur identité, à l’application.

Cette solution particulièrement robuste pourrait être adoptée à l’échelle internationale. En revanche, nous considérons que passer par les magasins d’applications n’est absolument pas efficace, car personne ne connaît mieux ses utilisateurs que la plateforme elle-même.

Pour en avoir fait l’expérience, il existe de multiples façons de contourner un magasin d’applications et de télécharger des applications par un autre biais. Outre qu’il suffit d’aller sur internet pour accéder à un réseau social sans avoir à télécharger d’application, la pratique du sideloading, largement répandue depuis plus de quinze ans, permet de télécharger des applications depuis des magasins non officiels plutôt que de passer par ceux de Google ou d’Apple.

Je rejoins M. Anton’Maria Battesti quand il considère que nous devons avoir un débat plus large. Est-il souhaitable de bannir les réseaux sociaux ou certains types de contenu avant un certain âge et, le cas échéant, quel âge ? Ce problème ne concerne-t-il qu’un type d’acteur, ou aussi les messageries privées sur lesquelles tout le monde se rabattrait dès qu’un réseau social serait bloqué ? Nous avons besoin d’ouvrir ce débat, qui touche aussi à la liberté d’expression.

Mme Aurore Denimal. Pour mettre un terme à la frustration exprimée par Mme la rapporteure concernant la source d’inspiration que pourrait constituer TikTok, je répondrai de façon factuelle en citant ce que nous avons fait pour les comptes « Ado », pour démontrer que nous avons suivi une logique très différente de celle de la captation de l’attention.

D’abord, après une heure, nous affichons un rappel demandant de fermer l’application – ce n’est donc pas une incitation à y rester.

Ensuite, le mode veille est activé entre vingt-deux heures et sept heures. Il entraîne l’absence de notifications, y compris quand des messages sont reçus.

Enfin, nous permettons aux parents de demander que leur enfant n’ait pas accès à l’application à certaines plages horaires. Nous savons que des adolescents se connectent aux plateformes la nuit. Les parents peuvent demander qu’un écran noir s’affiche.

Mme Claire Dilé. L’entreprise X ne cherche pas à s’inspirer de l’application TikTok. Certes, nous offrons une fonctionnalité spécifique pour les vidéos. Mais ce n’est pas l’écran sur lequel les utilisateurs tombent. S’ils sont sur leur téléphone – car cette fonctionnalité ne fonctionne pas sur un ordinateur –, ils doivent ouvrir une vidéo pour passer à la vidéo suivante. Quoi qu’il en soit, nous constatons que cette fonctionnalité est plutôt sous-utilisée. Ce n’est pas la fonctionnalité principale du service.

Nous essayons de proposer un service unique, car nous avons tous intérêt à nous démarquer les uns des autres sur le plan commercial. La volonté de X est d’être une plateforme publique et conversationnelle.

J’ajoute que les algorithmes de TikTok sont des business secrets. Nous n’avons aucun moyen de les connaître. Peut-être y a-t-il quelque chose à faire pour la transparence algorithmique, qui serait de nature à rassurer les utilisateurs et le public au sens large. Le DSA a apporté une première pierre à cet édifice. Mieux les gens comprennent, plus ils sont maîtres de ce type d’expérience.

M. le président Arthur Delaporte. Nous avons eu des échanges intéressants au sujet des différents mécanismes de vérification de l’âge. Côté Meta, vous diffusez une campagne publicitaire volontariste, pour que soient instaurés de tels mécanismes. Mais si j’entends bien M. Guiroy, le plus efficace serait que la vérification soit menée par les plateformes elles-mêmes puisque, nous dit-il, ce sont elles qui connaissent le mieux leurs utilisateurs. N’est-ce pas contradictoire avec votre idée selon laquelle les plateformes devraient déléguer les choses ?

M. Anton’Maria Battesti. Je vais réitérer mon propos, pour être sûr d’être bien compris. L’objectif de notre campagne n’est pas de se renvoyer la balle. La philosophie qui inspire notre démarche consiste à affirmer que nous pouvons et nous devons faire plus et mieux dans ces domaines – nous l’avons dit dans notre contribution pour le DSA –, mais que nous serons plus efficaces si le contrôle de l’âge est mieux centralisé et l'information mieux partagée, dans la logique de l’API décrite par M. Thibault Guiroy. Si nous pouvons croiser nos données, nous pourrons constater, par exemple, si un utilisateur indique qu’il a 14 ans sur son compte Google ou Apple, mais 16 ans sur son compte Instagram.

Nous vivons dans un monde technologique, dans lequel des solutions technologiques sont possibles. Vous me donnez l’occasion de réexpliquer notre campagne, qui est une publicité et n’entre donc pas dans les détails.

Si l’on met de côté le mot « app store », dans notre appel à une réglementation européenne exigeant la vérification de l’âge et à un accord parental dans les boutiques d’applications, le message est celui d’une meilleure centralisation des informations. L’âge des utilisateurs pourrait figurer dans la carte SIM de leur téléphone, par exemple.

M. le président Arthur Delaporte. Que se passerait-il si vous prêtiez votre téléphone, avec votre carte SIM, à un mineur ?

M. Anton’Maria Battesti. Tout est possible.

M. le président Arthur Delaporte. Que se passerait-il si un mineur utilisait ma tablette ou mon ordinateur, qui n’ont pas de carte SIM ?

M. Anton’Maria Battesti. Nous avons une obligation de moyens. Alors que la vente d’alcool est interdite aux mineurs, vous savez très bien que des mineurs parviennent à s’en procurer.

M. le président Arthur Delaporte. Nous savons tout aussi bien que différents supports permettent de se connecter à un réseau social.

M. Anton’Maria Battesti. C’est la raison pour laquelle il faut impliquer tous les acteurs, des créateurs des systèmes d’exploitation, aux magasins d’applications aux plateformes, pour constituer une chaîne au bout de laquelle il est possible de vérifier la cohérence des informations sur l’âge des utilisateurs.

Une autre solution consisterait à demander une carte d’identité. Mais en a-t-on toujours une à 12 ou 13 ans ? Faudrait-il en faire une exprès pour s’inscrire à un service numérique ? Ces questions peuvent se poser, mais il faut entrer dans le concret du « comment ». Si des solutions paraissent évidentes pour les majeurs, elles le sont moins s’agissant de mineurs, d’autant plus que les parents ne peuvent pas forcément les empêcher d’utiliser des plateformes.

Le débat est le même concernant la pornographie en ligne. Si l’on parvient à imposer une limitation d’âge sur quelques sites, certains se retireront du marché français. En outre, l’offre est pléthorique. Ces sites sont des milliers. Ira-t-on vraiment les chercher un par an ? Soyons sérieux ! Il faut une centralisation, un goulot d’étranglement, un péage.

Plus l’on renforcera le partage de données entre fabricants, opérateurs et plateformes, plus on s’approchera de la solution.

M. le président Arthur Delaporte. Merci. Il reste beaucoup à faire pour mieux protéger les mineurs.

Vous pourrez nous communiquer tout élément complémentaire que vous jugerez utile de porter à la connaissance de la commission, ainsi que les réponses au questionnaire que nous vous avons adressé.

61.   Audition de M. Simon Corsin, fondateur de Mindie (mardi 17 juin 2025)

Puis la commission auditionne M. Simon Corsin, fondateur de Mindie ([59]).

M. le président Arthur Delaporte. Nous recevons M. Simon Corsin, fondateur de Mindie. Monsieur, je vous remercie de prendre le temps de répondre à notre invitation. Nous avons souhaité vous entendre en tant que fondateur d’une application qui présentait à l’époque des similitudes profondes avec celle de Musical.ly, qui est devenu ensuite TikTok. Depuis, vous travaillez toujours dans cet écosystème et c’est notamment au titre de votre expertise sur les algorithmes que nous souhaitions vous entendre.

Avant de vous céder la parole, je vous demander de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations, par exemple si vous êtes rémunéré par les acteurs du numérique. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Corsin prête serment.)

M. Simon Corsin, fondateur de Mindie. Cofondateur de Mindie, je suis aujourd’hui employé par Snapchat depuis un peu plus de huit ans. Je travaille sur les applications mobiles sur réseau depuis douze ans. J’ai travaillé entre 2013 et 2014 sur Mindie, qui était une application de vidéos courtes, dont l’expérience était très similaire à celle de TikTok. Chez Mindie, j’étais le directeur technique, je m’occupais de l’implémentation d’à peu près tout, depuis le back-end jusqu’à l’application sur mobile en tant que telle.

Je suis désormais prêt à répondre à vos questions.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Je vous remercie d’avoir répondu favorablement à notre invitation pour essayer de décortiquer cette application TikTok, puisque vous connaissez sans doute bien son algorithme. Dans un premier temps, pourriez-vous nous dire s’il existe une spécificité TikTok par rapport aux autres plateformes en matière d’algorithmes ?

M. Simon Corsin. Une des spécificités de TikTok concerne effectivement les algorithmes de recommandation, qui ont connu plusieurs générations. Ces algorithmes gèrent notamment l’affichage qui apparaît lorsqu’un utilisateur ouvre l’application. Au début des réseaux sociaux, il s’agissait surtout des personnes que l’utilisateur suivait, selon le principe des followers, c’est-à-dire les contenus qu’ils postaient, par ordre chronologique décroissant, en commençant par les contenus les plus récents. Ensuite, se sont développés des algorithmes de recommandation sur des pages distinguant les contenus suivis et les contenus recommandés par l’application.

Ces premiers algorithmes étaient quelque peu limités et TikTok a contribué à transformer le paysage. L’algorithme de TikTok est dynamique et recommande aux utilisateurs des contenus lors de l’utilisation de l’application en elle-même. TikTok détecte les contenus appréciés par les utilisateurs et essaye de trouver des contenus similaires. L’une des caractéristiques de TikTok repose précisément sur sa capacité rapide d’apprentissage. Ce modèle a influencé quasiment toutes les autres applications qui diffusent du contenu, à l’instar de YouTube. En revanche, je ne peux pas vous donner des détails techniques sur la manière dont l’algorithme de TikTok fonctionne.

Mme Laure Miller, rapporteure. Estimez-vous que TikTok a influencé les autres plateformes comme Meta, YouTube ou X, dans la manière de recommander des contenus ou de présenter les vidéos, par exemple ? Je pense notamment au concept des vidéos verticales qui n’existaient pas auparavant sur les autres plateformes.

M. Simon Corsin. TikTok a influencé l’ensemble du paysage numérique, de deux façons. La première manière concerne le design comme vous avez indiqué. Ce design était fondé sur celui de Musical.ly et de Mindie. Dans ce design, lorsqu’il ouvre l’application, l’utilisateur tombe directement sur un fil de vidéos en plein écran, c’est-à-dire un fil vertical, de carte à carte, de vidéo à vidéo. Ce modèle a été inventé par Mindie, mais nous n’imaginions pas qu’il deviendrait un standard. TikTok a connu un très grand succès et de nombreuses autres applications ont commencé à copier ce format, en adoptant à chaque fois un nom différent : « Shorts » sur YouTube, « Reels » sur Facebook, « Spotlight » pour Snapchat.

Au-delà du design, TikTok a modifié l’approche des algorithmes des autres applications, depuis un modèle où il faut trouver des gens à suivre pour obtenir du contenu vers du modèle fondé sur l’algorithme de recommandation.

Mme Laure Miller, rapporteure. Lorsque nous avons reçu les responsables de TikTok la semaine dernière, nous avons essayé de mettre en lumière une distinction entre d’une part recevoir du contenu parce qu’on l’apprécie, en en fonction de ses centres d’intérêt ; et d’autre part, recevoir du contenu parce que l’on a passé un peu plus de temps sur une vidéo, y compris lorsque cette vidéo nous a sidéré par sa violence ou son contenu choquant, de manière plus générale. Pensez-vous que l’algorithme pourrait techniquement établir la même distinction entre les deux et par conséquent, ne pas nous fournir sans cesse du contenu qui nous a choqués ?

M. Simon Corsin. Il faudrait que l’application soit capable de savoir effectivement si l’on aime le contenu ou si l’on est simplement sidéré. Auparavant, un signal existait, le « like », mais il devient de moins en moins utilisé. Par exemple, YouTube mettait en avant le nombre de « likes » et le nombre de « dislikes » et affichait même un graphique qui récapitulait la répartition. Lorsque le nombre de « dislikes » était élevé, cela permettait notamment de se poser des questions sur la véracité des contenus.

En revanche, les algorithmes de recommandation ont pour objet d’optimiser le temps passé sur l’application, en s’appuyant sur « l’engagement » des utilisateurs. Les développeurs qui travaillent sur ces applications traquent les métriques (metrics) clés, comme le temps passé sur l’application chaque jour, le temps passé sur une vidéo, le nombre de vidéos regardées. Cela leur permet ensuite d’affiner, de « tweaker » les algorithmes pour essayer de maximiser le résultat. Ces metrics sont ensuite anonymisés, chez les entreprises qui respectent la vie privée.

Toutes les entreprises utilisent un système de test A/B (ou A/B testing), qui consiste à tester des petites modifications de l’application sur une partie de la population. Par exemple, une modification peut consister à passer à la vidéo suivante automatiquement, après dix secondes. Les résultats sont ensuite analysés pour estimer si cette modification améliore l’engagement, si les utilisateurs restent plus longtemps sur l’application, s’ils l’ouvrent plus fréquemment, c’est-à-dire les buts recherchés par la plateforme.

Mme Laure Miller, rapporteure. Si je vous comprends bien, ces plateformes, et TikTok en particulier, auraient tout à fait les moyens techniques de réussir à cibler les contenus les plus problématiques, en tout cas ceux qui sont négatifs, pour essayer de les mettre moins en avant par rapport aux contenus positifs. Elles pourraient effectuer ces tests et estimer l’impact sur les utilisateurs, leur temps d’utilisation de l’application.

M. Simon Corsin. Comment définir un contenu « négatif » ? Comment le définissezvous ?

Mme Laure Miller, rapporteure. Il existe quelques grandes tendances malgré tout, comme le hashtag #SkinnyTok à une certaine période sur TikTok. Les plateformes pourraient tout à fait modérer d’une meilleure manière ce genre de contenus, mais elles ne le font pas, notamment par mauvaise volonté.

M. le président Arthur Delaporte. Pour compléter l’intervention de Mme la rapporteure, laissez-moi évoquer ce que nous avons vécu la semaine dernière, lorsque nous avons auditionné des influenceurs. À cette occasion, des extraits des auditions ont été montés et exposés sur les réseaux sociaux auprès d’un public qui n’avait jamais entendu parler de la commission d’enquête TikTok. Ces clashs mis en scène ont suscité des milliers, voire des millions de vues. Or nous avons l’impression que cette prime à la radicalité est encore plus importante sur TikTok que sur d’autres réseaux.

M. Simon Corsin. Je vois là plusieurs problématiques, plusieurs challenges. Comment décider qu’un contenu est radical ? Comment considérer qu’un contenu ne doit pas figurer sur la plateforme ? Certains choix peuvent être assez simples, comme l’exclusion de contenus pornographiques, puis leur détection, afin de les éliminer. En revanche, il est difficile de contrôler tous les débats au risque de porter atteinte à la liberté d’expression. Faut-il interdire ceux qui parlent mal d’Israël ou à l’inverse ceux qui en disent du bien ?

Le deuxième défi consiste précisément à détecter ces contenus radicaux. C’est assez simple pour des contenus pornographiques qui reposent sur l’image, mais il est beaucoup plus compliqué de déterminer si un message passé par une vidéo est radical ou non. Ce travail nécessite une action humaine de modération.

M. le président Arthur Delaporte. Cet aspect figure également au cœur de nos questionnements. Il ne s’agit pas de considérer le bien ou le mal, mais des messages peuvent entraîner des effets négatifs, observables sur le réel. La question consiste ici à savoir s’il est possible d’avoir une approche préventive face à un contenu qui n’est pas forcément problématique pris isolément, mais peut le devenir lorsqu’il est massifié, redondant et présenté de manière répétitive à l’utilisateur. Les effets d’amplification algorithmique font partie de nos questionnements.

Mme Laure Miller, rapporteure. Ces interrogations existent depuis longtemps. Elles portent notamment sur la qualification des plateformes : sont-elles de simples hébergeurs ou de véritables éditeurs de contenu ? Compte tenu de la force de l’algorithme qui permet de mettre en avant des contenus, considérez-vous qu’elles sont aujourd’hui de simples hébergeurs ou faudrait-il, selon vous, changer leur qualification pour leur reconnaître un rôle éditorial ?

M. Simon Corsin. Cela dépend des entreprises. Certaines d’entre elles peuvent y être attachées car elles veulent rendre la plateforme « safe ». D’autres plateformes comme X (ex Twitter) mettent plus l’accent sur la liberté absolue d’expression. Je n’ai pas de solution définitive à fournir, il s’agit d’un problème délicat.

Mme Laure Miller, rapporteure. En effet. Quand vous avez créé votre application et avec ce concept de vidéos qui défilent en plein écran de façon infinie, vous êtes-vous interrogé sur l’impact, c’est-à-dire la dépendance suscitée par un fil de vidéos sans fin dont on ne sait pas quelle sera la vidéo suivante ? Par essence, le mécanisme est addictif, l’utilisateur a sans cesse envie de savoir quelle est la vidéo suivante. D’une certaine manière, il existe un phénomène de récompense.

M. Simon Corsin. Comment établir la distinction entre un algorithme de recommandation addictif et un algorithme de recommandation qui fonctionne bien ? Un algorithme de recommandation qui ne fonctionne pas ne sera pas addictif : si je vous montre les vidéos que vous n’aimez pas du tout, il n’y aura forcément pas de phénomène d’addiction. En revanche, si je réalise un très bon travail, que je vous donne les vidéos que vous voulez voir absolument et que vous n’arrivez pas à décrocher parce que vous êtes trop engagé dans cette application, cela signifie que l’algorithme de recommandation fonctionne extrêmement bien. Chaque application essaie d’atteindre ce niveau. Nous n’y sommes pas parvenus avec Mindie ; si tel avait été le cas, nous serions devenus ce que TikTok est devenu aujourd’hui. Les utilisateurs retournaient sur notre application de manière assez régulière, mais il n’y avait pas encore ce niveau d’addiction.

Une partie de notre formule, le design avec le feed vertical, fonctionnait bien, mais nous ne disposions pas encore de la partie recommandation. Nos algorithmes étaient simples à l’époque, il n’existait pas encore d’algorithmes qui apprenaient en fonction de l’expérience de l’utilisateur.

Mme Laure Miller, rapporteure. Diriez-vous que TikTok est addictif ?

M. Simon Corsin. Je ne suis pas un utilisateur de TikTok, mais j’utilise des applications qui proposent des expériences similaires. Elles sont relativement addictives car l’utilisateur est bombardé de contenus personnalisés, que l’utilisateur a plus de chance d’apprécier.

Les fabricants Apple et Google ont mis en place des systèmes pour permettre aux utilisateurs de contrôler un peu mieux leur utilisation du téléphone, qu’il est possible de bloquer à partir d’un certain temps d’utilisation par exemple. L’industrie reconnaît l’existence du problème, mais simultanément il n’est pas dans l’intérêt des producteurs d’applications que celles-ci soient moins utilisées.

Les applications peuvent être addictives. Je ne pense pas que cela soit forcément un problème en soi pour les adultes à partir du moment où ils sont capables de se maîtriser. Je ne pense pas que le niveau d’addiction soit semblable à celui de la drogue, c’est-à-dire une addiction de type physique. La question est peut-être plus problématique pour les plus jeunes, qui ont moins de contrôles d’eux-mêmes.

Mme Laure Miller, rapporteure. C’est la raison pour laquelle notre commission d’enquête se concentre en effet plutôt sur les mineurs, qui sont moins en mesure de gérer ces aspects addictifs.

Je souhaite revenir sur la question des contenus. Vous avez souligné la difficulté de qualifier un contenu « positif » par rapport à un contenu « négatif ». Cependant, il est possible de reprocher à TikTok sa politique de modération, qui paraît quand même assez faible. Nous avons reçu la semaine dernière les responsables de la plateforme et avons évoqué avec eux les contenus qui portent sur la scarification ou l’incitation au suicide. Naturellement, ils en modèrent une partie. Mais nous leur avons expliqué que les jeunes pouvaient déjouer la modération en utilisant certains mots-clefs ou certaines émoticônes, qui sont pourtant connues de tous ; par exemple le drapeau suisse pour le suicide, le zèbre pour la scarification. Pour autant, les contenus associés subsistent sur la plateforme.

D’après vous, seraient-ils techniquement en mesure de pouvoir supprimer tous ces contenus ? Aujourd’hui, il suffit de se mettre à jour très régulièrement ; ils pourraient tout à fait modérer, a priori, ces contenus.

M. Simon Corsin. Il existe un rapport direct entre la qualité de la modération et son coût. Plus vous investissez d’argent dans la modération, plus sa qualité va s’améliorer. Prenons deux exemples extrêmes. Si aucune somme n’est investie, tous les contenus sont ouverts, la qualité de modération sera très mauvaise. À l’inverse, si chaque vidéo postée est vérifiée et validée par un humain, le coût sera très élevé et cela ralentira le flux des vidéos.

En pratique, les entreprises recherchent un entre-deux, en essayant d’avoir un ratio correct de faux négatifs et de faux positifs, au coût le plus faible possible. Cela dépend également de leur tolérance au backlash public. Une entreprise dont la tolérance pour le backlash est faible investira peut-être plus dans la modération pour réduire le nombre de posts négatifs.

Il est également possible de déterminer une règle de suppression du contenu quand le nombre de reports atteint un certain seuil. Cette solution présente l’avantage d’être simple, à moindre coût. Il est aussi envisageable d’élaborer des algorithmes de plus en plus compliqués qui impliquent plus ou moins d’humains, mais à un coût plus élevé. Il est toujours possible d’établir une modération parfaite, mais son coût peut devenir prohibitif, au point de rendre des plateformes sociales non rentables.

Cependant, je pense que nous sommes à l’aube d’un grand changement dans ce domaine, grâce à l’intelligence artificielle (IA). Dans un futur extrêmement proche, voire dès aujourd’hui, la modération pourra être effectuée par l’IA, de manière plus automatisée. J’estime que nous pourrions très bientôt obtenir une modération bien plus efficace qu’aujourd’hui, à un coût raisonnable.

Mme Laure Miller, rapporteure. Vos propos corroborent notre impression. Nous avons le sentiment que les plateformes se laissent une marge d’erreur aujourd’hui mais que si elles y consacraient plus de moyens, elles pourraient éviter cette marge d’erreur. Or nous avons essayé de leur expliquer que derrière cette marge d’erreur, des enfants, des jeunes, des personnes vulnérables sont parfois profondément affectées par des contenus qu’elles n’auraient pas dû voir.

M. Simon Corsin. Il faut considérer deux variables : d’une part le coût, et d’autre part, le nombre de faux positifs et de faux négatifs. Les entreprises décident de la balance, de l’arbitrage. En limitant moins la liberté d’expression, on court plus de risque de faux négatifs, c’est-à-dire laisser des contenus qui devraient être supprimés. Inversement, on peut retirer du contenu qui a pourtant respecté les conditions d’utilisation. Chaque entreprise détermine sa politique dans ce domaine.

Mme Laure Miller, rapporteure. Il serait possible d’éviter de trop se poser ce genre de question si nous avions la garantie qu’aucun mineur de moins de 13 ans  puisque ces plateformes-là sont théoriquement interdites aux moins de 13 ans  n’est effectivement présent sur la plateforme. Dès lors, les risques pour la plateforme de mettre ces images à disposition d’enfants et de jeunes publics seraient évidemment très réduits.

Aujourd’hui, la question de la vérification de l’âge est centrale. Mais les plateformes se renvoient un peu la balle en considérant que ce sujet doit être traité par un autre maillon de l’industrie ou par une réglementation uniforme, par exemple au niveau européen. Elles demandent à être dotées de solutions techniques, alors que nous avons malgré tout le sentiment qu’elles pourraient d’elles même le faire, du strict point de vue technique. Partagez-vous l’idée selon laquelle la vérification de l’âge pourrait tout à fait s’effectuer librement si les plateformes le décidaient aujourd’hui ?

M. Simon Corsin. Oui, mais de mon point de vue, il ne s’agirait pas de la méthode la plus efficace. Je pense que cet aspect devrait être centralisé, par exemple au niveau des opérateurs systèmes sur mobile, qui ne sont pas très nombreux puisqu’il s’agit surtout d’iPhone et d’Android. Il pourrait leur être demandé de vérifier l’âge de la personne qui utilise le téléphone, par exemple la première fois que l’utilisateur installe le téléphone, ce qui permettrait de limiter le nombre d’applications disponibles depuis l’Apple Store.

Mme Laure Miller, rapporteure. Mais rien ne l’empêche de le faire techniquement, n’est-ce pas ?

M. Simon Corsin. C’est exact. Rien ne l’empêche, d’un point de vue technique.

Mme Laure Miller, rapporteure. Cette méthode serait sans doute très imparfaite puisque chaque plateforme aurait une méthode, une technique différente ; mais elle aurait le mérite d’exister. Aujourd’hui, le système n’est vraiment pas satisfaisant. Vous connaissez comme moi les chiffres concernant le nombre de jeunes de 11 ans ou 12 ans qui sont déjà présents sur ces plateformes, alors qu’ils ne le devraient pas les consulter.

Quel regard vous portez-vous sur le débat actuel concernant une interdiction des réseaux sociaux avant un certain âge, par exemple avant 15 ans ou 16 ans ?

M. Simon Corsin. Au préalable, je souhaite revenir sur la question précédente, pour rajouter un élément. Si la vérification d’âge est effectuée sur chacune des applications, il est assez facile maintenant pour un enfant d’installer une application, puis de demander à un adulte de vérifier l’âge. En revanche, il est plus efficace de le faire au niveau du système d’exploitation, puisque l’on peut présumer que ce sont les parents qui achètent le téléphone à leurs enfants. Ces parents pourraient aussi être informés, voire « éduqués » sur le système de vérification d’âge. Cette procédure empêcherait l’enfant d’installer une application qui serait illégale et offrirait moins de possibilités de détournement.

Ensuite, vous avez évoqué l’interdiction des réseaux sociaux avant un certain âge. Je n’y suis pas opposé, mais il convient de définir précisément cet âge, ce qui ne relève pas de ma compétence.

Mme Laure Miller, rapporteure. Nous avons reçu plusieurs plateformes, dont TikTok, mais aussi Meta, YouTube et X. Leur stratégie consiste à nous expliquer toutes les actions qu’elles mettent en place pour accompagner les enfants sur leurs plateformes respectives, comme l’information du temps passé sur l’application. Il existe aussi une possibilité de supprimer l’algorithme de recommandation par défaut. Mais ces dispositifs sont optionnels et parfois difficiles à activer.

Quel regard portez-vous sur ce que les plateformes qualifient d’améliorations pour protéger davantage les mineurs ? Estimez-vous qu’il s’agit surtout de plaidoyers sur des petites protections, sans véritables effets réels, alors que les plateformes pourraient tout à fait configurer l’application pour qu’elle soit protectrice par défaut pour les mineurs ? Nous avons l’impression que certaines mises à disposition existent, mais de toute évidence, un jeune ne va pas se limiter lui-même si on ne le contraint pas à le faire. Par essence, il a envie de passer plus de temps, de tout voir et d’être libre sur la plateforme.

M. Simon Corsin. Je ne suis pas certain que ce genre de fonctionnalité ait vraiment pour objet de protéger les enfants. On peut plutôt les concevoir comme des atouts marketing à destination de l’adulte responsable de l’enfant, pour qu’il puisse décider des applications qui pourront être utilisées.

Mme Laure Miller, rapporteure. Vous recommandez des vérifications d’âge au niveau du système d’exploitation du téléphone plutôt que sur chaque application. Mais qu’en est-il des ordinateurs ? Aujourd’hui, il est possible de se connecter à ses applications autrement que par le simple téléphone. Faudrait-il verrouiller tous les outils numériques ?

M. Simon Corsin. Pour être véritablement sérieux, il faudrait établir un verrou en amont, plutôt que sur chaque application.

M. René Lioret (RN). Mon intervention est celle d’un néophyte. Grâce à l’intelligence artificielle, ne serait-il pas possible de « contrer » ces algorithmes de recommandation ? Ne seraitil pas possible de définir une sorte seuil de saturation, plutôt que de reproduire à l’envi des contenus, en particulier s’agissant d’images violentes ou d’images apologétique du suicide ou de la scarification ? Nous savons bien que ces phénomènes touchent en particulier les jeunes plutôt que des adultes de 30 ans ou de 40 ans.

Je tiens à ce titre à vous faire part de mon expérience. Je m’intéresse aux chevaux et j’ai regardé deux vidéos concernant le nettoyage des sabots infectés de chevaux. Au bout de deux vidéos, j’en avais assez car ce nettoyage n’est pas très agréable à visionner. Pourtant, l’algorithme m’a proposé d’autres vidéos du même type. À partir d’un moment où l’on a vu deux ou trois vidéos, n’est-il pas possible d’inverser le système, en particulier pour des sujets que l’on sait sensibles et qui sont visionnés de préférence par les jeunes ?

M. Simon Corsin. Qu’entendez-vous par « inverser le système » ?

M. René Lioret (RN). Je parle d’une régulation des algorithmes, qui estimeraient avoir envoyé suffisamment d’images et de vidéos sur un appareil et décideraient donc d’inverser la fréquence.

M. Simon Corsin. Oui, c’est tout à fait possible. Il en va d’ailleurs de l’intérêt de l’algorithme, dont le but consiste à capter un utilisateur de manière un peu infinie. Si l’utilisateur est trop « matraqué » de vidéos similaires, à un moment donné, il en aura assez et partira.

M. René Lioret (RN). Les hébergeurs sont quand même, d’une certaine manière, responsables des conséquences de cet hébergement. Il leur reviendrait donc de calmer le jeu et de limiter les risques. Je comprends que derrière cette problématique de la capture de l’attention, l’objectif consiste à générer des profits. Mais on ne peut pas tout faire non plus au nom du profit.

M. Simon Corsin. Je l’entends, mais de quoi s’agit-il en l’espèce ? Rendre l’algorithme moins addictif ?

M. René Lioret (RN). Oui, le rendre moins addictif en inversant la situation. Plus un jeune qui a des idées suicidaires recevra des propositions pour passer à l’acte plus facilement, plus il sera fragilisé. Plus globalement, je pense à tout ce qui peut mettre en jeu la santé mentale et la vie des enfants.

M. Simon Corsin. Je suis votre raisonnement, mais j’essaye de réfléchir à la possibilité technique de procéder, la manière d’établir un framework. À partir de quand définir le seuil de saturation ? Par exemple, si vous êtes passionné de chevaux et que vous voulez regarder le nettoyage de sabots pendant deux heures, à partir de quel moment cela devient-il un problème ? En fonction de tel ou tel sujet, de tel ou tel topic, la durée ne sera pas la même.

M. René Lioret (RN). Après avoir visionné quatre à cinq nettoyages de sabot, on en a assez de voir le pus qui dégouline. Ce n’est pas si grave en soi ; si l’on veut visionner d’autres vidéos du même type, c’est que l’on a des penchants morbides. Mais cela n’est pas du même registre que des vidéos affectant la santé mentale, comme des contenus pornographiques, des contenus portant sur la scarification, le suicide. Une personne en pleine forme, en bonne santé, ne passe pas son temps à regarder ce genre de vidéos.

M. Simon Corsin. Dans ce cas, il faudrait définir clairement les contenus dont le visionnage prolongé peut affecter la santé mentale. Mais sur le strict plan technique, il est complètement possible de limiter l’exposition.

M. René Lioret (RN). Je suis d’accord avec vous, il revient au législateur de définir ces contenus sensibles, de mettre des barrières.

Mme Laure Miller, rapporteure. C’est effectivement l’enjeu de la discussion que nous menons depuis tout à l’heure, c’est-à-dire savoir où l’on place le curseur entre le contenu négatif et le contenu positif, où s’arrête la liberté d’expression quand les contenus ne sont pas illégaux. Monsieur Corsin, souhaitezvous rajouter des éléments concernant une limitation de l’algorithme de recommandation ?

M. Simon Corsin. Pour moi, la limitation devrait s’appliquer à des sujets prédéfinis. Il est délicat de décider que tel ou tel sujet de société ne doit pas être propagé, mais il est plus simple d’agir si l’on est capable de définir précisément quels sont les sujets que l’on ne veut pas exposer à toute la population ou à une partie d’entre elle, comme les plus jeunes. Je pense par exemple à des thématiques concernant la scarification, le suicide, la drogue.

Mme Laure Miller, rapporteure. Cette question est effectivement plus large et dépasse le périmètre de notre commission d’enquête. Il semble que chaque jour sont visionnés dans le monde l’équivalent de 120 000 années de vidéos. Or, sur ces 120 000 années de vidéos, les trois quarts sont en réalité des vidéos qui sont le fruit d’une recommandation algorithmique. À l’aune de ces chiffres, il est assez vertigineux d’observer la manière dont les plateformes façonnent aujourd’hui notre représentation du monde. Qu’en pensez-vous ?

M. Simon Corsin. Je vous avoue ne pas passer énormément de temps sur les applications qui utilisent des fils de recommandation ; je suis un peu « vieux jeu » dans ce domaine. J’ai besoin d’avoir confiance dans le contenu que je regarde, surtout face à des types d’algorithme qui mettent en avant des contenus qui peuvent être potentiellement provocateurs ou contraires aux idées qui sont les miennes.

Je ne vais pas forcément avoir confiance dans ces algorithmes de recommandation parce qu’ils m’obligeraient à passer beaucoup de temps pour vérifier leur source. Mais je vois bien que cet effort de recherche n’est pas partagé par tous, notamment les plus jeunes. Leur esprit critique n’est peut-être pas encore assez développé, ou alors on ne leur a pas encore bien expliqué. Ils peuvent se contenter de consulter un contenu parce qu’il est populaire, sans chercher à questionner sa véracité.

Mme Laure Miller, rapporteure. Ma question est un peu indiscrète. J’ignore si vous avez des enfants ; mais si tel était le cas, les autoriseriez-vous à aller sur TikTok ?

M. Simon Corsin. Pas jusqu’à un certain âge.

Mme Laure Miller, rapporteure. Avez-vous des recommandations à formuler ou des éléments complémentaires à transmettre qui nous seraient utiles pour notre bonne compréhension de la plateforme ?

M. Simon Corsin. Non, je n’ai pas d’idées particulières à formuler.

Mme Laure Miller, rapporteure. Vous travaillez pour Snapchat. De quel ordre est l’algorithme de Snapchat par rapport à celui de la plateforme TikTok ?

M. Simon Corsin. Ne travaillant pas sur l’algorithme de Snapchat, je ne peux pas vous répondre.

Mme Laure Miller, rapporteure. S’agit-il également d’un algorithme de recommandation ? Est-ce la même idée ?

M. Simon Corsin. Oui, c’est la même idée.

Mme Laure Miller, rapporteure. Je vous remercie d’avoir répondu à notre convocation et vous demande de bien vouloir compléter le questionnaire qui vous a été envoyé. Vos réponses seront utiles à notre commission d’enquête.

62.   Audition de M. Laurent Marcangeli, ministre de l'action et de la fonction publique et de la simplification (jeudi 19 juin 2025)

La commission auditionne M. Laurent Marcangeli, ministre de l'action et de la fonction publique et de la simplification ([60]).

M. le président Arthur Delaporte (SOC). Nous poursuivons nos auditions en accueillant M. Laurent Marcangeli, ministre de l’action publique, de la fonction publique et de la simplification, et ancien député, qui avait été à l’origine de la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne.

Merci d’avoir répondu à notre invitation. Votre audition est importante pour nous : il s’agit de réfléchir, d’une part, aux raisons qui vous ont conduit à proposer cette loi et, d’autre part, aux difficultés que l’on peut rencontrer pour appliquer de telles normes.

Nous recevrons à votre suite Mme Clara Chappaz, ministre chargée de l’intelligence artificielle et du numérique.

Au préalable, je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations. Enfin, l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Laurent Marcangeli prête serment.)

M. Laurent Marcangeli, ministre de l’action publique, de la fonction publique et de la simplification, ancien député. Je suis honoré d’être auditionné par votre commission d’enquête pour évoquer cette loi, sa genèse et son parcours.

Nombreux sont ceux qui surfent actuellement sur le sujet de la protection des mineurs sur les réseaux sociaux pour obtenir des likes faciles, sans vraiment s’investir ni proposer de solution réaliste. J’entends beaucoup les formules « y’a qu’à, faut qu’on » qui, comme je me suis intéressé à la question, m’irritent par leur absence de fond. Je suis donc très heureux que votre commission d’enquête parlementaire se saisisse du sujet.

Pour moi, ce n’est pas une affaire de communication opportuniste mais un combat très sérieux, que je mène depuis la campagne électorale de 2022 et ma réélection comme député. La protection de nos enfants n’est pas un trend TikTok mais une responsabilité au cœur de mon engagement politique depuis toujours. Ce qui importe, c’est que le sujet avance – ce qui est le cas – et que notre jeunesse soit enfin protégée face au laisser-faire et au laisser-aller de ces quinze années de montée en puissance des réseaux sociaux, qui n’ont que trop duré. Je souhaite aussi responsabiliser les parents, qui ont un immense rôle à jouer face au défi que représente la supervision de l’activité en ligne de leurs enfants.

Je suis auditionné en ma qualité d’ancien député et non en tant que ministre. Aussi, je n’aurai peut-être pas toutes les réponses à vos questions puisque je ne suis intervenu ni sur le volet technique de la loi ni sur sa mise en œuvre, vu que je n’étais pas membre du Gouvernement. La ministre Clara Chappaz pourra tout à l’heure présenter la position du Gouvernement actuel sur la régulation des plateformes au niveau technique, question à laquelle elle s’intéresse beaucoup.

Je me suis engagé personnellement pour la protection de la jeunesse dans l’espace numérique dès le début de mon mandat en 2022, en prenant l’initiative de la proposition de loi visant à instaurer la majorité numérique. C’était d’abord un engagement de campagne. En effet, dès 2022, je m’étais aperçu lors des réunions publiques que l’auditoire réagissait à mes propositions visant à mettre fin à l’impunité sur les réseaux sociaux et dans le monde numérique en général, dans la mesure où ceux-ci détruisaient nos générations futures. J’employais alors ces termes très forts et je n’ai aujourd’hui rien à y changer puisque je constate que la situation va de mal en pis.

À l’Assemblée nationale, j’ai travaillé avec un collaborateur pour élaborer une proposition de loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne. Ce texte procédait donc d’une intuition personnelle et politique assez forte. Je suis aussi père et, même si mes enfants sont encore trop jeunes pour être présents sur les réseaux sociaux, je les surveille et je remarque des évolutions sociales qui peuvent faire peur. Ce débat mobilise d’ailleurs beaucoup de familles, comme l’ont montré les nombreux messages que j’ai reçus en m’emparant du sujet. C’est en outre un débat mondial, puisque d’autres pays sont concernés par cette réflexion.

J’ai ensuite échangé avec les associations spécialistes du sujet  l’Observatoire de la parentalité et de l’éducation numérique (Open), l’Union nationale des associations familiales (Unaf), e-Enfance – et même avec des philosophes. Je tiens à remercier une nouvelle fois M. Gaspard Koenig pour nos discussions. Aussi bizarre que cela puisse paraître – et alors qu’il est un des penseurs les plus libéraux de notre époque – il plaidait pour une interdiction pure et simple des réseaux sociaux aux moins de 18 ans. Il m’avait alors expliqué pourquoi ; je vous invite à consulter sur son blog le billet publié à ce sujet. Enfin, j’ai eu recours à des sources anglo-saxonnes, fiables, pour suppléer au manque de données scientifiques sur les répercussions psychologiques d’une surexposition aux réseaux sociaux. Le professeur américain Jonathan Haidt a en effet été précurseur dans la compilation des études et des recherches menées dans le monde entier sur le sujet.

J’ai très vite compris que nous faisions face à un double défi, à la fois de santé publique et de protection de l’enfance. La Commission nationale de l’informatique et des libertés (Cnil) a ainsi évoqué « une massification des usages numériques chez les enfants ». Vous connaissez ces chiffres édifiants qui établissent que 82 % des enfants de 10 à 14 ans se connectent aux réseaux sociaux sans encadrement parental, que plus de la moitié de cette tranche d’âge a déjà été présente sur les réseaux sociaux, que les enfants créent en France leur premier compte à l’âge de 8 ans et demi et que 70 % des enfants regardent seuls des vidéos en ligne. Vous connaissez également les risques de ces usages numériques : addiction, dépression, perte d’attention, perte de repères et inégalités accrues chez les plus jeunes. J’insiste sur le fait que les jeunes filles sont particulièrement exposées à certains risques, comme le revenge porn ou la dégradation de leur rapport à leur corps et à leur image.

Depuis 2023 s’est ajouté au risque de santé publique un risque de sécurité publique. Les débats sur ma proposition de loi étaient orientés sur la santé. Or cette loi a été définitivement adoptée le jour de l’affaire Nahel, jeune homme en mémoire duquel nous avions observé une minute de silence. Vous vous souvenez des jours et des semaines de violences qui ont suivi. Or l’utilisation des réseaux sociaux dans ces manifestations qui ont tourné à l’émeute avait été remarquée et est désormais incontestable. Le réseau Snapchat a ainsi servi pour fixer des lieux de rendez-vous en vue de piller des magasins et de détruire des bâtiments publics. Si le risque de santé publique demeure, il se double désormais d’un problème de sécurité publique et de vie démocratique de plus en plus important.

La proposition de loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne a été déposée en janvier 2023. Elle a été adoptée le 2 mars à l’Assemblée nationale, lors de la niche parlementaire réservée au groupe Horizons que j’avais l’honneur de présider. Elle a été adoptée le 23 mai au Sénat avant d’être adoptée en commission mixte paritaire le 20 juin et promulguée le 7 juillet 2023. Ce processus parlementaire a été redoutablement efficace et rapide. Loin des polémiques stériles, il témoigne de l’importance du sujet. Les débats ont été simples et clairs, et certains votes unanimes. J’ai mené un travail de discussion, en commission comme dans l’hémicycle. C’était donc un travail parlementaire bien mené. Le texte n’a pas été bâclé et il a été adopté en quelques mois.

J’ai rencontré les grandes plateformes numériques, à l’exception notable de Google. Toutes ont dit la même chose : il leur était techniquement impossible d’appliquer la loi. Or c’est précisément parce que les géants du numérique sont passifs face aux alertes qui se multiplient que le législateur doit les réguler, même quand ils ne proposent pas de solutions techniques. Il ne s’agit pas de brider la liberté mais bien de déterminer des principes – ce que légiférer signifie. Le député n’est pas là pour mener des études techniques ni pour déterminer par quels moyens mettre en œuvre les lois, mais pour fixer les limites nécessaires à la vie en démocratie libérale.

Nous avons rencontré des difficultés dans l’application de ce texte à cause du décalage entre les temps parlementaires français et européen. Ces entraves sont progressivement levées. Je suis pour ma part décidé à aller toujours plus loin et j’espère que le gouvernement va le faire. L’application de la loi a été entravée non par une carence politique mais par une résistance européenne. Le commissaire européen Thierry Breton, dans un courrier daté du 14 août 2023, a d’abord indiqué que la loi n’était pas conforme au Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services act (DSA) au motif qu’elle fragmentait le marché unique. Sur ce point, et ce ne sont pourtant pas mes origines politiques, je repensais hier avec mes collaborateurs au slogan « nos vies valent mieux que leurs profits ». Or constater qu’une politique européenne privilégie l’économie et le développement des plateformes au détriment de la santé publique et de l’avenir de nos enfants, alors même que le problème est attesté, peut remettre en question les engagements les plus déterminés, comme le mien, au service de la poursuite de la construction européenne. Le Gouvernement a donc été un peu houspillé, en la personne de ma collègue Élisabeth Borne qui le dirigeait et était la destinatrice de ce courrier.

Il lui a aussi été reproché de ne pas avoir notifié ce texte à la Commission européenne trois mois avant son adoption. Cette règle, issue de la directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 prévoyant une procédure d’information dans le domaine des réglementations techniques et des règles relatives aux services de la société de l’information, ne tient pas compte de la procédure parlementaire française, qui permet à une proposition de loi d’être adoptée rapidement. En réalité, le fait qu’il s’agisse d’une proposition de loi a été un problème d’ordre technique empêchant sa notification à temps à la Commission européenne. Je rappelle que le Gouvernement n’a pas toujours la main sur le calendrier. La niche parlementaire en est le meilleur exemple puisque ce sont les groupes qui fixent librement l’ordre du jour. Or, s’il est simple pour le Gouvernement de notifier les projets de loi à la Commission européenne dans les délais imposés, il est aujourd’hui beaucoup plus complexe de respecter cette obligation pour les propositions de loi – alors même que celles-ci prennent une place prépondérante dans le fonctionnement de l’Assemblée depuis 2022, en raison de l’évolution de la situation politique.

La conséquence est grave : la loi est purement et simplement inapplicable, quand bien même elle a été votée à l’unanimité – ce qui donne une image d’impuissance publique qui nous dessert tous, gouvernements ou parlementaires. L’effet est donc dévastateur.

Toutefois, je ne veux pas être exclusivement négatif ou critique. Les choses bougent dans le bon sens. La prise de conscience est de plus en plus forte. La Commission européenne travaille sur une solution technique de vérification de la majorité d’ici juillet, solution qui sera elle-même renforcée par le déploiement prévu à l’été 2026 du portefeuille européen d’identité numérique. Dans cette dynamique, plusieurs pays rejoignent la position de la France, comme l’a relevé ma collègue Clara Chappaz en réponse à M. Vojetta lors des questions au gouvernement la semaine dernière. L’Irlande elle-même, principale hébergeuse des grandes plateformes en Europe, serait prête à nous rejoindre dans ce combat.

L’Europe est donc en train d’évoluer vers la position française. Je regrette toutefois que, malgré ces avancées, la Commission européenne persiste à exprimer des réserves sur le principe de majorité numérique, ce qu’a fait récemment la commissaire Henna Virkkunen. In fine, il me parait souhaitable d’instaurer la majorité numérique au niveau européen, avec une période de tolérance de la part des instances européennes, le temps que chaque État l’introduise dans son droit national.

Je tire de cette expérience la conviction renouvelée que la technique doit emboîter le pas au politique. Nous ne devons pas cesser d’agir pour des raisons techniques évoquées par les plateformes. Notre rôle est de fixer les évolutions vers laquelle la technique doit tendre. Notre rôle n’est pas d’écrire des lignes de code ou des algorithmes, mais d’énoncer ce qui est juste et nécessaire. Si l’on attend que la technologie soit parfaite pour agir, nous ne le ferons jamais. Nous devons affirmer que l’on peut utiliser les réseaux sociaux à partir de quinze ans, mais qu’avant cet âge l’accord des parents est nécessaire. Des solutions techniques existent : les opérateurs mobiles français pourraient par exemple proposer des dispositifs permettant de prouver son identité, et ils ne sont pas les seuls car de nombreuses entreprises pourraient aussi proposer des solutions souveraines respectueuses de la vie privée.

Mon texte est la première pierre d’une construction, afin d’entraîner la France et l’Europe. Telle était sa vocation. En définitive, il s’agissait d’une certaine manière d’un texte lanceur d’alerte. Celui-ci n’est bien sûr pas parfait. Aucune régulation ne l’est et je n’ai jamais eu la prétention de détenir à moi seul la vérité. Il faut poursuivre en construisant un édifice encore plus ambitieux, car il reste beaucoup d’autres sujets à traiter après celui de l’exposition aux réseaux sociaux. Il faut donc encore mener des actions, tant au niveau français qu’européen. Je me suis d’ailleurs réjoui de la récente position du président de la République, car son poids peut être décisif à l’échelle européenne.

La Commission semble encore un peu embarrassée par ce sujet. Il faut nous réjouir d’avoir engagé, avec l’adoption de cette loi, un combat à l’échelle européenne. Nombreux sont ceux qui nous emboîtent le pas. J’ai rencontré Markus Richter, secrétaire d’État allemand en charge du numérique ; j’ai reçu, lorsque j’étais président de mon groupe, une délégation de parlementaires britanniques qui voulaient s’inspirer de ma loi ; des prises de contact sont même venues d’Italie. Nous devons aller vers cette coopération européenne.

Enfin, monsieur le président, je me réjouis que le Gouvernement vous ait confié, avec le député Stéphane Vojetta, une mission pour prolonger les travaux que vous aviez menés ensemble.

M. le président Arthur Delaporte. Vos propos font en effet écho aux parcours de la proposition de loi visant à lutter contre les arnaques et les dérives des influenceurs sur les réseaux sociaux, déposée en janvier 2023 et votée le 9 juin 2023. En six mois, nous avons réussi à franchir toutes les étapes de la procédure législative, alors qu’elle peut parfois prendre plusieurs années lorsqu’il s’agit d’une initiative parlementaire. Cela montre bien la conscience au sein du Parlement de la nécessité d’avancer sur ces sujets.

La loi dite influenceurs était également mentionnée dans la lettre du commissaire européen Thierry Breton, suscitant les mêmes interrogations sur la procédure de notification et les mêmes sentiments d’impuissance. Nous avons aussi ressenti le besoin de faire avancer ces sujets aux échelles nationale et européenne, puisque les arguments de santé et d’ordre publics ne peuvent se voir opposer les principes du marché unique – qui ne sont ni sacro-saints, ni absolus et contre lesquels nous devons continuer de lutter.

Mme Laure Miller, rapporteure. Merci d’être venu témoigner et de nous avoir rappelé ce processus législatif. Avez-vous eu des contacts avec des institutions européennes pendant l’élaboration de votre proposition de loi et son examen parlementaire ? Vous saviez en effet que le droit européen prévalait.

Par ailleurs, à la suite du courrier de Thierry Breton, avez-vous eu des échanges, formels ou informels, avec la Commission européenne ?

M. Laurent Marcangeli. Il est vrai que je ne l’ignorais pas.

Notre calendrier parlementaire concordait avec celui de certaines directives européennes proposées par M. Breton. Je n’étais à l’époque en contact qu’avec le ministre des affaires étrangères actuel, alors ministre du numérique, qui essayait de m’informer en temps réel de ce que l’Europe était en train de réaliser. La loi n° 2024-449 du 21 mai 2024 visant à sécuriser et réguler l’espace numérique (dite loi Sren) a ensuite transposé le règlement sur les services numériques.

Je n’ai pas eu de contact direct avec la Commission européenne et celle-ci s’est contentée de prévenir le gouvernement. Pour être complet, il était envisagé dans la loi  2024364 22 avril 2024 portant diverses dispositions d’adaptation au droit de l’Union européenne en matière d’économie, de finances, de transition écologique, de droit pénal, de droit social et en matière agricole, dite loi Ddadue, d’essayer de permettre l’application de mon texte. Le gouvernement a ensuite changé en janvier 2024. Lors des élections européennes, le programme du groupe Renew Europe a repris nos propositions, et certains députés m’ont fait savoir qu’ils étaient disponibles pour mener ce combat.

Mme Laure Miller, rapporteure. Quelles sont les raisons qui vous avaient conduit à proposer de fixer l’âge de la majorité numérique à 15 ans ?

M. Laurent Marcangeli. Le choix de l’âge a été l’objet de débats, y compris dans l’hémicycle.

Il est aujourd’hui particulièrement choquant que les enfants soient exposés aux réseaux sociaux autour de 8 ou 9 ans. Leur usage est normalement interdit avant 13 ans, et il est scandaleux que des petits enfants soient exposés sans surveillance à des contenus particulièrement violents. La limite des 13 ans doit être respectée. Après réflexion, il m’a semblé que l’âge de 15 ans, qui correspond normalement à l’entrée au lycée et à celui de la majorité sexuelle, était un palier intéressant. Ce choix a fait débat : certains amendements, en commission comme dans l’hémicycle, proposaient plutôt de retenir l’âge de 16 ans. Je vois que notre choix est désormais repris dans d’autres pays.

Mme Laure Miller, rapporteure. L’idée selon laquelle les parents devaient donner leur autorisation pour leurs enfants entre 13 et 15 ans avait également suscité un débat. Pourriezvous nous en rappeler les termes ? Je me souviens que ce sujet avait préoccupé ma collègue Sarah Tanzilli. Pourquoi cette tranche d’âge ?

M. Laurent Marcangeli. Je ne voulais pas que le texte exonère les parents de leur responsabilité. Il est en effet absolument nécessaire de les responsabiliser. Ce texte lanceur d’alerte, le débat public actuel, l’existence de votre commission et les différentes prises de position politiques doivent faire comprendre aux parents ce qui est en train de se jouer. Il y a quelques années, regarder de la pornographie n’était pas facile. Désormais, le gamin de 13 ans qui participe au déjeuner de famille du dimanche est peut-être en train d’en regarder juste à côté de vous. C’est un signe d’impuissance publique, mais aussi d’impuissance parentale. Je voulais donc que les parents soient associés en ayant la possibilité de donner une autorisation. La plateforme doit ainsi recueillir l’accord de l’un des parents ou du dépositaire de l’autorité parentale pour que le jeune homme ou la jeune fille puisse accéder au réseau social. Il faut accessoirement que le parent vérifie ensuite ce qu’il se passe. Je voulais que le dispositif soit aussi un dispositif de responsabilité parentale.

Mme Laure Miller, rapporteure. En ce qui concerne cette dernière, on constate que le débat s’amplifie et touche un très grand public. Dans tous les foyers français, on s’interroge et on se forge son avis. Je constate dans les commentaires sur les vidéos que nous publions sur les réseaux sociaux qu’il existe un débat entre les Français pour savoir si la faute revient aux plateformes, à l’État ou aux parents.

Diriez-vous que la sensibilisation n’est pas assez développée dans notre pays, à la fois auprès des parents et des enfants ? Aviez-vous pensé, à l’époque, développer la sensibilisation au numérique et aux réseaux sociaux dans les écoles et chez les parents ?

M. Laurent Marcangeli. J’ai souvent rappelé que nous étions face à une question d’ordre civilisationnel. Lorsque l’on parle de civilisation, le rôle des parents est essentiel puisque ceux-ci nous guident du début de notre vie à l’âge adulte en nous transmettant des principes et des valeurs.

Il peut exister chez certains un déni coupable qui consiste à ne pas vouloir voir que leur enfant va mal, ce que l’on lit souvent lorsque des drames se produisent. Les parents ont soupçonné qu’il y avait un problème, constaté que leur enfant était un peu renfermé, mais ne pensaient pas qu’il irait jusqu’à se suicider. Mais il s’agit parfois d’une simple méconnaissance.

Il faut que les parents soient informés. C’est pour cela que la puissance publique doit s’engager, notamment dans le domaine éducatif, et ce de manière très vigoureuse.

Je me fais beaucoup de souci pour l’avenir. Votre commission enquête s’intéresse particulièrement au réseau TikTok, qui a une dimension géopolitique non négligeable. Je suis de ceux qui pensent qu’il existe une volonté de rendre des générations entières de femmes et d’hommes complètement démunies dans la compétition mondiale et dans le rapport à d’autres grandes puissances, et que l’Europe est en train de s’avachir.

L’idée est donc de permettre aux parents, qui doivent être au centre du jeu, de stopper la descente aux enfers qui est en train de se produire avec les réseaux sociaux.

Mme Laure Miller, rapporteure. S’agissant de cet enjeu géopolitique  et notamment du rôle de la Chine – que pensez-vous de l’application du DSA ?

Avec le président de la commission, nous nous sommes rendus récemment à Bruxelles pour comprendre où en était la mise en œuvre de ce règlement. J’ai d’ailleurs reçu hier un SMS de la part d’une élue locale qui disait avoir entendu parler du DSA mais qu’il n’était pas appliqué. On se rend bien compte que, sauf à se plonger dans l’évolution et la mise en œuvre concrètes de ce cadre législatif, tout semble très long.

M. Laurent Marcangeli. Tout d’abord, le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE, dit règlement général sur la protection des données (RGPD) est sous-appliqué pour les mineurs. Quant au DSA, il comporte des obligations de moyens concernant la modération et la transparence mais, sur le fond, il reste timide. Il ne fait à aucun moment référence à la santé publique et passe donc selon moi à côté de l’essentiel.

Ces textes, comme la longueur des procédures, sont une ode à l’impuissance publique – et je pèse mes mots. La procédure contre TikTok a mis plus d’un an pour aboutir à des constats préliminaires. Il faut sortir de cette logique technocratique et bureaucratique. S’agissant du numérique, on parle d’un marché très différent des autres et non d’une industrie comme l’industrie textile. Enfin, le pire est que le principal aspect du DSA depuis son lancement a été d’empêcher qu’une législation nationale soit mieux-disante. C’est inacceptable car il ne propose aucun dispositif opérationnel pour protéger les mineurs. Comme le montre le courrier précité de la Commission européenne, si un État membre adopte une loi, il se fait réprimander sous prétexte que celle-ci va au-delà du DSA. J’ai donc une position très critique.

M. le président Arthur Delaporte. La Commission européenne et les services de la DG Connect expliquent qu’ils ont besoin de temps pour recueillir des constats solides face à d’importants risques juridiques, dans la mesure où les plateformes contestent généralement les sanctions qui leur sont imposées. La Data Protection Commission, équivalent de la Cnil en Irlande, qui voit ses décisions contestées à l’échelle européenne, dit de la même manière vouloir la procédure la plus solide pour être en mesure d’aller si besoin jusque devant les plus hautes juridictions européennes. Voilà ce qu’on nous dit pour expliquer ce temps long.

Nous en parlerons certainement tout à l’heure avec les représentants de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). En effet, même en droit national, quand des procédures prennent du temps – notamment pour sanctionner les influenceurs dont on voit pourtant manifestement qu’ils produisent des contenus illicites –, on nous répond qu’il faut recueillir des éléments de preuve pour pouvoir appliquer des sanctions. D’une certaine manière, c’est l’État de droit. Que répondez-vous à cela ?

M. Laurent Marcangeli. Je réponds que dans ce cas il ne faut pas proclamer que le DSA est en vigueur et qu’il vaut mieux appliquer une période de tolérance. L’Union européenne devrait desserrer un peu l’étau sur les nations qui ont envie d’avancer.

Ceux qui disent qu’ils n’ont pas le temps ou qu’il leur faut du temps tiennent un discours purement technocratique, qui vise à enterrer le sujet et à mettre la poussière sous le tapis. Je ne suis pas complotiste, je suis en règle générale quelqu’un de très mesuré, mais je sais que ces plateformes font peur car ce sont des géants économiques. Dans l’histoire, des exemples ont toutefois montré, aux États-Unis ou ailleurs, que la volonté politique permet de réaffirmer au monde économique que c’est le politique qui détermine la marche et l’économique qui la subit, car l’économique n’a pas à faire la loi et à empêcher le politique d’avancer. Il serait bien que telle soit la situation.

Je rappelle que nous avons eu l’exemple d’une interdiction temporaire de TikTok en Nouvelle-Calédonie, même si celle-ci a ensuite été cassée. Il faut aussi regarder ce qu’il se passe ailleurs, notamment quand on observe ce que la Chine est capable de faire en matière de régulation des réseaux sociaux – même si ce n’est pas une démocratie. Selon moi, répondre qu’il faut du temps équivaut à dire qu’on verra.

M. Stéphane Vojetta (EPR). Vos propos nous ramènent à une bataille parallèle à la vôtre, celle de la loi influenceurs. Nous avions pu résister à l’époque, avec le soutien du Gouvernement, aux injonctions du commissaire européen Thierry Breton et de la Commission européenne – très similaires à celles qui vous ont été adressées – visant à modifier substantiellement la loi, à la simplifier, voire à l’abroger pour aller dans leur sens. Nous avions résisté, notre loi a été appliquée, elle est devenue comme la vôtre une source d’inspiration à l’étranger et a été reprise dans de nombreux pays européens – ce dont nous nous félicitons.

Cela confirme la nécessité d’être volontariste sur ce sujet important. Vous avez rappelé les données confirmant cette catastrophe éducative et sanitaire. Même si vous avez repris un slogan plutôt associé à la gauche, nous sommes vous et moi des libéraux qui défendons la liberté, notamment économique, sous toutes ses formes. Mais nous ne défendons certainement pas la liberté de voir nos enfants se faire déglinguer génération après génération. C’est la raison pour laquelle il faut agir.

Comme vous, et tout en étant très pro-européen, je suis préoccupé par le fait que nous ayons cédé nos prérogatives de régulation des grandes plateformes à Bruxelles. Or, si nous l’avons fait, c’est pour voir Bruxelles agir, pas pour la voir organiser notre impuissance. En cela l’audition de M. Breton il y a quelques semaines n’a pas été entièrement satisfaisante. En tant qu’ancien commissaire, il nous a enjoint à agir et à prendre des initiatives pour tenter de peser sur les choix de Bruxelles. Mais à l’époque où il était commissaire, il a fait tout le contraire de ce à quoi il nous invite désormais.

Ma question concerne le projet de loi Ddadue voté il y a un an et dont j’étais rapporteur. Nous avions réussi à modifier la loi pour que soit réduit de six à trois mois le délai laissé au Gouvernement pour remettre au Parlement un rapport sur les mesures d’adaptation requises par la Commission européenne concernant votre loi. Avez-vous connaissance de ce rapport ? Atil été remis par le Gouvernement ? Si vous en avez connaissance, quelles sont ses conclusions ?

Je vous invite par ailleurs à vous joindre à nous, à votre collègue Clara Chappaz et à d’autres, pour être à l’avant-garde de ceux qui créeront, s’il le faut, un rapport de force avec la Commission européenne. Il s’agit de la contraindre à agir dans le sens désiré par une majorité des pays européens – et qui correspond en France à une attente populaire – afin de fixer une majorité numérique, voire d’interdire les réseaux sociaux aux moins de 15 ans.

M. Laurent Marcangeli. J’ai bien sûr connaissance de ce rapport, dont ma collègue Clara Chappaz vous présentera des éléments lors de son audition.

Mme Laure Miller, rapporteure. La semaine dernière, nous avons auditionné les dirigeants des plateformes, en particulier ceux de TikTok. Nous avons le sentiment qu’ils se renvoient la balle sur la vérification de l’âge en appelant à grands coup de publicité à une réglementation européenne. Les dirigeantes de TikTok avouaient elles-mêmes qu’elles disposaient déjà des moyens techniques pour procéder à cette vérification mais qu’elles préféraient attendre que toutes les plateformes le fassent simultanément. Avez-vous le même sentiment ?

M. Laurent Marcangeli. Tout cela relève de la tartufferie. Ces géants ont les capacités techniques et technologiques d’assurer un contrôle. Plus personne ne peut croire le contraire. En réalité, il existe un marché qui repose entre autres sur nos enfants qui, pour les grandes entreprises, sont des acteurs économiques. Il ne faut pas laisser ces entreprises déterminer leur champ d’action, car elles seront toujours orientées avant tout vers la rentabilité économique. Le politique doit donc reprendre la main.

C’est d’ailleurs un débat mondial, comme le montrent certaines décisions annoncées en Australie. Mais il ne faut pas oublier que le temps joue contre nous. Pendant que nous parlons, combien d’enfants en France et dans le monde sont, à bas bruit, en train de regarder un contenu pornographique ou choquant sur un réseau social qui crée leur algorithme ? Combien sont en train de s’abrutir ? Si nous avions les chiffres réels, nous rentrerions tous chez nous la boule au ventre.

M. Stéphane Vojetta (EPR). Nous rencontrons à Paris les acteurs du numérique et les responsables des affaires publiques des grandes plateformes. Toutefois, je constate – ce qui m’a été confirmé par certains d’entre eux – que l’immense majorité de leurs budgets de lobbying n’est pas dépensée à Paris ou en Irlande, mais à Bruxelles, ce qui pèse sur la lenteur des procédures européennes et explique la « tartufferie » que vous décrivez. Les plateformes comme TikTok se réfugient effectivement derrière l’inaction européenne et l’absence de règles claires pour ne pas être les premières à intervenir.

Elles sont en effet engagées dans une guerre pour les parts de marché et savent bien qu’en captant des utilisateurs de 9, 10 ou 11 ans et en les fidélisant, elles assurent leurs futures parts puisque, d’ici cinq ou dix ans, ces jeunes adultes seront en mesure de dépenser leur argent sur les plateformes de commerce – celles de TikTok par exemple. C’est parfaitement logique de la part de ces acteurs économiques, mais c’est une logique qu’on ne peut accepter. Il en va de notre responsabilité politique de les contraindre et je tiens à vous remercier d’avoir fait un premier pas dans ce sens.

M. le président Arthur Delaporte. On comprend bien l’intérêt d’une interdiction des réseaux sociaux en-dessous de 15 ans, même si nos auditions ont montré que tout le monde ne partageait pas cette idée. Je suis plutôt favorable à interdire cet accès en-dessous de 13 ans et à prévoir un usage contrôlé entre 13 et 15 ans, comme dans votre loi – cette progressivité des premiers usages des réseaux sociaux me semble intéressante. Ce n’est pas exactement ce que proposent le président de la République et la ministre du numérique.

Par-delà ces nuances – et vous dénoncez vous-même le côté démagogique d’annonces concernant la protection des mineurs sans qu’elles soient suivies d’effets –, le risque d’une telle interdiction n’est-il pas de rendre le politique impuissant ou de donner le sentiment de son impuissance ?

M. Laurent Marcangeli. Cette mesure, c’est tout le sens de ma loi. J’ai souhaité formuler une proposition qui tienne la route compte tenu de l’époque dans laquelle nous vivons. Si nous voulions tout interdire, ce ne serait pas réalisable. Je vous le répète avec toute ma conviction, et même une forme de désolation car, selon moi, certaines plateformes devraient tout bonnement être supprimées du paysage.

J’ai donc souhaité être réaliste et progressif, notamment pour cette fameuse période entre 13 et 15 ans, capitale, au cours de laquelle la présence du parent ou du responsable légal aux côtés de l’enfant a du sens. Selon moi, interdire purement et simplement n’aurait pas un aussi bon effet que le dispositif que j’ai proposé.

M. le président Arthur Delaporte. Est-ce finalement parce que l’interdit est contourné quand on a entre 13 et 15 ans ?

M. Laurent Marcangeli. C’est une question d’état d’esprit. Avec une régulation intelligente et un bon contrôle parental, il est possible d’avoir entre 13 et 15 ans suffisamment de maturité pour naviguer sur les réseaux sociaux, quoiqu’avec modération. Je fais partie de ceux qui continuent d’espérer. Interdire purement et simplement peut créer l’effet indésirable inverse : que l’adolescent cherche par tous les moyens à y accéder avant 15 ans précisément parce que c’est interdit car, à cet âge, aller à l’encontre de l’interdit est particulièrement recherché.

M. le président Arthur Delaporte. Permettez-moi de vous remercier pour votre participation et pour les combats que vous avez menés sur ce sujet d’importance, dont notre commission s’est saisie et à propos duquel le Parlement aura encore beaucoup à faire dans les mois à venir.

63.   Audition de Mme Clara Chappaz, ministre déléguée auprès du ministre de l’Économie, des finances et de la souveraineté industrielle et numérique, chargée de l’intelligence artificielle et du numérique (jeudi 19 juin 2025)

Puis la commission audition Mme Clara Chappaz, ministre déléguée auprès du ministre de l’Économie, des finances et de la souveraineté industrielle et numérique, chargée de l’intelligence artificielle et du numérique ([61]).

M. le président Arthur Delaporte. Madame la ministre, je vous remercie de prendre le temps de répondre à notre invitation.

Votre audition est importante pour la commission tant la régulation des réseaux sociaux occupe votre agenda et préoccupe le Parlement. Elle est l’occasion d’évoquer les initiatives du Gouvernement et les relations parfois compliquées avec l’Union européenne – la rapporteure et moi-même avons rencontré à Bruxelles le 4 juin la DG Connect (direction générale des réseaux de communication, du contenu et des technologies), des membres du Parlement européen ainsi que des représentants de la Cnil (Commission nationale de l’informatique et des libertés) irlandaise. Mais nous attendons surtout des solutions.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

Je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires, impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Clara Chappaz prête serment.)

Mme Clara Chappaz, ministre déléguée chargée de l’intelligence artificielle et du numérique. Je tiens à saluer le choix salutaire de l’Assemblée nationale d’avoir créé cette commission d’enquête, à votre initiative, madame la rapporteure. Vous vous emparez avec sérieux et lucidité d’un enjeu crucial de notre temps : l’impact des réseaux sociaux sur les mineurs. Il ne s’agit pas d’un simple fait de société, ni d’une inquiétude passagère, mais d’une question vitale pour notre jeunesse, pour laquelle les interactions avec le monde se déroulent principalement par le biais des écrans – elle y passe plus de quatre heures par jour.

Vous le savez, le sujet me tient particulièrement à cœur. Depuis ma nomination, j’ai engagé un combat déterminé pour l’interdiction de l’accès aux réseaux sociaux avant l’âge de 15 ans, combat en droite ligne avec les priorités du président de la République et les recommandations du rapport de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, plus communément appelée commission « Enfants et écrans ».

Ministre chargée du numérique, je ne veux pas en dresser un tableau complètement noir. Je sais mieux que personne à quel point les outils numériques et les réseaux sociaux sont de formidables espaces d’opportunités, de liberté, de créativité, d’apprentissage et d’émancipation. Qui n’a pas fait l’expérience heureuse de retrouver un ami de longue date sur les réseaux ou de découvrir une information ?

Cela ne doit pas nous empêcher de regarder lucidement les dérives et d’y remédier. Celles-ci sont massives et documentées ; elles ont des conséquences concrètes sur la vie de nos enfants. Un consensus scientifique solide émerge selon lequel l’exposition précoce et intensive aux réseaux sociaux chez les adolescents, notamment entre 8 et 15 ans, est associée à des troubles du sommeil, des troubles alimentaires, une augmentation des comportements à risque, un enfermement dans des bulles algorithmiques et une détérioration nette de la santé mentale. Comment justifier qu’un enfant sur quatre dise ressentir de l’anxiété sur les réseaux sociaux, pire, qu’un enfant sur cinq se réveille la nuit pour vérifier ses réseaux sociaux ?

De premières études montrent que le temps passé sur les réseaux et ses conséquences sur le développement cognitif et émotionnel des adolescents pourraient nous coûter d’un à deux points de PIB dans l’avenir.

C’est un enjeu majeur de santé mentale ; c’est un enjeu majeur de société. Nous en avons toutes et tous fait l’expérience, les plateformes peuvent amplifier la dévalorisation de l’image de soi, favoriser les phénomènes de harcèlement, exposer à des contenus violents ou pornographiques, encourager des pratiques qui vont jusqu’à l’automutilation. Il suffit de tendre l’oreille aux familles, aux médecins et aux enseignants. Il suffit d’écouter les jeunes euxmêmes, qui se disent souvent pris dans un tourbillon numérique dont ils ne maîtrisent plus les codes.

Pourtant, les chiffres sont implacables : près de trois enfants sur quatre âgés de moins de 13 ans sont déjà sur une plateforme au moins, quand bien même les conditions générales d’utilisation de celle-ci interdisent l’accès aux utilisateurs de cet âge. J’entends le désarroi des familles confrontées à la difficulté de poser un cadre en l’absence de repères clairs. J’entends le désarroi des enfants, qui ne veulent pas être exclus de cet espace numérique devenu espace de sociabilité, quand bien même ils sont conscients de son potentiel impact négatif sur leur santé. J’entends la demande forte d’action de la part des pouvoirs publics. J’ai donc engagé une action déterminée pour y répondre car, je le dis très clairement, ce n’est ni aux enfants, ni aux parents de porter seuls cette responsabilité.

Je veux saluer l’engagement constant des associations, en particulier celui des signaleurs de confiance comme e-Enfance et Point de contact, avec lesquels je travaille étroitement. Ils jouent un rôle d’alerte et d’accompagnement indispensable. Je veux aussi saluer les initiatives parlementaires – et elles sont nombreuses –, qui permettent toutes de nourrir la réflexion et la politique du Gouvernement en France et au niveau européen.

Je porte un message qui ne varie pas : avant 15 ans, les réseaux sociaux, c’est non. Ce n’est pas une posture, ni un symbole, c’est une mesure éducative de prévention, de protection, de bon sens. Je m’inscris dans la continuité de la loi adoptée à l’unanimité, à l’initiative du député Laurent Marcangeli, visant à instaurer une majorité numérique, celle-ci étant fixée à 15 ans. Nous le savons ici toutes et tous, cette avancée importante restera théorique si elle ne s’accompagne pas d’une véritable vérification de l’âge sur les réseaux sociaux, vérification dont le cadre devrait idéalement être européen. Nous avons tous été des enfants, nous ne savons que trop bien que lorsqu’il suffit de changer la date de son année de naissance pour s’inscrire sur un réseau, la tentation est grande. Il ne peut y avoir d’interdiction des réseaux sociaux sans vérification de l’âge. C’est donc cette bataille que nous menons avec fermeté.

Lorsque je vois Instagram dépenser des millions d’euros pour faire de la publicité dans nos gares, métros, titres de presse, ou à la radio pour demander une vérification d’âge à l’échelle de l’Union européenne, je me dis qu’une entreprise du numérique américaine qui demande de la régulation, c’est une première, mais aussi que les réseaux sociaux doivent assumer leurs responsabilités. En effet, lorsqu’ils demandent que la vérification soit opérée par les magasins d’applications (App Store), ils ne sont pas à la hauteur des enjeux. Il faut absolument sortir du ping-pong par lequel les acteurs se renvoient la balle constamment. Je l’avais d’ailleurs dénoncé dès le mois de janvier lorsque j’avais réuni tous les acteurs – plateformes, App Store, associations, réseaux de téléphone – pour faire le point sur les actions mises en place.

Je veux le dire clairement, les technologies existent, les solutions sont là : nous en avons recensé une quinzaine, développées par des entreprises françaises ou européennes. Elles permettent de vérifier l’âge de l’utilisateur sans identifier une personne, sans compromettre les données personnelles. C’est un impératif important sur lequel nous ne céderons pas et sur lequel nous avançons au niveau européen. La France sera d’ailleurs l’un des pays pilotes pour expérimenter la solution harmonisée qui se dessine.

Si d’aventure ces solutions ne convenaient pas aux plateformes, ces entreprises comptent parmi les meilleurs ingénieurs du monde. Je ne peux croire qu’ils ne sont pas capables de résoudre ce problème. Google y travaille d’ailleurs activement, ils m’en ont fait la démonstration.

Notre devoir est désormais d’imposer les solutions de vérification d’âge comme un standard et non de les laisser à l’appréciation de tel ou tel, et encore moins de permettre aux acteurs de se renvoyer la balle pour savoir à qui incombe la responsabilité.

C’est ce que nous faisons à l’échelle nationale mais aussi et surtout européenne car la régulation du numérique ne peut s’arrêter aux frontières nationales. Dès 2022, sous la présidence française du Conseil de l’Union européenne, nous avons défendu avec détermination le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), qui constitue une avancée majeure. Le texte ne considère plus les plateformes comme de simples hébergeurs techniques – c’est très important  ; il leur impose un devoir de vigilance notamment en matière de protection des mineurs et de santé mentale. C’est un texte très ambitieux, certainement le plus ambitieux du monde, mais nous devons maintenant en exploiter toutes les potentialités. Le DSA ne doit pas rester une promesse, il doit devenir une réalité.

C’est tout le sens des discussions actuelles sur l’article 28, consacré aux mineurs, dont nous souhaitons renforcer la portée en rendant obligatoire la vérification de l’âge pour accéder aux réseaux sociaux. Il s’agit bien d’une mesure « appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs » pour reprendre les mots du DSA. Je l’ai dit à la Commission européenne, je l’ai d’ailleurs fait inscrire à l’ordre du jour du dernier conseil des ministres chargés du numérique, au sein duquel une demidouzaine de pays ont suivi notre position. Nous le redirons ensemble dans les jours qui viennent, aux côtés de nos collègues ministres chargés de l’éducation et de la santé – c’est une première. Aujourd’hui treize États membres se sont ralliés à notre position. Il faut le réaffirmer haut et fort, l’Europe, forte de ses 450 millions de citoyens, pèse face aux géants du numérique. Les Européens assument leur responsabilité. Je ne lâcherai donc rien pour faire appliquer pleinement le DSA. Si nous n’y parvenons pas, alors, je le dis sans détour, nous prendrons des mesures à l’échelle nationale, comme nous l’avons déjà fait sur d’autres dossiers.

En parallèle, nous agissons concrètement. Lorsque nous avons alerté sur les contenus associés au hashtag #SkinnyTok, nous avons obtenu des résultats. Des ajustements ont été apportés, des contenus et des hashtags ont été retirés, mais soyons lucides, ce n’est pas parfait et cela ne peut pas être un modèle pérenne. Une stratégie de régulation ne peut pas reposer sur l’indignation, l’émotion et la pression ponctuelle. Faut-il vraiment qu’une ministre de la République se déplace à Dublin à chaque fois qu’un contenu dangereux apparaît sur une plateforme ? Bien sûr que non. Nous avons posé des règles, nous attendons qu’elles soient respectées et, si ce n’est pas le cas, nous prendrons les mesures qui s’imposent. Des enquêtes sont actuellement menées par la Commission européenne, au terme desquelles des sanctions très lourdes peuvent être prononcées. Je compte bien aller au bout de cette question avec la Commission européenne.

Enfin, notre objectif n’est pas d’interdire pour interdire, ni de punir pour punir – j’entends cette petite musique monter – mais de protéger et de responsabiliser. Je me permets une comparaison que chacun comprendra. Nous avons interdit l’alcool avant 18 ans, nous avons encadré sa publicité, nous avons informé sur ses dangers à travers des campagnes de prévention. Il nous faut faire la même chose pour les réseaux sociaux, non par méfiance à l’égard du progrès, mais par nécessité de donner des repères et de poser des limites pour accompagner les parents et les jeunes.

C’est tout le sens de la stratégie que je déploie avec mes collègues ministres Élisabeth Borne et Catherine Vautrin, sous l’égide du Premier ministre et du Président de la République. Nous avons besoin d’un cadre clair pour les familles, d’outils pour les éducateurs et de dispositifs concrets pour aider les enfants à grandir dans un environnement numérique sûr. Je n’ignore pas la difficulté de ce combat – je salue l’engagement de tous ceux qui le mènent. Ce combat bouscule des habitudes, heurte des intérêts et réclame du courage. Je vous le dis avec gravité, avec conviction, protéger nos enfants en ligne est un défi immense, mais c’est un combat que nous pouvons gagner, ici, en Europe. Nous construisons ensemble une protection à la hauteur de notre époque.

Mme Laure Miller, rapporteure. Je vous remercie, madame la ministre, de porter ce combat, au sein du Gouvernement et au niveau européen. Je vous sais gré de défendre nos enfants.

Le DSA a souvent été salué lors des auditions pour sa contribution à la régulation des plateformes à l’échelle européenne. On ne peut toutefois s’empêcher de juger sa mise en œuvre trop lente. Ses effets tardent à se faire sentir dans les foyers. Aux yeux de M. Marcangeli, qui vous a précédé devant nous, c’est même un symbole de l’impuissance publique.

Vous avez indiqué qu’en cas de blocage au niveau européen, vous prendriez vos responsabilités au niveau national. Pouvez-vous préciser de quelle manière et dans quel délai ?

Mme Clara Chappaz, ministre déléguée. Tout le monde le sait désormais, les réseaux sociaux ont un impact non négligeable sur la santé de nos enfants.

Le DSA est un texte dont nous pouvons être fiers. Les Européens ont décidé de faire peser la responsabilité sur les plateformes. Ce texte a été l’un des premiers – depuis, le Royaume-Uni a adopté le Online Safety Act – à être aussi ambitieux et déterminé en la matière. C’est un vrai changement de paradigme. Les plateformes ne sont plus de simples hébergeurs techniques, elles ont des responsabilités nouvelles dans plusieurs domaines parmi lesquels la protection des enfants en ligne. Je ne laisserai personne diffuser la petite musique de l’impuissance de l’Europe. L’Europe est forte, notamment de ses 450 millions de citoyens – elle compte plus d’utilisateurs des réseaux sociaux qu’aux États-Unis. C’est ce qui lui a permis d’imposer ses règles.

Je ne me satisfais évidemment pas de la longueur des enquêtes – je l’ai dit plusieurs fois à la Commission européenne. J’entends son argument selon lequel les enquêtes doivent être d’autant plus solides que le texte est récent – il n’a été transposé que l’année dernière en droit français – et qu’il traite de sujets de société majeurs. Mais, oui, nous voulons que les enquêtes aillent plus vite et nous voulons des changements structurels. J’ai confiance dans le fait que nos outils de régulation sont les bons. Les amendes, qui peuvent aller jusqu’à 6 % du chiffre d’affaires mondial, peuvent avoir un impact sur les acteurs économiques et les changements impulsés par le texte peuvent avoir un impact systémique. Il faut que nos règles s’appliquent plus fort et plus vite.

Nous avons connu récemment des évolutions. Je pense à TikTok Lite, une fonctionnalité qui a été retirée du marché européen à l’issue d’une enquête. D’autres enquêtes sont en cours et nous ferons tout pour qu’elles aboutissent, et le plus vite possible. Deux d’entre elles concernent TikTok : une sur le design, l’autre sur les ingérences. Nous les suivons de très près et nous nous assurons qu’elles aillent au bout, comme cela a été cas pour des enquêtes fondées sur un autre texte récent, le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA). Meta et Apple ont été condamnés il n’y a pas si longtemps.

En ce qui concerne les avancées européennes, nous sommes à un moment charnière. Je pense que la voix de la France est entendue et je m’en réjouis. Dans les trois mois qui viennent, nous avons une occasion unique de définir, dans le cadre du DSA, ce que nous attendons des plateformes pour protéger les mineurs. Or la première des protections tient à la connaissance de l’âge des utilisateurs. On peut créer toutes les fonctionnalités, par exemple, les comptes adolescents, – je salue ces très bonnes initiatives –, mais tant qu’on ne connaît pas l’âge de la personne, elles sont inopérantes.

Le combat que nous menons en ce moment consiste à s’assurer que les lignes directrices, qui ont vocation à préciser le contenu du texte, mentionnent clairement la vérification, et non l’estimation de l’âge. Je l’ai dit, treize pays sont d’accord avec nous pour demander une vérification, qui est la base de tout système de protection. La Commission européenne connaît très bien notre position. Nous avons réuni des ministres chargés de la santé et de l’éducation pour exprimer une position forte sur cette question. Si nous pouvons imposer le principe de la vérification de l’âge, ensuite nous travaillerons avec la Commission, et j’ai déjà commencé à le faire, afin que les États membres aient la liberté de choisir l’âge minimal pour accéder aux réseaux sociaux. La France pourrait alors le fixer à 15 ans.

Si nous n’arrivons pas à obtenir l’obligation de vérification de l’âge au niveau européen – je ferai tout pour que nous réussissions –, il nous faudra étudier toutes les voies nationales, en bonne intelligence avec la Commission, qui nous sait très attentifs et très déterminés. Le cas échéant, nous devrons nous assurer que ce que nous déciderons soit opérant. Plusieurs pistes sont sur la table mais un combat après l’autre : le premier, c’est la vérification de l’âge au niveau européen et on avance.

Mme Laure Miller, rapporteure. Les travaux de notre commission d’enquête sont ciblés sur TikTok. Vous avez mentionné certains bienfaits des réseaux sociaux, notamment dans le domaine des relations humaines, mais le seul objet de TikTok est de diffuser des vidéos sur un fil en continu. Pensez-vous que TikTok a une spécificité ?

Mme Clara Chappaz, ministre déléguée. Mon rôle n’est pas de porter un jugement de valeur sur tel ou tel réseau, mais de m’assurer qu’ils respectent toutes nos règles et de travailler en étroite collaboration avec la Commission pour ce faire.

Quand je repère le hashtag #SkinnyTok, j’alerte et je dénonce mais je saisis aussi l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) et la Commission européenne pour qu’une enquête soit ouverte. J’aurais procédé de la même manière pour n’importe quelle plateforme, parce que la protection des mineurs relève de leur responsabilité en vertu du DSA. Plusieurs enquêtes sont en cours et TikTok n’est pas la seule plateforme concernée : il y en a aussi sur X et sur d’autres réseaux. Je veux que toutes ces enquêtes aillent au bout parce que les heures que passent les Européennes, les Européens, les Françaises et les Français sur les réseaux, quels qu’ils soient, doivent être encadrées par des règles.

Mme Laure Miller, rapporteure. Lors de notre déplacement à Bruxelles, la question de la vérification de l’âge a été abondamment abordée. Pourquoi vous battez-vous pour qu’elle prenne le pas sur l’estimation ?

Il a également été question du mini wallet et du e-wallet. Pouvez-vous nous en dire plus, en particulier sur les délais de mise en œuvre de ces solutions ?

Mme Clara Chappaz, ministre déléguée. Je me bats pour que les plateformes aient la responsabilité de vérifier l’âge. Il existe de nombreuses solutions techniques. Le recours à un tiers de confiance, qui s’assure de la protection des données personnelles, en est une. Lorsqu’ont été mis en place, les outils auxquels la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique dite loi Sren nous autorise à recourir pour protéger les mineurs des contenus pornographiques, certains se sont inquiétés d’un risque en matière de données personnelles. Il n’en est rien car le référentiel établi par l’Arcom, avec l’aide de la Cnil (Commission nationale de l’informatique et des libertés), est très clair : la solution dite du double anonymat permet de vérifier l’âge sans donner d’informations personnelles. Ce qui vaut pour les sites pornographiques pourrait s’appliquer aux réseaux sociaux.

Pourquoi plaidons-nous en faveur de la vérification de l’âge et non de l’estimation ? L’estimation consiste, à partir d’informations que les plateformes rassemblent, à déterminer si la date de naissance renseignée par l’utilisateur est vraisemblable. Alors que nombre d’entre elles disent y avoir recours, force est de constater que ce procédé n’a pas fait la preuve de son efficacité : trois enfants sur quatre disent être sur les réseaux sociaux avant l’âge minimum, qui est fixé à 13 ans dans les conditions d’utilisation actuelles.

Il doit également être très clair pour les utilisateurs que ce service n’est autorisé, à l’instar de l’alcool, qu’à partir d’un certain âge. La vérification lors de l’entrée sur le réseau social semble la meilleure façon de porter un tel message et de le faire respecter. Chacun sait que pour acheter de l’alcool, il faut prouver qu’on est âgé de 18 ans.

L’interdiction a aussi la vertu d’offrir aux familles le cadre qu’elles attendent. Je participe tous les mois sur l’ensemble du territoire à des cafés IA (intelligence artificielle). On y parle de ce sujet, mais pas une seule fois, je n’ai échappé à des interpellations sur le sujet des réseaux sociaux. Vous savez mieux que personne le désarroi des parents puisque vous en avez rencontré un grand nombre. Il est parfois difficile pour eux d’assumer une décision d’interdiction. Ils pourront s’appuyer sur la régulation, et l’obligation de vérification de l’âge par les plateformes qui en découle, pour fixer un cadre à leurs enfants.

Dans le cadre des discussions que nous avons eues avec les sites pornographiques en début d’année, nous avons recensé une quinzaine d’outils capables de s’acquitter de cette vérification, sachant que nombre de plateformes sont capables de relever elles-mêmes le défi technique. Nous travaillons au niveau européen sur le mini wallet, qui apporterait une solution harmonisée de vérification de l’âge fondée sur le double anonymat, open source et qui ferait appel à des technologies européennes. La commission nous a indiqué que la première phase commencerait en juillet et la France s’est portée volontaire pour faire partie des pays pilotes qui déploieront cette solution. Nous pourrons ainsi nous assurer que le cadre mis en place pour les sites pornographiques, sous l’égide de l’Arcom et de la Cnil, est conforme au cadre européen afin que la régulation soit la plus opérante possible.

M. Thierry Sother (SOC). En premier lieu, j’aimerais savoir ce que vous inspire la décision rendue par le tribunal administratif de Paris, il y a quarante-huit heures, sur la vérification de l’âge sur les sites pornographiques, décision qui met en exergue son épineuse articulation avec le droit européen.

En ce qui concerne les effets des réseaux sociaux sur la santé mentale des jeunes, nous savons depuis les Facebook Leaks, en 2021, qu’ils sont parfaitement connus et même recherchés par les plateformes pour maintenir l’utilisateur connecté le plus longtemps possible. Or, le DSA ne traite pas cette question. Il donne l’impression d’être une boîte à outils intéressante, mais dont les outils ne seraient pas utilisés. Quant aux enquêtes, que ce soit contre X ou d’autres plateformes, elles se concentrent sur les questions de concurrence, mais pour ce qui est de la protection de mineurs, il ne se passe rien. Il faudrait interpeller l’échelon européen pour revoir les modalités d’action et le calendrier dans ce domaine.

Enfin, s’agissant de la vérification de l’âge, qui est essentielle, vous avez évoqué le ewallet. En France, nous avons l’application France Identité, sur laquelle les utilisateurs peuvent enregistrer leurs documents d’identité. Cet outil pourrait-il être utilisé comme tiers de confiance, en produisant un certificat anonymisé que les plateformes et les réseaux pourraient reconnaître de manière sécurisée ?

Mme Clara Chappaz, ministre déléguée. Pour le dire sans détour, je ne suis pas surprise que les sites pornographiques mettent tout en œuvre pour ne pas se conformer à leurs obligations. S’ils avaient voulu protéger les enfants de contenus qui leur sont interdits, ils l’auraient déjà fait. Soyons clairs : nous leur demandons simplement de faire respecter une interdiction ancienne de plus de trente ans et dont les manquements aboutissent à ce qu’un garçon sur deux et une fille sur trois consomment régulièrement du contenu pornographique dès 10 ans. Eu égard aux enjeux commerciaux, le monde dans lequel ces plateformes auraient, de leur propre chef, instauré des mécanismes de protection n’existe pas. C’est là que le rôle du Parlement et du Gouvernement prend tout son sens.

Il y a quarante-huit heures, le tribunal de Paris a décidé de suspendre l’application de l’arrêté qui oblige les sites pornographiques à vérifier l’âge des utilisateurs. D’ici au jugement définitif, nous ferons tout pour faire prévaloir nos arguments. Nous allons nous pourvoir en cassation devant le Conseil d’État afin de contester cette décision, d’ailleurs différente de celle rendue il y a une ou deux semaines concernant un autre recours. Pour notre part, notre ligne ne dévie et ne faiblit pas : les sites pornographiques doivent protéger les enfants. Une loi a été votée par le Parlement et nous nous efforcerons de la faire respecter par tous les sites. C’est un long combat, que nous mènerons jusqu’au bout ; vous pouvez compter sur mon entière détermination.

Outre ces procédures nationales, les choses avancent au niveau européen. Je tiens à le souligner, car on a beaucoup entendu qu’avec la loi Sren, la France avançait seule et que l’instauration d’une vérification d’âge était impossible. Non seulement nous avons montré que c’était possible, mais surtout que l’Europe suivait. En ce qui concerne les lignes directrices du DSA, la Commission européenne a inclus dès ses propositions la vérification de l’âge sur les sites pour adultes. Ainsi, aux sites qui cherchent à se soustraire à leurs obligations, j’indique que la réglementation progresse. Ils peuvent donc continuer à gagner du temps ou prendre leurs responsabilités et protéger les enfants.

S’agissant, ensuite, des effets sur la santé mentale, qui sont documentés, je vous rejoins : moi aussi, je souhaite que les enquêtes menées dans le cadre du DSA aillent plus vite et aboutissent. Chaque jour, des contenus comme ceux liés à la tendance SkinnyTok sont vus, sauf erreur, par 500 millions de jeunes filles. Ils incitent à l’extrême maigreur et affirment – je l’ai personnellement constaté sur mon propre fil – qu’il vaut mieux être vide que vilaine ou que quand l’estomac gargouille, c’est qu’il applaudit. Nous mesurons les effets absolument délétères de ce type de contenus sur la santé mentale et la santé tout court des jeunes filles qui les regardent en boucle.

Des enquêtes sont donc en cours et il faut utiliser les outils que nous avons à notre disposition. Nous rappelons notre position de fermeté à la Commission européenne et je répète que nous ne sommes pas seuls. Tous mes homologues sont parfaitement alignés pour affirmer que ce que nous avons obtenu au sujet de TikTok Lite, dont nous avons rapidement obtenu l’interdiction grâce à une enquête de la Commission, pourrait être reproduit concernant les autres problèmes identifiés sur les différentes plateformes. Certes, les enquêtes doivent être solides, mais il faut qu’elles aboutissent et nous y veillons.

En ce qui concerne la documentation, le DSA impose clairement à TikTok et aux autres plateformes d’analyser les risques systémiques, parmi lesquels figure la protection des enfants. Elles ont ainsi pour obligation de remettre un rapport annuel sur les conséquences négatives de leurs contenus sur le bien-être physique et mental des mineurs. J’ajoute que la réglementation européenne prévoit aussi la possibilité de mener des audits des algorithmes pour comprendre techniquement comment les plateformes sont gouvernées et identifier les éventuels biais cognitifs qu’ils induisent, de sorte de demander des corrections. Encore une fois, il faut maintenir la pression et exiger l’aboutissement des enquêtes : vous pouvez compter sur moi.

S’agissant, enfin, du contrôle de l’âge, France Identité constitue bien l’une des solutions existantes. J’ai également rencontré les représentants de Docaposte lors du salon VivaTech, la semaine dernière, qui est le plus important au monde dans le domaine de l’innovation. Il faut sortir de l’idée, avancée par certains acteurs réticents, selon laquelle il n’existe pas de solution. J’invite les plateformes à se renseigner : il y en a une quinzaine rien que dans notre pays. Des entreprises m’ont indiqué qu’avec la blockchain, elles pouvaient émettre des tokens (jetons) ou qu’avec telle technologie, elles proposaient telle possibilité, etc. Des solutions existent, grâce à des tiers de confiance qui pourront apporter une certification, et il n’est plus entendable de se cacher derrière des arguments faussement techniques, surtout quand on est une entreprise numérique particulièrement innovante.

M. Belkhir Belhaddad (NI). Les jeunes sont les premiers à subir les risques associés aux médias algorithmiques, à commencer par la désinformation. À cet égard, j’aimerais revenir sur la labellisation volontaire des influenceurs d’information.

Vous venez d’évoquer la certification, mais du côté technique, c’est-à-dire des entreprises proposant des solutions. Or les influenceurs qui produisent de l’information ne sont pas soumis aux mêmes règles déontologiques que les journalistes, les éditeurs de presse ou les services audiovisuels. Le rapport des états généraux de l’information, dont les conclusions ont été rendues en septembre 2024, recommande la reconnaissance de celles et de ceux qui, sur les plateformes, visent à offrir une information de qualité, indépendante et attachée aux faits. Ces personnes s’engageraient volontairement – je dis bien volontairement – à respecter des exigences renforcées en matière de traitement de l’information, de qualité des sources et d’honnêteté dans la présentation des faits.

Sous quelles conditions serait-il possible d’instaurer cette labellisation volontaire, dans le respect des libertés d’expression, de communication et d’information ? Le Gouvernement envisage-t-il un tel dispositif ?

Mme Clara Chappaz, ministre déléguée. Vous touchez du doigt un point central, car le DSA aborde la question de la responsabilité des plateformes face à la désinformation. Cet élément fait l’objet de nombreux débats et est souvent mis en opposition avec la liberté d’expression. Soyons clairs : cette dernière est un droit fondamental, un principe fondateur et il n’a jamais été question que le règlement européen le remette en cause.

Le DSA est néanmoins très clair : ce qui est interdit hors ligne l’est aussi en ligne. La liberté d’expression n’est pas définie de la même manière par la Déclaration des droits de l’homme et du citoyen et le premier amendement de la Constitution américaine ; c’est un fait. Ainsi, au cours de cette audition, à la radio ou sur un réseau, au-delà de la désinformation, il y a des propos illicites  homophobes, antisémites, d’appel à la haine, à la violence, au terrorisme, etc. – qu’on ne peut pas tenir. Les plateformes, aux termes du DSA, ont donc la responsabilité d’agir sur les contenus qui contreviendraient à cette règle, ainsi que de manière systémique sur la désinformation. Comme elles doivent le faire au sujet de la protection des mineurs, les plateformes doivent établir un rapport annuel quantifiant les risques et présentant des pistes de solution.

Les outils sont nombreux et les plateformes sont libres de choisir la façon dont elles se saisissent du sujet. Elles peuvent créer un réseau de journalistes ou encore appliquer des notes communautaires, c’est leur pleine liberté, mais elles doivent être claires sur l’efficacité des dispositifs retenus. Elles ont aussi pour obligation de coopérer avec les chercheurs agréés. Des enquêtes sont en cours afin de déterminer si les dispositifs choisis par les plateformes sont efficaces.

S’agissant de la responsabilité des producteurs de contenus eux-mêmes et de la qualité de l’information qu’ils proposent, plusieurs études montrent que les jeunes ont autant confiance en celle rapportée par les influenceurs qu’en celle des titres de presse ; c’est la réalité du monde dans lequel on vit. Le chiffre est à vérifier, car je le cite de tête, mais deux enfants sur dix, et ce n’est qu’un exemple, pensent que les pyramides ont été construites par des extraterrestres. Cela peut faire sourire, mais c’est ainsi.

En définitive, la responsabilité des plateformes est établie : le cadre est clair et il doit s’appliquer. Répondre à cet enjeu n’est pas facile, mais les solutions retenues doivent être efficaces. Quant à la responsabilité des créateurs de contenus, sachez que nous avons confié une mission à MM. Delaporte et Vojetta afin de prolonger leur loi dite influenceurs (loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux) en ce sens, bien sûr dans le respect du droit européen, afin de protéger nos enfants.

M. le président Arthur Delaporte. Mission pour laquelle nous attendons la lettre officielle, manière de vous adresser une petite relance. (Sourires.)

M. Stéphane Vojetta (EPR). Il y a un an, dans le cadre du projet de loi portant diverses dispositions d’adaptation au droit de l’Union européenne (Ddadue), nous avons demandé au Gouvernement de remettre au Parlement un rapport sur les mesures d’adaptation que nous devrions prendre à la suite des observations émises par la Commission européenne sur la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne, dite loi Marcangeli, qui visait à établir une majorité numérique à 15 ans. Ce rapport est-il prêt ? Quelles en sont les principales conclusions ? Y figure-t-il des pistes juridiques pour nous permettre, à nous Français, d’imposer aux plateformes des contraintes spécifiques, une fois que la vérification de l’âge des utilisateurs sera obligatoire en Europe ?

À cet égard, M. Arthur Delaporte et moi-même avions anticipé le fait que, tôt ou tard, la vérification de l’âge sera obligatoire, la loi dite influenceurs imposant non aux plateformes mais aux créateurs de contenus de filtrer leurs productions en conséquence et d’empêcher leur consultation par les mineurs dès lors qu’elles promeuvent certains produits ou services qui leur sont interdits. Il me semble qu’il s’agit là d’une voie de passage juridique. Peut-être y en a-t-il d’autres et j’aimerais vous entendre sur ce point.

Ensuite, je souhaitais aborder la question du contrôle parental et de la responsabilisation des parents. En effet, on ne peut uniquement parler d’interdictions : il faut aussi éduquer, sensibiliser, s’assurer que les parents participent, comprennent les risques auxquels sont exposés leurs enfants et utilisent les outils à leur disposition. Ceux-ci sont nombreux et intégrés aux systèmes d’opération et aux plateformes, mais nous déduisons de la réticence des acteurs à nous répondre à ce sujet que, très souvent, les comptes détenus par les mineurs – qu’ils soient ou non identifiés comme tels – ne font pas l’objet d’un contrôle parental ni d’une limitation de temps d’utilisation. La proportion de comptes contrôlés par les parents semble très faible.

Faudrait-il donc réfléchir à renforcer la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d'accès à internet dite loi Studer et imposer aux fabricants de vendre des écrans configurés par défaut pour les moins de 18 ans ? Le déblocage de l’appareil pourrait bien sûr avoir lieu ensuite, une fois que l’utilisateur aura fait la preuve de son âge. Est-ce une piste envisagée ? Le cas échéant, pourrait-elle fonctionner sur le plan juridique ?

Mme Clara Chappaz, ministre déléguée. En ce qui concerne le rapport, je tiens à vous présenter mes excuses, au nom du Gouvernement, pour le retard. Nous devions vous le remettre il y a déjà quelques mois et je sais que vous êtes sensibles au respect des délais. Je l’ai signé hier et il vous sera donc remis très prochainement.

Je salue la loi Marcangeli. Elle a été votée à l’unanimité, ce qui montre bien que ces enjeux de société majeurs sont transpartisans. Pour résumer, mais nous pourrons en reparler quand vous aurez reçu le rapport, deux éléments ont été pointés par la Commission européenne. Le premier a trait à la procédure de notification du texte auprès de la Commission, laquelle n’a pas pleinement respecté la période de statu quo prévue. Deuxièmement, plusieurs dispositions du texte sont en contradiction avec le droit européen.

Dès lors, ainsi que l’indique le rapport, deux options s’offrent à nous. Premièrement, nous pourrions dupliquer le contenu de la loi dans une ordonnance et reprendre la procédure de notification, afin de faire les choses dans l’ordre. Cependant, d’après nos services, l’adéquation du texte avec les réglementations européennes demeurerait très fragile. C’est pourquoi je privilégierais une seconde solution selon laquelle la vérification de l’âge serait instaurée au niveau européen, en laissant la possibilité aux États membres de déterminer celui à partir duquel l’accès aux réseaux sociaux serait autorisé. De cette manière, nous serions en accord avec les lignes directrices du DSA que nous sommes en train de rédiger en ce moment même. C’est ainsi, je le crois, que nous pourrons interdire les réseaux sociaux avant 15 ans.

C’est tout le travail que nous avons entamé avec la Commission européenne depuis quelque temps. Sans vouloir entrer dans des détails trop complexes, plusieurs bases légales européennes encadrent les plateformes. Outre le DSA, il y a le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) et la directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (SMA), sur laquelle nous nous étions d’ailleurs appuyés s’agissant des sites pornographiques. Avec la Commission, nous analysons les différentes possibilités afin de définir un âge légal à partir duquel une personne pourrait s’inscrire sur les réseaux sociaux. Lors du dernier Conseil européen, Henna Virkkunen, vice-présidente de la Commission, nous a assurés de sa volonté de nous accompagner en ce sens. Le travail n’est pas abouti, si bien que je ne peux encore indiquer de quelle manière les choses vont se passer, mais je compte bien aller au bout.

Le DSA interdit déjà aux plateformes de cibler les mineurs avec de la publicité. Il s’agit d’une première décision très importante, que la loi influenceurs a prolongée en obligeant les créateurs à préciser lorsqu’un contenu est sponsorisé et en prohibant la promotion de certains produits – plateformes et créateurs s’exposant à de très lourdes sanctions en cas de manquement. J’ajoute qu’il est également défendu de faire apparaître des produits interdits aux mineurs dans des publicités qui leur sont dédiées et de faire apparaître des enfants dans des contenus commerciaux sans autorisation.

Ces travaux vont dans le sens d’une meilleure responsabilisation et d’une protection accrue des mineurs en ligne. D’ailleurs, nous nous sommes aussi entretenus avec Michael McGrath, commissaire européen à la démocratie, à la justice et à l’État de droit, au sujet du projet de Digital fairness act, qui s’inspire de vos travaux sur l’influence commerciale en ligne. Ce n’est pas un combat facile et il reste des choses à faire, en particulier sur la vérification de l’âge, qui est la question centrale. La France montre la voie.

S’agissant ensuite du rôle des parents et des outils à leur disposition, je salue le travail mené par votre ancien collègue, Bruno Studer, afin que des dispositifs de contrôle parental soient préinstallés sur les différents appareils. Nous avons d’ailleurs organisé une réunion avec Catherine Vautrin, ministre du travail, de la santé, des solidarités et des familles, et les opérateurs téléphoniques afin qu’ils nous communiquent des informations sur le recours à ces dispositifs. Sontils connus et utilisés par les parents ? Nous suivrons cette question de près.

Comme vous l’avez très justement souligné, il faut être conscient de la situation. Les plateformes qui ont aussi élaboré des contrôles parentaux nous indiquent très honnêtement qu’ils ne sont pas massivement utilisés. Je ne m’interdis pas de réfléchir à l’opportunité de les installer par défaut, mais il y a aussi une question d’éducation. Je le disais en introduction : le travail mené par le Parlement, par cette commission d’enquête et par le Gouvernement doit conduire à un vrai débat de société sur la place que les écrans prennent dans la vie de nos enfants et leurs conséquences bien réelles sur leur santé. Il faut donner des pistes de réflexion aux familles et les outils de contrôle parental en est une. Les trois quarts des parents y sont favorables, mais près de 60 % d’entre eux ne les utilisent pas.

J’y insiste, il y a des enjeux d’éducation, de sensibilisation, d’accompagnement visàvis desquels nous devons être attentifs. Nous y prendrons toute notre part. Les règles seules ne suffisent pas.

M. le président Arthur Delaporte. Quelles sont nos marges de manœuvre au niveau national ? Nous réfléchissons aux moyens d’agir rapidement, mais lorsque nous sommes allés à Bruxelles, on nous a indiqué que le Digital fairness act devrait aboutir à l’horizon 2029. Devrons-nous attendre cette échéance ou l’élaboration d’un nouveau DSA ?

Mme Laure Miller, rapporteure. En effet, pourriez-vous préciser l’état de vos échanges avec la Commission européenne et les premières conclusions sur le fondement desquelles nous pourrions légiférer au niveau national ? Le cas échéant, peut-être pourrionsnous d’ailleurs publier les décrets d’application de la loi Marcangeli ?

Mme Clara Chappaz, ministre déléguée. C’est une question importante et je ne pourrai vous donner toutes les réponses que vous souhaitez, étant donné que la discussion est en cours. Nous étudions toutes les pistes – DSA, SMA, RGPD – pour avancer.

Soyez assurés que cette priorité de la représentation nationale est partagée par le Gouvernement. J’en profite d’ailleurs pour saluer la proposition de résolution européenne déposée cette semaine par la sénatrice Catherine Morin-Desailly sur la protection des mineurs en ligne. Notre volonté forte et assumée est d’aller plus loin en la matière et de convaincre nos partenaires européens en ce sens. Dans la mesure où nous sommes en train de préciser les lignes directrices du DSA et les obligations des plateformes concernant la protection des mineurs, c’est le moment d’agir et c’est la raison pour laquelle je me suis donné trois mois pour progresser.

S’agissant de la loi Marcangeli, comme je le disais, si nous voulons la conserver en l’état, il faudrait prendre une ordonnance. Le problème principal a trait à l’autorité de régulation. Or puisque nous avons confié cette mission à la Commission européenne s’agissant des très grandes plateformes, dont celle à laquelle votre commission d’enquête s’intéresse, le processus serait très long – environ un an – et nécessiterait un projet de loi Ddadue. C’est pour cette raison que ce n’est pas vers cette solution que nous nous dirigeons. Nous étudions toutes les pistes pour que les choses soient opérantes et, comme je l’ai dit, la Commission européenne partage notre volonté de trouver une voie de passage.

Je reconnais que c’est long et compliqué, mais n’oublions pas que ce que l’Europe a décidé de faire est fondamental et que si nous pouvons y arriver, c’est parce que nous sommes 450 millions. Je suis très fière d’être Européenne pour cette raison. Si, lorsqu’elles seront achevées, des enquêtes estiment que des plateformes ont manqué à leurs obligations et que des amendes sont prononcées en conséquence, ce sera un moment fondateur. Ne sous-estimons pas le chemin parcouru par l’Europe sur cette question.

Mme Laure Miller, rapporteure. Vous avez raison de rappeler le rôle de l’Europe dont, en tant que Français, nous n’avons pas toujours conscience. Il faut d’ailleurs rendre hommage à M. Thierry Breton, qui a réalisé un travail colossal – c’est une star à Bruxelles, aux yeux de certains parlementaires européens !

Je souhaite vous interroger sur la sensibilisation des parents et des enfants. Au cours des auditions de parents de victimes et d’associations de parents d’élèves, nous avons relevé une certaine incompréhension à l’égard de l’éducation nationale. En effet, on nous alerte régulièrement sur l’impact de l’exposition aux écrans et du numérique sur les enfants – la commission « Enfants et écrans » a d’ailleurs rendu ses conclusions à ce sujet. Or, même si les familles font de la résistance en essayant de ne pas confier de téléphone à leurs enfants et de limiter l’usage des écrans à la maison, c’est l’école elle-même qui met un écran dans les mains des enfants par le biais d’applications telles que Pronote. Quel regard portez-vous sur cette question ? Lorsque nous avons auditionné les représentants de l’éducation nationale, j’ai eu le sentiment qu’il faudrait du temps pour tirer les leçons des travaux de la commission « écrans » et appliquer ses recommandations dans le milieu scolaire.

Mme Clara Chappaz, ministre déléguée. Comme je l’ai souligné dans mon propos liminaire, je travaille avec mes collègues Catherine Vautrin et Élisabeth Borne, sur l’impact des écrans sur les enfants, puisque les trois sujets  numérique, santé et éducation – sont étroitement liés.

J’entends les interrogations des parents. Sous l’impulsion du président de la République et du premier ministre, la ministre d’État Élisabeth Borne a fait siennes plusieurs recommandations de la commission « Enfants et écrans », qui seront appliquées dès la rentrée 2025. Elle a ainsi annoncé la généralisation de la pause numérique dans les collèges, avec l’interdiction du téléphone portable dans ces établissements : cette mesure, très attendue, permettra de mettre en adéquation le discours avec ce qui se passe à l’école. Elle a également annoncé le lancement du défi « Dix jours sans écrans » et son souhait d’instaurer une pause dans les notifications envoyées par le logiciel Pronote, en particulier durant la nuit et à certaines heures du week-end – les modalités restent à préciser –, parce que cela fait partie des problèmes soulevés par les parents et des recommandations de la commission « Enfants et écrans ».

Catherine Vautrin a également annoncé, il y a quelques jours, l’interdiction de l’usage des écrans pour les enfants de moins de 3 ans. À l’instar de la loi dite anti-fessée, défendue par Adrien Taquet lorsqu’il était secrétaire d’État chargé de l’enfance et des familles, qui a permis de mettre en lumière cette pratique et de fixer un cadre très clair dans les familles, l’objectif est de fixer une règle commune pour tous : les écrans sont interdits avant l’âge de 3 ans.

Nous travaillons également à la communication sur le sujet. Nos prédécesseurs ont lancé le dispositif « Je protège mon enfant », qui comprenait plusieurs campagnes de sensibilisation. Il est encore trop tôt pour vous préciser quelle forme prendra la communication, néanmoins nous réfléchissons à une politique d’accompagnement qui va de pair avec les interdictions, puisque l’un ne va pas sans l’autre : il faut d’abord fixer des règles, puis accompagner, éduquer et sensibiliser.

M. Thierry Sother (SOC). Dans votre propos liminaire, vous avez évoqué une plateforme qui a dépensé des sommes considérables dans une campagne publicitaire, pour aboutir finalement à un jeu de ping-pong dans lequel chacun se renvoie la balle sur les actions à mener afin de protéger les mineurs. Derrière l’affichage, il y a une volonté de la part des plateformes de se dédouaner et de se déresponsabiliser, par facilité, et, en définitive, de s’en laver les mains.

Selon vous, comment pourrions-nous intégrer des messages de prévention sur les plateformes elles-mêmes ? Par exemple, pour s’inscrire à une course à pied, vous n’êtes plus tenu désormais de produire un certificat médical, mais vous devez regarder une vidéo préventive présentant les risques potentiels. Ne pourrions-nous pas ouvrir un dialogue avec les plateformes sur ce sujet ? Lorsque nous les avons auditionnées, elles ont déclaré, la main sur le cœur, que leur système économique était le plus sain et le plus vertueux possible. Au bout d’un certain laps de temps passé en continu sur une plateforme, on pourrait imaginer la diffusion de vidéos de prévention obligatoires, qui bloqueraient la consultation d’autres contenus tant qu’elles n’auraient pas été visionnées par l’utilisateur. Ce serait utile non seulement aux mineurs mais aussi aux parents qui, pour beaucoup, n’ont pas conscience de l’impact des réseaux sociaux.

Mme Clara Chappaz, ministre déléguée. Je vous rejoins en ce qui concerne la campagne de publicité : s’il est bon d’appeler à la vérification de l’âge, il y a un peu de cynisme à attendre de la Commission européenne une réglementation en la matière. Pour faire un parallèle, c’est comme si, en matière de vente d’alcool dont on connaît parfaitement les risques que sa consommation fait peser sur les mineurs, on en était encore à dire : « Empêchez-nous de leur en vendre » ! Face à des entreprises qui privilégient leurs intérêts commerciaux et ne prennent pas leur responsabilité, notre action prend tout son sens. Et nous prendrons nos responsabilités.

S’agissant de la prévention, ce sont effectivement de bonnes idées. C’est d’ailleurs ainsi que je conçois mon action : je crois en la coconstruction avec les plateformes. Je les ai réunies, à la mi-avril, pour leur faire part de ma volonté d’interdire les réseaux sociaux aux jeunes de moins de 15 ans, ainsi que pour réfléchir ensemble à ce qui pourrait être fait, au-delà de la régulation, pour présenter davantage de contenus positifs. Par exemple, face aux vidéos prônant l’extrême maigreur, TikTok a expliqué mettre en avant des contenus qui présentent aux utilisateurs des explications sur ce type de tendances. Je ne sais pas si cela fonctionne, mais c’est déjà une bonne chose que des plateformes, qui rassemblent des centaines de millions de personnes et dont l’audience est considérable, puissent être des vecteurs d’éducation et de sensibilisation.

C’est ainsi, également, que l’on peut imaginer le rôle des influenceurs. La mission qui sera confiée très prochainement à MM. Delaporte et Vojetta devra réfléchir aussi au moyen de les associer à cette dynamique, afin qu’ils relayent les messages positifs. Dans le cadre du défi « Dix jours sans écrans », lancé avec Élisabeth Borne, nous avons essayé d’encourager des créateurs de contenus à partager les messages de sensibilisation ; plusieurs d’entre eux ont réalisé des vidéos pour interpeller les jeunes et leur montrer comment, sans écrans, il est possible de reprendre le contrôle de son quotidien.

Il peut sembler surprenant d’entendre la ministre chargée du numérique inviter à la déconnexion. Que des influenceurs qui ont une activité commerciale sur les réseaux sociaux invitent à cette prise de conscience est assurément une bonne chose. Au-delà de la régulation, nous avons l’occasion de coconstruire avec les plateformes et de les faire participer à des solutions positives d’éducation et de sensibilisation.

Mme Laure Miller, rapporteure. Si je cherchais à polémiquer, je dirais que le Parlement agit parfois en ordre dispersé, mais que le gouvernement le fait également, puisque Aurore Bergé a organisé, comme vous, une réunion avec les plateformes. Cependant, je préfère voir les choses sous un angle positif et noter que tous les ministres se saisissent désormais du sujet – de la même manière, il y a quelques années, l’environnement n’était traité que par le ministre de l’écologie, alors qu’il s’agit d’un sujet transversal. Que pense la ministre chargée du numérique du fait que de plus en plus de ministres s’emparent du sujet, ce qui est une bonne chose ?

Mme Clara Chappaz, ministre déléguée. C’est une bonne chose, en effet, de même que la constitution de votre commission d’enquête ou la proposition de résolution européenne de la sénatrice Catherine Morin-Desailly, que j’ai évoquée tout à l’heure. Nommée ministre déléguée chargée de l’intelligence artificielle et du numérique à la fin du mois de septembre, j’ai un profil plutôt technique : j’ai travaillé pendant une dizaine d’années dans le numérique, au sein de différentes start-up et entreprises. Pourtant, il ne se passe pas un jour sans que je répète que le numérique n’est pas un truc de geek, mais un sujet de société, éminemment politique. À voir la détermination que vous mettez à travailler sur ces questions et celle de plusieurs de mes collègues du Gouvernement, notamment M. Laurent Marcangeli, pour dénoncer l’ampleur du problème, je me dis qu’il est possible d’embarquer toute la société.

J’ai évoqué tout à l’heure les cafés IA. Dans tous mes échanges sur le numérique avec mes interlocuteurs, qu’il s’agisse des parents, des enfants ou encore des enseignants, la question des réseaux sociaux revient sur la table. Plus nous serons nombreux à nous intéresser à ce sujet de société et à y chercher des réponses, mieux ce sera.

C’est d’ailleurs aussi un sujet de préoccupation majeure du président de la République. La commission « Enfants et écrans », dont il a pris l’initiative, a permis d’établir, sur la foi des experts, l’impact des réseaux sociaux et des écrans sur les enfants et de formuler des recommandations que les ministres Catherine Vautrin, Élisabeth Borne et moi-même mettons en œuvre avec détermination, dans une démarche interministérielle très fluide. Il y va de la protection de nos enfants.

Par conséquent, il n’y a pas d’ordre dispersé mais un sujet qui prend de l’ampleur, et c’est une bonne chose. D’ailleurs, j’invite tous les parlementaires à prendre part aux débats organisés sur ces questions, même si cela semble un peu technique – je pense par exemple à un débat organisé au Sénat sur l’impact des réseaux sociaux sur la vie démocratique et la question des ingérences étrangères. Sachant que les plus jeunes passent quatre heures par jour sur les réseaux sociaux, qu’ils s’y informent et s’y sociabilisent, il est fondamental que les responsables politiques comprennent l’ampleur du phénomène et unissent leurs forces pour apporter des réponses appropriées.

Mme Laure Miller, rapporteure. Je faisais référence aux questions de sexisme et de masculinisme mises en avant par la ministre Aurore Bergé. Pour justifier l’absence de modération a priori sur ces sujets, les plateformes se retranchent derrière l’existence d’une zone grise dans laquelle la loi ne prévoit aucune sanction pénale. Ma question est donc double : la loi française doit-elle évoluer pour prendre en compte ce type de questions, qui sont difficiles à appréhender ? Et faut-il que la procédure judiciaire évolue pour être plus rapide  je pense à une sorte de référé numérique –, afin de retirer plus efficacement, a posteriori, des contenus problématiques ?

Mme Clara Chappaz, ministre déléguée. Je vous ferai une réponse à plusieurs étages. Le DSA est très clair : les plateformes ont la responsabilité de protéger leurs utilisateurs et de s’attaquer aux risques systémiques, dont la protection des mineurs. Grâce aux audits réguliers et aux enquêtes menés, des réponses systémiques peuvent être trouvées. Les associations, qui jouent le rôle de signaleurs de confiance et font un travail remarquable depuis des années sur la protection des enfants en ligne, ont parfois le sentiment de vider l’océan à la petite cuiller. Par conséquent, la réponse ne peut être que systémique. En ce sens, le DSA est un outil puissant face aux contenus qui enfreignent la réglementation. Il n’y a pas de zone grise : quand c’est illicite, c’est illicite et les plateformes ont une responsabilité et une procédure à respecter. C’est sans doute plus compliqué pour d’autres thématiques mais, dans ce cas, le problème ne concerne pas que le domaine numérique : c’est pareil dans le monde physique. Faut-il légiférer sur ces contenus ? L’articulation entre discours de haine et masculinisme ou sexisme estelle suffisamment claire dans le droit français ? Je laisserai ma collègue Aurore Bergé, qui est experte de ces questions, y répondre. Néanmoins, dans le cadre du DSA, les discours de haine, quels qu’ils soient, ne sont pas autorisés sur les plateformes et les risques systémiques, dont le risque masculiniste, sont de la responsabilité des plateformes.

J’ai commencé à étudier de près le sujet des procédures judiciaires : cela fait écho à une question qui m’a été posée hier au Sénat, lors des questions au Gouvernement, sur l’anonymat sur les réseaux sociaux. Je tiens à rappeler qu’il n’y a en ligne qu’un pseudo-anonymat qui peut, certes, encourager des discours de haine et des comportements répréhensibles. Toutefois, ces comportements sont punis de la même façon qu’ailleurs : il n’y a pas d’impunité en ligne. Dans l’affaire de cyberharcèlement dont a été victime M. Thomas Jolly, sept personnes ont été condamnées à des peines pouvant aller jusqu’à huit mois de prison avec sursis. Certes, la procédure a été longue puisqu’elle a duré environ sept mois, de mémoire, et j’entends que ce ne soit pas satisfaisant. Est-il possible d’être plus opérant et de raccourcir les délais ? Il faudra que nous y réfléchissions avec le ministre Gérald Darmanin. Quoi qu’il en soit, je tiens à être très claire : les propos interdits dans le monde physique le sont aussi en ligne. Il n’y a pas d’impunité sur les réseaux sociaux, ni d’anonymat : il est tout à fait possible de retrouver ceux qui profèrent des propos illicites grâce à leur adresse IP et aux données de connexion que la plateforme a l’obligation de conserver précisément pour ce type de délits, et de les punir.

Mme Laure Miller, rapporteure. On nous a souvent dit que la lutte contre les contenus à caractère terroriste en ligne pouvait servir de modèle. Partagez-vous cette appréciation ?

Parmi les moyens de lutter contre les influenceurs et leurs contenus problématiques, la répression des fraudes et les différents types de sanctions qui peuvent leur être infligées vous semblent-ils être une voie à suivre ? Je sais que le président de la commission d’enquête travaillera sans doute sur ces sujets, mais avez-vous une réflexion en la matière pour faire évoluer le droit ?

Mme Clara Chappaz, ministre déléguée. Depuis l’adoption de la loi sur les influenceurs, ceux-ci doivent respecter certaines obligations et même si tous les décrets n’ont pas encore été publiés, l’autorité de contrôle peut commencer à l’appliquer. Nous avons échangé avec la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) sur cette question et nous veillerons à ce que les outils dont nous disposons désormais soient utilisés, afin de rappeler aux influenceurs leur responsabilité. Faut-il faire davantage ? C’est le sens de la mission confiée à MM. Arthur Delaporte et Stéphane Vojetta, qui examineront s’il est possible d’étendre ces responsabilités, dans le respect du cadre européen. Je suivrai ce travail avec la plus grande attention.

Mme Laure Miller, rapporteure. Comment décririez-vous votre relation avec les plateformes ? Vous avez évoqué ce que vous avez dû faire en ce qui concerne le hashtag #SkinnyTok : est-ce le rôle de la ministre de se rendre à Dublin pour soulever cette question ? Avez-vous, au sein de votre cabinet, une vigie qui relève les contenus problématiques et les signale régulièrement aux plateformes, en plus des signaleurs de confiance, dont c’est le rôle ?

Mme Clara Chappaz, ministre déléguée. C’est, en effet, le rôle des signaleurs de confiance, de l’Arcom et de l’ensemble des citoyens. D’ailleurs, la loi Sren a institué une réserve citoyenne du numérique, sur laquelle nous sommes en train de travailler, afin de s’appuyer sur ceux qui sont prêts à participer à ce projet. Je suis une ministre très attentive et lorsqu’une tendance telle que SkinnyTok se fait jour, je me sens dans mon rôle de la signaler à l’Arcom ainsi qu’à la Commission européenne et de tout mettre en œuvre pour obtenir des réponses de la part des plateformes. Et si elles me répondent qu’elles n’ont pas le pouvoir de changer les choses en France et qu’il faut se rendre à Dublin, j’y vais ; et lorsque, à Dublin, on me répond qu’il faut aller à Los Angeles, je suis prête à y aller également ! Finalement, je n’en ai pas eu besoin puisqu’ils ont agi avant. Je continuerai de le faire, mais ce n’est pas une réponse systémique.

Le numérique étant un sujet éminemment politique, il faut mener un travail de fond, en particulier sur les lignes directrices du DSA. Encore une fois, j’entends les associations qui ont l’impression de vider l’océan à la petite cuiller, lorsqu’elles signalent les comportements problématiques sur les réseaux. Dans un monde idéal, ce n’est pas à moi de le faire, mais je continuerai tant que cela aidera à accélérer les choses. Mais, j’y insiste, je mets surtout toute mon énergie à obtenir des réponses systémiques pour sortir de cette situation. Il y va de l’avenir de nos enfants.

En ce qui concerne mes relations avec les plateformes, je vois très régulièrement ces entreprises, qui ont des projets divers et variés en France et qui sont, pour certaines, très impliquées dans nos laboratoires de recherche. Sur la question des réseaux sociaux et de la protection des mineurs, je les réunis régulièrement, depuis le début de l’année, dans une logique constante de fermeté dans les attentes et de coconstruction de la réponse. S’il est caricatural de croire qu’elles bougeront par elles-mêmes – lorsque les intérêts sont divergents, il faut de la régulation pour faire avancer les choses ; il en va ainsi depuis que le monde est monde –, il est tout aussi caricatural de penser qu’on ne peut pas travailler ensemble : nous pouvons faire beaucoup de choses avec les plateformes et j’ai bien l’ambition de continuer à travailler avec elles en ce sens, sans naïveté, mais avec force, détermination et fermeté dans le discours.

Ce sera peut-être le mot de conclusion : l’époque durant laquelle la prise de conscience du problème était encore fragile est désormais révolue. Et, d’un point de vue purement cynique, si les plateformes veulent conserver leurs utilisateurs, il faudra bien qu’elles s’attaquent au problème. Soit nous le faisons ensemble, soit nous le faisons contre elles ; mais, dans tous les cas, nous avancerons pour protéger nos enfants.

Mme Laure Miller, rapporteure. Je vous remercie, madame la ministre.

64.   Audition de M. Léonard Brudieu, sous-directeur à la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), M. Paul-Emmanuel Piel, chef de bureau, et Mme Marie Pique, adjointe au chef de bureau (jeudi 19 juin 2025)

Enfin la commission auditionne M. Léonard Brudieu, sous-directeur à la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), M. Paul-Emmanuel Piel, chef de bureau, et Mme Marie Pique, adjointe au chef de bureau ([62]).

M. le président Arthur Delaporte. Mes chers collègues, nous accueillons aujourd’hui les représentants de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), que je remercie pour leur présence.

Je salue M. Léonard Brudieu, sous-directeur, M. Paul-Emmanuel Piel, chef de bureau, et Mme Marie Pique, adjointe au chef de bureau.

Avec M. Stéphane Vojetta, nous avons eu l’occasion d’échanger avec la DGCCRF à de nombreuses reprises, notamment concernant l’encadrement de l’influence commerciale. Même deux ans après l’entrée en vigueur de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, dite loi influenceurs, nous avons toujours un nombre important de questions.

Je souhaite souligner que les moyens de la DGCCRF demeurent insuffisants au regard de ses missions. Nous avons à plusieurs reprises, avec mon collègue M. Vojetta, défendu des amendements pour augmenter vos ressources.

Nous sommes régulièrement conjointement tagués par les utilisateurs des réseaux sociaux qui souhaitent signaler des contenus qui leur semblent problématiques ou non conformes à la loi. Cette audition est donc importante pour mieux comprendre votre travail, votre régulation de l’espace numérique, ainsi que vos besoins et les enjeux auxquels vous faites face.

Je vous remercie de nous déclarer tout intérêt public ou privé qui pourrait être de nature à influencer vos déclarations.

Avant de vous céder la parole, je vous informe que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Léonard Brudieu, M. Paul-Emmanuel Piel et Mme Marie Pique prêtent serment.)

M. Léonard Brudieu, sous-directeur de la DGCCRF. Je vous remercie pour votre soutien à travers les différents amendements que vous portez afin de renforcer les moyens de la DGCCRF.

La DGCCRF constitue une administration chargée de la politique de commerce, notamment en matière de loyauté de l’information des consommateurs. Dans ce cadre, elle vérifie donc les allégations commerciales et constitue en quelque sorte « la police du mensonge ». Notre mission régalienne de régulation et de contrôle des marchés vise à instaurer la confiance dans les transactions commerciales. Cette mission représente un élément essentiel à la fluidité du commerce national et un élément de justice pour les consommateurs.

Nous couvrons tout le spectre du commerce, incluant l’activité des influenceurs et leurs pratiques commerciales, particulièrement leurs allégations sur les réseaux sociaux en matière de promotion. Notre compétence s’étend également à la sécurité des produits, avec une mission de vérification et de surveillance du marché, y compris pour les produits commercialisés via des plateformes e-commerce ou promus par des influenceurs sur les réseaux sociaux.

Je précise néanmoins que notre direction n’est pas directement compétente concernant les effets psychologiques sur les mineurs, mais que notre mission de régulation contribue à protéger les mineurs face à des pratiques commerciales pouvant avoir des effets psychologiques préjudiciables.

Concernant notre structure, nous sommes organisés autour d’une administration centrale, complétée par un service national des enquêtes, un service informatique et un service de laboratoires, permettant notamment de vérifier la sûreté des produits et les allégations commerciales. Nous disposons également d’une école nationale formant nos agents de terrain. L’administration centrale compte environ 450 agents chargés de la programmation et de la coordination des enquêtes, des fonctions support (gestion des ressources humaines et services informatiques) et du pilotage des réformes de politiques publiques aux côtés des cabinets ministériels. Notre école compte 300 agents, incluant les élèves. Sur le terrain, nous mobilisons 2 000 agents, répartis dans les services départementaux, les services régionaux et le service national des enquêtes. Nos personnels sont principalement recrutés à bac+3, avant d’être formés à l’école de la CCRF. Leurs profils sont majoritairement économiques, juridiques et scientifiques.

Ces dernières années, nous avons accompagné la montée en compétence numérique de nos agents, tant en formation initiale qu’en formation continue. Selon une enquête interne, en 2024, 15 % de nos enquêteurs étaient formés aux outils numériques. Cette formation ne concerne pas uniquement les réseaux sociaux, mais également le e-commerce, les plateformes et la vente de produits numériques, notamment relatifs au tourisme. Nous essayons d’accroître le nombre d’agents formés, mais cela prend naturellement du temps.

Nos moyens techniques dans le domaine numérique se sont renforcés, ces dernières années, concernant les contrôles sur les réseaux sociaux et les plateformes de e-commerce. Nous sommes maintenant en mesure de réaliser des captures d’écran ou de vidéos ainsi qu’un suivi des parcours consommateur pour analyser les allégations. Tous nos contrôles doivent être vérifiables et opposables, car ils peuvent déboucher sur des procédures pénales et des contentieux. Nos outils doivent donc être parfaitement fiables et compatibles avec les procédures d’enquête policière, ce qui explique le temps nécessaire à leur développement.

Nous avons récemment créé deux principaux outils internes pour répondre à ces exigences. L’outil COWEB permet, sur les navigateurs internet, de capter des éléments de manière opposable. Nous développons également un autre outil, spécifique aux réseaux sociaux, notamment pour la partie influenceur.

Ces dernières années, une cellule numérique est née au sein de l’administration centrale de la DGCCRF pour appuyer les enquêteurs. Cette cellule — qui compte une dizaine de personnes, dont des développeurs web et des data scientists  appuie le réseau afin d’extraire des données, de retraiter des fichiers et de transcrire des éléments de langage. Entre janvier et mai, la cellule a assuré 134 demandes de prestations numériques pour le réseau, dont 19 concernaient spécifiquement des influenceurs, y compris sur TikTok.

Concernant les moyens financiers, nous disposons de 9,6 millions d’euros de budget de fonctionnement. Cette somme est bien inférieure au montant des amendes perçues par l’État du fait de nos activités. Nos missions permettent de renforcer la confiance dans le marché. Les moyens de notre administration pourraient effectivement être renforcés.

Concernant les moyens spécifiquement affectés aux contrôles des influenceurs, nous avons commencé à développer des enquêtes dès 2022, avec la montée en puissance des allégations sur les réseaux sociaux. Un accroissement de l’activité a eu lieu à partir 2023-2024. En 2025, nous élargissons notre action aux interdictions de pratiques établies par la loi dite influenceurs, notamment sur les sujets relatifs aux cryptoactifs et aux promotions de comptes personnels de formation (CPF).

En termes de ressources humaines, 130 enquêteurs interviendront au moins une fois dans l’année 2025 sur une enquête relative à des réseaux sociaux et des influenceurs. Ces agents ne se consacrent évidemment pas exclusivement à cette mission tout au long de l’année et agissent également dans les domaines du numérique et du e-commerce. Une quinzaine de personnes de l’administration centrale appuient et coordonnent ces investigations de façon active.

Par ailleurs, notre plateforme SignalConso a recueilli 1,2 million de signalements depuis son lancement en 2020. Son objectif consiste à permettre la mise en relation avec les entreprises, les influenceurs et les plateformes lorsque ces derniers l’acceptent, ce qui n’est pas toujours le cas. Cette plateforme recense les signalements, établit un contact avec les entreprises et permet parfois de trouver une solution, le tout sous la surveillance de la DGCCRF. Ce dispositif permet également de cibler les contrôles et d’obtenir des éléments pour initier des enquêtes.

Sur la question spécifique des influenceurs, nous comptabilisons 20 600 signalements depuis 2022. Le premier signalement relatif à TikTok, qui constitue l’objet de votre commission, est intervenu en mars 2023. Depuis, nous avons enregistré près de 1 200 signalements concernant spécifiquement les influenceurs sur TikTok. Il convient de préciser que les influenceurs opèrent généralement sur plusieurs réseaux sociaux simultanément, mais les personnes qui effectuent ces signalements mentionnent parfois la plateforme spécifique où elles ont constaté le problème. À titre de comparaison, Facebook et Instagram totalisent un peu plus de 9 000 signalements, tandis que Snapchat en compte plus de 5 000. Si les signalements liés à TikTok étaient auparavant relativement peu nombreux, nous observons une augmentation significative depuis quelques mois.

Par ailleurs, les signalements que nous recevons couvrent des sujets variés. Une partie importante concerne l’intention commerciale et la publicité déguisée, qui relèvent directement du champ de contrôle de la DGCCRF. D’autres signalements portent sur des sujets concernant des activités illicites, la santé, les jeux d’argent, la contrefaçon ou encore les escroqueries. Même si le champ d’activité n’est pas toujours celui de la police de la DGCCRF, cela nous permet d’aller piocher des éléments liés à notre champ de contrôle.

M. le président Arthur Delaporte. Je constate que la messagerie Telegram est absente de l’un de vos graphiques.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Telegram représente entre 0,4 et 0,6 % des signalements.

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Le premier graphique ne contient pas toutes les courbes, mais seulement celles des dix principaux réseaux sociaux, pour des raisons de lisibilité.

SignalConso n’étant pas un outil parfait, on peut, par exemple, nous déclarer que Leboncoin est un réseau social.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Nous avons effectué une comparaison entre Instagram, Snapchat et TikTok afin d’analyser si les pratiques sont homogènes. Nous constatons qu’Instagram concerne plutôt des pratiques en matière d’intention commerciale (pratiques commerciales déloyales et trompeuses), tandis que TikTok concerne davantage des pratiques en lien avec le domaine de la santé (médecine esthétique ou exercice illégal de la médecine) et des escroqueries. Dès lors que ce sujet relatif à la santé commence à toucher à des pratiques commerciales, la DGCCRF peut être habilitée.

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Cet exercice a été effectué seulement sur le mois de mai, car nous n’avons pas la possibilité de lire tous les signalements. SignalConso est en premier lieu un outil de mise en relation de l’entreprise avec le consommateur. Nous effectuons ensuite des recherches afin de savoir quels sont les réseaux sociaux les plus signalés dans le but de nous aider à cibler nos actions.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Un dernier tableau présente le bilan de nos activités en matière de contrôle des influenceurs. Il convient de préciser que ce tableau ne cible pas TikTok, mais tous les réseaux sociaux, puisque ces influenceurs sont généralement présents sur plusieurs plateformes. Notre mission consiste à contrôler les influenceurs, et non les réseaux sociaux qu’ils utilisent.

Nous avons contrôlé 290 influenceurs en 2024.

M. le président Arthur Delaporte. Vous contrôlez donc simultanément tous les comptes d’un influenceur ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Oui. Certains influenceurs sont particulièrement actifs sur un réseau social et nous pouvons alors contrôler ce seul compte. Cependant, d’autres influenceurs agissent sur plusieurs réseaux sociaux. Depuis le début de l’année, les dix-neuf actions d’appui de notre cellule numérique pour les réseaux de contrôle concernaient plusieurs réseaux sociaux à la fois.

Nous avons effectué 292 contrôles, qui ont révélé un taux d’anomalie de 47 %. Ce pourcentage signifie qu’au moins un manquement a été identifié dans près de la moitié des cas examinés. Il convient toutefois de préciser que, lors de nos enquêtes, nous ciblons les influenceurs pour lesquels nous suspectons un écart. Nous ne procédons pas à des contrôles aléatoires. Ce taux d’anomalie montre qu’il existe encore de nombreux écarts en matière de pratiques commerciales trompeuses, ce qui est l’essentiel de notre champ d’action.

De janvier et mai 2025, 96 enquêtes étaient en cours  ou terminées  et nous prévoyons d’atteindre un volume global d’environ 250 enquêtes d’ici la fin de l’année. Ces chiffres doivent être mis en perspective avec les prévérifications réalisées en amont pour effectuer nos ciblages. Si SignalConso permet de déterminer des ciblages, il existe également un travail de différents bureaux sectoriel de l’administration centrale visant à identifier les profils posant potentiellement une difficulté. Ce travail n’est pas suffisant pour une enquête, mais nous permet de proposer des cas nécessitant une investigation. Lorsque 250 enquêtes sont menées, plus de 1 000 cas sont vérifiés.

Les 292 enquêtes réalisées en 2024 représentent en réalité environ 700 contrôles, car nous revenons fréquemment sur les mêmes profils pour caractériser les pratiques, vérifier la continuité dans le temps et qualifier l’intentionnalité du délit de pratiques commerciales trompeuses.

En 2024, notre activité a permis environ 80 injonctions administratives de mise en conformité, 6 sanctions administratives fermes et 13 procès-verbaux pénaux, qui sont transmis au parquet et font l’objet de suites.

Notre priorité concernant les injonctions administratives est d’enjoindre les influenceurs à réaliser eux-mêmes une communication pédagogique. Cette approche s’avère particulièrement efficace pour atteindre directement l’ensemble des consommateurs et utilisateurs des réseaux sociaux. Lorsque des influenceurs comptant parfois plusieurs millions d’abonnés effectuent une communication pédagogique, cela touche un grand nombre de personnes. Par exemple, nous avons enjoint un influenceur issu de la télé-réalité de réaliser une communication pédagogique pour corriger ces pratiques passées et sensibiliser ses abonnés aux risques en matière de copy trading et de jeux d’argent, rappelant que certaines allégations sur les réseaux sociaux peuvent être trompeuses. Toutefois, les 292 enquêtes ne donneront pas lieu à des communications cette année, car le cadre juridique exige que nous attendions la fin des procédures pour demander cette communication corrective. Depuis 2023, nous comptons une vingtaine de mesures de publicité pédagogique sur les réseaux sociaux et le site de la DGCCRF.

Mme Laure Miller, rapporteure. Lors de notre audition des dirigeants de TikTok la semaine dernière, nous les avons particulièrement interrogés sur TikTok Shop. La presse a en effet largement relayé des exemples de produits commercialisés sur cette plateforme qui suscitent des interrogations quant au respect des réglementations nationales et européennes. Nous les avons notamment questionnés sur certains bonbons proposés, pour lesquels on peut douter du respect de la réglementation. Menez-vous actuellement des enquêtes spécifiques concernant des produits, qui ciblent manifestement un jeune public, sur TikTok en particulier ? Avez-vous identifié certaines plateformes posant davantage de difficultés en matière de conformité des produits aux normes françaises et européennes ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Une part importante des difficultés concernent les grandes plateformes de e-commerce, davantage utilisées que TikTok Shop et sur lesquelles nous réalisons évidemment des contrôles. TikTok Shop, relativement récent, a bien été identifié. Cette plateforme constitue une spécificité, puisqu’il s’agit d’un réseau social associant une plateforme de e-commerce. Nous menons actuellement une enquête sur les pratiques de TikTok Shop, indépendamment des produits qui y sont commercialisés. Je rappelle que toutes les grandes plateformes font l’objet d’une enquête pour vérification.

Lorsque des produits dangereux nous sont signalés, cela engage de notre côté des processus d’enquêtes. La sécurité des produits est un domaine dans lequel nous pouvons aboutir à des demandes de retrait. Cette situation s’est présentée récemment sur TikTok, en lien avec des influenceurs qui faisaient la promotion de crèmes cosmétiques volumatrices dangereuses et interdites à la vente en France. Lorsque nous demandons à un influenceur de cesser leur promotion et qu’il obtempère spontanément, la situation se résout rapidement. Dans le cas contraire, cela peut aboutir à des procédures plus longues de réquisition numérique imposant la suppression des données. Ces procédures peuvent permettre le déréférencement, puis la restriction d’accès aux données, voire leur suppression. En 2024, une affaire sur TikTok a nécessité d’aller jusqu’au terme de la procédure en raison de la persistance d’un influenceur dans la promotion et la vente de crèmes cosmétiques interdites. Cette démarche, bien que longue, car impliquant de nombreux échanges, a finalement permis de résoudre la situation. TikTok adopte généralement une position alignée sur le cadre réglementaire européen et le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA). Parfois, lorsqu’une administration française demande à l’entreprise d’agir, des incompréhensions peuvent naître. Dans le cas mentionné, nous sommes parvenus à une résolution favorable en 2024. D’autres affaires similaires sont certainement en cours en 2025, mais je n’en connais pas précisément le détail.

M. le président Arthur Delaporte. Manque-t-il un décret d’habilitation de la DGCCRF pour faire appliquer la loi dite influenceurs ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Cette loi a fait l’objet d’une ordonnance en novembre 2024 visant à adapter sa configuration au cadre réglementaire européen. Depuis cette ordonnance, elle est applicable en France pour les influenceurs établis sur le territoire national.

En revanche, pour les influenceurs établis à l’étranger, mais exerçant une activité en France, nous sommes soumis au principe du pays d’origine, ce qui nécessite une procédure dérogatoire spécifique. Cette dernière implique d’intervenir par l’intermédiaire de l’État membre concerné, qu’il s’agisse de l’Irlande, de la Belgique ou du Luxembourg. Pour cette procédure particulière, un décret d’application serait nécessaire pour décrire les procédures et les compétences internes des différentes administrations. Ce décret n’a pas encore été publié.

La législation actuelle ne nous permet donc pas d’agir contre des influenceurs établis à l’étranger sur des domaines de la loi dite influenceurs. En revanche, nous pouvons déjà les poursuivre concernant les pratiques commerciales trompeuses. Cette interdiction des pratiques commerciales déloyales existait avant la loi évoquée, qui l’a ensuite consacrée et approfondie.

Le décret que j’ai évoqué n’est pas tant un décret d’habilitation qu’un décret de procédure. L’habilitation provient de la loi. La DGCCRF dispose d’habilitations sur certaines dispositions de la loi dite influenceurs, notamment l’interdiction relative aux cryptomonnaies et aux pratiques commerciales liées à Mon Compte Formation. En revanche, nous ne sommes pas habilités sur les dispositions en matière de santé.

M. le président Arthur Delaporte. Qui contrôle ces dispositions ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. À ma connaissance, personne n’est habilité en matière de police de contrôle sur ces dispositions de la loi.

M. le président Arthur Delaporte. Un simple décret suffirait-il pour remédier à cette situation ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Non, une loi est nécessaire.

M. le président Arthur Delaporte. Des dispositions ne sont donc pas applicables.

M. Léonard Brudieu, sous-directeur de la DGCCRF. En effet. Je note que l’interdiction s’applique. Une personne qui considère être lésée par une pratique interdite peut intenter une action au civil pour demander réparation du préjudice subi. En revanche, concernant la police, avec des sanctions administratives derrière, des dispositions législatives sont nécessaires.

M. le président Arthur Delaporte. Je suis surpris que cette question n’ait pas été soulevée plus tôt, alors même que nous avons eu des échanges. Cette problématique n’est pas apparue dans notre rapport d’application.

M. Léonard Brudieu, sous-directeur de la DGCCRF. La raison est peut-être qu’au sein du Gouvernement, il a fallu un temps pour déterminer qui est habilité. La DGCCRF est à l’origine plutôt compétente dans le domaine des pratiques commerciales. Voyant que les sujets relatifs à la médecine et à la chirurgie esthétique comportent des aspects pouvant s’apparenter à des pratiques commerciales, nous sommes plutôt ouverts pour être habilités sur ce point, mais cela nécessite de faire passer un amendement. Dans la proposition de loi visant à réduire l’impact environnemental de l’industrie textile, nous avons préparé un amendement permettant d’ajouter une interdiction de publicité pour la fast-fashion sur les réseaux sociaux, avec l’ajout d’une habilitation de la DGCCRF pour en renforcer l’efficacité. Cet amendement a, je crois, été adopté tel quel. Nous avons également voulu, à cette occasion, soutenir des amendements pour élargir notre habilitation au domaine de la santé, mais ils n’ont pas pu passer, car leur insertion dans cette loi semblait cavalière. Un autre vecteur doit donc être trouvé.

M. le président Arthur Delaporte. Nous sommes à votre disposition pour servir de vecteurs. Vous ne devez pas hésiter à nous contacter.

Avez-vous besoin de ressources ou de personnels supplémentaires pour monter en puissance ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Nous disposons d’une marge d’action dès lors qu’il s’agit de pratiques commerciales trompeuses. Dans le domaine de la santé, nous sommes habilités à intervenir quand il y a mensonge ou allégation mensongère, ce qui nous permet d’intervenir, par exemple, sur les produits cosmétiques interdits en France.

En revanche, pour une publicité relative au domaine de la santé qui ne serait pas mensongère, mais qui serait interdite, nous avons effectivement besoin d’une habilitation. Ces éléments concernent les points 1 et 3 de l’article 4 de la loi dite influenceurs. Nous pouvons également effectuer des signalements au procureur sous l’angle de l’article 40, ce que nous faisons parfois, mais cette procédure n’est pas aussi efficace que nos actions de police administrative.

M. le président Arthur Delaporte. En conclusion, la loi s’applique et des sanctions judiciaires peuvent être prononcées en cas de non-respect de cette loi, notamment lorsque des signalements sont effectués au titre de l’article 40. Combien de signalements avez-vous réalisés ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Je ne saurai pas vous répondre.

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Ce point a été intégré dans la nouvelle demande d’enquête prévue pour 2025, car, avant l’ordonnance, nous étions confrontés à des difficultés liées à l’application de la loi. Le processus est en cours. Nous avons élaboré une enquête comportant des axes de produits ou services, incluant notamment l’aspect médical et chirurgical. Du fait de la forte attention politique et médiatique, les enquêteurs rédigeront et transmettront au procureur un rapport signalant du non-respect des dispositions du point 1 de l’article 4, conformément à l’article 40 du code de procédure pénale. À ce stade, il s’agit d’une demande, pour laquelle nous n’avons pas encore obtenu une remontée. Si un enquêteur suit un influenceur et constate la promotion de chirurgie esthétique, nous lui demandons de rédiger un signalement au titre de l’article 40, ce qui nous conduit à perdre la main sur la procédure, qui relève alors du procureur. Nous avons demandé aux enquêteurs de le faire systématiquement dans la demande d’enquête.

M. le président Arthur Delaporte. Nous sommes régulièrement sollicités par des citoyens concernant des contenus problématiques publiés par des influenceurs, notamment sur TikTok. Si vous avez suivi l’audition de M. et Mme Tanti la semaine dernière, vous avez pu constater que nous avons identifié en direct des contenus problématiques, notamment liés à la fast-fashion et à l’exposition d’enfants. Lorsque nous signalons ce type de contenu sur SignalConso, plusieurs mois peuvent s’écouler avant qu’une enquête ne soit menée. Pendant ce temps, les contenus impliquant des enfants demeurent accessibles en ligne. Ne pourrait-on pas concevoir un canal de signalement plus efficace et plus direct ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Le processus n’est pas aussi long que vous semblez le décrire. Le processus traditionnel d’enquête dans les secteurs économiques est celui que vous décrivez. Toutefois, le processus est plus rapide dans le domaine du numérique. C’est pour cette raison que nos équipes d’enquêteurs sont activement mobilisées depuis trois ans.

L’influenceur que vous mentionnez est déjà bien connu et a fait l’objet de contrôles et d’une enquête de notre part. Nous maintenons une surveillance, indépendamment de l’existence ou non de signalements sur SignalConso. Dès que nous recevons un signalement sur cet outil dans le domaine des influenceurs, nous l’examinons attentivement. Néanmoins, nous n’attendons pas d’accumuler des signalements avant d’envisager des enquêtes dans le domaine de l’influence commerciale, notamment parce que leur nombre reste accessible.

Je tiens à souligner que SignalConso n’est pas le seul outil de signalements et de difficultés. Cet outil nous permet de capter une partie des problématiques, mais nous menons également nos propres investigations. Par exemple, nous surveillons les cinquante influenceurs les plus importants d’un secteur, comme celui de la fast-fashion, et pouvons déclencher des enquêtes sur certains d’entre eux pour nous assurer que rien ne nous a échappé. Nous collaborons également avec des associations présentes dans le secteur.

M. le président Arthur Delaporte. Quelles sont ces associations ?

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. L’Union des métiers de l’influence et des créateurs de contenus (Umicc), avec laquelle nous entretenons des relations régulières, et des collectifs de victimes nous transmettent des signalements.

M. le président Arthur Delaporte. Disposez-vous de canaux de communication directs avec ces associations ?

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Nous disposons d’une adresse email.

M. le président Arthur Delaporte. Je suis intéressé par cette adresse, qui me permettra de vous transférer une part des nombreux contenus qui me sont signalés.

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. La vigilance des enquêteurs sur le terrain permet de cibler certains influenceurs, dont ils regardent le contenu régulièrement. SignalConso présente certaines limites et nous l’utilisons pour identifier les influenceurs les plus signalés, ce qui nous permet de débuter des enquêtes. Nous avons constaté un cas où des influenceurs installés à Dubaï et auteurs de pratiques graves n’avaient fait l’objet que d’un seul signalement sur SignalConso. Notre méthode ne nous permettant pas d’identifier un tel cas grâce à cet outil, nous en avions eu connaissance par d’autres sources.

Par ailleurs, SignalConso est un outil de mise en relation du professionnel avec le consommateur. Ce dispositif fonctionne efficacement pour des professionnels ayant déjà une certaine notoriété et tout intérêt à éviter l’accumulation de signalements, sachant qu’ils entraînent une mise en enquête. La difficulté survient lorsqu’il s’agit de professionnels moins scrupuleux ou des types d’acteurs économiques, comme les influenceurs, qui, bien qu’ils soient professionnels, ne constituent pas des entreprises. Ces derniers n’ont pas nécessairement accès à SignalConso et les réseaux sociaux reçoivent un volume considérable de signalements qu’ils ne considèrent pas comme les concernant directement, puisqu’ils visent les influenceurs.

TikTok a répondu pendant un certain temps aux signalements sur SignalConso en indiquant qu’il convenait d’adresser les signalements via l’outil spécifique mis en place en application du DSA. Ces réponses étaient d’ailleurs relativement précises, comportant une analyse préliminaire mentionnant les différents mots-clés à utiliser dans leur outil. En application du DSA, ces signalements doivent être effectués sur l’outil dédié, basé en Irlande, dont le contrôle incombe à l’autorité irlandaise. Pour obtenir des retraits et bénéficier d’une analyse par TikTok, cet outil mis en place dans le cadre du DSA s’avère plus efficace.

M. le président Arthur Delaporte. Disposons-nous de visibilité sur les retraits de contenus liés à des pratiques commerciales ?

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Lorsque ces dossiers sont traités par un autre État membre, nous n’avons pas d’accès direct. Un rapport de transparence est rendu, mais ces questions relèvent de la compétence des autorités nationales concernées et de la Commission européenne. Nous ne disposons pas de chiffres sur ces retraits de contenus. Lorsque nous demandons nous-mêmes un retrait, nous en assurons systématiquement le suivi. Cette demande est exceptionnellement adressée aux plateformes lorsque l’influenceur lui-même ne répond pas à l’injonction.

M. le président Arthur Delaporte. Si je repère un contenu problématique sur TikTok, quelle démarche me recommandez-vous ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Face à un contenu problématique sur TikTok, nous vous conseillons tout d’abord d’effectuer un signalement via l’outil prévu par la plateforme en application du règlement DSA. Cette option existe et peut s’avérer efficace, même si nous ne pouvons pas vous préciser son degré d’efficacité. De plus, vous pouvez également réaliser une déclaration sur SignalConso, ce qui permet à la DGCCRF d’être informée de la situation et d’engager une enquête si nous estimons qu’une difficulté relève de nos compétences.

M. le président Arthur Delaporte. Regardez-vous tous les jours les signalements effectués ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Les enquêteurs et les bureaux concernés regardent très régulièrement les signalements. Je ne m’engagerai pas à dire que cette surveillance est quotidienne  car je ne suis pas certain qu’elle soit effectuée les weekends –, mais elle est effectivement très régulière, plus particulièrement sur les questions liées aux influenceurs qui évoluent très rapidement.

M. le président Arthur Delaporte. Les influenceurs peuvent donc poster des contenus problématiques lors des week-ends.

Le dimanche représente d’ailleurs un moment privilégié pour les influenceurs qui publient souvent leurs stories à ce moment-là.

Mme Marie Pique, adjointe au chef de bureau au sein de la DGCCRF. Nous recevons chaque jour un rapport de SignalConso indiquant tous les signalements du département.

M. le président Arthur Delaporte. Les signalements numériques sont-ils localisés ?

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Le problème réside dans le fait que ces signalements concernent l’entreprise TikTok.

M. le président Arthur Delaporte. Si je signale un contenu sur TikTok, un agent en prend-il connaissance ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Bien sûr.

M. le président Arthur Delaporte. Quel est le département concerné ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Lorsqu’un consommateur renseigne un département dans les champs de SignalConso, la direction départementale recevra un rapport automatique détaillant les signalements reçus, qu’il s’agisse de contenus d’influenceurs ou d’autres sujets traités. Au niveau de l’administration centrale, nous disposons de bureaux sectoriels, dont l’un est spécifiquement dédié au domaine numérique, comprenant un pôle influenceurs. Nous examinons  peut-être pas quotidiennement, mais régulièrement  les éléments relatifs à des influenceurs, quel que soit le département concerné, y compris lorsqu’aucun département n’a été spécifié.

M. le président Arthur Delaporte. Madame Pique, que se passe-t-il en cas de signalement effectué un samedi soir, concernant une publicité illégale pour des bonbons sur TikTok ?

Mme Marie Pique, adjointe au chef de bureau au sein de la DGCCRF. En réalité, cela dépend de la quantité d’informations que vous renseignez dans l’outil. Ces éléments déterminent qui recevra votre signalement. Il sera transmis au département où se trouve le siège social de l’influenceur, à condition que nous disposions de cette information.

M. le président Arthur Delaporte. Que se passe-t-il si je ne dispose pas de cette information ?

Mme Marie Pique, adjointe au chef de bureau au sein de la DGCCRF. Les consommateurs qui suivent régulièrement ces influenceurs possèdent souvent plus d’informations que nous ne le pensons. Ils connaissent parfois le lieu de résidence de la personne et peuvent indiquer le département d’habitation. À défaut, le signalement sera effectivement dirigé vers le département du siège social de TikTok, à savoir Paris.

M. le président Arthur Delaporte. Le département de Paris reçoit-il finalement la majorité des signalements numériques ?

Mme Marie Pique, adjointe au chef de bureau au sein de la DGCCRF. En effet. Nous disposons également d’un outil qui nous signale l’accumulation de nombreux signalements concernant une même entreprise. Ce n’est pas parce qu’un signalement est effectué le samedi que nous ne le verrons pas.

M. le président Arthur Delaporte. Que se passe-t-il ensuite ?

Mme Marie Pique, adjointe au chef de bureau au sein de la DGCCRF. Cela dépend du signalement.

M. le président Arthur Delaporte. Prenons l’exemple de bonbons problématiques sur le live d’un influenceur.

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Si nous recevons trois signalements concernant un influenceur qui ne fait pas encore l’objet d’une enquête, il est fort probable que ces signalements ne soient pas vus. Lorsque le consommateur n’indique pas de rattachement à un département spécifique, ce cas se trouvera dans un flot de signalements et risque de passer sous notre radar. En effet, nous recherchons les signalements liés aux influenceurs les plus signalés. Nous traitons un volume important de signalements mal affectés et souvent imprécis.

Une fois qu’un influenceur est mis en enquête, l’enquêteur doit consulter SignalConso pour recueillir des éléments et réaliser rapidement les copies d’écran nécessaires. La difficulté ne se pose pas tant sur TikTok que sur d’autres réseaux sociaux où les contenus sont particulièrement éphémères. Le risque est que, lorsque nous lisons un signalement, le contenu ait déjà disparu du réseau social. Or, un signalement ne suffit pas pour effectuer un procès-verbal, qui nécessite un constat sur le réseau social.

Ainsi, lorsque nous constatons une activité importante chez un influenceur particulier, nous le plaçons sous surveillance. Nos outils numériques ne permettent pas de surveiller l’ensemble des influenceurs. Cette surveillance, qui concerne une vingtaine d’influenceurs actuellement, exige une capacité de stockage considérable. De plus, le stockage de toutes les vidéos ne garantit pas l’identification facile des contenus problématiques. Je rappelle qu’une influenceuse célèbre se filmait 16 heures par jour. Nous développons des outils pour essayer de détecter ces contenus.

Deux ou trois signalements isolés concernant un influenceur, sans renseignement de son numéro Siret, ne seront probablement pas détectés immédiatement. Sans enquête ouverte, aucun suivi spécifique n’est réalisé. Nous ne l’ajouterons à l’enquête que si les signalements le concernant prennent de l’ampleur. Il sera alors suivi à partir de cette date.

M. le président Arthur Delaporte. Ce système ne devrait-il pas évoluer pour gagner en agilité ?

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. SignalConso a été conçu principalement comme un moyen d’intermédiation entre entreprises et consommateurs, non comme un moyen d’adresser des réponses, contrairement à RéponseConso. Le problème de RéponseConso est que seuls les utilisateurs insatisfaits de SignalConso y font remonter leurs réclamations. Dans ce cas, nous garantissons une affectation.

Au sein de l’administration centrale, nous essayons d’identifier les influenceurs qui font l’objet du plus grand nombre de signalements.

Pour analyser l’ensemble des signalements et répondre de façon agile, il faut développer de nouveaux outils. C’est pourquoi nous avons initié des travaux visant à recevoir des signalements directement de certains groupes de victimes, qui pourraient nous les transmettre très en amont, lorsque les contenus sont encore présents sur les réseaux sociaux, nous permettant ainsi de réaliser automatiquement des copies. Ce processus nécessite un important travail, notamment juridique, pour garantir sa faisabilité et sa légalité au regard du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD).

M. le président Arthur Delaporte. La plupart du temps, les entreprises ne lisent pas les signalements. Vous ne les traitez que s’ils se multiplient, si j’ai bien compris. Cela revient à encourager le signalement en masse, car, sans cette mobilisation collective, le signalement d’un contenu problématique a peu de chance d’être vu.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Il s’agit d’une question de priorisation des moyens de l’État. Un signalement isolé concernant une entreprise ne déclenche pas une enquête. Toutefois, si le sujet concerne un produit dangereux ou présente une réelle difficulté, nous constatons généralement une multiplication des signalements.

M. le président Arthur Delaporte. Permettez-moi une comparaison. Si j’étais un policier placé à un feu rouge, j’interviendrais directement en cas d’infraction. Pourquoi cette approche n’est-elle pas possible pour la DGCCRF ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Je doute que cette comparaison soit pertinente. D’ailleurs, les policiers ne sont pas systématiquement postés à chaque feu rouge.

M. le président Arthur Delaporte. Certes, mais lorsqu’un radar est positionné sur une voie rapide, tous les contrevenants sont automatiquement flashés.

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. La situation est différente, car, dans le cas du radar, nous savons que les véhicules flashés sont dans l’illégalité, tandis que, pour de nombreux signalements, nous ne disposons pas de preuves. La difficulté majeure dans le domaine des pratiques commerciales  et c’est précisément pourquoi ces procédures s’étendent souvent sur plusieurs années  réside dans la nécessité d’établir formellement les faits.

M. le président Arthur Delaporte. Les publicités sans mention commerciale sont fréquentes. Pourrions-nous privilégier une approche où l’action entraîne immédiatement une réaction ?

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Ce cas est moins fréquent qu’auparavant. Dans la nouvelle rédaction de l’article 5.2, mis en conformité avec la réglementation européenne, nous laissons à l’influenceur la liberté de choisir les moyens pour signaler une intention commerciale. La Commission a insisté pour que nous précisions que, parfois, cette intention peut relever du contexte. En effet, si l’intention commerciale relève le contexte, sa mention n’est pas obligatoire. L’évaluation doit donc être effectuée au cas par cas. Dans la nouvelle rédaction, les termes « publicité » ou « communication commerciale » sont conseillés, mais d’autres formulations ou communications sont également acceptables. La mention n’est pas nécessairement écrite, elle peut être orale.

L’analyse juridique dépend donc de plusieurs facteurs, notamment de la notoriété de l’influenceur. Nos enquêteurs ont sollicité une analyse juridique pour un influenceur entièrement habillé en Gucci, filmé devant un mur Gucci, lors d’une cérémonie Gucci, afin de déterminer si un procès-verbal était nécessaire. Or, la conclusion a été négative, car l’intention commerciale relève manifestement du contexte. Le consommateur moyen comprend qu’il s’agit d’une publicité pour Gucci.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Dès qu’un influenceur faisant l’objet d’une enquête franchit la ligne rouge, nous disposons des éléments de preuve nécessaires pour intervenir. Cependant, contrairement à l’analogie du feu rouge, l’écart n’est pas binaire. Dans le domaine des allégations, il faut prouver l’intentionnalité et la présence de caractéristiques trompeuses. Si un influenceur notoirement sponsorisé par une grande marque de sport apparaît sur les réseaux sociaux portant des chaussures de cette marque, la mention de la collaboration commerciale n’est pas nécessaire.

M. le président Arthur Delaporte. Ce n’est pas l’esprit de la loi. Cette situation n’est pas acceptable, car je peux me retrouver face à n’importe quel contenu proposé par l’algorithme sans disposer du contexte.

M. Léonard Brudieu, sous-directeur de la DGCCRF. La DGCCRF agit strictement dans le cadre prévu par le droit.

M. le président Arthur Delaporte. La loi ne stipule pas que le contexte doit primer.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Si.

M. le président Arthur Delaporte. Non.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Dans les pratiques commerciales trompeuses, il nous faut une intentionnalité et une caractéristique tenant compte des circonstances et du contexte, ce qui figure dans le droit européen et national. Ces éléments font partie de notre analyse. Nous ne pouvons pas fonctionner de façon binaire comme un radar automatique. Un traitement humain s’avère nécessaire à un moment donné. Un utilisateur des réseaux sociaux exposé à cette publication peut-il être trompé ? Si la réponse est affirmative, alors nous pouvons envisager la caractéristique de pratiques commerciales trompeuses. Toutefois, cela nécessite de recueillir les éléments de preuves et de démontrer l’intentionnalité.

M. le président Arthur Delaporte. Permettez-moi de vous lire l’alinéa 1 de l’article 5 de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux : « La promotion de biens, de services ou d’une cause quelconque réalisée par les personnes mentionnées à l’article 1er doit être explicitement indiquée par la mention “Publicité” ou la mention “Collaboration commerciale” ».

M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. L’article 5.2, qui a été réécrit à la demande de la Commission européenne. Une pratique commerciale trompeuse est définie par l’article L121-3 du code de la consommation. Il s’agit de « l’absence d’indication par une mention claire, visible et compréhensible, sur tout support utilisé, de l’intention commerciale poursuivie par une personne physique ou morale exerçant une activité d’influence au sens de l’article 1er, dès lors que cette intention ne ressort pas déjà du contexte ». En outre, le recours aux mentions est abordé dans le deuxième alinéa.

M. le président Arthur Delaporte. Le deuxième alinéa dispose que « l’intention commerciale peut être explicitement indiquée par le recours aux mentions “publicité” ou “collaboration commerciale” ou par une mention équivalente ».

M. Léonard Brudieu, sous-directeur de la DGCCRF. Nous devons bien distinguer ce qui relève d’un délit de pratiques commerciales trompeuses, qui nécessite la caractérisation d’une intentionnalité, et les éléments de contexte à considérer. Un traitement humain est indispensable et l’approche ne peut pas être binaire. Parallèlement, certains domaines font l’objet d’interdictions publicitaires spécifiques, comme la chirurgie esthétique. Dans ces cas précis, l’approche est effectivement binaire. En revanche, concernant les pratiques commerciales trompeuses, cela nécessite une analyse, des preuves, la démonstration d’une intentionnalité et un examen du contexte.

M. le président Arthur Delaporte. Vous constatez bien que ce dispositif n’est pas adapté à la publicité diffusée sur les réseaux sociaux. Sinon, votre définition du contexte n’est pas pertinente. À mon sens, le contexte d’une publicité ne doit pas nécessiter un clic supplémentaire. Cette approche s’apparenterait à l’utilisation d’astérisques en petits caractères. Le contexte doit être interprété de manière restrictive, alors que vous nous proposez une interprétation extensive de cette notion.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Je ne vous donne nullement une interprétation extensive de cette notion. J’affirme que l’analyse du contexte nécessite un examen au cas par cas effectué par des enquêteurs. C’est précisément pour cette raison que nos enquêtes ne peuvent être binaires ou automatiques, comme pour les feux rouges et les radars.

M. le président Arthur Delaporte. Certaines situations semblent simples, comme la promesse de gagner des millions d’euros.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Ces situations sont effectivement plus simples.

M. le président Arthur Delaporte. Pourrions-nous faire supprimer très rapidement ces contenus ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Nous pouvons effectivement agir rapidement en contactant directement l’influenceur pour l’enjoindre à cesser ses pratiques, ce qui ne fonctionne pas nécessairement.

M. le président Arthur Delaporte. Le fil X comporte de nombreuses publicités illégales relatives aux cryptomonnaies, ne comportant souvent aucune mention des risques associés, ce qui n’est pas acceptable.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Vous soulevez un point crucial : sur les réseaux sociaux, et plus généralement dans l’environnement numérique, l’évolution est si rapide qu’elle met sous tension le cadre de police. Nos services effectuent des constats, qui doivent être opposables pour respecter d’autres éléments de droit constitutionnel. Des étapes de contradictoires sont nécessaires, ainsi que des éléments d’intentionnalité prouvés et caractérisés. Toutes ces exigences requièrent un minimum de temps.

M. le président Arthur Delaporte. Je cède la parole à M. Stéphane Vojetta.

M. Stéphane Vojetta (EPR). Votre interprétation du contexte et de la définition de l’influence commerciale m’a quelque peu surpris, mais nous aurons l’occasion de revenir sur ce sujet.

Avez-vous identifié, depuis la promulgation du texte en juin 2023, de nouvelles formes problématiques d’influence commerciale non couvertes par les textes existants ?

M. Léonard Brudieu, sous-directeur de la DGCCRF. Nous avons principalement constaté le développement de pratiques désormais interdites par cette législation, notamment dans le domaine de la santé et de la médecine esthétique, nécessitant une habilitation de police administrative afin que nous soyons plus efficaces.

Je ne crois pas avoir identifié l’émergence de nouvelles pratiques qui échapperaient au cadre législatif actuel, notamment parce que le spectre d’intervention de la DGCCRF est celui des pratiques commerciales. Sur les réseaux sociaux, diverses pratiques sont potentiellement répréhensibles ou choquantes, sans nécessairement relever du domaine commercial.

M. Stéphane Vojetta (EPR). Avez-vous reçu des signalements concernant l’activité commerciale liée au métier d’agent OnlyFans ? Je fais référence à ces personnes qui agissent en tant qu’agents d’influenceurs vendant du contenu érotique ou pornographique sur cette plateforme. Cette activité s’avère particulièrement lucrative pour les créateurs, mais également pour les agents, pas toujours bien intentionnés.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Ce type de situation ne nous semble pas familier. Nous examinerons attentivement les signalements reçus à ce sujet afin de vous renseigner.

M. le président Arthur Delaporte. Cette audition s’achève. Je note que mon agacement n’est pas lié au travail des agents de la DGCCRF, dont je salue l’engagement.

M. Léonard Brudieu, sous-directeur de la DGCCRF. Ce sont les parlementaires qui font les lois.

M. le président Arthur Delaporte. Nous ressentons toujours une certaine frustration face au décalage entre nos ambitions et leur concrétisation effective. Cette frustration n’est pas uniquement la mienne, mais également celle des citoyens qui nous interpellent pour signaler des contenus problématiques toujours accessibles en ligne. Nous avons manifestement encore du travail à accomplir dans les mois à venir.

Je vous remercie.

65.   Audition du Lieutenant-Colonel Cyril Colliou, chef par intérim de l’Office mineurs (Ofmin), Mme Agathe Boudin, commandant de police, cheffe par intérim du pôle stratégie, et Mme Typhaine Desbordes, cheffe du bureau des partenariats et de la communication (mardi 24 juin 2025)

La commission auditionne le Lieutenant-Colonel Cyril Colliou, chef par intérim de l’Office mineurs (Ofmin), Mme Agathe Boudin, commandant de police, cheffe par intérim du pôle stratégie, et Mme Typhaine Desbordes, cheffe du bureau des partenariats et de la communication ([63]).

M. le président Arthur Delaporte. Nous recevons le lieutenant-colonel Cyril Colliou, chef par intérim de l’Office mineurs (Ofmin), accompagné de Mme Agathe Boudin, commandante de police, cheffe par intérim du pôle stratégie, et de Mme Typhaine Desbordes, cheffe du bureau des partenariats et de la communication.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. le lieutenant-colonel Cyril Colliou, Mme Agathe Boudin et Mme Typhaine Desbordes prêtent successivement serment.)

M. le lieutenant-colonel Cyril Colliou, chef par intérim de l’Office mineurs. Je souhaite, à titre liminaire, revenir brièvement sur les raisons qui ont présidé à la création de l’Office mineurs. Ces dernières années, les forces de l’ordre ont constaté une hausse d’environ 30 % par an des violences commises sur les mineurs. La multiplication de ces phénomènes et des faits pédocriminels observés est notamment à mettre en lien avec le développement des technologies numériques et leur accès généralisé, ainsi qu’avec la libération progressive de la parole et une amélioration de l’écoute des victimes.

Il existe un chiffre noir en matière d’atteintes aux mineurs et plus particulièrement de violences sexuelles : les enquêtes de victimation montrent en effet que, dans la population majeure de notre pays, 5,5 millions de femmes et d’hommes ont été victimes dans leur enfance de violences sexuelles, soit un adulte sur dix. Ces violences ont un impact sur le développement affectif et social des enfants victimes et peuvent avoir des conséquences profondes tout au long de leur vie.

La minorité de la victime est, pour les phénomènes dont nous nous occupons, un critère déterminant lors du passage à l’acte de l’auteur. Elle suppose par ailleurs un traitement juridique et judiciaire spécifique des faits commis, avec un accompagnement adapté des victimes.

Ce constat a conduit à la création, au sein de la direction nationale de la police judiciaire (DNPJ), de l’Office mineurs, chargé de la lutte contre les violences faites aux mineurs. Il s’agissait de répondre à un triple défi. Le premier était de contribuer à positionner le ministère de l’intérieur comme un acteur incontournable du dispositif interministériel de protection de l’enfance, pour renforcer la coordination avec les partenaires institutionnels et associatifs et améliorer la détection et l’identification des mineurs victimes. Le deuxième défi était d’animer et de coordonner la lutte contre les violences faites aux mineurs sur l’ensemble du territoire pour développer un traitement spécifique de ces faits. Il s’agissait enfin d’améliorer le traitement judiciaire de ces violences en développant une expertise judiciaire en matière de lutte contre la pédocriminalité.

Le champ infractionnel de l’Office mineurs est extrêmement large, puisqu’il inclut toutes les infractions dont peuvent être victimes les mineurs : les infractions sexuelles, les faits d’exploitation, toutes les violences physiques et psychologiques, dont les meurtres et notamment le syndrome des bébés secoués, et l’ensemble des faits de harcèlement, y compris en ligne.

L’Office mineurs développe plusieurs méthodes et moyens d’investigation dans l’environnement numérique afin de détecter les pédocriminels, que ces derniers agissent sur le darknet ou utilisent des messageries cryptées.

Créé par un décret du 29 août 2023 et placé au sein de la DNPJ, il est rattaché organiquement à la sous-direction de la lutte contre la criminalité organisée et la délinquance spécialisée. Il est armé par des policiers et des gendarmes.

Mme Laure Miller, rapporteure. Pouvez-vous nous indiquer la part des dossiers traités par l’Ofmin présentant un lien avec l’usage des réseaux sociaux par les mineurs ?

M. le lieutenant-colonel Cyril Colliou. L’Office mineurs ne dispose pas à proprement parler de statistiques sur ce point. Je puis toutefois vous indiquer, de manière empirique, que cela représente un volume assez important, surtout sur le contentieux lié à la pédocriminalité en ligne. Les principaux pourvoyeurs de signalements de contenus pédocriminels sont Google, Meta ­ avec Instagram et Facebook ­, Snapchat, TikTok et X.

M. le président Arthur Delaporte. Ne disposez-vous d’aucune ventilation plus précise ?

M. le lieutenant-colonel Cyril Colliou. Je n’ai pas de données chiffrées, mais je peux préciser les moyens dont dispose l’Office mineurs et la manière dont il travaille, ce qui vous permettra d’appréhender la part des dossiers ayant trait à ces outils.

L’Office mineurs est organisé autour de deux entités : un pôle stratégie, chargé de l’animation, de la coordination, de la création de partenariats et de la mise en place d’actions de sensibilisation à destination du grand public, et un pôle opérationnel disposant d’une unité de renseignement criminel, point d’entrée au niveau national des signalements de contenus pédocriminels. En 2024, cette unité a reçu 170 000 signalements, soit 465 par jour en moyenne, dont 164 516 provenant de la détection effectuée par les plateformes du numérique elles-mêmes, qui les transmettent à une fondation américaine, le NCMEC – National center for missing and exploited children –, laquelle nous les adresse lorsque la victime ou l’auteur sont localisés en France, grâce notamment à leur adresse IP. Les autres signalements proviennent de services de police étrangers, d’Interpol, d’Europol, de partenaires dont la cellule Signal-sports du ministère des sports et d’associations comme L’Enfant bleu, e-Enfance ou Rebond. Ils viennent s’ajouter à ceux de la plateforme Pharos – plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements – de l’Office anti-cybercriminalité (Ofac), avec lequel nous travaillons.

L’Office mineurs reçoit ces signalements, les traite, les exploite et établit des priorités en fonction du degré d’urgence et de la rapidité d’intervention requise. En 2024, 270 enquêtes ont été ouvertes sur cette base. Quelque 300 signalements ont par ailleurs été transmis à des services territoriaux de police judiciaire de la police nationale ou de la gendarmerie nationale. Cela montre que la part des dossiers relative au contentieux de la pédocriminalité en ligne en lien avec l’utilisation des réseaux sociaux est extrêmement importante dans nos activités.

Mme Laure Miller, rapporteure. Vous avez indiqué que les contenus à caractère pédocriminel publiés sur les principales plateformes vous étaient signalés, directement ou indirectement, mais aussi que ces plateformes étaient utilisées par les pédocriminels pour « recruter » leurs victimes.

M. le lieutenant-colonel Cyril Colliou. Les deux aspects coexistent en effet. Les signalements que nous recevons de la part des plateformes numériques sont extrêmement nombreux. Ils peuvent concerner de l’échange de contenus entre pédocriminels, mais aussi des interactions de pédocriminels avec des mineurs utilisateurs de ces réseaux sociaux, qui constituent pour ces personnes un terrain d’action privilégié pour entrer en contact avec des mineurs.

Mme Laure Miller, rapporteure. Il semblerait que ces plateformes servent parfois simplement d’intermédiaires pour renvoyer les usagers, notamment les jeunes, vers d’autres plateformes dont le contenu est moins modéré, moins contrôlé, comme OnlyFans ou Mym. Avezvous observé cela ?

M. le lieutenant-colonel Cyril Colliou. On constate en effet une utilisation des réseaux sociaux par rebond, comme une porte d’entrée, une manière pour les pédocriminels d’entrer en relation avec les mineurs ou entre eux.

L’Office mineurs n’observe pas les plateformes OnlyFans ou Mym, puisqu’elles concernent une problématique spécifique de l’exploitation sexuelle des mineurs, potentiellement prostitutionnelle. L’Ofmin cède sur cette thématique sa compétence à l’Office central pour la répression de la traite des êtres humains (OCRTEH), qui est compétent sur le sujet pour les mineurs comme pour les majeurs.

Je peux toutefois vous livrer le constat opérationnel effectué par l’OCRTEH, qui indique dans son état de la menace que « le phénomène du caming se développe de plus en plus ». Le caming a été défini par la chambre criminelle de la Cour de cassation comme une « pratique consistant à proposer, moyennant rémunération, une diffusion d’images ou de vidéos à contenu sexuel, le client pouvant donner à distance des instructions spécifiques sur la nature du comportement ou de l’acte sexuel à accomplir ». Selon l’OCRTEH, « il existe une grande quantité de plateformes de diffusion utilisées pour le caming, mais deux d’entre elles se partagent la majorité de l’activité : OnlyFans, site anglais, et Mym, site français. Ces sites proposent à leurs utilisateurs de s’abonner à des profils afin d’avoir accès à des contenus exclusifs sous forme de vidéos, photos ou messages privés. Certains profils offrent du contenu gratuit. La majorité des producteurs de contenu proposent des abonnements qui oscillent entre 4 et 45 euros par mois, avec un tarif dégressif selon la durée de l’abonnement. Les fans peuvent aussi verser des pourboires en échange d’une dédicace ou d’un contenu personnalisé ». L’OCRTEH détecte de plus en plus d’annonces de prostitution mentionnant un lien vers des comptes OnlyFans ou Mym. Une étude réalisée par cet office en juin 2023 mettait par exemple en lumière 496 annonces du site Sexemodel contenant des liens vers des profils OnlyFans ou Mym, et 395 fin 2023. Ces liens sont utilisés par les personnes prostituées pour promouvoir leur profil de camgirl ou de camboy et inversement pour faire de la publicité pour des rencontres physiques et des prestations sexuelles.

L’OCRTEH indique que l’état du droit ne permet pas aux services d’enquête de lutter contre le phénomène du caming, sauf pour les mineurs. En effet, « cette pratique ne peut satisfaire aux exigences posées par la jurisprudence de la Cour de cassation en 1996 et 2022, qui impose la présence d’un contact physique entre le client et la victime pour que la prostitution soit caractérisée ». Dans le cas des camgirls, les victimes sont en général seules face à la caméra ; bien que rémunérées par le client, il n’y a pas de contact physique. Une infraction spécifique a toutefois été créée par la loi du 21 avril 2021, qui vise à protéger les mineurs des crimes et délits sexuels et de l’inceste. Elle réprime notamment le fait, pour un adulte, d’inciter un mineur à se livrer à des pratiques sexuelles sur internet. Le phénomène des camgirls est donc répréhensible, uniquement lorsque la victime est mineure.

M. le président Arthur Delaporte. Pensez-vous qu’une évolution du droit serait souhaitable afin de couvrir également le cas des majeurs ?

M. le lieutenant-colonel Cyril Colliou. En tant que chef par intérim de l’Office mineurs, je ne traite que de la thématique des mineurs et l’exploitation prostitutionnelle n’entre pas dans mon champ d’expertise et de compétence. Chacune et chacun d’entre vous a la réponse politique à cette question.

Mme Laure Miller, rapporteure. Parvenez-vous, au travers des dossiers que vous traitez, à percevoir les principaux impacts de l’usage des réseaux sociaux sur la santé mentale des mineurs ? S’agit-il par exemple essentiellement de cyberharcèlement, d’exposition à des contenus violents ou sexuels ?

M. le lieutenant-colonel Cyril Colliou. L’Office mineurs compte dans ses rangs une psychologue, qui est particulièrement attentive à ces questions et dont la mission principale est la prise en charge des victimes. L’analyse des dossiers que nous traitons permet d’émettre l’hypothèse que l’exposition précoce et répétée à des contenus violents génère une croissance des représentations biaisées de la réalité, avec notamment une banalisation de la violence et une représentation de la sexualité reposant sur des scénarios pornographiques. Il convient également de rappeler que l’exposition à des images et contenus violents conduit à des traumatismes, notamment chez les jeunes, et peut laisser des traces dans l’esprit de l’enfant, éventuellement sujet par la suite au développement de troubles. Dans notre champ de compétence principal, à savoir l’exploitation sexuelle, on observe par exemple des troubles d’hypersexualisation susceptibles de conduire l’enfant à s’exposer à de nouveaux dangers. Les risques sont extrêmement importants et les atteintes psychologiques peuvent être lourdes.

Mme Laure Miller, rapporteure. Bien que votre office soit de création récente, avez-vous observé une évolution en matière de contrôle et de modération des contenus ? Avez-vous le sentiment que les plateformes jouent le jeu ? Les dossiers liés aux réseaux sociaux sont-ils de moins en moins nombreux ou l’évolution vous semblet-elle au contraire plutôt défavorable ?

M. le lieutenant-colonel Cyril Colliou. Nous observons une croissance quasi exponentielle des signalements, dont près de 165 000 nous ont été transmis par le NCMEC en 2024.

Nous notons chez la plupart des grandes plateformes, dont Meta, des progrès considérables dans les signalements qui nous sont adressés, tant d’un point de vue quantitatif que qualitatif.

Il n’en va pas de même pour la plateforme TikTok. Certes, cette dernière collabore, développe une action en matière de protection des mineurs et transmet ses signalements au NCMEC qui nous les adresse. Mais si l’on observe une explosion du nombre des signalements, il reste à notre sens de nombreux progrès qualitatifs à accomplir pour atteindre les standards des autres plateformes. Beaucoup des signalements qui nous sont transmis sont des faux positifs, qui ne correspondent pas à des contenus pédocriminels : nous passons donc du temps à traiter des signalements qui ne sont pas pertinents. Les signalements adressés sont en outre souvent assez pauvres, en matière notamment d’éléments d’identification et de localisation des auteurs et des victimes. La plupart des plateformes nous communiquent généralement plusieurs adresses IP, ainsi que des pseudonymes et des adresses électroniques vérifiées ; ce n’est pas le cas de TikTok, dont les éléments fournis ne sont pas consolidés, ce qui nécessite de notre part des investigations complémentaires.

Mme Laure Miller, rapporteure. Il existe donc une marge d’amélioration en matière de qualité de la modération et des informations transmises par les plateformes.

M. le lieutenant-colonel Cyril Colliou. TikTok nous a adressé 4 432 signalements en 2023, 6 039 en 2024 et 17 589 au 16 juin 2025 : on observe donc une explosion du nombre de signalements. D’un point de vue opérationnel, le traitement que nous en effectuons est toutefois assez résiduel et ne concerne qu’une minorité d’entre eux, en raison du manque de qualité et de pertinence des éléments qui nous sont fournis.

De nombreux phénomènes ayant cours notamment sur TikTok sont toutefois en lien avec les thématiques que nous traitons. On observe ainsi beaucoup de vidéos et de publications virales contenant par exemple des photos assez suggestives de jeunes filles, avec des renvois vers des messageries cryptées comme Telegram. Cela fait écho à l’évolution des tendances et des pratiques évoquée précédemment. Ces applications sont souvent des portes d’entrée renvoyant vers des outils de communication beaucoup plus confidentiels. Nous avons pu observer cela sur la plateforme TikTok et avons reçu des signalements à ce sujet.

Des particuliers ont par ailleurs signalé à la plateforme Pharos, qui nous a transmis cette information opérationnelle, un phénomène que nous avons qualifié d’« émoji pizza » : des personnes considérées comme pédocriminelles s’identifient sur la plateforme TikTok en insérant dans leurs publications une émoticône en forme de pizza. En anglais, les initiales CP correspondent en effet à la fois à cheese pizza pizza au fromage – et à child pornography pédopornographie. Ces publications renvoient les pédocriminels vers des messageries cryptées. Or cela a été très peu signalé par TikTok, alors que le phénomène a donné lieu à de nombreux signalements de la part d’internautes auprès de la plateforme Pharos.

Nous avons également observé le phénomène dit « zizi challenge », qui n’est pas spécifique à TikTok et a été observé également sur YouTube, à la différence près que cette plateforme propose une véritable modération, qui conduit au blocage des vidéos et à de nombreux signalements de la part de la plateforme elle-même. Cette situation a un impact considérable sur notre activité, puisqu’elle nous conduit à transmettre quasiment chaque semaine des signalements opérationnels au parquet pour enquête. Il ne s’agit généralement pas de pédocriminalité, mais de jeunes, voire de très jeunes enfants, âgés parfois de 7 ou 8 ans, qui se mettent en scène, se filment le plus souvent avec le téléphone de leurs parents, dont ils utilisent le compte YouTube, et diffusent les vidéos sur internet, avec un vrai risque. Exerçant son rôle de modération, YouTube bloque ces contenus et nous les signale. Nous envoyons ensuite ces éléments aux juridictions locales pour enquête, afin notamment qu’un contact puisse être établi avec les parents concernés, dans une dimension plus sociale que répressive.

M. le président Arthur Delaporte. Observez-vous ce phénomène sur d’autres plateformes que YouTube ?

M. le lieutenant-colonel Cyril Colliou. Nous savons que le phénomène existe aussi sur TikTok, mais cela nous est très peu signalé. Cette plateforme se prêterait pourtant à ce type de pratique. Le fait que l’on ne puisse pas observer le phénomène faute de signalements nous interpelle donc. Je ne peux pas affirmer que cela traduit un problème de modération, mais la situation permet légitimement de le penser. Cela concerne le « zizi challenge », mais aussi le « challenge maillot ».

Il existe aussi des phénomènes de sextorsion, c’est-à-dire de corruption de mineurs ou grooming. Nous recevons ainsi par l’intermédiaire de Pharos des signalements émanant de particuliers qui relatent des prises de contact et des faits de sextorsion dont sont victimes des mineurs sur le réseau social TikTok. Toutefois, lorsque nous effectuons l’analyse des signalements qui nous parviennent de ce réseau, nous constatons qu’aucun ne concerne de tels faits. Nous pouvons donc affirmer qu’il existe un véritable problème de modération et de détection des phénomènes de sextorsion par la plateforme TikTok.

Concernant enfin les risques suicidaires, nous recevons assez régulièrement, en provenance notamment de Pharos, des signalements de messages de mineurs exprimant des idées noires à tendance suicidaire. Or nous n’avons encore reçu aucune information opérationnelle de ce type de la part de TikTok. Là encore, cela interroge, car on peut légitimement penser que de tels messages peuvent exister sur cette plateforme.

Mme Laure Miller, rapporteure. Pourriez-vous nous apporter des précisions sur les relations de l’Office mineurs avec Pharos ?

Entretenez-vous par ailleurs des liens similaires avec l’ensemble des plateformes ou certaines se montrent-elles plus coopératives et communiquent-elles davantage avec vous ?

M. le lieutenant-colonel Cyril Colliou. Pharos et l’Office mineurs sont tous les deux rattachés à la direction nationale de la police judiciaire. Les contacts sont donc étroits et permanents, quasi quotidiens. Pharos reçoit des signalements transmis par les utilisateurs de plateformes et l’Office mineurs des signalements qui lui sont adressés par les plateformes du numérique. Nous échangeons et croisons les informations reçues. Lorsque nous détectons des contenus illicites dans les signalements qui nous parviennent, nous les transmettons à Pharos pour qu’ils soient supprimés. Lorsque la plateforme Pharos reçoit des signalements correspondant à notre champ de compétence, c’est-à-dire à des infractions à caractère sexuel notamment dont peuvent être victimes des mineurs, elle nous les envoie, ce qui nous permet pour certains faits de transmettre du renseignement opérationnel à nos relais territoriaux et le cas échéant, pour les faits les plus graves et les enquêtes les plus complexes, d’ouvrir des investigations.

L’Ofac dispose d’un réseau d’antennes et de détachements dans les territoires. Quasiment toutes les semaines, l’Ofmin est amené à réaliser des investigations, des enquêtes judiciaires avec interpellation de mis en cause dans des affaires pédocriminelles. Pour procéder aux interpellations, nous nous reposons notamment sur le réseau de l’Ofac et sur ses investigateurs en cybercriminalité (ICC), spécialistes notamment de la saisie et de l’exploitation des supports numériques. Or, dans les contentieux que nous traitons, notamment les infractions pédocriminelles, les perquisitions conduisent systématiquement à la saisie et à l’exploitation des téléphones et des ordinateurs des mis en cause.

Nous avons des contacts constants avec la plateforme Pharos, partenaire privilégié de l’Ofmin. Nous entretenons des liens assez variables avec d’autres plateformes – il en existe tellement ! Nous avons des relations très privilégiées avec Meta, Instagram et Facebook, compte tenu de la qualité de la modération et du nombre de signalements qu’elles nous adressent. Des liens existent avec X et Snapchat. S’agissant de TikTok, je peux dire que la plateforme répond assez rapidement aux réquisitions et aux demandes des enquêteurs, mais qu’il existe une substantielle marge de progression en matière de qualité des retours et de la modération.

M. le président Arthur Delaporte. Avez-vous identifié des flous juridiques ou des qualifications juridiques trop faibles qui nécessiteraient une évolution du droit pénal, afin d’assurer une meilleure appréhension de certains comportements émergents ?

M. le lieutenant-colonel Cyril Colliou. Nous assistons à l’émergence de contenus pédocriminels créés par l’Intelligence artificielle (IA) – nous avons observé le phénomène dans plusieurs enquêtes. Ces contenus peuvent être créés ab initio, mais aussi à partir de contenus pédocriminels existants et modifiés ou bien d’images récupérées, notamment sur les réseaux sociaux, avant d’être détournées de leur usage et sexualisées. Pour nous, c’est un véritable enjeu opérationnel pour les années à venir : l’IA peut rapidement faire exploser le volume des contenus pédocriminels qui circulent en ligne, tant cet outil facilite leur création.

Or nous recevons déjà 170 000 signalements à l’année, que nous nous employons à traiter. Parmi eux, certains dossiers sont considérés comme complexes et prioritaires : les enquêtes dans lesquelles une victime encore non identifiée est potentiellement en cours d’exploitation sexuelle. Nous utilisons la base de données internationale d’images et de vidéos sur l’exploitation sexuelle des enfants (ICSE), gérée par Interpol, et le fichier français Caliope – comparaison et analyse logicielle des images d’origine pédopornographique. Quand les contenus qui circulent sur internet ne sont pas connus de ces bases de données, nous nous efforçons d’identifier les victimes et de les localiser. L’année dernière, nous avons ainsi contribué à l’identification de soixante victimes, dont vingt étaient encore en situation d’exploitation sexuelle – en moyenne âgées de moins de 8 ans, la plus jeune n’ayant que quelques semaines. L’émergence de l’IA dans ce domaine risque d’accroître notre charge de travail et de nous faire travailler sur l’identification de victimes qui n’existent pas. Dans les années à venir, il faudra que nous trouvions un moyen de faire la différence entre les images et contenus pédocriminels produits par l’IA et ceux qui sont réels.

Autre écueil : l’avenir incertain de la législation européenne en matière de détection et de signalements volontaires par les plateformes des abus sexuels commis en ligne contre des enfants. La directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive e privacy) prévoit des dispositions dérogatoires temporaires, qui prendront fin en avril 2026. Si aucun règlement définitif ne vient la remplacer pour enjoindre aux plateformes de détecter ces contenus, nous risquons de devenir aveugles : une large partie des 165 000 signalements du NCMEC effectués en 2024 risquent de disparaître. Pour nous, il est essentiel de consolider le dispositif actuel de détection par les plateformes. Il faudrait aussi renforcer la responsabilité de ces plateformes concernant l’hébergement et la diffusion de sites et contenus à caractère pédocriminel.

M. le président Arthur Delaporte. Y a-t-il d’autres éléments que vous souhaiteriez aborder avec nous, qu’il s’agisse de préconisations, d’analyses ou de témoignages ? Avez-vous en tête un cas précis, lié à TikTok, que vous pourriez nous relater ?

M. le lieutenant-colonel Cyril Colliou. Nous avons traité peu de dossiers relatifs à TikTok, les signalements ayant été assez rares.

Mais je pense à un dossier qui illustre l’importance de la détection de contenus pédocriminels en ligne et la nécessité d’élaborer et de diffuser de bonnes pratiques au sein des forces de l’ordre, afin d’améliorer le traitement des dossiers de violences faites aux mineurs. L’affaire, qui se déroule dans la moitié nord de la France, commence il y a cinq ou six ans par un signalement à la justice de violences incestueuses commises sur une petite fille. Le service d’enquête saisi auditionne la jeune victime, le mis en cause et quelques personnes de l’entourage. Une expertise pédopsychiatrique est diligentée, qui conclut aux tendances à l’affabulation de la fillette. Le dossier est alors classé sans suite. Le père reste en famille avec ses deux enfants, la fillette et son frère. On peut déjà dire que l’enquête n’a pas été réalisée dans les règles de l’art et que les actes accomplis apparaissent largement insuffisants.

En 2023, à la création de l’Ofmin, une plateforme d’internet nous adresse un signalement avec des vidéos à caractère pédocriminel sur lesquelles nous identifions rapidement cette fillette qui avait dénoncé des faits, rapportés par un enseignant à la justice, quelques années plus tôt. Nous reprenons alors l’enquête depuis le début et nos investigations nous permettent de démontrer que la jeune fille ainsi que son frère ont été violés à de nombreuses reprises pendant des années, le violeur utilisant notamment des sédatifs. Entre le moment où le dossier a été classé sans suite et celui où les vidéos sont arrivées à notre connaissance par le biais le biais du NCMEC, six ou sept enfants se sont ajoutés à la liste des victimes de ce même violeur.

S’agissant de la révélation des faits, je peux vous dire que nous recevons seulement 65 000 plaintes alors que la Ciivise recense 160 000 victimes de violences sexuelles par an, ce qui tend à montrer que les deux tiers des faits ne sont pas signalés aux forces de l’ordre. Il est donc essentiel que nous continuions à disposer d’outils de détection de faits pédocriminels sur les supports numériques, compte tenu de la place que ceux-ci ont pris dans le quotidien de la population.

M. le président Arthur Delaporte. Qu’en est-il des moyens ? Combien d’enquêteurs sont mobilisables pour traiter ce volume vertigineux de contenus pornographiques ou autres ?

M. le lieutenant-colonel Cyril Colliou. Toutes les forces de l’ordre s’occupent du contentieux pédocriminel. À l’Ofmin, nous serons cinquante-huit à la rentrée de septembre 2026, alors que nous devions être quatre-vingt-cinq selon les préfigurations.

Nous sommes en train de développer un réseau d’antennes et de détachements, calqué sur celui de l’Ofac et principalement localisé dans les chefs-lieux de zones de défense. À terme, nous disposerons de dix-sept antennes et détachements, soit 188 personnels spécifiquement dédiés à ce contentieux au sein de la police nationale. On peut ajouter les 1 600 personnes affectées aux brigades de protection des familles et chargées notamment du traitement des violences intrafamiliales, y compris sur des mineurs lorsqu’il n’existe pas d’antenne et de détachement. On pourrait multiplier par deux, trois, quatre ou cinq les effectifs de l’Ofmin, nous serions tous occupés. Même si nous sommes convaincus de ce que nous faisons, nous avons parfois le sentiment de vider la mer avec une petite cuillère.

M. le président Arthur Delaporte. Merci pour ce que vous faites, dans des conditions pas simples, en étant confrontés à un monde très dur.

Mme Laure Miller, rapporteure. Pouvez-vous nous dire un mot sur vos actions de prévention ?

M. le lieutenant-colonel Cyril Colliou. C’est le pôle stratégique, représenté par les personnes qui m’accompagnent, qui est à la manœuvre en ce qui concerne la prévention visant les mineurs. Il nous arrive de conduire quelques actions de sensibilisation, mais force est de constater qu’elles restent marginales car ce n’est pas notre mission première et que nous n’avons que peu de ressources à y consacrer. Nous voudrions conclure une convention de partenariat en matière de prévention avec l’éducation nationale, sachant que nous avons déjà avec elle des partenariats opérationnels concernant l’identification des victimes. Nous avons noué des partenariats et signé des conventions avec des associations de protection de l’enfance telles que e-Enfance et L’Enfant bleu, avec lesquelles nous menons des actions croisées de formation et d’information.

Sur le volet préventif, il y aurait à dire sur la responsabilité cruciale des parents dans l’usage que font leurs enfants des réseaux sociaux et des médias. On pourrait penser, par exemple, à la constitution d’un réseau de parents vigilants. Dans nos interventions à destination des parents, nous avons souvent face à nous des personnes informées et sensibles à ces questions, pas forcément celles qu’il faudrait toucher en priorité. Un réseau pourrait aider les parents en fracture numérique à réagir par rapport à leurs enfants.

Il y a aussi à faire en matière de parentalité, au regard du nombre de photos d’enfants diffusées sur internet. On considère qu’à l’âge de 13 ans, un enfant a en moyenne 1 300 photos de lui en circulation sur les réseaux. Nombre de photos qui apparaissent dans les contenus pédocriminels très explicites et dans les bibliothèques des pédocriminels ont été volées sur les réseaux sociaux. Des photos d’enfants nus sur la plage, anodines pour le commun des mortels, peuvent être détournées par des pédocriminels avec l’aide de l’IA. Il faudrait sensibiliser les parents à ce risque et les conduire à développer une approche pédagogique des réseaux sociaux avec leurs enfants. Normalement, les enfants ne devraient pas avoir accès aux réseaux sociaux avant l’âge de 13 ans, et ils ne devraient y accéder qu’avec le consentement des parents s’ils sont âgés de 13 à 15 ans. Or nombre d’enfants de moins de 15 ans y accèdent en totale autonomie.

M. le président Arthur Delaporte. Cette audition touche à sa fin, mais nous restons à votre disposition et nous sommes preneurs de tout élément complémentaire que vous voudriez porter à notre connaissance.

M. le lieutenant-colonel Cyril Colliou. Nous vous adresserons les réponses que nous avions préparées sur le volet partenarial et stratégique, qui nous semble très important.

M. le président Arthur Delaporte. Tracez-vous des perspectives d’évolution de ces partenariats ?

M. le lieutenant-colonel Cyril Colliou. Nous sommes en relation constante avec nos réseaux et nous voudrions développer certains partenariats, notamment avec l’éducation nationale. La direction nationale de la police judiciaire a posé sa candidature pour assumer le pilotage du projet Impact, portant sur l’animation et la coordination en matière de prévention et de répression des violences faites aux mineurs à l’échelle des forces de l’ordre européennes. L’Ofmin et la DNPJ ont prévu de nombreuses actions.

M. le président Arthur Delaporte. Il me reste à vous remercier pour votre participation à nos travaux.

66.   Audition de Mme Sarah Bouchahoua, responsable des affaires publiques France de Snapchat (mardi 24 juin 2025)

Puis la commission auditionne Mme Sarah Bouchahoua, responsable des affaires publiques France de Snapchat ([64]).

M. le président Arthur Delaporte. Nous accueillons Mme Sarah Bouchahoua, responsable des affaires publiques France de Snapchat, qui, pour des raisons personnelles, n’a pas pu participer à la table ronde organisée la semaine dernière avec l’ensemble des plateformes. Invoquant des raisons de sécurité, vous avez demandé, madame, que cette audition se tienne à huis clos : Snapchat n’étant pas au cœur des travaux de notre commission, nous avons accepté de faire une exception.

Je vous remercie de déclarer tout intérêt public ou privé de nature à influencer vos déclarations. Par ailleurs, l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Sarah Bouchahoua prête serment.)

Mme Sarah Bouchahoua, responsable des affaires publiques France de Snapchat. Je vous remercie d’avoir accepté de reporter cette audition : Snapchat tenait à participer à cette discussion essentielle car la protection de notre communauté en ligne, en particulier celle des plus jeunes, est notre priorité absolue.

Snapchat a été fondé en 2011 avec une mission claire : reproduire les échanges quotidiens avec nos amis ou notre famille dans un espace numérique que nous voulons sûr, agréable et centré sur une communication authentique. La conception de la plateforme repose donc sur deux principes fondamentaux : la sécurité et la protection de la vie privée par défaut – safety and privacy by design. Nous sommes fermement convaincus que l’espace numérique ne devrait pas se résumer à un terrain de compétition entre utilisateurs, où la quête du sensationnel et la recherche de la viralité l’emporteraient sur l’authenticité des échanges.

Particulièrement attaché à la protection de la santé mentale des jeunes, Snapchat ne propose pas de métrique de comparaison sociale, comme les likes. L’application s’ouvre sur le mode caméra, et non sur un fil d’actualité infini qui inciterait à scroller, et nous n’encourageons pas la désinformation ni les contenus toxiques. Cette philosophie est partagée par notre communauté.

Selon notre dernier rapport de transparence pour l’Union européenne, plus de 850 millions d’utilisateurs uniques au niveau mondial se connectent chaque mois sur la plateforme, dont plus de 26,7 millions en France. Ces snapchateurs disent que l’application les rend heureux – ni anxieux, ni tristes : nous en sommes fiers. Ce sentiment a été confirmé par une étude indépendante, que nous n’avons pas commandée, menée récemment par l’université d’Amsterdam et la professeure Patti Valkenburg, experte ès réseaux sociaux. Pendant 100 jours, elle a évalué le bien-être, l’estime de soi et la qualité des relations de 479 adolescents de 14 à 17 ans suite à leur utilisation de plusieurs plateformes. Selon cette étude, Snapchat est la seule plateforme à avoir eu un impact positif sur le bien-être des jeunes, qui estiment que l’application renforce fortement la proximité entre amis, et n’a entraîné aucun impact négatif sur l’estime de soi.

Conscients des enjeux actuels en matière de protection des mineurs, nous travaillons chaque jour à renforcer nos mécanismes de protection et de sécurité, ainsi qu’à approfondir nos partenariats avec les acteurs publics comme privés. Notre comité consultatif de sécurité – safety advisory board – réunit plus de vingt experts internationaux, dont Mme Justine Atlan, directrice générale de l’association e-Enfance, que vous avez eu l’occasion d’entendre dans le cadre de vos travaux et avec laquelle nous travaillons étroitement pour développer des outils adaptés aux défis du numérique.

Développé avec ce comité, le contrôle parental permet de remettre le parent au cœur de l’activité numérique de son adolescent, tout en respectant la vie privée et l’autonomie de ce dernier. Nous proposons également un outil de signalement, développé avec l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) suite aux recommandations contenues dans son bilan sur la lutte contre la manipulation de l’information. Facilement accessible sur l’application et le site support, et organisé en catégories claires pour garantir une utilisation simple, cet outil rappelle notamment que les signalements sont confidentiels et essentiels pour encourager un usage responsable de la plateforme.

Bien avant le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), nous avons lancé un programme de signaleurs de confiance auquel participent plusieurs associations en France comme e-Enfance, Point de Contact, Stop Fisha et la Licra (Ligue internationale contre le racisme et l’antisémitisme). Après un lancement réussi aux États-Unis, nous avons récemment étendu à l’Europe notre conseil consultatif de jeunes, qui réunit des adolescents de différents pays membres de l’Union européenne et leurs parents ou tuteurs légaux. Ils rencontrent régulièrement nos équipes pour partager leur expérience et nous aider à améliorer nos outils et notre politique. Cette initiative sera officiellement lancée cette semaine : à cette occasion, les deux représentants français, âgés de 14 et 17 ans, se rendront avec leurs parents dans nos bureaux à Amsterdam.

Comme nous sommes contraints par le temps, je ne détaillerai pas davantage l’ensemble des initiatives prises par Snapchat. Reste que les approches uniformes ont montré leurs limites : il est temps de repenser la conception même des plateformes et le phénomène d’amplification virale au cœur de certains modèles économiques.

En s’ouvrant sur le mode caméra, Snapchat invite à s’exprimer plutôt qu’à faire défiler passivement un flux de contenus. Les surfaces de contenu y sont modérées : Discover propose des contenus publiés par des créateurs certifiés et des médias partenaires vérifiés – notamment Le Monde, Le Nouvel Obs, Le Figaro ou Brut –, qui sont tous soumis à des règles relatives aux contenus ; sur Spotlight, nous mettons en avant des contenus positifs et modérons les vidéos avant qu’elles ne soient visibles d’un large public. Snapchat est conçu pour favoriser un usage actif plutôt que passif. Le cœur de notre application reste la messagerie privée, fondée sur la réciprocité : pour pouvoir échanger, les utilisateurs doivent s’ajouter mutuellement. Contrairement à d’autres plateformes, on ne peut pas recevoir des messages par simple invitation. Toute capture d’écran ou enregistrement des messages est notifié, afin que l’utilisateur soit acteur de sa conversation.

Les adolescents font l’objet de mesures de protection spécifiques : ils n’apparaissent pas dans les résultats de recherche des autres utilisateurs, sauf si un lien mutuel est probable. Si un jeune accepte un inconnu dans sa liste d’amis, un bandeau s’affiche sur la partie conversationnelle pour lui signaler qu’il partage peu d’amis en commun avec cette personne. Une alerte similaire s’affiche si l’interlocuteur se trouve dans une autre zone géographique de celle où réside le mineur, ou si un écart d’âge important est avéré.

Tous ces engagements ne datent pas d’hier : contrairement à ceux de plusieurs plateformes, qui ont souligné avoir renforcé leurs mesures de protection, les comptes Snapchat ont toujours été privés. Comme le confirment notre audit sur les risques systémiques, nos rapports de transparence et nos déclarations auprès de l’Arcom – et auparavant auprès du CSA (Conseil supérieur de l’audiovisuel) – dans le cadre de la lutte contre la manipulation de l’information, Snapchat n’est pas un vecteur de diffusion massive de contenus illicites, un outil de manipulation de l’information ou d’enfermement algorithmique. Nous nous imposons des standards élevés et renforçons en permanence nos dispositifs de sécurité. Conscients du chemin qu’il reste à parcourir, nous continuons de renforcer la coopération avec le public et le privé : il est essentiel d’appeler collectivement à un environnement numérique beaucoup plus éthique, dans lequel chaque acteur assume pleinement ses responsabilités sans se défausser sur les autres.

Les défis actuels appellent une action coordonnée de l’ensemble du secteur du numérique. À cet égard, le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA) et le DSA offrent des fondations solides : ils doivent désormais être appliqués de manière cohérente et harmonisée dans l’ensemble des États membres. Il est temps d’éviter les initiatives nationales fragmentées, qui nuisent au bon fonctionnement du marché unique numérique. Je note que nous sommes une des seules plateformes à avoir salué l’entrée en vigueur du DSA ; nous avions d’ailleurs travaillé à sa rédaction avec plusieurs eurodéputés.

Il est temps, aussi, de redonner aux parents les moyens de soutenir et accompagner leurs enfants dans leur parcours numérique, sans leur faire de reproches. L’exemple récent de l’interdiction des sites pornographiques en France illustre bien les dangers d’une régulation précipitée ou non concertée : les téléchargements de VPN – réseaux privés virtuels – ont explosé, exposant davantage les mineurs aux risques du numérique. De plus, l’arrêté ministériel interdisant ces sites a été suspendu car il ne respectait pas le droit européen. Il faut trouver des solutions réalistes, applicables, qui protègent les utilisateurs sans les inciter à adopter des comportements encore plus risqués.

Mme Laure Miller, rapporteure. Toutes les plateformes nous ont affirmé, comme vous, que la protection des mineurs était leur priorité absolue. Mais nous nous intéressons moins à tout ce que vous déployez déjà pour protéger les enfants qu’à ce qu’il reste à faire pour mettre fin à ce qui nous paraît problématique.

Pouvez-vous nous en dire plus sur ce qui contribue à capter l’attention des enfants sur Snapchat, notamment l’algorithme et les fonctionnalités qui les incitent à revenir sur la plateforme ? Je pense en particulier aux émojis, qui peuvent être accolés au nom de l’utilisateur – un bébé pour qui vient de rejoindre la plateforme, un cœur jaune pour les meilleurs amis, etc. – et disparaissent au bout de vingt-quatre heures, ou les snapflammes. Avez-vous analysé ces dispositifs ? Avez-vous pleinement conscience qu’ils peuvent contribuer à la dépendance aux écrans, en particulier à votre réseau social ?

Mme Sarah Bouchahoua. Snapchat est conçu principalement pour faciliter la communication entre amis réels et encourager l’authenticité et les échanges entre utilisateurs. À cette fin, l’application s’ouvre directement sur le mode caméra, et non sur un fil d’actualité gouverné par des algorithmes de recommandation totalement opaques.

L’application offre trois espaces publics. Tout d’abord la carte, qui présente l’actualité mondiale et permet de visualiser les stories publiques diffusées par les autres utilisateurs. Plus elle est rouge, plus l’activité est intense – généralement, c’est en raison d’événements sportifs ou culturels, comme des festivals musicaux. Ensuite, la partie Discover fonctionne comme un kiosque à journaux ; elle propose des stories publiées par des médias certifiés et reconnus pour leur éthique journalistique avec lesquels nous avons noué plus de cent partenariats en France, comme Le Monde, Le Nouvel Obs ou Konbini. Enfin, la partie Spotlight affiche des vidéos courtes, généralement humoristiques – un format plébiscité par nos utilisateurs. Ces trois espaces font l’objet d’une modération poussée : avant d’être diffusés, les contenus sont d’abord scannés par un algorithme pour vérifier qu’ils ne contiennent rien d’explicitement illicite – terrorisme ou pédocriminalité –, puis soumis au regard d’un modérateur humain, qui s’assure qu’ils ne contreviennent pas aux règles communautaires de Snapchat, comme un placement de produit non déclaré.

Afin de lutter contre l’enfermement algorithmique et les bulles de filtre, et de proposer aux utilisateurs un contenu diversifié présentant différents points de vue, nous avons beaucoup travaillé avec l’Arcom sur l’algorithme de recommandation. Nous l’avons présenté à plusieurs reprises à la Commission européenne, qui n’a formulé aucune observation négative. Cet algorithme s’appuie à la fois sur des critères subjectifs – temps passé sur le contenu, partage – et objectifs – localisation de l’utilisateur, langue maternelle, âge – pour lui proposer des contenus d’actualité pertinents.

Comme je l’ai expliqué devant la commission d’enquête concernant l’organisation des élections en France, en juillet 2024, nous avons proposé aux utilisateurs des contenus politiques liés à la tenue des élections législatives anticipées et aux Jeux olympiques. Nous nous efforçons de proposer des contenus en lien avec les centres d’intérêt déclarés par l’utilisateur dans les paramètres de l’application mais, pour éviter de le conforter dans ses opinions, Snapchat propose également des contenus diversifiés, sans lien avec ces centres d’intérêt. Par exemple, une personne qui adore le sport se verra certes proposer des contenus sportifs provenant de médias partenaires spécialisés, comme L’Équipe, mais aussi des contenus liés à l’actualité politique ou simplement divertissants. Je n’aime pas trop le football mais, comme vous pouvez le voir dans la partie Discover, Snapchat me propose des contenus sur le joueur Erling Haaland, d’autres au sujet du concert de Beyoncé, que j’ai effectivement apprécié, des actualités proposées par M6 ou des informations sur les nouvelles lunettes Ray-Ban.

Nous proposons également d’autres fonctionnalités, qui peuvent être considérées comme addictives, comme les Snapstreak – les fameuses flammes. Leur utilisation est facultative : nous n’imposons rien et nous n’envoyons aucune notification relative à cette fonctionnalité – pour alerter l’utilisateur qu’une flamme est en train de s’éteindre, par exemple. D’après plusieurs enquêtes menées avec des chercheurs et notre Teen Council Conseil consultatif de jeunes –, notre audience apprécie ce type d’outils car ils permettent de renforcer l’amitié à travers un petit jeu. Conscients que ces fonctionnalités entraînent des effets de bord, nous nous efforçons de les corriger : une fois par an, les utilisateurs peuvent demander une restauration gratuite de leur flamme directement sur l’application – davantage s’ils disposent de Snapchat + –, ou sur le site support de Snapchat. Je précise que l’utilisateur peut modifier les paramètres de l’application pour désactiver les notifications ou l’algorithme de recommandations spécialisé, afin que les contenus proposés ne reposent que sur l’algorithme objectif.

Mme Laure Miller, rapporteure. Savez-vous quelle part des jeunes a effectivement désactivé l’algorithme spécialisé ?

Mme Sarah Bouchahoua. Je n’ai pas de chiffres précis. La possibilité de personnaliser les paramètres est encore largement méconnue des collégiens et lycéens. Nous avons travaillé avec les médias, comme le magazine Parents, et la Cnil (Commission nationale de l’informatique et des libertés) pour mieux informer les jeunes sur l’existence de ces outils, mais aussi déconstruire les préjugés autour des dispositifs de signalement, trop souvent perçus comme des outils de délation.

Mme Laure Miller, rapporteure. De nombreux influenceurs utilisent Snapchat car le format très court des vidéos les rend plus percutantes, ce qui leur garantit un succès fulgurant. Nous avons auditionné Nasdas, un cas emblématique qui ne compte pas moins de 9 millions d’abonnés. Ne pensez-vous pas que cette mise en valeur est une prime aux contenus choquants ?

Mme Sarah Bouchahoua. Pour être visible sur les espaces Stories ou Spotlight, les contenus doivent respecter les règles d’éligibilité à la recommandation : les contenus violents ou à caractère sexuel, sexiste, raciste ou antisémite sont interdits.

Comme je l’avais expliqué au président Delaporte lors des travaux préparatoires à l’examen de la proposition de loi visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, Snapchat applique le principe de la réponse graduée.

M. le président Arthur Delaporte. Selon Nasdas, votre plateforme constitue sa principale source de revenus, notamment grâce à ses contenus viraux. Confirmezvous cette déclaration ? Le cas échéant, combien gagne-t-il ?

Mme Sarah Bouchahoua. Je ne connais pas le montant exact.

M. le président Arthur Delaporte. Le modèle économique nous intéresse. Comment Snapchat rémunère-t-il les créateurs de contenus ? Nasdas nous a dit qu’il gagnait plusieurs centaines de milliers d’euros par mois : quelles vidéos lui rapportent le plus d’argent ? Plus largement, combien y a-t-il d’influenceurs millionnaires, en nombre de vues mais aussi en argent sonnant et trébuchant ? Plusieurs centaines de milliers d’euros par mois, ça fait plusieurs millions par an !

Par ailleurs, n’est-il pas possible de prévenir la production de contenus problématiques ? Pourquoi Nasdas, dont plusieurs contenus ont été modérés, n’a-t-il pas été banni ? À partir de combien de contenus modérés bannissez-vous un utilisateur ? C’est une des solutions à la main des plateformes.

Mme Laure Miller, rapporteure. Le principe même de la réponse graduée est discutable, car il signifie qu’il est possible d’insulter ou de s’attaquer à quelqu’un plusieurs fois. Le créateur d’un contenu inapproprié ou ne respectant pas vos règles devrait être banni dès la première infraction.

Mme Sarah Bouchahoua. Pour prévenir la production de contenus problématiques, nous avons créé en 2021 des Snap schools, où les créateurs de contenus suivent une formation aux règles communautaires et aux conditions d’utilisation de Snapchat avant leur certification. Des salariés dédiés à la relation avec les créateurs de contenus leur rappellent les règles à respecter, leur fournissent un guide et restent en relation avec eux tout au long de leur expérience.

Comme j’ai déjà eu l’occasion de l’expliquer au président Delaporte, la gradation des sanctions que nous appliquons depuis 2021 dépend de différents critères, notamment de la gravité de l’infraction aux règles de modération. Des audits trimestriels sur les créateurs de contenus qui ont déjà enfreint les règles, qu’ils soient ou non certifiés, ont conduit à bannir plus d’une quinzaine de créateurs.

J’en viens à la politique de monétisation, lancée récemment en France. Elle n’est accordée qu’à certains créateurs de contenus et obéit à des règles strictes : si un utilisateur viole les règles de modération, la monétisation est suspendue – il peut même en être définitivement privé.

M. Thierry Sother (SOC). Vous avez tendance à présenter votre plateforme comme une simple messagerie mais, compte tenu du nombre de fonctionnalités que vous avez décrites, Snapchat s’apparente plutôt à un réseau social.

Vous avez indiqué qu’avant d’être certifiés sur votre plateforme, les influenceurs suivent une formation, ou au moins un temps d’accompagnement, au siège de Snapchat. Combien de personnes ont-elles été formées à ce jour ?

S’agissant de la gradation des sanctions, vous semblez vous contenter de la promesse d’un influenceur de ne plus recommencer. J’ai une fille de six ans qui me fait régulièrement ce genre de promesse et bien souvent, ça ne suffit pas à l’empêcher de recommencer. Jusqu’où vont les sanctions ? Sont-elles limitées à des avertissements à l’infini ? Combien d’influenceurs ou d’utilisateurs certifiés bannissez-vous chaque année ?

Mme Sarah Bouchahoua. Nous distinguons les influenceurs – des personnalités publiques qui peuvent créer un compte sur Snapchat sans être soutenues par la plateforme – des créateurs de contenus certifiés, les Snap stars. Seuls ces derniers, identifiables à leur badge jaune – qui, contrairement à ce qui se fait sur d’autres plateformes, ne peut pas être acheté ni donné à n’importe qui –, suivent la formation dispensée dans les locaux de Snapchat dans le cadre du programme Snap schools.

Pour être certifiées, les personnalités publiques qui en ont fait la demande ou approchées à l’initiative de la plateforme doivent remplir plusieurs critères objectifs. Par exemple, elles doivent être reconnues pour leur talent, qu’elles soient athlètes ou artistes. Une fois certifiés, ces utilisateurs peuvent publier des contenus dans la partie Discover. Les influenceurs, eux, ne sont pas nécessairement certifiés ni formés par la plateforme aux règles de modération et de recommandation.

Le rôle de l’équipe chargée de la relation avec les Snap stars est d’alerter les utilisateurs certifiés d’éventuels problèmes avec leur compte. Il nous arrive également de retirer leur certification à des personnalités publiques qui ne respectent pas les règles de modération.

M. le président Arthur Delaporte. Peut-on parler d’Alex Hitchens ?

Mme Sarah Bouchahoua. À ma connaissance, il n’a pas de compte sur Snapchat.

M. le président Arthur Delaporte. J’ai sous les yeux un compte qui publie sur Spotlight des vignettes comme « Alex Hitchens fait tourner sa copine pour vendre plus », « Des hommes qui se font entretenir par leur femme, leur copine et leur culot » « Alex Hitchens détruit cette femme », etc. Ce ne sont que des vignettes, mais elles méritent une analyse plus contextuelle.

Mme Laure Miller, rapporteure. De combien de modérateurs disposezvous ? Parmi eux, combien sont des sous-traitants et combien des salariés de Snapchat ? Comment leur nombre a-t-il évolué ces dernières années ?

Vous avez dit tout à l’heure que vous n’encouragiez pas la désinformation et les contenus toxiques ; permettez-vous néanmoins que ces contenus existent et soient diffusés sur la plateforme ?

Mme Sarah Bouchahoua. C’est assez difficile, car nous ne pouvons malheureusement pas contrôler les utilisateurs lorsqu’ils produisent eux-mêmes leurs contenus. En revanche, nous mettons en œuvre une modération combinant l’intelligence artificielle, pour détecter les contenus explicitement violents, et l’intervention humaine : une équipe travaille sur ce qui a été repéré par l’algorithme, pour éviter notamment les faux positifs.

Nous avons 1 108 modérateurs dédiés aux pays membres de l’Union européenne, dont 163 francophones. La plupart sont basés à Londres. Ce chiffre peut sembler faible par rapport à d’autres plateformes, mais notre modèle est fondamentalement différent des autres. Pour diffuser un contenu à une large audience sur Snapchat, il faut être une personnalité publique certifiée – une Snap star – ou avoir déjà un large public. Snapchat étant essentiellement centré sur la communication privée, entre amis et en famille, on y trouve moins de contenus susceptibles d’être considérés comme viraux ou comme des contenus illicites en propagation rapide.

Nos systèmes automatisés permettent de détecter rapidement tout contenu très violent ou explicitement illicite. Nos équipes de modérateurs prennent ensuite le relais pour contrôler. Elles sont assez efficaces et le délai médian entre la détection et l’action finale est très court : 2 minutes pour les contenus à caractère sexuel, 23 minutes pour ceux relevant de l’exploitation sexuelle des mineurs, 7 minutes pour le harcèlement et l’intimidation, 8 minutes pour les menaces et les violences, 10 minutes pour l’automutilation et le suicide, 1 minute pour la désinformation, 6 minutes pour la drogue, 1 minute pour les armes, 27 minutes pour les discours haineux, 5 minutes pour le terrorisme et l’extrémisme violent.

Les modérateurs sont formés pour répondre rapidement et le taux de précision est élevé : d’après les dernières données que nous avons transmises à la Commission européenne, il atteint 95 % s’agissant des contenus entrant en violation avec nos règles communautaires et 85 % pour les contenus non éligibles à la recommandation.

Durant plusieurs semaines, ils suivent régulièrement des modules sur les politiques internes de Snapchat, les outils utilisés, les procédures d’escalade pour remonter le plus rapidement possible les risques, les normes culturelles ou encore les événements d’actualité. Nous les avions prévenus, par exemple, des risques qui pouvaient survenir lors de la fête de la musique ; ils se sont donc tenus prêts à traiter tout signalement à cette occasion.

À la fin de leur apprentissage, les modérateurs doivent obligatoirement obtenir une certification confirmant qu’ils ont les compétences nécessaires pour devenir agent pour Snapchat. Une fois qu’ils l’ont obtenue, ils suivent, comme tous les salariés, une formation continue constituée de sessions hebdomadaires de remise à niveau portant notamment sur les dernières évolutions en matière de régulation et de législation. Pour savoir comment traiter les contenus qui sont dans la zone grise et prendre en compte le contexte, des cas limites sont présentés. Des quiz et des certifications régulières sont proposés, et des procédures d’alerte assez rapides sont mises en œuvre : je fais par exemple des points réguliers avec notre équipe de Londres pour l’alerter sur les tendances que nous percevons.

Au-delà de ces mécanismes internes, nous nous appuyons aussi beaucoup sur l’externe : pour mieux appréhender les tendances observables sur le terrain.

Si nous ne pouvons pas prévenir la publication de certains contenus par les utilisateurs, nous pouvons toutefois essayer de limiter les risques. À l’occasion des Jeux olympiques de Paris 2024, nous avons travaillé trois mois à l’avance. J’ai pris l’initiative de contacter différentes associations – SOS Racisme, la Licra, le Conseil représentatif des institutions juives de France (Crif), Stop Homophobie, SOS Homophobie, etc. Nous avons travaillé avec elles, lors de réunions bilatérales, sur les différents phénomènes qui pourraient se produire. J’ai ensuite transmis l’ensemble des informations obtenues aux équipes de modération, afin qu’elles les prennent en considération.

Mme Laure Miller, rapporteure. Comment est-il possible de laisser passer autant de contenus problématiques avec un tel processus de modération ? L’intelligence artificielle doit être capable d’alerter lorsque sont publiées des vidéos d’un homme piquant des gens dans la rue ! Si certains influenceurs ont été bannis récemment, c’est grâce à l’intervention de personnes dont ce n’est pas le métier – notamment du président Arthur Delaporte. Comment expliquez-vous cet énorme trou dans la raquette ?

Mme Sarah Bouchahoua. Je ne connais pas le détail du dossier concernant Amine Mojito.

Quant aux autres créateurs de contenus évoqués, ils ont été bannis de la plateforme en 2021. Nous n’avons pas attendu la ministre Aurore Bergé pour supprimer le compte d’AD Laurent, par exemple, mais celui-ci continue de revenir et d’être suspendu par les équipes de modération de Snapchat.

Mme Josiane Corneloup (DR). L’absence de vérification des comptes Snapchat permet aux prédateurs en ligne de créer de fausses identités pour tromper les jeunes. Selon les chiffres d’une organisation caritative britannique spécialisée dans la protection des enfants, Snapchat est la plateforme la plus utilisée pour le pédopiégeage en ligne : c’est là que se produisent près de la moitié des délits de ce type.

L’anonymat permet aux prédateurs de cibler, piéger et manipuler leurs victimes d’autant plus facilement que la disparition du contenu public rend les preuves de leurs interventions éphémères et donc difficiles à collecter par la suite. Alors que le nombre de faux comptes augmente sur Snapchat, ne serait-il pas temps de distinguer ceux derrière lesquels il y a de vraies personnes des autres, sans scrupules, qui sont à l’origine d’escroqueries de toute nature ?

Snapchat récompense ses utilisateurs actifs : lorsque deux d’entre eux se sont envoyé des photos ou des vidéos au cours des dernières vingt-quatre heures, ils obtiennent une snapflamme qui continue de brûler à condition qu’ils s’échangent des messages au quotidien. En l’absence d’interaction, leur série disparaît et ils doivent repartir de zéro. Ne pensez-vous pas que de telles pratiques sont de nature à provoquer très vite des addictions ?

Mme Sarah Bouchahoua. D’abord, l’anonymat n’existe pas sur internet. Cela fait plus de huit ans que je travaille sur le sujet, ayant été collaboratrice parlementaire de la députée Laetitia Avia, auteur de la proposition de loi contre les contenus haineux sur internet : à cette occasion, nous avons compris que c’est le régime du pseudonymat qui régnait aujourd’hui dans l’espace numérique. La question est celle de la collaboration entre les plateformes et les autorités judiciaires. Lorsque vous vous connectez, vous livrez une adresse e-mail – fût-elle totalement fictive – et un numéro de téléphone, mais surtout une adresse IP et le type de téléphone utilisé : vous êtes ainsi facilement localisable et identifiable.

Nous luttons depuis plusieurs années contre le phénomène particulièrement affreux du grooming, ou piégeage. Nous avons mis en place plusieurs garde-fous sur Snapchat. D’abord, le profil des mineurs qui s’inscrivent est privé, si bien qu’ils ne peuvent pas apparaître parmi les suggestions d’ajout des inconnus – lesquels peuvent mentir sur leur âge. Si un mineur ajoute une personne qu’il ne connaît pas, qui a déjà été signalée auparavant ou qui est localisée dans un autre territoire, un bandeau s’affiche pour le mettre en garde et lui demander s’il souhaite réellement poursuivre l’échange. Le bouton « bloquer » ou « signaler » apparaît en rouge, alors que le bouton « poursuivre la conversation » apparaît en gris.

À l’avenir, ce mécanisme de signalement sera disponible sur l’ensemble de la plateforme. Si l’utilisateur réalise que l’inconnu lui demande des contenus intimes, il pourra le signaler le plus rapidement possible. Nous avons rédigé un petit laïus avec eEnfance pour réexpliquer que le signalement est totalement confidentiel  l’interlocuteur n’en est pas alerté – et qu’en cas d’urgence, il faut s’adresser directement à un adulte ou une personne de confiance, et appeler les forces de l’ordre.

Nous sommes conscients que des efforts restent à faire. Nous avons développé un centre parental visant à remettre le parent au cœur de l’expérience numérique de son enfant, qui s’efforce de reproduire leurs échanges quotidiens : ayant accès à la liste d’amis ainsi qu’au degré d’interaction avec chacun d’eux, le parent pourra signaler un ami qu’il ne connaîtrait pas, par exemple.

Nous avons travaillé avec plusieurs associations britanniques – notamment celle que vous avez évoquée, mais aussi StopNCII (Stop Non-Consensual Intimate Image) – spécialisées dans le grooming et le hashing. Lorsque la victime de l’un de ces méfaits leur transmet les photos ou les vidéos qu’elle a partagées avec un inconnu, ces associations nous les signalent. En scannant ensuite l’ensemble des parties publiques de la plateforme, nous pouvons mesurer si elles ont été diffusées à une large échelle et déterminer par qui elles l’ont été, afin de sanctionner directement le prédateur sexuel.

Nous estimons aujourd’hui que la solution réside dans les systèmes d’exploitation (OS) des téléphones portables, qui disposent de l’ensemble des informations relatives aux utilisateurs. Je ne dis pas cela pour me dédouaner, contrairement à certains : les plateformes sont les principales responsables de la vérification de l’âge et nous continuerons d’ailleurs d’investir sur ce sujet. Néanmoins, les OS devraient nous transférer des signaux. Nous nous réjouissons à cet égard que la société Apple ait annoncé la semaine dernière qu’elle allait transmettre aux développeurs d’application la date de naissance de ses utilisateurs, par le biais d’une API – Application Programming Interface.

Aujourd’hui, votre téléphone portable peut vous reconnaître grâce à la biométrie ; il contient vos cartes de fidélité ; il sait exactement ce que vous faites et qui vous êtes. Ce que nous demandons, c’est que dès l’achat du téléphone – que l’appareil soit neuf ou d’occasion –à l’étape du paramétrage, le parent puisse renseigner l’âge de son enfant, donner son consentement pour le téléchargement d’applications et limiter le temps d’écran. Aujourd’hui ces outils existent, ils sont gratuits, mais peu de parents les utilisent. Pour nous, il est essentiel qu’il y ait une seule porte d’entrée et que les OS nous fournissent un signal pour que nous puissions automatiquement activer nos contrôles parentaux. Encore une fois, je ne cherche pas à me dédouaner mais à trouver une solution efficace et effective, en lien avec le DSA et le DMA.

M. le président Arthur Delaporte. Vous voyez bien qu’il y a un problème. Tout ce que vous proposez pour les enfants n’est pas opérant, parce que la plupart mentent au sujet de leur âge. Quel est le pourcentage de mineurs identifiés comme tels sur Snapchat ?

Mme Sarah Bouchahoua. Nous comptons aujourd’hui, en France, 2,6 millions d’utilisateurs mineurs âgés de 13 à 17 ans.

M. le président Arthur Delaporte. Vous n’êtes donc pas capable d’identifier les enfants entre 8 et 13 ans, alors que l’on sait que nombre d’élèves de CM2 ou de sixième utilisent Snapchat. Combien de millions d’utilisateurs avez-vous en France ?

Mme Sarah Bouchahoua. Nous avons 26,9 millions d’utilisateurs.

M. le président Arthur Delaporte. Le pourcentage de mineurs est donc censé s’établir à 10 %, alors que l’on peut estimer qu’il atteint plutôt 20 à 25 %. Cela signifie qu’au moins la moitié de vos utilisateurs mineurs apparaissent comme majeurs et ne bénéficient donc pas des modalités de protection renforcée que vous avez évoquées.

Mme Sarah Bouchahoua. Je ne peux pas me prononcer sur des chiffres non vérifiés mais d’après Médiamétrie, dont vous avez auditionné le président, l’âge moyen déclaré sur Snapchat est de 36 ans. C’est le fameux effet Harry Potter : Snapchat a été créé en 2011, et les adolescents d’alors sont devenus des adultes.

M. le président Arthur Delaporte. Et selon vous, quel est l’âge moyen sur Snapchat ?

Mme Sarah Bouchahoua. Il est de 35 ans.

M. le président Arthur Delaporte. Il est donc à peu près cohérent.

Mme Sarah Bouchahoua. Médiamétrie a une méthode de calcul différente, fondée sur un panel et sur une API directement branchée sur Snapchat, au travers de laquelle ils répondent aux questions des utilisateurs.

Mme Josiane Corneloup (DR). Ce que l’on constate, c’est que les enfants sont seuls devant l’application et que la plupart des parents n’en connaissent pas le fonctionnement. Personne ne vérifie rien et tout se fait dans l’anarchie totale, sans contrôle. Il faudrait que les parents soient au moins formés et avisés des risques que prend leur enfant en se connectant.

Mme Sarah Bouchahoua. C’est un très bon point. Nous organisons des campagnes promotionnelles au sujet des outils que je vous ai présentés, afin d’informer les parents de leur existence.

Nous avons fait réaliser des études indépendantes : d’après le Family Online Safety Institute (FOSI), plus de 75 % des parents ne sont pas au courant des différents outils existant sur les espaces numériques. La plupart d’entre eux disent qu’ils n’ont pas le temps de se connecter et de créer des comptes. C’est la raison pour laquelle nous plaidons pour une solution reposant sur les systèmes d’exploitation : ils offrent une porte unique, qui permettrait aux parents d’autoriser ou non le téléchargement d’applications et de limiter le temps d’écran facilement.

Nous avons développé un site internet, parents.snapchat, qui explique ce qu’est Snapchat, comment l’utiliser, comment en parler avec son enfant et comment activer l’outil de contrôle parental. Nous faisons des efforts, mais le sujet doit aussi être traité au niveau industriel et sociétal : l’éducation nationale – avec laquelle nous essayons de travailler – nous a indiqué, par exemple, que de moins en moins de parents assistaient aux réunions avec les professeurs.

Mme Laure Miller, rapporteure. Qu’est-ce qui vous empêche d’instaurer un dispositif de vérification de l’âge au moment de l’inscription ?

Mme Sarah Bouchahoua. C’est également une bonne question. Nous poursuivons nos discussions avec les différents vérificateurs d’âge. Malheureusement, aucune solution ne permet de distinguer les jeunes de 13 ans de ceux qui ont 15 ans. Pour l’accès aux sites pornographiques, la limite est fixée à 18 ans…

M. le président Arthur Delaporte. Je ne crois pas que cela réponde à la question de Mme la rapporteure. Celle-ci voudrait savoir pourquoi l’âge de l’utilisateur n’est pas vérifié dès son inscription sur la plateforme, ce qui permettrait de certifier – de façon certes imparfaite – l’âge de l’ensemble des utilisateurs. Nous avons posé la même question à TikTok.

Mme Sarah Bouchahoua. Aucun outil, justement, ne permet cette vérification d’âge. Nous avons discuté avec Yoti – je ne sais pas si vous les avez auditionnés…

M. le président Arthur Delaporte. C’est le système utilisé par TikTok, notamment.

Mme Sarah Bouchahoua. Yoti ne permet pas de faire la distinction entre un utilisateur âgé de 14 ans et 7 mois et un autre de 15 ans et 2 mois. En outre, il y a quelques temps, la marge d’erreur était de 30 %.

M. le président Arthur Delaporte. Vous avez donc connaissance de cette marge d’erreur, que Yoti vous a communiquée. Les représentants de TikTok, à qui nous avons posé la même question mot pour mot, ne nous en ont pas parlé.

Mme Sarah Bouchahoua. C’est connu…

M. le président Arthur Delaporte. C’est une question importante. Vous n’utilisez donc pas Yoti ?

Mme Sarah Bouchahoua. Non, nous ne l’utilisons pas en raison de la marge d’erreur, qui n’est pas améliorable aujourd’hui.

M. le président Arthur Delaporte. Ne serait-ce pas un moindre mal ? On pourrait au moins vérifier qu’un utilisateur a entre 14 et 16 ans, et pas 8 ans.

Mme Sarah Bouchahoua. La marge d’erreur concerne le seuil de 18 ans, pas la différence entre 14 ans et 7 mois et 15 ans et 2 mois.

Nous estimons qu’aucun outil ne permet aujourd’hui, dans le respect des droits fondamentaux des adolescents, de mettre en œuvre une vérification de l’âge lors de l’inscription. Mais nous continuons d’échanger avec des vérificateurs d’âge.

Nous travaillons aussi sur la biodata et, avec la Commission européenne, sur le digital wallet. Nous sommes ouverts à tout et nous nous efforçons simplement de trouver la solution la plus efficace pour les adolescents.

Mme Josiane Corneloup (DR). Ne pourraient-ils pas fournir une pièce d’identité, tout simplement ?

Mme Sarah Bouchahoua. On en parle depuis des années. La Cnil y a apporté une réponse assez claire. D’abord, les utilisateurs n’ont pas forcément de pièce d’identité ; ensuite, une pièce d’identité française vaut-elle une pièce espagnole ? Le DSA s’applique aux vingt-sept pays membres de l’Union, c’est donc au niveau européen que nous devons trouver une solution. Enfin, le risque en matière de cybersécurité est élevé : moi-même, je ne souhaite pas fournir ma pièce d’identité à certains acteurs discutables de l’espace numérique.

Mme Laure Miller, rapporteure. Même si elles sont imparfaites, il existe des solutions. Vous ne pouvez pas commencer votre propos en expliquant que la priorité absolue de Snapchat est la protection des enfants et nous dire ensuite qu’en l’absence de solution tout à fait satisfaisante, vous préférez ne rien faire. C’est totalement contradictoire.

Mme Sarah Bouchahoua. Ce n’est pas que nous préférons ne rien faire. Nous développons des outils de protection, nous lançons des campagnes au sujet des usages et des mesures de protection à disposition des adolescents et des parents. Mais nous devons trouver une solution industrielle à l’échelle européenne. À cet égard, le texte solide adopté à l’initiative de la France est une bonne base.

M. le président Arthur Delaporte. En tant que responsable des affaires publiques de Snapchat, recevez-vous des alertes Google ? Faites-vous de la veille d’actualité pour identifier ce qui pourrait nuire à l’image de l’entreprise ?

Mme Sarah Bouchahoua. Non, je reçois des alertes sur des articles de presse, mais pas d’alertes Google. Pour renforcer nos actions, nous nous appuyons essentiellement sur les alertes transmises par des associations au sujet de phénomènes perçus sur Snapchat ou sur d’autres espaces numériques.

M. le président Arthur Delaporte. Avez-vous lu l’article évoquant l’arrestation par des gendarmes de Corrèze, le 24 avril 2025, de dealers qui avaient ouvert une boutique en ligne sur Snapchat pour vendre de la drogue ?

Pourquoi le trafic de drogue se fait-il sur Snapchat ?

Mme Sarah Bouchahoua. Il ne se fait pas uniquement sur Snapchat.

M. le président Arthur Delaporte. Non, un peu sur Telegram aussi…

Mme Sarah Bouchahoua. Je suis très au fait de cette question. Le trafic commence à se diriger vers d’autres réseaux sociaux. Snapchat a renforcé ses différents outils, notamment en matière de modération.

Enfin, nous travaillons à la sensibilisation. Aujourd’hui, si un utilisateur tape le mot « cannabis », les contenus qui s’affichent, travaillés avec la mission interministérielle de lutte contre les drogues et les conduites addictives (Mildeca), ne promeuvent pas cette substance mais renvoient vers Drogues Info Service.

M. le président Arthur Delaporte. Nous arrivons au terme de l’audition. Nous sommes preneurs de vos réponses écrites au formulaire ainsi que de précisions sur les profils des utilisateurs et sur leurs revenus. Nous sommes très intéressés, notamment, par les éléments qui nous aideraient à comprendre le modèle économique de Nasdas.

67.   Audition de M. Tristian Boursier, Docteur associé au Centre de recherches politiques (Cevipof), M. Hugo Micheron, enseignant chercheur en sciences politiques rattachées au Centre de recherches internationales (CERI), maître de conférence à Sciences Po, spécialiste du Moyen Orient, Mme Sophie Taïeb, responsable du pôle cybersécurité au Conseil représentatif des institutions juives de France (CRIF), et M. Valentin Petit, journaliste, agence CAPA (mardi 24 juin 2025)

Enfin la commission auditionne M. Tristian Boursier, docteur associé au Centre de recherches politiques (Cevipof), M. Hugo Micheron, enseignantchercheur en sciences politiques rattachées au Centre de recherches internationales (CERI), maître de conférence à Sciences Po, spécialiste du Moyen Orient, Mme Sophie Taïeb, responsable du pôle cybersécurité au Conseil représentatif des institutions juives de France (CRIF), et M. Valentin Petit, journaliste, agence CAPA ([65]).

M. le président Arthur Delaporte. Nous reprenons nos auditions sous la forme d’une table ronde sur les radicalités avec M. Tristan Boursier, docteur associé au Centre de recherches politiques (Cevipof) ; M. Hugo Micheron, enseignant-chercheur en sciences politiques, rattaché au Centre de recherches internationales (Ceri), professeur associé à Sciences Po, spécialiste du Moyen-Orient ; Mme Sophie Taïeb, responsable du pôle cybersécurité du Conseil représentatif des institutions juives de France (Crif) ; et M. Valentin Petit, journaliste à l’agence CAPA. Je vous remercie de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations, en particulier toute rémunération que vous pourriez percevoir de la part d’un acteur du numérique.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Valentin Petit, Mme Sophie Taïeb, M. Hugo Micheron et M. Tristan Boursier prêtent successivement serment.)

M. Tristan Boursier, docteur associé au Centre de recherches politiques (Cevipof). Je suis chercheur postdoctoral, associé au Cevipof et à l’UQO (Université du Québec en Outaouais). Mes recherches ne sont pas financées par des entreprises privées ou des groupes du numérique.

Dans le cadre de mes recherches, je m’intéresse aux discours et aux idéologies d’extrême droite et antiféministes, plus spécifiquement aux convergences entre ces deux discours sur les médias sociaux. Mes recherches se focalisent sur YouTube, TikTok et, dans une moindre mesure, Instagram. J’associe des méthodes qualitatives – analyse de discours et immersion en ligne, notamment en menant des enquêtes ethnographiques en ligne au sein de communautés d’extrême droite en ligne – à des méthodes quantitatives appliquées sur un nombre important de vidéos YouTube, dont j’analyse les discours.

Je travaille sur le sujet depuis cinq ans et j’ai observé trois changements principaux, notamment chez les influenceurs d’extrême droite qui sont au centre de mes recherches : d’abord, une professionnalisation de ces acteurs, avec une meilleure maîtrise des codes du numérique et du capitalisme de l’attention ; deuxièmement, un phénomène de prolifération – multiplication des microcélébrités, des microacteurs dont les publications sont fortement visibilisées, malgré le faible nombre d’abonnés ou de contenus ; troisièmement, une grande adaptation de ces acteurs aux différentes modes et tendances des médias sociaux et aux évolutions des réglementations des plateformes.

M. Hugo Micheron, enseignant-chercheur en sciences politiques rattaché au Centre de recherches internationales (Ceri), professeur associé à Sciences Po, spécialiste du Moyen-Orient. Je suis professeur associé à Sciences Po, spécialiste du Moyen-Orient. Je travaille abondamment sur le djihadisme et, depuis 2020, je m’intéresse énormément à la question informationnelle, notamment à la diffusion des différentes idéologies en ligne et au pouvoir des algorithmes. Nous avons déployé un outil, Arlequin AI, qui permet de documenter les diffusions d’un certain nombre de ce qu’on appelle désormais les « narratifs » en ligne.

Dans un premier temps, je m’en tiendrai à présenter ce qui me semble être la réalité du monde politique dans lequel nous évoluons tous. L’espace informationnel est en proie à des mutations extrêmement rapides, violentes et profondes, qui redéfinissent en grande partie les attributs de la puissance, notamment publique et politique. Ainsi, des acteurs non étatiques, parfois très minoritaires, se retrouvent à avoir un poids considérable, complètement disproportionné par rapport à leur capacité à représenter les groupes dont ils se réclament.

Parmi eux, on trouve des acteurs de comités dits à risque. Je pense à mon sujet de recherche de ces quinze dernières années : le djihadisme. Nous avons affaire, par définition, à des groupes très minoritaires qui parviennent néanmoins à diffuser en ligne des éléments de propagande, caractéristique très importante de ces groupes. En effet, dès les années 1980, au tout début du djihad contemporain, ces acteurs étaient déjà très investis dans les supports de propagande – cassettes vidéo et audio, pamphlets qui s’échangeaient sous le manteau ou sur les places de marché quand ils y parvenaient. À partir des années 2000, les supports se sont en partie numérisés, ils ont été diffusés sur des forums et stockés sur des formats dématérialisés, comme des fichiers PDF. À partir des années 2010, au moment du pic de Daech, ils sont diffusés sur les réseaux sociaux sous une forme souvent qualifiée d’hollywoodienne, qui reprend tous les codes de la communication culturelle occidentale. Depuis quelques années, on voit apparaître les premières vidéos et les premiers produits propagandiques liés à l’intelligence artificielle. La première vidéo francophone de Daech produite à 100 % par l’intelligence artificielle (IA) a été mise en ligne sur les réseaux sociaux en 2024.

Ce sujet n’est pas à la marge mais au cœur du débat politique. Dans le monde dans lequel nous vivons, les algorithmes forment un pouvoir à part entière. Jusque-là, nous nous sommes projetés dans un certain modèle de séparation des pouvoirs – l’Assemblée nationale fait partie des lieux où ces principes ont été pensés et mis en pratique : le politique s’incarne dans l’exécutif et le législatif, qui sont séparés l’un de l’autre et également distincts du judiciaire. Un autre pouvoir, qui est un contre-pouvoir, a émergé au fil du temps : les médias et la société civile – associations et corps intermédiaires. Au gré du temps, des affrontements et des ajustements, tout cela a constitué un socle démocratique européen et, plus largement, une base démocratique qui est un modèle mondial.

Aujourd’hui, il existe un nouveau pouvoir, le pouvoir algorithmique, qui, pour l’instant, ne fait face à aucun contre-pouvoir. Il redéfinit les attributs de la puissance entre les différents pouvoirs. Dans le cadre de l’étude de l’évolution de la propagande djihadiste, en m’intéressant aux algorithmes, j’ai abordé de nombreux sujets, parmi lesquels la question des grandes plateformes du numérique. M. Elon Musk, le patron de X, a trafiqué l’algorithme de X dont il est le propriétaire afin que, pendant la campagne électorale, les tweets politiques de M. Trump soient vus 17 milliards de fois par les citoyens américains – je ne parviens même pas à concevoir ce que ce chiffre représente. J’ignore quel en a été l’impact. Néanmoins, cette diffusion est énorme, et bien plus importante que la capacité de M. Elon Musk à toucher ces personnes. Dans cette démocratie, comme en France et en Europe, les campagnes électorales sont très encadrées, tant du point de vue du financement que du calendrier – on ne peut pas dire tout et n’importe quoi et à quarante-huit heures du scrutin, la campagne s’arrête. Or ce n’est pas le cas sur les réseaux sociaux.

En Roumanie, pays plus proche de nous, un candidat, considéré à l’extrême droite de l’extrême droite, a fait 100 % campagne sur TikTok et a déclaré zéro euro de frais de campagne. Il n’était connu de personne – il était crédité de moins de 1 % des votes – mais il a fini par obtenir 43 % des votes au premier tour de l’élection présidentielle. Ce qui a sauvé la situation, en quelque sorte, c’est qu’il n’a pas déclaré de frais de campagne alors qu’il a été prouvé qu’il avait été financé à hauteur de 1 million d’euros, notamment par des agents extérieurs. Cet individu, inconnu en Roumanie, a été hissé à la huitième place des tendances mondiales sur TikTok durant cette période. Il existe donc une déformation algorithmique car rien ne laissait présager que sur un réseau social chinois en Roumanie, il s’élèverait au‑dessus des contenus relatifs au conflit à Gaza ou aux commentaires portant sur M. Joe Biden ou M. Donald Trump. Ce qui est certain, c’est qu’il a surperformé.

En étudiant des événements antérieurs, on s’est rendu compte que les mêmes méthodes avaient été utilisées neuf mois plus tôt pour pousser la vente d’aspirateurs en ligne, qui ont été en rupture de stock en Roumanie deux semaines plus tard. Des systèmes de marketing ont été mis en place puis appliqués au marketing politique. À partir de cas très concrets, liés aux élections, avec un impact politique direct aux États-Unis ou en Europe, on constate que les algorithmes sont arsenalisés. Ces questions touchent tous les sujets politiques, et les tendances à risque que je couvre en font partie.

L’audition est suspendue de dix-sept heures trente à dix-sept heures trentecinq.

Mme Sophie Taïeb, responsable du pôle cybersécurité du Conseil représentatif des institutions juives de France (Crif). Je suis chargée de la cybersécurité et des signalements pour le compte du Crif. Le Crif, créé en 1943, est une association universaliste qui fédère soixante-cinq associations. L’une de nos missions statutaires est de lutter contre l’antisémitisme et toutes les formes de haine.

Depuis dix ans, nous sommes partenaires des principales plateformes – X, Meta, Google et TikTok. Nous avons été certifiés signaleurs de confiance par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) au printemps 2025. Nous sommes également en relation avec certaines institutions – la plateforme Pharos (d’harmonisation, d’analyse, de recoupement et d’orientation des signalements) et la délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la haine anti-LGBT (Dilcrah). Notre expertise en matière de détection de signalements de contenus haineux est reconnue.

Chaque année, plusieurs milliers de signalements sont reçus par le Crif par mail, via un formulaire sur notre site internet ou la messagerie. Nous les traitons tous manuellement : je décide des contenus qui seront signalés aux plateformes et/ou à Pharos. Nous ne signalons que les contenus illicites qui enfreignent soit la loi française, soit les règles d’utilisation des plateformes. C’est pourquoi notre taux de retrait est d’environ 90 %, toutes plateformes confondues.

Parmi les contenus les plus signalés qui entrent dans notre domaine d’expertise figurent les contenus négationnistes, la discrimination en raison de la race ou de la religion, les discours de haine, l’apologie du terrorisme et le doxxing, à savoir la divulgation d’informations et de données personnelles.

Nous rencontrons des difficultés spécifiques à TikTok. Si vous tapez « Hitler » sur TikTok, les vidéos dans lesquelles ce mot est prononcé n’apparaîtront pas. Selon les études, on estime qu’il y a entre 300 et 400 vidéos téléchargées chaque seconde sur TikTok. Or il est impossible de récupérer les contenus dans lesquels sont prononcés les mots recherchés, contrairement à X où il suffit de saisir le mot-clé Hitler ou Hamas pour qu’apparaissent les tweets qui utilisent ces mots. La recherche de contenus illicites ne s’effectue donc pas à partir du contenu de la vidéo, mais grâce aux signalements que nous recevons et à l’algorithme ultrapuissant. En effet, à force de consulter des contenus antisémites, TikTok me propose automatiquement des vidéos antisémites.

De plus, les utilisateurs savent tromper la modération. Si vous tapez « Hitler was right » – « Hitler avait raison » – sur Tiktok, vous recevrez un avertissement vous invitant à vérifier les faits, notamment dans des livres d’histoire. Mais si vous faites partie de la génération qui sait contourner la modération, vous remplacez le i de Hitler par un point d’exclamation et le e par un trois, et vous accédez alors à des vidéos dont le contenu est potentiellement nazi.

L’antisémitisme sur Tiktok est diffus, il est partout : dans les noms d’utilisateurs, les vidéos, les commentaires. Je vous en donne quelques exemples : des comptes s’intitulent gazeur2juif, des lives sont accompagnés de commentaires tels que « on va attaquer les synagogues jusqu’à la mort », des vidéos très vulgaires sont publiées, que je ne lirai pas ici.

La dissuasion est faible. Voici une vidéo dans laquelle une jeune femme dit : « Vous allez tous finir en enfer, bande de Juifs, vous allez tous cramer […] », avant de prononcer des propos très vulgaires. Il a fallu plusieurs jours pour faire retirer ce contenu, puis plusieurs autres pour faire suspendre le compte. Cette jeune femme de Chambéry est déjà de retour sur TikTok car elle a pu recréer un compte immédiatement.

L’antisémitisme est global. Selon des études, 69 % des Juifs disent avoir été victimes d’antisémitisme sur la plateforme. Les commentaires ne sont pas forcément liés au contexte politique. Sous cette vidéo où l’on voit une famille en train de danser pendant une bar-mitsvah, 3 500 commentaires ont été publiés parmi lesquels « Le grand-père, il a du gaz qui sort de sa bouche, c’est normal ? », « Papy, va à la douche », « Free Palestine », « Ça fête la mort du H », « bande de juifs », etc.

La modération est aléatoire. À mon grand étonnement, on m’a répondu que les deux comptes intitulés gazeur2juif n’enfreignaient aucune règle. Dans ce genre de cas, je fais appel par mail à notre contact chez TikTok France, mais je ne peux le faire à chaque fois que je ne comprends pas une décision de modération.

M. le président Arthur Delaporte. Malgré le fait que vous ayez été désigné signaleur de confiance, si vous n’appelez pas votre contact, le contenu n’est pas retiré.

Mme Sophie Taïeb. Absolument. Il est ici question de la plateforme Trusted flaggers, qui est partenaire de Tiktok, la plateforme Signaleurs de confiance sera, quant à elle, mise en place prochainement.

Le puissant algorithme Tiktok est utilisé comme source d’information par les jeunes. Il suggérera des vidéos allant dans le même sens que celles que l’utilisateur a déjà regardées. S’il commence à regarder des contenus antisémites ou avec des fake news, il lui en proposera davantage. C’est cela qui entraîne une spirale de radicalisation.

Pour finir, j’ai quelques recommandations à vous suggérer. Nous souhaiterions qu’une transparence algorithmique soit instaurée et qu’une interface de programmation d’application (API) en temps réel soit mise à la disposition des chercheurs agréés afin d’extraire les données relatives aux contenus haineux.

Nous imaginons un monde où l’algorithme pourrait être limité et où on pourrait pousser du contenu pédagogique aligné avec les valeurs de la République. Les utilisateurs extrêmes pourraient et devraient être bannis et, dans un monde idéal, ne devraient pas pouvoir recréer un compte aussi facilement qu’ils le peuvent aujourd’hui. Le Crif est également engagé sur la question de la création de l’amende civile qui pourrait dissuader les utilisateurs de poster du contenu haineux.

Enfin, s’agissant de l’éducation – car tout passe aussi par là –, il conviendrait de sensibiliser à la lutte contre l’antisémitisme les créateurs dont les comptes dépassent les 50 000 abonnés ainsi que les modérateurs, par la diffusion des modules.

M. Valentin Petit, journaliste, agence CAPA. Je travaille pour une émission d’investigation numérique, qui est produite par l’agence CAPA et diffusée sur YouTube et arte.tv.

Pour mener une enquête numérique, nous utilisons divers outils, allant de l’analyse d’images satellites et de gigantesques bases de données à celle de réseaux sociaux, notamment de TikTok.

Au mois de janvier 2025, j’ai découvert, complètement par hasard, d’étranges vidéos diffusées sur TikTok : il s’agissait d’extraits de jeux vidéo. Jusque-là, il n’y avait rien d’anormal. Mais en y regardant de plus près, ces jeux étaient des reconstitutions, au détail près, d’attentats djihadistes ou d’extrême droite ayant été commis. Comme on peut le voir sur ces images, il s’agit, d’un côté, de versions vidéoludiques et, de l’autre, d’images filmées par les tueurs eux-mêmes – les tueries dans la synagogue de Halle et dans une mosquée de Christchurch. J’en ai trouvé d’autres, notamment relatives à l’attentat homophobe du Pulse en Floride et à l’attentat raciste de Buffalo, etc.

Pour vous donner la mesure du contexte, ces comptes ne se contentent pas de diffuser ou de republier des extraits de jeux vidéo, ils publient aussi d’autres types de contenus qui sont tout aussi problématiques, voire davantage. Notamment, ils utilisent les codes de la plateforme TikTok pour pousser des contenus particulièrement mortifères et promouvoir des idéologies particulièrement morbides. Ainsi, ils utilisent des stickers, des filtres, et un ensemble d’éléments disponibles sur la plateforme.

Les edits traduisent ce décalage morbide entre l’utilisation des codes de TikTok et les idéologies promues. Il s’agit de petits clips avec des musiques à la mode et des séquences très surcotées, qui visent d’habitude à mettre à l’honneur des personnages ou des stars. Or ils peuvent aussi être utilisés pour glorifier des terroristes et des tueurs de masse. Voici la capture d’écran d’une vidéo mettant en avant le tueur de la synagogue de Halle dans laquelle est incrusté le personnage de Hello Kitty.

Dans les forums d’extrême droite, sont également publiés des mèmes – outil très classique – à savoir des images humoristiques qui reprennent l’iconographie de TikTok, d’internet et de la culture web. Grâce à l’IA, les créateurs créent des contenus dans lesquels ils font danser les terroristes devant les lieux où ils ont commis leurs attentats.

Plus inquiétant encore, on trouve aussi de vraies images déguisées sur ces réseaux. Je pense à un exemple particulièrement révélateur, un contenu violent qui est resté six mois sur la plateforme. Bien que la vidéo ait été supprimée, le compte est encore actif – j’ai vérifié il y a quarante-huit heures. Il s’agit de la vidéo de la tuerie de Buffalo, ce sont les vraies images tournées par le tueur où on voit les personnes s’effondrer. Ce sont de vraies personnes qui ont été tuées. Dans cette vidéo, on voit le tueur tirer une autre balle dans la tête d’une personne. Pour contourner la modération, les personnes qui ont diffusé la vidéo ont ajouté des éléments en lien avec le jeu vidéo Fortnite, par exemple « Let’s play Fortnite », des stickers, etc.

Nous avons bien entendu analysé les comptes qui diffusaient ce genre de contenus. Ils ne se cachent pas de la modération dont ils n’ont pas peur car ils savent qu’ils peuvent recréer très facilement leur compte. Ils arborent des photos de profil sans équivoque, avec des croix gammées, des dignitaires nazis, des terroristes djihadistes – j’ai vu de nombreux comptes avec la photo de Jihadi John ou d’Omar Mateen, l’auteur de la tuerie du Pulse. Dans leur bio, ils parlent de terroristes comme s’il s’agissait de saints – Saint Brenton pour Brenton Tarrant, le tueur de Christchurch, et Saint Breivik pour Anders Behring Breivik – ou de martyrs, par exemple Jihadi John, le tueur de l’État islamique.

Ce qui est intéressant, c’est que ce type de contenus se rencontre moins fréquemment sur d’autres plateformes. Sur Instagram et Facebook, nous avons trouvé très peu de contenus similaires et la modération intervient assez rapidement. Sur TikTok, c’est effarant : la modération n’est pas du tout à la hauteur du problème. Pire encore, la plateforme nous proposait tous les jours de suivre jusqu’à une centaine de comptes problématiques – @j1hadist_pakistan par exemple, et un autre où le i de Hitler est remplacé par un 1 pour échapper à une modération qu’on pourrait qualifier de premier degré.

Sous ce type de contenus, on trouve des commentaires très inquiétants rappelant les attaques au couteau qui ont eu lieu dans un lycée à Nantes ou un collège à Nogent. Par exemple, sous une vidéo représentant, sous forme d’un jeu vidéo, une tuerie, a été publié le commentaire suivant, qui a fait l’objet de 94 likes : « How my school will look like one day » – « c’est ce à quoi ressemblera mon école un jour ». Et le créateur du contenu de répondre : « I hope bro » – je l’espère, mon frère. Sous une vidéo qui rendait hommage à Brenton Tarrant, on peut lire : « Need more people like him in this world. I hope the universe gives me the opportunity to do something terrible but great » – « Nous avons besoin de plus de gens comme lui dans le monde. J’espère que l’univers me donnera l’opportunité de faire quelque chose de terrible mais de grand ». Ce sont deux exemples parmi des centaines et des centaines.

C’est tout un écosystème de radicalisation au sein duquel Tiktok agit comme une vitrine. On pourrait penser que ces contenus sont de simples trolls, des bravades adolescentes un peu subversives avec un humour douteux. Mais non, les commentaires sous les contenus ou la bio de ces comptes TikTok renvoient vers des dizaines et des dizaines de chaînes Telegram dont les contenus sont encore plus violents. On peut trouver notamment les manifestes des tueurs et les vidéos originales qui permettent de créer des contenus qu’on pourra ensuite diffuser sur Tiktok.

Nous nous sommes rendu compte que Tiktok servait à orienter des jeunes vers ces discours et ces contenus. Nous avons pu infiltrer ces différentes chaînes Telegram où des jeunes consommaient ces contenus à outrance, ad nauseam. Au cours de cette infiltration – j’ai infiltré plus de vingt chaînes Telegram –, j’ai assisté au passage à l’acte d’un jeune Afro-Américain de 17 ans, qui a attaqué son lycée et tué une personne avec une arme de poing après avoir consommé ces types de contenus. Il connaissait les administrateurs des chaînes Telegram auxquelles j’étais abonné.

J’ai aussi pu interviewer un Hollandais de 17 ans, qui créait ce type de contenus, à la fois des jeux vidéo et des edits qu’il était possible de republier sur Tiktok. Du haut de ses 17 ans, il m’a dit que les edits, les mèmes qu’il publiait ad nauseam sur Tiktok, c’était une forme de propagande politique car : « Il n’y a aucune solution politique. La seule solution, c’est la violence ».

En conclusion, voici un mème qui montre l’ampleur de l’absence de modération. Le premier contenu s’intitule « beauty inside the mosque » – beauté à l’intérieur d’une mosquée en 2024. Le second, qui a pour titre « beauty inside the mosque on a good day » – la beauté à l’intérieur d’une mosquée dans un bon jour –, est une des vidéos du tueur Brenton Tarrant tirant sur des corps sans vie dans la mosquée de Christchurch.

Ces comptes et ces contenus diffusés en masse sont, dans de nombreux cas, créés par des mineurs pour des mineurs. Ils participent à une glorification de la violence ainsi qu’à une forme de radicalisation puisqu’ils rendent complètement normales des formes de violence extrême.

Pour conclure, sur TikTok, j’ai vu des gens mourir, se prendre des balles dans la tête, le tout agrémenté de musiques à la mode, de stickers rose flashy et de filtres roses. L’utilisation de ces codes sur la plateforme, le manque de modération et le type de contenus qui y est poussé témoignent d’un décalage total.

M. Tristan Boursier. Mon terrain d’étude se distingue de celui de mes collègues car je m’intéresse à des contenus qui sont moins spectaculaires mais plus populaires. Je me focalise sur des acteurs spécifiques, qui produisent et diffusent des contenus en France, et ce, pour les plus anciens d’entre eux, depuis au moins une dizaine d’années. Vous les connaissez sans doute, ils sont devenus populaires : Papacito, qui, en 2021 a publié la fameuse vidéo où il tirait sur un mannequin grimé en électeur de La France insoumise ; Matthieu Valet ; Le Raptor ; Le Lapin du Futur, etc.

Je m’intéresse à la quinzaine d’influenceurs les plus populaires sur le site français de YouTube, que j’ai identifiés comme étant d’extrême droite selon une définition académique. Étant donné que ce sont des acteurs complets ayant adopté une stratégie cross-media, mon analyse porte aussi sur les contenus qu’ils diffusent et produisent sur d’autres plateformes, notamment Tiktok et Instagram.

Je rebondis sur ce que disait Valentin Petit sur le rôle de Tiktok dans cet écosystème social médiatique : Tiktok joue vraiment un rôle de vitrine par rapport aux autres plateformes. Les contenus sont beaucoup plus courts et potentiellement plus viraux que ceux publiés sur d’autres médias sociaux, ce qui permet aux influenceurs d’attirer un public qui ne les connaît pas nécessairement.

TikTok soumet directement des contenus aux utilisateurs, sans qu’ils aient forcément le temps d’identifier leur créateur, ni même leur titre. Vous êtes donc directement exposé à des images et à des discours, ce qui laisse plus de chance à des propos plus radicaux, différents de votre idéologie ou de votre vision du monde, de vous convaincre.

Mme Laure Miller, rapporteure. Estimez-vous, à la suite des recherches que vous avez menées, qu’il existe une spécificité de TikTok, qui serait notamment liée à son algorithme ou à son design ?

Je vais me faire l’avocate du diable : les responsables de TikTok pourraient répondre qu’il faut, pour trouver les contenus radicaux que vous avez évoqués, les chercher – on ne tomberait pas dessus de façon spontanée. Avez-vous des éléments qui démontreraient qu’un enfant de 11 ou 14 ans peut tomber fréquemment, sans les chercher, sur ce type de contenus ?

M. Hugo Micheron. Les deux premiers éléments que je mettrai en avant sont la jeunesse, déjà évoquée, du public de TikTok, plateforme privilégiée des 12-25 ans, et l’abondance du temps qu’ils y passent. La moyenne est, je crois, d’environ quatre heures par jour. J’ai fait un peu de terrain en région parisienne, notamment en Seine-Saint-Denis : quand vous demandez à des enfants, dans une classe, combien de temps ils passent en moyenne sur TikTok, c’est plutôt six ou sept heures par jour. Une enseignante qui fait un travail de conscientisation en classe m’a signalé que certaines réponses étaient même « autant que possible ». Dans les faits, TikTok est une plateforme de socialisation de premier ordre.

Lors d’une étude faite à Sciences Po, dans le 7e arrondissement de Paris, qui n’était pas une recherche au sens propre, devant déboucher sur une publication, mais un test destiné à mettre des étudiants en situation, une cinquantaine de comptes vierges, paramétrés avec le moins d’informations possible, ont été créés sur TikTok. La première recherche de contenu a consisté à taper le mot islam, on ne peut plus générique, dans la barre des tâches. Il s’agissait de voir au bout de combien de vidéos on tomberait sur des contenus indiscutablement – j’insiste sur ce point – salafistes, qui font la promotion, par exemple, des auteurs de référence de cette doctrine radicale de l’islam ou de ses éléments constitutifs, comme le port du voile intégral et de gants par les femmes.

Le résultat n’a jamais été supérieur à cinq vidéos – c’était entre trois et cinq. Quand on prend en considération ce que pèse cette doctrine dans l’islam mondial et de France, il est en soi assez hallucinant de découvrir qu’elle est à ce point présente sur la plateforme privilégiée des jeunes. La visibilité de ces vidéos était très importante, à en juger par le nombre de vues : 300 000 pour une vidéo de jeunes femmes faisant la promotion du corpus salafiste dans une librairie islamique. On ne trouve sur aucune autre plateforme de tels scores – s’ils sont vrais, une autre caractéristique de TikTok étant son opacité. La situation est d’autant plus troublante que la plateforme dispose de moyens, qu’elle utilise, pour déprioriser des contenus en fonction de certains mots-clefs, dont l’usage peut être pénalisant quand il s’agit d’autres causes.

Il y a visiblement un phénomène de viralité sur TikTok, au moins dans ce domaine – mais je crois que les autres présentations étaient tout à fait convergentes. Cette société dit publiquement ne pas avoir la capacité d’agir sur les algorithmes ; on ne pourrait donc rien y faire, et pourtant leur comportement montre clairement l’existence d’une éditorialisation. La logique suivie n’est pas toujours la même que pour les comptes neutres.

Mme Sophie Taïeb. J’ai plusieurs comptes TikTok, organisés par thèmes – selon les types de menaces. Je vois bien la puissance de l’algorithme, très supérieure à ce qu’on trouve sur Instagram, Facebook, X ou YouTube. Vous recevez, sous forme de suggestions, du contenu qui vous entraîne dans une spirale et empêche toute pensée critique, puisqu’il va toujours dans le même sens, qu’il s’agisse de comptes en français ou en anglais. Je ne peux donc que rejoindre M. Micheron.

M. le président Arthur Delaporte. Je reviens sur la question de la rapporteure, qui portait sur la spécificité de TikTok. En voyez-vous une ?

Mme Sophie Taïeb. La spécificité de TikTok, d’après ce que nous voyons, est de diffuser beaucoup plus que toute autre plateforme auprès de la jeunesse, qu’il s’agisse du volume ou du type de contenus. Si on veut comprendre à quoi la jeunesse est exposée, c’est TikTok qu’il faut regarder. Si elle est exposée à trop de désinformation, trop de haine ne faisant pas l’objet d’une modération, des conséquences assez terribles sont malheureusement à craindre.

M. Valentin Petit. Un mot sur la méthodologie. La première fois que ce type de contenus m’a été soumis par l’algorithme, c’était sur un compte qui n’y était pas dédié. J’ai ensuite créé un compte vierge pour essayer de creuser la question. Ce qui est assez symptomatique et problématique sur TikTok, même si on le retrouve aussi sur d’autres plateformes, ce sont les comptes qu’on vous propose de suivre toutes les dix vidéos – on peut alors swiper pour accéder jusqu’à une vingtaine de comptes. Avec le compte plutôt orienté sur le djihadisme que j’avais créé, je tombais sur des influenceurs de cette tendance et des anachid, c’est-à-dire des chants djihadistes. Pour ce qui est de la sphère d’extrême droite, on me conseillait par vingtaines des comptes problématiques avec des photos de profil de phalangistes, de néonazis, d’accélérationnistes, etc.

M. Tristan Boursier. J’irai dans le même sens. Selon des études faites par des équipes de recherche états-uniennes, il faut environ une quinzaine de minutes pour tomber sur des contenus masculinistes radicaux sur TikTok. Mes propres recherches montrent aussi que tout va extrêmement vite s’agissant de l’extrême droite. Pour un des groupes que j’ai infiltrés, tout a commencé sur TikTok : c’est là que j’ai accédé, par un profil dédié à la recherche, à cette communauté.

Mme Laure Miller, rapporteure. Nous avons compris lors de l’audition de responsables de TikTok qu’ils acceptent une espèce de taux d’échec en matière de modération. Nous avons perçu chez eux une absence de volonté de regarder les logiques de contournement utilisées par ceux qui tentent de diffuser des contenus radicaux, comme le recours à des émojis et à des mots-clefs. Ce que nous avions compris en peu de temps, sans être des chercheurs ou des spécialistes mais en travaillant un peu, par exemple, sur les challenges – je sais que ce n’est pas l’objet de vos travaux –, les responsables de TikTok semblaient le découvrir en notre présence. Diriez-vous qu’il n’y a pas forcément grand-chose à attendre de la modération, en particulier de la part de TikTok ? Quels sont les intérêts sous-jacents ? Nos interlocuteurs ont dit qu’il n’y avait pas de question économique derrière, car c’était la publicité qui comptait, mais comment analysez-vous la situation ? Malgré les injonctions de nombreux États, rien n’est fait pour empêcher les contenus radicaux.

Mme Sophie Taïeb. Nous espérons que la mise en œuvre du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), notamment le fait que des associations, dont nous faisons partie, ont été nommées signaleurs de confiance, permettra de faire retirer des contenus haineux, même si nous sommes bien conscients qu’agir dans ce sens sur une plateforme où plusieurs millions de vidéos sont téléchargées tous les jours s’apparente à essayer de vider la mer avec une petite cuillère trouée. C’est aussi pour cette raison que nous avons parlé de dissuasion dans nos recommandations, par des amendes civiles et en empêchant la recréation de comptes très radicaux. Il est certain que cela ne va pas dans le sens du modèle économique de la plateforme, mais on s’expose, en n’agissant pas contre la diffusion des discours de haine, à une situation dans laquelle la jeunesse est inondée de contenus non pas problématiques mais radicaux, avec les conséquences auxquelles cela peut conduire.

M. Valentin Petit. Je vais vous donner un exemple de manque de sérieux en matière de modération. Le sujet que j’ai réalisé a été retiré de la chaîne d’Arte sur YouTube en France, parce qu’il comportait, notamment, des images de tueries – nous avions pourtant pris toutes les précautions journalistiques d’usage. Certaines plateformes arrivent à modérer les contenus, parfois de manière très sévère, mais TikTok dit ne rien pouvoir faire, parce que des comptes utilisent des codes – ce qu’on appelle le leetcode – comme le remplacement de lettres par des chiffres et d’autres formes de contournement telles que l’emploi de stickers. J’ai la prétention d’être né à l’époque du numérique, je suis sur Reddit, Instagram et toutes les autres plateformes : je peux vous dire que ces techniques, qui sont connues depuis vingt ans, sont vraiment le niveau zéro du contournement de la modération.

M. Hugo Micheron. Il y a non seulement la question du modèle économique de cette plateforme, mais aussi celle du modèle politique. La modération se fait a posteriori. Les algorithmes, quant à eux – cela commence à être très bien documenté –, suivent une logique très spécifique dont on pourrait presque dire qu’elle est éditorialisée. Les mêmes algorithmes font la promotion de contenus très radicaux liés au salafisme et au djihadisme, à l’extrême droite et à d’autres mouvances dites à risque, mais censurent en Chine ce qui concerne la répression des Ouïghours et font la promotion des sciences mathématiques auprès des jeunes. Cela signifie que des gens paramètrent les algorithmes dans un sens ou dans un autre, en fonction de leurs intérêts.

La question du modèle politique doit être posée. Il faut, pour cela, évaluer systématiquement les biais de la plateforme, ce qui ne pourra être fait en multipliant des petites études, comme autant de pièces d’un puzzle. Si les démocraties, comme la France, veulent tenir un discours structurant au sujet de la jeunesse, notamment sur la nécessité d’encadrer les contenus auxquels elle est exposée, pour éviter des dérives violentes et polarisantes, il faut produire des algorithmes de contrôle, de supervision, c’est-à-dire un contre-pouvoir algorithmique qui permette de contrôler systématiquement les biais éditoriaux, a priori, de plateformes telles que TikTok. Cela pourrait également s’appliquer, dans le cadre de l’article 40 du DSA, à d’autres algorithmes.

Ces algorithmes, à bien des égards, deviennent des concurrents, des rivaux des enseignants et des éducateurs. D’un côté, on constate une montée des comportements violents chez les adolescents, notamment sous l’influence d’une consommation excessive de contenus sur les réseaux sociaux, comme TikTok, et d’un autre côté on surresponsabilise l’école, alors qu’elle est la première à faire les frais de cette évolution. On pourrait ajouter vingt ou vingt-cinq heures d’éducation civique et citoyenne, mais si les gamins passent six ou sept heures par jour sur TikTok, où ce qui est mis en avant est disproportionnellement du contenu haineux, qu’on cherche précisément à bannir des cours de récréation ou à transcender par des valeurs collectives et universelles, alors on n’arrivera à rien. Il faut donc se poser la question non pas de la modération en aval, mais de la politique qui peut être construite pour traiter ces questions. Pour être tout à fait clair, je suis absolument convaincu qu’on ne réglera pas le problème du djihadisme tant que, dans l’état actuel des choses, on n’aura pas empêché TikTok de fonctionner comme il le fait actuellement.

Quand on regarde la question de la diffusion des idéologies violentes, on voit que des groupes militants, très minoritaires et très radicaux, ont cherché à répandre leurs idées dans leur entourage en passant par des méthodes de prédication classiques. J’ai montré, dans mes travaux, comment le djihadisme s’était construit, en dehors des attentats, par la diffusion d’une idéologie dans des environnements qui n’étaient pas les plus pauvres, ni ceux où il y avait le plus de musulmans en France ou en Europe. Désormais, les machines de prédication sont les algorithmes. Celui de TikTok a, au moins, un biais en la matière, et le djihadisme n’est qu’un exemple de sujets très problématiques pour les sociétés européennes. Une vraie question de fond se pose : ce n’est pas un détail du débat public, mais le cœur des enjeux pour les dix prochaines années en France.

M. Kévin Mauvieux (RN). Mme la rapporteure a évoqué les challenges – ces défis entre utilisateurs qui présentent des risques importants pour les jeunes, selon de précédentes auditions –, en soulignant d’emblée que ce n’était pas la question du jour. C’est vrai, mais M. Boursier a parlé, dans son propos liminaire, de l’adaptation des radicaux aux modes. Comment analysez-vous leur adaptation à la mode des challenges ? Ces derniers sont-ils utilisés pour diffuser auprès des jeunes, d’une manière plus subtile ou plus ludique, en quelque sorte, des idées radicales, qu’elles soient antisémites, islamistes ou d’extrême droite ? Est-ce un des dangers que vous avez identifiés ?

Mme Taïeb a dit avoir détecté que l’algorithme de TikTok était beaucoup plus puissant que ceux d’autres réseaux sociaux, ce qui est un fait indéniable. Au-delà de cette question, constatez-vous, vous qui faites et recevez des signalements, que ceux-ci sont beaucoup plus nombreux proportionnellement en ce qui concerne TikTok que s’agissant d’autres réseaux sociaux et sont-ils plus graves ou, en tout cas, portent-ils sur des contenus d’une plus grande virulence sur TikTok que sur d’autres plateformes ?

Nous n’avons pas du tout parlé d’un élément qui doit pourtant jouer une place prépondérante dans la diffusion des idées radicales – mais vous me contredirez peut-être –, à savoir les lives, qui me semblent beaucoup moins contrôlables que les contenus classiques. Quelle est votre analyse de la diffusion de contenus extrêmes, radicaux au moyen de lives ?

Avez-vous constaté lors de vos recherches ou enquêtes une diffusion de contenus radicaux, en live ou non, par des mineurs ou mettant en scène des enfants ? Il est apparu lors de précédentes auditions que certains influenceurs ou certaines personnes qui souhaitent le devenir utilisaient leurs enfants sur TikTok. Avez-vous vu des contenus mettant en scène un ou des enfants et ayant une visée radicale ?

J’en viens à une dernière question, peut-être provocatrice ou radicale, mais qui fait écho à des propos qui ont été tenus devant nous – je crois que c’était lors de l’audition de parents d’enfants victimes de scarifications ou ayant fait une tentative de suicide. Un père nous a dit qu’il se demandait si la Chine, par l’utilisation de TikTok, n’essayait pas d’affaiblir nos populations pour obtenir une supériorité sur les pays occidentaux en abrutissant, en quelque sorte, leurs nouvelles générations. J’y pense car l’un de vous a déclaré qu’en Chine, et c’est tout à fait vrai, TikTok sait très bien contrôler les contenus diffusés. Quand nous auditionnons les responsables de cette plateforme en France, ils nous regardent un peu en chiens de faïence et disent qu’ils ne comprennent pas et ne savent pas faire. Serait-il possible que ce père ait raison ? Une puissance étrangère propriétaire de TikTok serait-elle désireuse de laisser passer certains contenus pour affaiblir les futures générations dans nos pays et développer une supériorité, technique, technologique ou intellectuelle, par rapport à nous dans les années à venir ?

M. Tristan Boursier. S’agissant de l’adaptation aux modes, je vais vous décevoir car sur mon terrain, les influenceurs d’extrême droite et masculinistes, les challenges n’occupent vraiment pas une place importante – surtout à l’extrême droite.

Quand je parlais d’adaptation aux modes, je pensais plus largement à la stratégie métapolitique qui est employée pour créer des contenus : on se situe en amont de la politique institutionnelle, à un niveau extraparlementaire, pour mobiliser des éléments culturels déjà présents, déjà populaires afin de diffuser des idées. On trouve ainsi beaucoup de références à des mangas chez les influenceurs d’une trentaine d’années : les personnes nées dans les années 1990 ont été des consommateurs importants de mangas, et la France est un des pays européens où les jeunes continuent à en lire beaucoup. Ces influenceurs utilisent, par exemple, une référence aux dragons célestes, dont il a beaucoup été question il y a quelques mois, pour faire passer des messages antisémites. On trouve aussi des références au nuage de One Piece. D’autres références sont liées à la culture populaire : des extraits du film Les Visiteurs évoquent ainsi l’homme viril, le guerrier ou le chevalier d’un Moyen-Âge fantasmé.

Second volet de l’adaptation aux modes, j’ai constaté une évolution des formats. L’usage du podcast semble vraiment exploser, suivant une tendance d’origine états-unienne que j’explique notamment par son modèle économique. Le recours au podcast permet de produire un contenu qui peut être monétisé, notamment sur Spotify, et scindé en séquences un peu plus choc qui sont diffusées sur TikTok et d’autres plateformes. On peut ainsi faire une seule prise, d’un format assez long, qui est diffusée sur des médias sociaux différents et monétisée de diverses manières.

Même si ce n’était pas le centre de mes recherches, j’ai assisté à différents lives : ils offrent beaucoup plus de liberté et donnent lieu à beaucoup plus de dérives, car le contrôle est bien moindre – la modération, déjà faible en général, doit être quasi nulle s’agissant des lives. Je n’ai pas vu de mineurs mis en scène dans ce cadre, mais le public peut interpeller les créateurs de contenu sur des plateformes telles que YouTube, qui est moins utilisée pour les lives, ou Twitch, qui l’est davantage, et je suppose, compte tenu des interactions que j’ai observées, qu’il y avait dans le public beaucoup de mineurs – ils disaient être encore à l’école ou au collège. Des influenceurs que j’identifie comme étant d’extrême droite mais qui se positionnent de plus en plus sur des thématiques antiféministes et masculinistes utilisent leur stature et leur crédibilité pour donner ce qu’ils appellent des conseils de drague – ce sont en fait des conseils de harcèlement, notamment envers les jeunes filles. C’est là que j’ai vu une interaction vraiment concrète avec des mineurs.

Pour le reste, un influenceur qui est récemment devenu père, M. Julien Rochedy, met en scène son enfant sur les médias sociaux, notamment Instagram. Il reprend, ce qui est assez intéressant, l’esthétique des tradwives, les épouses traditionnelles. Au moyen d’une esthétique qui a l’air complètement dépolitisée, ce courant états-unien promeut une façon de vivre conforme à des valeurs conservatrices ou réactionnaires. L’influenceur en question est par ailleurs connu pour des contenus qui, eux, sont complètement politiques. Il se présente même sur Twitter comme un penseur d’extrême droite – il n’y a aucune ambiguïté sur ce point.

En ce qui concerne le rôle de la Chine, je n’ai pas grand-chose à dire, au-delà de la remarque suivante : si TikTok est effectivement un réseau social chinois, la plupart des médias sociaux, qui forment un écosystème avec TikTok, sont états-uniens – la Chine n’est donc pas le seul pays qu’il faut mettre dans la balance.

Mme Sophie Taïeb. S’agissant des signalements que nous faisons, je soulignerai surtout la viralité des contenus. Un tweet qui a 120 ou 200 vues n’est rien par rapport à une vidéo qui en a des millions sur TikTok. L’ampleur est complètement différente et les délais de retrait font que les contenus concernés sont bien trop vus. Il y a du contenu violent partout, sur X, sur Facebook ou sur Telegram ; la différence, c’est le nombre de vues sur TikTok. On ne connaît pas les règles internes des plateformes, mais elles sont censées avoir une sorte de règle des strikes : si vos contenus sont retirés plusieurs fois, à la fin votre compte est suspendu. Comme je ne connais pas la règle, je ne peux vous donner que mon ressenti : j’ai l’impression qu’Instagram suspend plus facilement que TikTok des comptes qui franchissent à répétition la ligne.

Je vais vous donner un exemple. Lorsqu’un couple qui se rendait à une soirée dans un musée de Washington D.C. a été assassiné, il y a quelques semaines, Guy Christensen, un américain qui a des centaines de milliers de followers, a d’abord publié une vidéo dans laquelle il disait condamner toute attaque contre des civils, puis il a publié une autre vidéo dans laquelle il expliquait, en gros, qu’il s’agissait d’agents sionistes, du Mossad, et que c’était bien fait pour eux car ils l’avaient bien cherché. Il a fallu plusieurs jours pour que cette vidéo soit retirée, mais elle est partout tant elle a été partagée, y compris sur d’autres plateformes, et son auteur a toujours son compte. Il apparaît même tout le temps dans mon feed, à cause de l’algorithme, ce qui m’inquiète.

En ce qui concerne les lives, il est quasiment impossible de signaler du contenu parce qu’il n’est pas pérenne. Grâce à notre accès professionnel, nous pouvons envoyer à Pharos des captures d’écran – comme celle que je vous ai montrée tout à l’heure, où il était dit qu’il fallait « attaquer les synagogues jusqu’à la mort » – mais eux ne parviennent pas à retrouver le contenu problématique ni a fortiori à obtenir sa suppression. Pourtant ledit contenu a bien été vu. Nous avons le même problème avec la fonctionnalité Spaces sur X. Il est évidemment hors de question d’enregistrer des heures de live. Faute de pouvoir être signalés comme un post, un commentaire ou un compte, les lives sont dans une zone grise. C’est une difficulté et un autre chantier à ouvrir.

S’agissant des différences entre le TikTok chinois et le TikTok que nous connaissons, je ne fais pas de politique mais il est vrai que la première plateforme pousse des contenus éducatifs et limite le temps d’utilisation quand la seconde laisse diffuser des contenus complètement en roue libre, avec les conséquences que nous évoquons depuis tout à l’heure.

M. Valentin Petit. Tout TikTok, et l’algorithme au premier chef, est basé sur la mode. Les vidéos sont accompagnées de musiques – anachid chez les djihadistes, hardtek ou pop pour les trolls d’extrême droite – et de hashtags, qui ont vocation à pousser des messages. Le montage, effectué grâce aux applications Capcut ou Viggle AI notamment, cette dernière permettant de donner vie à des images, joue aussi un rôle pour créer des phénomènes viraux, qui seront ensuite poussés par la plateforme. Les acteurs radicaux, que ce soient les djihadistes ou l’extrême droite accélérationniste et néonazie, utilisent les codes de la mode pour pousser leurs contenus sur la plateforme. Des contenus auparavant dans les marges, qui apparaissaient dans des forums obscurs réunissant 300 personnes, tel que 4chan, sont désormais vus par 300 000 personnes.

Si l’algorithme est capable de pousser ces contenus viraux, qui associent hashtags, musiques, challenges, etc., il est tout aussi capable de les détecter. La modération pourrait donc facilement être plus active.

M. Hugo Micheron. Les lives sont beaucoup moins faciles à contrôler. L’une des spécificités de TikTok tient au volume des flux vidéo – c’est le principe même de cette plateforme. Il est donc très dur de retrouver une vidéo vieille d’un mois. Cela limite considérablement les possibilités d’analyse a posteriori. C’est aussi ce qui rend la plateforme attrayante aux yeux des jeunes et qui rend très difficile de comprendre ce qui s’y joue.

En ce qui concerne la dimension géopolitique, cela mériterait évidemment une étude approfondie. Ce qui est sûr, c’est que la France, et plus généralement l’Europe, n’est pas du tout souveraine pour exercer un contrôle sur l’espace premier de socialisation de sa jeunesse, qui vient y communier plusieurs heures par jour et ce faisant, est exposée à des contenus dont on ignore tout des conditions de production. Il est question rien de moins que de l’avenir du pays.

Ce que nous savons avec certitude, c’est qu’il existe un alignement, un énorme biais : l’algorithme promeut certains contenus et en disqualifie d’autres, en se fondant sur leur forme – musique, longueur, couleur, etc.– mais aussi sur le fond. C’est ce dernier aspect qu’il faut documenter, et ce n’est pas simple.

Il faut cesser de croire que TikTok est un espace public au motif que tout le monde peut y avoir accès gratuitement et y passer des heures sans avoir l’impression de consommer quoi que ce soit. On ignore tout des ombres dans le décor. C’est là tout le problème. Il y a d’un côté le fonctionnement démocratique, très transparent, qui repose sur la confiance, et de l’autre, une boîte noire qui s’appelle TikTok, qui amuse la galerie, notamment les plus jeunes, et à laquelle on accorde une confiance aveugle.

Il est important de le comprendre si l’on veut agir sur le fond : le fait de demander un contrôle des contenus promus sur TikTok n’est pas attentatoire à la liberté d’expression. Tracer un chemin dans une jungle informationnelle pour pouvoir s’y repérer est bon pour la démocratie. Les démocraties se sont construites contre d’autres jungles informationnelles : au XIXe siècle, il était possible de dire tout et n’importe quoi dans des torchons qui s’appelaient des journaux et qui étaient financés par certaines personnes pour défendre leurs intérêts, lancer des modes et calomnier leurs opposants. À un moment, des lois sont venues encadrer la presse, en imposant notamment une vérification des sources ; une industrie s’est développée et tout d’un coup, la démocratie a été mieux informée. S’agissant des réseaux sociaux, nous sommes encore à l’étape antérieure. La démocratie ne pourra pas s’en sortir, du moins sans violence, si elle ne s’attaque pas frontalement à ces questions et TikTok est un exemple hors pair pour cela.

M. Thierry Sother (SOC). Vous nous livrez des éclairages très inquiétants.

Notre assemblée a adopté il y a quinze jours une résolution appelant la Commission européenne à faire pleinement respecter le DSA face aux ingérences étrangères. Monsieur Micheron, vous avez rappelé l’influence de X et de son propriétaire ainsi que les récents événements en Roumanie. Lorsque nous l’avons interrogée, la représentante de la plateforme X nous a répondu qu’à sa connaissance, il était naturellement impossible que les contenus de son propriétaire soient mis en avant, en dépit des études qui démontrent le contraire. C’est évidemment pour nous une source d’inquiétude importante.

Je reviens aux contenus toxiques et radicaux dont M. David Chavalarias, dans ses études sur X, estime la part très importante – ce doit être analogue sur TikTok. Pourquoi l’algorithme – ce que vous appelez les ombres et moi les amis invisibles – choisit-il de les mettre en avant ? Est-ce une application de l’économie de l’attention, en vertu de laquelle plus les utilisateurs restent captifs longtemps, plus les plateformes peuvent monétiser les espaces publicitaires ? Ou y a-t-il encore d’autres intérêts cachés ?

M. Hugo Micheron. De nombreuses enquêtes montrent – et M. Elon Musk s’en est même vanté publiquement – que l’algorithme de X est programmé pour favoriser les tweets de son propriétaire. Si l’algorithme de Twitter est entre les mains d’une personne, qui peut décider de faire prévaloir sa parole sur toutes les autres, on imagine ce que cela peut donner sur d’autres sujets.

La parole de la représentante de X est importante mais l’avenir de la démocratie ne devrait pas en dépendre. La situation est évidemment anxiogène, mais les possibilités de reprendre le contrôle sont nombreuses. Je ne pense pas que le renforcement de l’éducation aux médias ou le triplement des heures d’éducation civique soit la solution – cela reviendrait à écoper la mer avec une petite cuillère. En revanche, il faut travailler sur les algorithmes, et le DSA nous offre le cadre juridique pour cela. L’article 40, que l’on doit à une plume française, est bien pensé : par la référence qu’il comporte aux risques systémiques, les plateformes sont comptables du contenu toxique qui vient polluer les places algorithmiques auxquelles tout le monde vient s’abreuver. Nous devons prendre à bras-le-corps la question de la souveraineté algorithmique, être capables de contrôler les algorithmes et d’en démontrer systématiquement les biais. Il serait étonnant que dans un pays comme la France, on ne s’accorde pas au moins sur le fait qu’un contenu similaire à 90 % à la propagande de Goebbels ou de l’État islamique ne soit pas propulsé ou mis en avant. La quasi-totalité de la population y serait favorable.

Avant même de s’interroger sur une éventuelle intention maligne ou de quelconques intérêts, sur lesquels de nombreux travaux de recherche restent à mener, l’urgence commande de comprendre car c’est l’avenir de la politique qui est en jeu. Les représentants du peuple ne peuvent pas être à la merci d’une saillie sur les réseaux sociaux, qui vient ruiner tout leur travail ou casser leur dynamique de campagne. Si l’on ne contrôle rien et si l’on se contente de subir, la question de la politique et de sa représentation va se poser à tous les niveaux.

Nous sommes au début d’une transformation. La France a toutes les cartes en main pour agir et apporter une réponse démocratique à ces logiques plutôt autoritaires, je vous l’accorde.

Mme Sophie Taïeb. Nos recherches montrent que les acteurs hostiles qui postent des contenus toxiques maîtrisent parfaitement les codes de la plateforme. Ils les ont étudiés et savent exactement quoi dire et comment pour pouvoir être mis en avant. Ils sont parfaitement au fait de ce qui est viral. Ce sont vraiment des professionnels.

M. Tristan Boursier. Tant que la haine sera rentable sur les plateformes, nous serons confrontés à ce genre de problème. Le concept d’économie de l’attention nous aide à éclairer une bonne partie de la question ainsi que les enjeux de souveraineté.

Puisque je suis les mêmes acteurs depuis cinq ans environ, j’ai pu observer des évolutions stratégiques visant à monétiser du contenu. En ce moment, au sein de l’extrême droite, la mode est à l’antiféminisme parce que les propos de cette nature semblent beaucoup moins sujets à la régulation que d’autres. On constate une percée des propos antiféministes chez des acteurs traditionnellement d’extrême droite. Je pense à Thaïs d’Escufon, une militante de Génération identitaire, qui s’est lancée en ligne avec ce mouvement puis, il y a quelques années, a fait un virage masculiniste pour prodiguer des conseils à des jeunes hommes sur la manière de draguer les femmes dans la rue ou de trouver une épouse. Récemment, elle a pris un nouveau virage après avoir constaté son échec – elle ne le dit pas en ces termes-là, c’est mon interprétation – afin de se lancer dans de nouvelles activités. Sa réorientation aboutit à une association avec un autre influenceur du nom de Valek, qui lance le Valek Studio, une sorte de service-communauté dans lequel il vend des prestations. Pour l’instant, ce n’est pas très clair ; on comprend que le service est monétisé et vise à capter la petite frange de leur communauté qui est prête à les suivre en s’engageant financièrement davantage.

M. le président Arthur Delaporte. Pouvez-vous nous en dire un peu plus sur ce modèle économique ?

M. Tristan Boursier. Les contenus les plus problématiques, en tout cas ceux qui font le plus réagir, qui misent sur l’outrance, créent de l’engagement, ce qui favorise leur visibilité.

Certains ont néanmoins compris qu’ils ne pouvaient pas fonder leur modèle économique sur les seuls médias sociaux. Des recherches, menées notamment en Allemagne, montrent très bien la diversité des sources économiques des influenceurs. Cette diversité concerne bien sûr les réseaux sociaux sur lesquels ils sont présents, mais aussi d’autres supports tels que les caisses de soutien sur les plateformes de crowdfunding ou la création de communautés – les dix plus gros influenceurs français ont tenté ou tentent encore de le faire –, par le biais desquelles ils vont pouvoir capter de l’argent de la partie la plus crédule et manipulable de leurs fans. Ils peuvent ainsi simplement vendre un accès à un espace en ligne fermé. Par exemple, sur Discord, en payant un abonnement régulier ou une somme mirobolante, on peut entrer dans un espace où l’on trouve des services plus ou moins bien structurés, comme des formations aux sports de combat, aux cryptomonnaies ou à l’investissement immobilier. Ces services sortent du cadre politique mais ils sont utilisés dans une stratégie métapolitique. On a affaire à des businessmans, mais des businessmans qui surfent sur une vision du monde assez spécifique. Il faut bien avoir en tête ces deux facettes pour comprendre leur activité et leur succès.

M. le président Arthur Delaporte. Si je comprends bien, la militante dont vous parliez s’associe pour vendre ce type de formations.

M. Tristan Boursier. Elle est ambassadrice du Valek Studio – je suppose que cela passe par une association économique contractuelle – à l’intérieur duquel on trouve apparemment aussi des formations au montage vidéo. Je ne sais pas quel est l’objectif recherché mais on peut supposer qu’il s’agit de former d’autres influenceurs.

Valek a également diffusé dans les médias sociaux des contenus qui reprennent les discours masculinistes. On peut y voir un syncrétisme de différentes tendances réactionnaires. Christine Bard parle d’intersectionnalité des haines dans d’autres contextes. Je reprends volontiers à mon compte l’expression pour le monde numérique.

M. le président Arthur Delaporte. J’ai observé la reprise par certains influenceurs ou responsables politiques d’extrême droite de sujets très mainstream dont on sait qu’ils marchent, comme l’alimentation. Parmi les rares contenus que j’ai diffusés sur TikTok, ceux qui ont eu le plus de succès sont ceux liés à la bouffe. La vidéo où l’on voit le président de la République boire des verres a cartonné ; M. Bardella passe son temps à se mettre en scène avec du pain. Est-ce une tendance que vous avez également constatée ?

M. Tristan Boursier. Tout à fait, et c’est vraiment intéressant parce qu’il est question d’éléments culturels de notre société – un nombre important de Français consomment du vin, par exemple, qui, jusqu’à présent, n’était pas un objet politique. Or le fait de boire du vin ou de manger de la viande est devenu un sujet dans le débat public. Il a d’ailleurs été lié à différents camps politiques. Selon que vous êtes pour ou contre le carnisme, vous pouvez être associé à une tendance politique ou à une idéologie.

M. Baptiste Marchais, un influenceur que j’étudie, a beaucoup joué sur cette tendance en organisant ce qu’il appelle les « repas de seigneur ». Il s’agit d’un format vidéo assez long – environ une heure voire plusieurs heures –, parfois découpé en plusieurs publications, dans lequel il invite des amis, issus de l’extrême droitosphère – Jean Lassalle a aussi été convié dans l’un des épisodes –, à des repas gargantuesques où la viande est vraiment mise en avant. Les convives font beaucoup de plaisanteries sur la viande ; ils disent que les députés écologistes feraient des syncopes en voyant les tablées qui s’empiffrent.

Les propos ne sont pas forcément haineux ou radicaux en tant que tels, mais des choses aussi banales que la consommation de viande sont mises au service d’un appel au drapeau de leur communauté ou servent à interpeller des gens, qui, probablement, ne se reconnaissent pas dans les idéaux d’extrême droite mais qui, par le biais de la viande, peuvent éprouver une sympathie à l’égard des influenceurs.

M. Hugo Micheron. C’est un point clé, commun aux autres réseaux sociaux. Les groupes extrémistes sont très roués à la banalisation. On parle de groupes radicaux extrémistes idéologisés, mais ils se présentent autour d’une blague, d’une situation de la vie quotidienne – les djihadistes en Syrie se mettaient en scène avec des petits chatons qu’ils nourrissaient – dont le sous-titre est : « ils disent qu’on est ceci ou cela alors qu’en fait, on est comme vous, on fait les mêmes choses que vous, on aime les mêmes choses que vous, on rigole aux mêmes choses que vous ». C’est le principe élémentaire de la propagande : banaliser une idéologie et la faire passer pour totalement acceptable et ordinaire.

La réunion, suspendue à dix-huit heures trente, est reprise aussitôt.

Présidence de Mme Josiane Corneloup, vice-présidente de la commission

Mme Josiane Corneloup, présidente. L’un d’entre vous a évoqué une question de fond pour les sociétés européennes, et j’ajoute, pour l’avenir de nos démocraties. Du fait des codes utilisés, il est très difficile de repérer les messages de haine, qui polluent complètement notre jeunesse. Dans vos fonctions respectives, vous en débusquez un certain nombre mais il en reste probablement d’autres. Plutôt que d’agir sur les conséquences et de chercher à faire retirer les contenus, il serait plus opportun d’essayer d’éviter qu’ils soient publiés. Que préconisez-vous pour y parvenir ?

Mme Laure Miller, rapporteure. Lors de son audition, Laurent Marcangeli a parlé du DSA comme d’une ode à l’impuissance publique. Il faisait allusion au fait qu’aucun décret d’application de la loi visant à établir une majorité numérique à 15 ans, dont il était à l’initiative, n’a été pris pour ne pas être en contradiction avec le droit de l’Union européenne.

Monsieur Micheron, vous avez dit que la France pouvait déjà faire beaucoup. Pouvez‑vous préciser votre pensée ?

M. Hugo Micheron. J’ai une appréciation différente sur le DSA.

Je ne pense pas qu’il soit difficile d’intervenir sur le contenu. Actuellement, la modération s’opère par mot-clé. C’est la raison pour laquelle vous pouvez y échapper en remplaçant le « e » dans le mot Hitler par un « 3 » : le robot est dupé mais n’importe quel humain va lire Hitler car l’effet visuel est identique. Il est tout à fait possible, grâce à l’intelligence artificielle, de mettre en place une modération basée sur la sémantique dès lors qu’on a répondu par la négative à ces questions : tolère-t-on un propos qui emprunte à 90 % sa sémantique à tel groupe extrémiste et tolère-t-on la visibilité disproportionnée dont bénéficie sur les réseaux sociaux comme nulle part ailleurs ?

On peut tout à fait nourrir l’IA – l’embedder – avec la sémantique de groupes donnés pour pouvoir ensuite la détecter automatiquement – nous le faisons à Sciences Po. Des vidéos qui lancent des appels à la violence atroce peuvent être repérées. Les grandes compagnies de technologies, qu’elles soient chinoises, américaines ou russes, ont les moyens de détecter la sémantique et de la signaler. Si elles ne l’ont pas encore fait, elles ont les moyens de développer les procédés nécessaires.

Le DSA est probablement incomplet mais il est intéressant car, pour la première fois, un cadre juridique dit clairement qu’un contenu illégal n’a rien à faire sur les réseaux sociaux – encore heureux ! Par ailleurs, il existe des groupes très habiles, qui se placent en dessous de la ligne de détection du radar légal, de telle sorte que le contenu, bien que très problématique, n’est pas considéré comme illégal. Le contenu antisémite est un très bon exemple : il y a plein de manières d’être juste en dessous du seuil de détection légale et pourtant de produire un discours totalement toxique. On peut faire en sorte que la machine soit capable de détecter ces stratagèmes.

Si je devais faire une seule recommandation, ce serait celle-là. Nous avons en France tous les ingénieurs tech qu’il faut pour nous outiller et penser une démocratie numérique costaude, capable de résister à du contenu haineux en ligne.

Mme Sophie Taïeb. Il y a en effet une zone grise pour ces contenus qui sont sous la ligne légale mais évidemment problématiques. S’il était possible de retirer ce qui est évident, on aurait bien avancé.

Je souhaiterais revenir sur l’amende civile que j’ai mentionnée parmi nos recommandations. De la même manière que l’installation de radars et le port obligatoire de la ceinture de sécurité, malgré les protestations initiales, ont permis de faire diminuer le nombre d’accidents de la route, nous pensons qu’il serait utile de sanctionner les contenus indiscutablement hors-la-loi ou dangereux par une amende. On ne peut pas laisser dire tout et n’importe quoi sur les réseaux sociaux en toute impunité. Peut-être les gens continueraient-ils à le penser mais peut-être arrêteraient-ils de les diffuser et de les publier sur les plateformes.

M. Valentin Petit. Il n’est pas difficile de repérer les codes, au contraire : c’est très simple. En une semaine, on a compris de quoi il retourne. Quand par exemple l’émoji « jus » est utilisé – parce qu’en anglais le mot juice est proche du mot qui signifie « Juifs » –, accompagné d’un émoji « gaz », on comprend très vite de quoi il est question.

Les codes qui sont utilisés, souvent à destination des jeunes, voire très jeunes pour créer un phénomène d’insider – en leur faisant des clins d’œil, en utilisant des mèmes et l’IA pour faire danser Anders Breivik devant l’île
d’Utøya –, sont loin d’être impossibles à déchiffrer. C’est assez simple et frontal : ces codes ne sont pas impossibles ni même difficiles à déchiffrer.

Il faut évidemment utiliser l’analyse sémantique et l’intelligence artificielle mais je plaide aussi pour un investissement dans le travail humain. Les plateformes sont très peu désireuses de faire appel à des êtres humains pour opérer la modération des contenus. Elles font essentiellement confiance à l’automatisation par mots-clés, notamment TikTok. Mais il y a très peu de personnes chargées d’analyser la sémantique et d’alimenter une IA pour améliorer l’automatisation. Le manque d’outils d’analyse humaine et la prépondérance des outils d’analyse automatiques sur ces plateformes est très problématique.

Mme Sophie Taïeb. Nous fournissons tous les ans à l’ensemble des plateformes avec lesquelles nous travaillons ainsi qu’à Pharos, à la Dilcrah et à d’autres une liste de termes et d’émojis antisémites– le jus, le nez, les savonnettes, etc. – pour qu’ils puissent informer leurs modérateurs. On ne sait pas si tous le font mais tous reçoivent la liste.

Mme Josiane Corneloup, présidente. Avez-vous l’impression que c’est suivi d’effet ?

Mme Sophie Taïeb. Pas forcément. Le plus emblématique d’entre ces termes, « dragon céleste », est désormais connu. Un travail de réflexion a été mené avec Meta sur l’utilisation du terme « sioniste » : quand ce mot a-t-il une connotation politique, et quand devient-il une insulte antisémite ? Si je traite un rabbin de « sale sioniste », suis-je en train de l’insulter en le traitant de sale juif, ou bien est-ce que je m’exprime sur ses prises de position politiques ? Nous avons travaillé avec eux pour différencier le contenu insultant du contenu politique.

L’antisémitisme est une forme de haine compliquée. La pédopornographie, c’en est ou c’en n’est pas ; le terrorisme, c’en est ou c’en n’est pas. En revanche, l’antisémitisme comporte une zone grise assez importante ; c’est une menace qui évolue, parce que de nouveaux termes, de nouvelles tendances émergent, parce qu’il se passe des choses dans le monde. C’est pour cela que nous travaillons avec les plateformes : nous essayons de les informer autant que possible sur les nouvelles tendances. Nos efforts sont parfois suivis d’effet, et parfois un peu moins.

M. Kévin Mauvieux (RN). Madame Taïeb, vous avez indiqué à plusieurs reprises qu’il fallait créer des amendes civiles pour sanctionner l’antisémitisme sur les réseaux sociaux. Je ne suis même pas sûr que ce soit la solution, car l’antisémitisme est déjà interdit et répréhensible. Nous devons nous interroger sur l’existence d’un droit parallèle pour les réseaux sociaux par rapport à la vie de tous les jours. Une personne qui tient des propos ouvertement antisémites dans la rue sera arrêtée, placée en garde à vue, auditionnée et condamnée. Sur les réseaux sociaux, il faut se battre pendant quinze jours pour retirer une vidéo, et cela s’arrête là, alors que le délit est le même que celui commis dans la rue. Il faudrait trouver la solution pour que les peines existantes s’appliquent aussi aux réseaux sociaux.

La monétisation de leurs contenus par les influenceurs radicaux est problématique. Il est en effet possible de payer des publicités sur TikTok pour sponsoriser ses contenus, les mettre en avant et les faire apparaître de manière encore plus extravagante. Qu’Adidas ou McDonald’s se paient une publicité, c’est leur droit et cela ne dérange personne. Mais qu’en est-il pour les influenceurs radicaux ? Avez-vous déjà effectué des recherches sur la modération et sur le contrôle des publicités ?

Je prendrai un exemple simple : les responsables politiques n’ont pas le droit de monétiser le contenu de leurs réseaux sociaux. Je dispose d’un compte sur TikTok qui, très régulièrement, m’envoie des notifications pour m’inciter à le faire. Étant membre de cette commission d’enquête, j’ai fait le test – sans avoir l’intention d’aller jusqu’au bout puisque cela m’aurait mis hors la loi : TikTok m’a bloqué en me rappelant qu’un responsable politique n’avait pas le droit de monétiser ses contenus.

Un système équivalent existe-t-il pour les influenceurs radicaux ? Comment sont contrôlées les publicités d’un utilisateur de TikTok ? Je ne parle pas des entreprises mais bien des utilisateurs lambda, qui n’ont pas forcément de très gros comptes mais créent beaucoup de petits comptes. Ont-ils accès à du sponsoring et, si oui, sont-ils contrôlés ?

Mme Sophie Taïeb. Concernant les amendes civiles, c’est l’absence de dissuasion qui nous dérange. Si, avant de poster, on se dit « soit je vais payer une amende, soit je vais être poursuivi en justice et cela sera suivi d’effets », alors les gens arrêteront de poster. Nous sommes donc d’accord.

Je n’ai pas étudié en revanche la question des publicités.

M. Tristan Boursier. Votre question est très pertinente car elle permet de souligner la difficulté que rencontrent les chercheurs à comprendre ces mécanismes, notamment les relations que ces acteurs ont avec les régies publicitaires. Ils se plaignent souvent de la démonétisation de leurs contenus et du fait que les plateformes les empêchent de faire de l’argent. Or cette affirmation ne repose que sur leur parole ; les plateformes ne collaborent pas pour nous transmettre des informations.

Néanmoins, quand on regarde une vidéo, par exemple sur YouTube, on peut voir si de la publicité apparaît ou non. De plus, même si les plateformes démonétisent une partie des contenus, ce risque est intégré par les plus gros influenceurs, qui ont diversifié leurs sources de revenus. Un écosystème de sponsoring s’est mis en place, avec notamment le fonds Périclès, financé par Pierre-Édouard Stérin. Ce fonds soutient la marque Terre de France, qui sponsorise nombre de vidéos d’influenceurs, notamment Valek et Le Raptor. D’autres entreprises le font aussi, comme Kalos, dont les liens avec Périclès ne sont pas clairs pour moi. Cet écosystème permet de soutenir l’activité économique des influenceurs en dehors des canaux de monétisation classiques des plateformes.

M. Valentin Petit. Les petits comptes n’ont pas besoin de diffuser des publicités : le fonctionnement opaque de la plateforme et de l’algorithme se charge de pousser les contenus problématiques. Ainsi, un compte de moins de 300 abonnés pourra percer et atteindre 300 000 vues grâce à une vidéo glorifiant par exemple un tueur djihadiste ayant fait cinquante morts. C’est un phénomène que l’on voit rarement sur d’autres plateformes, mais qui est très fréquent sur TikTok.

Mme Josiane Corneloup, présidente. Ces vues par milliers sont-elles réelles ou artificielles ? Si elles sont réelles, cela signifie qu’il y a un vrai public.

M. Valentin Petit. Les contenus sur TikTok étant très courts, les vues commencent très rapidement. Cela ne signifie pas que 300 000 personnes ont regardé la vidéo en entier, mais que ce contenu a été conseillé à 300 000 personnes : la nuance est importante.

Ainsi, lors de l’élection présidentielle roumaine, la plateforme a favorisé le candidat Călin Georgescu de façon absolument astronomique, en utilisant notamment des comptes dormants, qui publiaient habituellement du contenu footballistique sur Neymar ou sur Messi et qui se sont mis d’un seul coup à publier des vidéos pro-Georgescu qui atteignaient 400 000 ou 500 000 vues – l’algorithme avait en fait conseillé ces vidéos à toutes ces personnes. L’opacité de l’algorithme repose aussi sur l’opacité des comptes qui poussent ce genre de contenus.

Mme Josiane Corneloup, présidente. Je vous remercie pour votre présence et pour les précisions fort utiles que vous avez apportées à nos travaux.

68.   Audition de M. X, ancien modérateur sur les réseaux sociaux (jeudi 26 juin 2025)

La commission auditionne, à huis clos, M. X, ancien modérateur sur les réseaux sociaux.

M. le président Arthur Delaporte (SOC). Pour notre dernière audition, nous recevons à huis clos le témoignage de M. X, ancien modérateur sur les réseaux sociaux, en particulier sur TikTok.

Je vous remercie d’avoir répondu à notre invitation et je vous invite à nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. X prête serment.)

M. X. Je vous remercie de me donner la parole. Même si je réside au Portugal, je me sens concerné par les enjeux dont votre commission s’est saisie car je suis non seulement un utilisateur de TikTok, mais aussi un ancien modérateur de cette plateforme, par le biais de son sous-traitant Teleperformance.

Je suis né et j’ai grandi en France. En 2019, j’ai répondu à une offre de travail proposée par un call center au Portugal, dans lequel j’ai travaillé jusqu’en 2023. En août 2023, Teleperformance m’a proposé de travailler pour la plateforme TikTok. J’ai été affecté à une mission de modération, pour laquelle j’ai suivi une formation initiale d’une semaine et trois jours en shadowing.

Cette expérience de quelques semaines a eu un impact sur ma santé physique et mentale. J’ai visionné des contenus assez choquants.

La modération est effectuée par le biais d’un double écran, sur lequel défilent simultanément cinq à six vidéos ; ces contenus doivent être modérés en trente secondes à une minute, ce qui laisse très peu de temps d’analyse. Avec les autres modérateurs, nous subissions une pression en matière de performance, non pas de la part de TikTok mais de celle de Teleperformance.

Après ces quelques semaines, j’ai connu une période assez difficile : j’ai sombré dans une dépression dont je ne suis pas encore totalement sorti et j’ai souffert d’anorexie. Je suis suivi par un service de psychiatrie au Portugal. J’occupe désormais un nouveau poste dans une autre entreprise, mais je souffre encore de séquelles qui m’obligent à télétravailler.

J’ai souhaité témoigner parce que d’autres modérateurs et anciens modérateurs vivent ou ont vécu la même chose, même s’ils sont invisibles et silencieux et que TikTok minimise ses responsabilités à leur égard. Les modérateurs sont en première ligne, directement exposés à une forme de violence psychologique quotidienne. C’est parce qu’ils exercent un métier essentiel au bon fonctionnement des plateformes que j’ai voulu témoigner de mon expérience.

Mme Laure Miller, rapporteure. Merci de votre témoignage, qui est très utile. Pouvez-vous revenir sur la façon dont vous avez été formé à la modération à votre arrivée dans l’entreprise ?

M. le président Arthur Delaporte (SOC). Avez-vous suivi d’autres formations par la suite ? Le cas échéant, à quelle fréquence et avec quel contenu ?

M. X. Ma formation a duré une semaine et trois jours. Le premier jour est consacré à la présentation de la société Teleperformance et de ses locaux, le deuxième à ses outils internes.

Les règles communautaires de TikTok, les outils de ticket et l’utilisation de la plateforme de modération sont présentés le troisième jour. Le quatrième jour est consacré au visionnage de quelques contenus et à des jeux de rôle : il faut donner son avis sur la catégorie dans laquelle classer certains contenus – automutilation, discours politique, etc.

Le cinquième jour est consacré à une formation interne de Teleperformance sur le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) – on ne doit pas transmettre les informations des utilisateurs – et sur la PCI DSS, une norme de sécurité informatique s’appliquant aux organisations stockant et traitant des données de cartes bancaires – on ne doit pas prendre de notes sur les données personnelles des clients.

Les trois derniers jours de formation sont consacrés à du shadowing, aux côtés d’un modérateur qui nous montre comment classer les contenus et nous donne des conseils.

M. le président Arthur Delaporte (SOC). Avez-vous suivi des formations de mise à niveau ? Comment sont transmises les consignes relatives à la modération ?

M. X. Personne de chez TikTok n’est venu sur place nous présenter d’autres règles de modération. La formation initiale se fait avec un outil en ligne mis au point par Teleperformance et TikTok, constitué de slides ; à la fin de la formation, il faut valider un petit questionnaire d’une centaine de questions.

M. le président Arthur Delaporte (SOC). Ces slides sont-elles réactualisées ?

M. X. Non.

M. le président Arthur Delaporte (SOC). Combien de temps êtes-vous resté dans cette entreprise ?

M. X. J’y suis resté un mois et demi, mais certains de mes amis y travaillent encore.

En raison des nombreuses séquelles psychologiques provoquées par un mois et demi à regarder des contenus assez compliqués, je suis tombé en dépression et j’ai demandé à changer d’affectation au sein de Teleperformance.

M. le président Arthur Delaporte (SOC). Vous n’avez bénéficié d’aucun accompagnement psychologique ?

M. X. Teleperformance est une très grande entreprise. Sur le site de Cabo Ruivo, dans la périphérie de Lisbonne, où est basée l’activité de modération pour TikTok, il n’y a aucun psychologue et un seul médecin du travail pour 500 modérateurs. Une demande doit être envoyée par e-mail et approuvée pour obtenir un rendez-vous avec lui.

M. le président Arthur Delaporte (SOC). Avez-vous essayé de le voir ?

M. X. Oui, mais je n’ai pas obtenu de rendez-vous.

Ayant sombré dans la dépression, je me suis présenté aux urgences en expliquant que j’avais des idées suicidaires et que je n’arrivais plus à manger. J’ai été interné dans un service de psychiatrie dans lequel un médecin m’a dit de changer de voie professionnelle. J’ai alors quitté mes fonctions de modérateur.

M. le président Arthur Delaporte (SOC). Faites-vous un lien direct entre vos idées suicidaires et les contenus auxquels vous avez été exposé ?

M. X. Je souffrais déjà de problèmes alimentaires – j’avais du mal à me nourrir –, qui ont été accentués par ces contenus, notamment d’automutilation et de scarification, qui me rendaient très triste. Mes problèmes alimentaires se sont aggravés : j’ai perdu plus de 65 kilos, passant de 130 à 70 kilos. C’est vous dire à quel point cela m’a chamboulé.

Je continue d’être suivi ; la semaine dernière encore, j’avais rendez-vous avec ma nutritionniste. J’ai beau manger, je ne prends pas de poids et ma situation est très compliquée.

Mme Laure Miller, rapporteure. Vos propos sont difficiles à entendre. Pourriez‑vous malgré tout nous décrire la journée type d’un modérateur ? À quelle heure commence-t-elle ?

Vous avez expliqué tout à l’heure que vous deviez modérer simultanément plusieurs vidéos dans un temps très restreint : pourriez-vous décrire concrètement comment cela se passait ?

M. X. Tout dépendait du shift – de la rotation – horaire, puisque le service de modération est assuré 24 heures sur 24.

Au Portugal, la durée hebdomadaire de travail est de 40 heures ; une journée de travail dure 9 heures : 8 heures à son poste et 1 heure de pause déjeuner. Je travaillais principalement au service de nuit, de 23 heures à 8 heures. Pendant ce service, il n’y avait pas de team manager, c’est-à-dire de superviseur responsable d’une équipe.

En arrivant à 23 heures, j’allumais mon ordinateur et je me connectais aux outils. Je travaillais de 23 heures à 2 heures du matin avant la pause : quatre ou cinq vidéos défilaient sur le double écran, que je devais classer en moins d’une minute selon différentes catégories, sans possibilité de les revoir. Les vidéos s’enchaînaient automatiquement et on en traitait jusqu’à 600 ou 800 par journée de travail.

Mme Laure Miller, rapporteure. Vous n’aviez donc pas le temps de visionner les vidéos jusqu’à leur terme ? Cela signifie que dès les premières secondes, vous deviez être capable de comprendre de quoi il s’agissait pour les catégoriser ?

M. X. C’est exact : je devais les analyser et les catégoriser rapidement.

Pire encore, Teleperformance demandait à ses modérateurs un rythme élevé, jusqu’à plus de 800 vidéos par jour, sans se soucier d’eux. Cette performance n’était pas atteinte, d’où le fort turnover des modérateurs chez ce sous-traitant. De plus, le team manager faisait une analyse de notre travail trois à quatre fois par semaine, pour vérifier si nous avions bien catégorisé les vidéos.

Mme Laure Miller, rapporteure. Les vidéos qui vous étaient soumises étaient-elles issues d’une présélection en raison de leur caractère problématique, ou était-ce le flux classique des vidéos ?

M. X. C’était un flux continu, constitué de vidéos de tout type – un discours haineux, un utilisateur qui se filme en train de jouer à un jeu vidéo, etc. –, auxquelles on n’est pas préparé.

M. le président Arthur Delaporte (SOC). Comment sont sélectionnées les vidéos qui vous sont présentées ?

M. X. Je ne sais pas comment est calculé l’algorithme pour les modérateurs, mais les vidéos étaient aléatoires et le flux continu. Je travaillais à la modération générale et je n’ai pas été affecté à la modération des lives ou du gaming.

Les vidéos arrivaient sur l’écran de manière aléatoire et je devais les classer. Durant le mois et demi que j’ai passé en production, il y avait beaucoup de contenus relatifs à la guerre en Ukraine.

M. le président Arthur Delaporte (SOC). Vous nous avez expliqué qu’il y avait plusieurs services en fonction du type de contenu. TikTok est-il le seul client de Teleperformance sur ce site ?

M. X. Teleperformance a plusieurs sites à Lisbonne, un par client. Celui de Cabo Ruivo est dédié à TikTok.

M. le président Arthur Delaporte (SOC). Le site où vous travailliez était donc consacré uniquement à TikTok et les 500 modérateurs que vous avez évoqués travaillent tous pour cette plateforme.

M. X. Oui.

M. le président Arthur Delaporte (SOC). Ces 500 modérateurs travaillent-ils uniquement sur des contenus en français ?

M. X. Non, ils travaillent sur des contenus en plusieurs langues pour les marchés indien, anglais, portugais et français.

M. le président Arthur Delaporte (SOC). Vous-même, vous ne travailliez que sur des contenus francophones ?

M. X. Oui.

M. le président Arthur Delaporte (SOC). Combien de modérateurs ne travaillaient que sur des contenus francophones ?

M. X. Une trentaine pour la modération générale pendant le service de nuit, mais il y a plusieurs shifts.

Mme Laure Miller, rapporteure. Lors de nos auditions, il a souvent été question de la façon dont les utilisateurs parviennent à contourner la modération à l’aide d’émojis spécifiques et de mots-clés modifiés – un chiffre remplaçant une lettre. En étiez-vous alertés afin de vous aider à modérer les contenus ?

M. X. Nous avons reçu des alertes de la part du team leader. Par exemple, nous avions reçu une communication au sujet de l’émoji zèbre utilisé pour signifier « automutilation ».

M. le président Arthur Delaporte (SOC). Lorsque vous étiez modérateur, vous saviez donc déjà que cet émoji symbolisait l’automutilation ?

M. X. Après avoir vu plusieurs vidéos défiler avec cet émoji, nous avons fait un rapport auprès de notre équipe de supervision. Malheureusement, après avoir signalé, catégorisé ou autorisé les contenus, nous ne savons pas ce qu’ils deviennent : nous n’avons aucun suivi de la part de nos team leaders ni de la direction de TikTok.

Mme Laure Miller, rapporteure. Je vais reformuler ma question, pour être certaine de bien comprendre.

Lorsque nous avons reçu les dirigeants de TikTok, ils nous ont expliqué qu’ils n’étaient pas toujours au courant de ces contournements, notamment de l’utilisation de l’émoji zèbre. Vous dites avoir signalé certains de ces contournements. Votre hiérarchie vous en avait-elle aussi signalé l’existence et vous avait-elle demandé d’être vigilants à ce sujet ?

M. X. Oui, les signalements ont été faits dans les deux sens. Nous recevions des communications de la part de nos team leaders, mais je n’ai jamais vu aucun responsable de TikTok dans les locaux de Teleperformance.

M. le président Arthur Delaporte (SOC). Quand vous analysiez les contenus, étiez‑vous aidé par un outil d’intelligence artificielle proposant une précatégorisation ou une transcription automatique des vidéos pour vous aider à les comprendre ?

M. X. En 2023, nous n’avions pas d’outil d’intelligence artificielle ; je ne sais pas si c’est désormais le cas. Nous utilisions différentes étiquettes prédéfinies : discours haineux, discours politique, automutilations, troubles alimentaires, etc.

M. le président Arthur Delaporte (SOC). Si je comprends bien, les vidéos projetées étaient déjà catégorisées et vous deviez dire si elles correspondaient aux catégories prédéfinies ?

M. X. C’était à nous de les analyser rapidement, sur une base visuelle. Mais avec 600 à 800 vidéos par jour, nous n’avions pas le temps de faire une analyse complète.

Mme Laure Miller, rapporteure. Vous deviez donc confirmer que la vidéo correspondait à la précatégorisation établie – terrorisme, discours haineux –, mais votre mission n’était pas de la supprimer.

M. X. C’est exact. J’avais toutefois la possibilité de signaler la vidéo en question auprès de mon supérieur ou en créant un ticket s’il s’agissait d’un acte terroriste ou d’une tentative d’intimidation, par exemple, mais nous n’avions pas de suivi ; nous étions laissés à l’abandon.

M. le président Arthur Delaporte. Il s’agit d’une entreprise française ?

M. X. Oui. Teleperformance est le premier call center de service clientèle au monde en nombre d’employés.

M. le président Arthur Delaporte. Combien gagniez-vous à ce poste ?

M. X. Au Portugal, les salaires sont plus bas qu’en France. Je touchais 750 euros nets par mois, auxquels s’ajoutaient 4,14 euros par jour pour l’équivalent des tickets-restaurants, soit 130 à 150 euros supplémentaires qui étaient crédités sur une carte bancaire à la fin du mois. L’avantage de Teleperformance, c’est qu’ils fournissent aussi un logement à ceux qui arrivent de France – une chambre à louer. J’avais déjà ma maison, donc je n’en ai pas eu besoin, mais je crois que la plupart des modérateurs acceptent, même si cela les rend un peu prisonniers.

Mme Laure Miller, rapporteure. Au cours du mois et demi que vous avez passé dans cette entreprise, vous avez sans doute eu le temps de tisser des liens avec les autres modérateurs. Avez-vous ressenti le même mal-être chez d’autres salariés ou étaient-ils relativement à l’aise avec ce travail ? Y a-t-il un fort turnover ?

M. X. J’ai encore des contacts là-bas, dont une amie qui a quitté mon entreprise actuelle pour aller chez Teleperformance travailler pour TikTok Live. Elle y est depuis mai et elle s’y sent bien, même si elle considère que le contenu des vidéos de jeu ou des influenceurs n’est pas très constructif pour la société.

J’ai surtout senti un mal-être chez les modérateurs ; énormément de personnes souffrent. Pour ce qui est du turnover, le monde du call center en général attire des Français ou des gens d’autres nationalités qui viennent au Portugal un an pour tester le pays ; chaque mois, il y a cinq ou six départs.

En ce qui me concerne, j’ai décidé de quitter ma fonction au bout d’un mois et demi sur les conseils du service de psychiatrie qui me suivait et j’ai demandé un changement d’affectation comme conseiller technique au sein de Cisco, qui est une entreprise d’IT. J’y ai travaillé jusqu’en septembre 2024. J’occupe actuellement un poste dans une autre entreprise.

Mme Laure Miller, rapporteure. Arriviez-vous à discerner dans quelle mesure la précatégorisation des vidéos était réalisée par l’intelligence artificielle ? Y avait-il d’autres modérateurs avant vous ?

M. X. Nous n’avions pas d’informations sur le sujet, mais je ne crois pas qu’il y ait eu d’autres modérateurs avant nous. C’était sans doute de l’intelligence artificielle.

M. le président Arthur Delaporte. Avez-vous vu des vidéos mettant manifestement en scène des mineurs ?

M. X. Oui, bien sûr. J’ai modéré des vidéos de deux frères YouTubeurs, Néo & Swan ; le plus jeune a moins de quinze ans, mais leurs parents les laissent faire des vidéos sur TikTok.

En tant qu’utilisateur, je vois que même mon neveu de 12 ans est souvent sur TikTok alors que ma sœur, qui lui avait donné un portable pour la contacter après les cours, le lui avait interdit ; elle a fini par le lui confisquer. Les enfants sont intelligents : il suffit qu’un ami dans la cour d’école leur dise comment faire et ils installeront un moyen de contourner le système de contrôle parental.

M. le président Arthur Delaporte. Vous avez dit que vos collègues n’avaient pas eu envie de témoigner. Pourquoi ?

M. X. Oui, j’en ai parlé à mon amie, mais son français n’est pas très bon. Quand on vit au Portugal depuis longtemps, on commence à perdre la langue.

M. le président Arthur Delaporte. Elle modère aussi du contenu en français ?

M. X. Oui. Elle est capable de comprendre, c’est discuter qui est plus compliqué. J’ai une autre amie franco-portugaise qui parle français avec difficulté et qui modère du contenu en français. C’est Teleperformance qui embauche ces personnes, pas TikTok.

Mme Laure Miller, rapporteure. Avez-vous eu connaissance de l’existence de modérateurs chargés de traiter en urgence des vidéos prioritaires qui auraient fait l’objet de nombreux signalements ou qui présenteraient un contenu plus sensible que les autres ?

M. X. Malheureusement, non. C’est nous qui devions signaler ces vidéos à notre superviseur, qui les faisait remonter à TikTok, où elles étaient traitées par une autre équipe de modération. On nous demande énormément de chiffre, mais nous avons peu de formation.

M. le président Arthur Delaporte. Y avait-il une prime de résultat en fonction du nombre de vidéos vues ? Le système vous encourage-t-il à voir plus de vidéos, quitte à détériorer la qualité de la modération ?

M. X. Oui. Nous touchons une prime d’assiduité de 150 euros si nous sommes présents au travail ; elle est quasiment impossible à toucher, car elle saute au premier retard. Nous touchons aussi un bonus de 50 euros si nous dépassons 800 vidéos dans la journée, lui aussi inatteignable, et un bonus de langue de 50 euros.

M. le président Arthur Delaporte. C’est une prime à la productivité et une manière de vous faire tenir, même si j’ai cru comprendre que des sanctions s’appliquaient quand le travail était mal fait.

M. X. C’est tout le problème. Certes, la productivité est importante dans une entreprise, mais la qualité du service aussi. Là, on propose un bonus sans service de qualité. Dans mon nouveau poste, je suis analyste financier et le bonus est lié à la qualité de mon travail.

Mme Laure Miller, rapporteure. Y avait-il des contenus problématiques qui n’entraient dans aucune catégorie ?

M. X. Non. Nous avions toujours la possibilité de classer les contenus sous l’une des étiquettes prédéfinies.

M. le président Arthur Delaporte. Pourriez-vous nous donner des exemples d’étiquettes ?

M. X. Il y avait les catégories « mineurs », « terrorisme », « activités illégales », « troubles alimentaires », « violences graphiques », « violences physiques », « harcèlement », « discours haineux », « comportement dangereux », « challenge à risque », etc.

Mme Laure Miller, rapporteure. De nombreux professionnels ont expliqué en audition que le fait de regarder des vidéos TikTok pouvait dégrader la santé mentale des mineurs, mais que cela n’avait pas forcément d’effet sur les jeunes qui se sentaient bien au préalable. Sans entrer dans votre intimité, diriez-vous que votre mission d’un mois et demi a été la cause essentielle et principale de votre mal-être, ou plutôt qu’elle a participé à la dégradation d’un état qui existait déjà ?

M. X. Je pense que cela affecte forcément les mineurs et les adultes. À l’époque, j’allais avoir 25 ans. La plateforme de modération reçoit de très nombreuses vidéos sur l’anorexie ; elles m’ont fortement perturbé émotionnellement car j’avais pris beaucoup de poids à la suite d’un accident, alors que j’étais auparavant très sportif – j’avais même pratiqué la lutte gréco-romaine plus jeune. Je suis aussi tombé sur les vidéos du YouTubeur Tibo InShape, qui disait qu’il fallait perdre du poids pour se sentir bien dans sa peau. Je pesais 130 kg et j’étais essoufflé quand je me déplaçais. Cela m’a fait un électrochoc : j’ai arrêté de m’alimenter et j’ai perdu 65 kg – j’en pèse 70 maintenant.

J’en ai encore des séquelles : il m’arrive de ne pas réussir à manger et je suis suivi par une nutritionniste. Je souffre également d’insomnies, car le travail de nuit chez TikTok a perturbé mon cycle du sommeil. Ce travail a aussi joué sur ma dépression. Actuellement, je prends cinq médicaments par jour, dont un antidépresseur, un traitement à la kétamine, un somnifère et un traitement qui m’empêche de vomir.

M. le président Arthur Delaporte. Je vous remercie pour votre témoignage et d’avoir pris l’initiative de nous contacter. Nous prenons la mesure des conséquences de ce job impossible pour les modérateurs et de leur manque d’accompagnement, et nous sommes preneurs de tout témoignage complémentaire. En attendant, avez-vous des suggestions d’amélioration du système ?

M. X. Il faudrait demander une pièce d’identité pour accéder à l’application. Les mineurs ont toujours un moyen de contourner les règles avec l’aide de leurs parents ; ces derniers ont une part de responsabilité énorme. On ne va pas se le cacher, la plupart des contenus que l’on trouve sur les applications sont mauvais : par exemple, des influenceurs qui proposent des jeux d’argent.

Mme Laure Miller, rapporteure. Vous avez dit que les contenus nocifs pouvaient avoir un impact sur notre santé mentale à tous, enfants comme adultes. Pensez-vous qu’un nombre plus important de modérateurs et davantage de moyens consacrés à la modération permettraient d’aboutir à un contenu, sinon satisfaisant, du moins mieux nettoyé ?

M. X. Je ne sais pas ce qu’il en est pour les modérateurs directement employés par TikTok, mais on pourrait commencer par améliorer les conditions de travail et le salaire des sous-traitants. Au Portugal, on dit que le niveau de vie est plus bas, mais le litre d’essence coûte 1,80 euro, pour un salaire mensuel de 750 euros. Une cellule psychologique pour les modérateurs serait souhaitable, et un meilleur accompagnement par les responsables de TikTok. Enfin, il serait utile de trouver un système permettant d’interdire l’application aux mineurs.

M. le président Arthur Delaporte. Je vous remercie pour ces propos éclairants.

Il s’agissait, à ce stade, de notre dernière audition programmée, mais nous nous réservons la possibilité d’en réaliser encore quelques-unes au cours de l’été. Au total, nous avons auditionné 163 personnes durant 90 heures cumulées. C’est le fruit d’un travail intense de la part des députés, des administrateurs et de nos collaborateurs, que je remercie pour leur engagement à nos côtés.

Le rapport sera présenté aux membres de la commission dans la première semaine de septembre. Ses conclusions seront rendues publiques la semaine suivante.


([1]) https://assnat.fr/KWc9Yh.

([2]) https://assnat.fr/Df4c3T.

([3]) https://assnat.fr/Df4c3T.

([4]) https://assnat.fr/mzGtBE.

([5]) https://assnat.fr/mzGtBE.

([6]) https://assnat.fr/mzGtBE.

([7]) https://assnat.fr/Aglyvm.

([8]) https://assnat.fr/Aglyvm.

([9]) https://assnat.fr/wjgqjF.

([10]) https://assnat.fr/wjgqjF.

([11]) https://assnat.fr/wjgqjF.

([12]) https://assnat.fr/5qFscc.

([13]) https://assnat.fr/5qFscc.

([14]) https://assnat.fr/avoDq0.

([15]) https://assnat.fr/avoDq0.

([16]) https://assnat.fr/avoDq0.

([17]) https://assnat.fr/nK0M2j.

([18]) https://assnat.fr/WgsUQr.

([19]) https://assnat.fr/DPozaf.

([20]) https://assnat.fr/POuw5X.

([21]) https://assnat.fr/DLIi34.

([22]) https://assnat.fr/DLIi34.

([23]) https://assnat.fr/RQkowU.

([24]) https://assnat.fr/RQkowU.

([25]) https://assnat.fr/RQkowU.

([26]) https://assnat.fr/8tfFNj.

([27]) https://assnat.fr/RQkowU.

([28]) https://assnat.fr/RQkowU.

([29]) https://assnat.fr/L17DL4.

([30]) https://assnat.fr/aMwhl6.

([31]) https://assnat.fr/aMwhl6.

([32]) https://assnat.fr/ewEVw5.

([33]) https://assnat.fr/pPSUDY.

([34]) https://assnat.fr/pPSUDY.

([35]) https://assnat.fr/pPSUDY.

([36]) https://assnat.fr/pPSUDY.

([37]) https://assnat.fr/2tFq8V.

([38]) https://assnat.fr/2tFq8V.

([39]) https://assnat.fr/2tFq8V.

([40]) https://assnat.fr/xyiCRV.

([41]) https://assnat.fr/xyiCRV.

([42]) https://assnat.fr/gPhC4M.

([43]) https://assnat.fr/gPhC4M.

([44]) https://assnat.fr/gPhC4M.

([45]) https://assnat.fr/gPhC4M.

([46]) https://assnat.fr/gPhC4M.

([47]) https://assnat.fr/vGAnjK.

([48]) https://assnat.fr/fFZNcQ.

([49]) https://assnat.fr/MMCq5V.

([50]) https://assnat.fr/MMCq5V.

([51]) https://assnat.fr/MMCq5V.

([52]) https://assnat.fr/MMCq5V.

([53]) https://assnat.fr/MMCq5V.

([54]) https://assnat.fr/5e1hPq.

([55]) https://assnat.fr/5e1hPq.

([56]) https://assnat.fr/e9rNXC.

([57]) https://assnat.fr/ZFZHJs.

([58]) https://assnat.fr/LS5Op6.

([59]) https://assnat.fr/LS5Op6.

([60]) https://assnat.fr/cEvjMM.

([61]) https://assnat.fr/cEvjMM.

([62]) https://assnat.fr/cEvjMM.

([63]) https://assnat.fr/l6hhjo.

([64]) https://assnat.fr/l6hhjo.

([65]) https://assnat.fr/l6hhjo.