______
ASSEMBLÉE NATIONALE
CONSTITUTION DU 4 OCTOBRE 1958
DIX-SEPTIÈME LÉGISLATURE
Enregistré à la Présidence de l’Assemblée nationale le 4 septembre 2025.
RAPPORT
FAIT
AU NOM DE LA COMMISSION D’ENQUÊTE
sur les effets psychologiques de TikTok sur les mineurs,
Président
M. Arthur DELAPORTE
Rapporteure
Mme Laure MILLER
Députés
——
TOME I
RAPPORT
Voir les numéros : 783, 1030 et T.A. 83.
La commission d’enquête sur les effets psychologiques de TikTok sur les mineurs est composée de : M. Arthur Delaporte, président ; Mme Laure Miller, rapporteure ; M. Pouria Amirshahi ; M. Rodrigo Arenas ; M. Belkhir Belhaddad ; Mme Nathalie Colin-Oesterlé ; Mme Josiane Corneloup ; Mme Christelle D'Intorni ; M. Emmanuel Fouquart ; Mme Anne Genetet ; M. Jonathan Gery ; M. Guillaume Gouffier Valente ; Mme Ayda Hadizadeh ; Mme Constance Le Grip ; M. René Lioret ; M. Frédéric Maillot ; Mme Claire Marais‑Beuil ; M. Kévin Mauvieux ; Mme Caroline Parmentier ; Mme Constance de Pélichy ; M. Thierry Perez ; Mme Isabelle Rauch ; M. Arnaud Saint-Martin ; M. Thierry Sother ; Mme Anne Stambach-Terrenoir ; Mme Sophie Taillé-Polian ; M. Antoine Vermorel-Marques.
SOMMAIRE
___
Pages
première partie : TIKTOK, un des PIREs RéSEAUX SOCIAUX à L’ASSAUT DE NOTRE JEUNESSE
c. Le TikTok des charlatans : désinformation médicale et psychologie de comptoir
e. Racisme et antisémitisme : sur TikTok, la haine de l’autre sans complexe
g. Atteintes aux mineurs et pédocriminalité
2. Des contenus néfastes qui se répandent sur TikTok comme une trainée de poudre
a. Des contenus néfastes dont la nouveauté tient à leur volumétrie et à leur viralité
b. Sur le terrain, le constat sans équivoque d’une large diffusion des contenus néfastes
1. Le modèle économique de TikTok : capter l’attention à tout prix
a. Au cœur du modèle d’affaires de TikTok : données personnelles et publicité ciblée
b. Un modèle économique qui pousse au trash
c. Un modèle économique opaque, aux logiques antagonistes à la protection des mineurs
d. L’impossible estimation de la valeur économique d’un utilisateur mineur pour TikTok
2. Un modèle lucratif pour certains influenceurs, fondé sur la viralité et l’outrance
a. Une économie de l’influence encore peu transparente
b. La fausse promesse de l’argent facile et rapide
a. Des dispositifs addictifs présents sur tous les réseaux sociaux les plus fréquentés
b. Le développement du format court et vertical
d. Une personnalisation accrue du contenu affiché
g. Notifications push et notifications in-app
1. Mesurer l’audience des réseaux sociaux : une tâche ardue, particulièrement auprès des mineurs
a. Les difficultés de la mesure de l’audience des réseaux sociaux
b. Les biais spécifiques à la mesure de l’audience des réseaux sociaux auprès des mineurs
b. TikTok, le réseau des jeunes
1. Les difficultés méthodologiques
a. Le temps de la recherche à l’ère du « scroll » : une course ingagnable ?
b. Une corrélation certaine, un lien de causalité plus complexe à établir
a. Le manque d’études sur les conséquences psychologiques de l’utilisation des réseaux sociaux
b. Le manque d’études sur les conséquences psychologiques de l’utilisation de TikTok
3. Plusieurs consensus forts partagés par la communauté scientifique
B. Du divertissement au drame : les effets dévastateurs de TikTok sur la santé mentale des mineurs
1. La préoccupante dégradation de la santé mentale des jeunes constitue un terrain propice
b. Une détérioration préoccupante de la santé mentale des mineurs…
c. … qui n’est pas sans lien avec une utilisation intensive des réseaux sociaux
2. TikTok, un outil d’amplification mortifère des troubles psychiques entre les mains de nos enfants
c. La fabrique du mal-être : quand TikTok fait naître des troubles psychiques chez les mineurs
d. Un engrenage mortel : quand TikTok précipite le passage à l’acte
3. TikTok, une addiction ? Au-delà de la notion clinique, des phénomènes de dépendance bien établis
a. L’emploi de la notion d’addiction pour qualifier l’usage de TikTok reste controversé
b. Des formes de dépendance à la plateforme toutefois clairement identifiées
a. Les effets de TikTok sur la concentration et le développement cognitif
b. Les effets de TikTok sur la construction sociale des jeunes
7. Inexcusable : des risques bien connus de TikTok depuis longtemps
a. Une interdiction d’accès aux réseaux sociaux avant 15 ans toute théorique
2. Avant 18 ans, une limitation des fonctionnalités relativement protectrice
b. Les restrictions mises en places par les plateformes elles-mêmes
B. En pratique, l’âge des utilisateurs de TikTok n’est pratiquement pas contrôlé
3. La cécité opportuniste et dangereuse de TikTok sur l’âge réel de ses utilisateurs
2. Vers un contrôle de l’âge effectif
a. Les différentes méthodes de contrôle de l’âge
b. Le choix de la méthode de contrôle de l’âge
c. Les technologies de contrôle de l’âge
3. L’adaptation de la conception des plateformes à l’âge de leurs utilisateurs
1. Hébergeur, éditeur ? Le règlement DSA redéfinit la responsabilité des plateformes numériques
b. Une responsabilité accrue pour les plateformes prévue par le règlement DSA
a. La mise en place obligatoire d’un dispositif de signalement et d’un mécanisme de réclamation
3. Des avancées récentes au niveau national en matière de régulation des contenus
a. Les apports de la loi dite « Avia » pour la lutte contre la haine en ligne
b. La loi du 7 juillet 2023 visant à instaurer une majorité numérique : ambitieuse mais inappliquée
1. En apparence, une modération exigeante
a. Des règles et modalités de modération astreignantes
2. En pratique, une modération encore insuffisante, inégale et négligente
a. « Vider la mer avec une petite cuillère trouée » : les difficultés de modération
b. Des conditions de modération désolantes, conséquences d’un budget insuffisant
c. La modération des contenus diffusés sur TikTok : de piètres résultats
3. Les contenus « gris » : néfastes mais licites, et donc intouchables ?
c. De potentielles violations du règlement DSA identifiées par la Commission européenne
2. La barre de recherche de TikTok : un outil d’orientation vers des contenus néfastes
1. Réduire l’effet « terrier de lapin »
2. Vers un encadrement des fonctionnalités de recherche
A. Les obligations de transparence des plateformes de réseaux sociaux : une avancée en demi-teinte
1. Le règlement DSA prévoit des obligations de transparence pour les plateformes
a. Les algorithmes des plateformes : de la « boîte noire » à la transparence ?
b. L’ouverture des données aux chercheurs
c. Une obligation renforcée de transparence pour la modération des contenus
3. Les rapports de transparence : une solution imparfaite
B. Entre obligations et réalité, un gouffre : En matière de transparence, LE CANCRE TikTok
1. Une transparence de façade, écran de fumée de dérives persistantes ?
2. La formation des modérateurs, angle mort de la transparence en matière de modération
3. Un accès insuffisant des données aux chercheurs et un registre des publicités inexploitable
1. Le cadre juridique général de la protection des données personnelles
c. Les motifs et modalités de collecte et de traitement des données
2. Un encadrement juridique renforcé pour la protection des données personnelles des mineurs
a. Un consentement au traitement des données soumis à autorisation parentale avant 15 ans
b. Un niveau d’exigence élevé s’agissant du traitement des données des mineurs
B. TIKTOK, MULTIRÉCIDIVISTE DANS LA VIOLATION DE LA PROTECTION DES DONNÉES PERSONNELLES
1. TikTok : des données personnelles, parfois sensibles, en masse
b. Parmi les données personnelles traitées par TikTok, un grand nombre de données « sensibles »
2. Un traitement des données personnelles en violation du RGPD
a. Des motifs de traitements (trop) larges
b. Le transfert des données à caractère personnel des utilisateurs européens vers la Chine
c. Le traitement des données à caractère personnel des mineurs
3. Les projets « Texas » et « Clover » : beaucoup de scepticisme face aux condamnations
A. Mener nos combats aux deux échelons
3. Mettre en place des solutions efficaces de contrôle de l’âge : on touche au but ?
a. Des solutions très attendues, et peut-être trop attendues
b. Des solutions imparfaites mais tangibles
c. Des solutions en cours d’expérimentation
1. Une nécessaire montée en puissance des enquêtes de la Commission européenne
a. Augmenter les capacités d’action au niveau européen…
c. … et renforcer l’effet dissuasif des sanctions.
2. Renforcer les leviers d’action du règlement DSA
a. Davantage de signaleurs de confiance, mieux soutenus financièrement
b. Des modérateurs mieux formés et mieux accompagnés sur le plan psychologique
c. Étendre la responsabilité de modération des plateformes aux contenus glorifiant le suicide
3. Vers un numérique plus éthique et responsable : repenser les réseaux sociaux
a. Oser poser la question de la responsabilité des plateformes
b. Pouvoir paramétrer son utilisation des réseaux sociaux : une reprise de contrôle indispensable
c. Le pluralisme algorithmique, un enjeu démocratique et sociétal majeur
d. Vers un internet plus souverain : un défi utopique ?
II. Deuxième urgence : En France, retrouver la maîtrise de l’avenir de nos enfants
a. Des mesures simples, étayées et saluées
2. Prévention et éducation doivent guider la promotion d’un usage raisonné des réseaux sociaux
a. Le grand public : inquiet, mais mal informé
b. Sensibiliser le grand public à l’enjeu d’une utilisation raisonnée des réseaux sociaux
a. Intensifier l’éducation au numérique
b. Renouveler l’éducation au numérique
c. Restructurer l’éducation au numérique
a. Des parents mal informés et mal accompagnés
5. Former les équipes éducatives
1. Interdire l’accès aux réseaux sociaux avant 15 ans : une règle qui s’impose dans le débat public
a. En choisissant la limite d’âge de 15 ans, établir une règle de société claire et compréhensible
b. Une interdiction limitée, pour permettre aux enfants de conserver des moyens de communication
2. Vers une interdiction de l’accès aux réseaux sociaux avant 18 ans ?
3. Après 15 ans, encadrer l’usage plus strictement
a. Le couvre-feu numérique pour mieux encadrer l’usage des réseaux sociaux chez les 15-18 ans
b. Renforcer le recours aux solutions de contrôle parental et leur efficacité
4. Opérer un véritable changement de paradigme au sein de l’éducation nationale
5. Action, réaction : pour une meilleure réponse judiciaire à la diffusion de contenus néfastes
b. Renforcer la peine de suspension des comptes d’accès à des services en ligne et son application
1. Et si le problème était le smartphone ?
a. Promouvoir la déconnexion dans la vie quotidienne
b. Réduire l’excuse de l’ennui : proposer des alternatives au « tout numérique »
2. Et pour les parents irresponsables, vers un délit de négligence numérique ?
Contributions des groupes politiques et des députés
Contribution du groupe rassemblement national
Contribution de Mme anne genetet
Annexe N° 4 : captures d’écran de l’application TikTok – modalités de signalement
Annexe N° 5 : captures d’écran de l’application TikTok – barre de recherche
ANNEXE N° 7 : Liste des personnes auditionnées
ANNEXE N 8 : Liste des personnes rencontrées lors dU déplacement à Bruxelles le mercredi 4 juin 2025
« Le silence éternel de ces espaces infinis m’effraie. ([1]) »
Pascal
Inspire creativity and bring joy / inspirer la créativité et apporter de la joie
Devise officielle de TikTok ([2])
« J’ai 17 ans et ma grande sœur a été victime des réseaux sociaux ; j’ai réussi à sauver ma petite sœur de 14 ans et moi-même de ces derniers. Ma grande sœur s’est pendue en février 2024. Avant cela, elle avait effectué quatre tentatives de suicide avec des médicaments. C’est pour ça que je dis qu’elle a été victime des réseaux sociaux : cette idée de se pendre ne lui est pas venue toute seule. En plus de cela, avant de passer à l’acte, elle avait le corps détruit par les mutilations, les scarifications et les cicatrices – sur toutes les parties du corps, visibles ou non. Je sais, parce que je l’ai vu sur son fil TikTok, qu’elle regardait des vidéos qui lui disaient que c’était en quelque sorte positif de se mutiler, parce que cela pouvait signifier qu’elle allait s’en sortir, tout en ayant traversé une épreuve : ce serait marqué sur son corps, mais elle s’en serait sortie. Au final, elle ne s’en est pas sortie et elle s’est juste abîmé le corps » ([3]).
Soudain, le silence. Ces silences qui pèsent, glaçants, ceux dont on se souvient encore des années plus tard. Dans cette salle Lamartine du 101, rue de l’Université, bien trop grande pour les préadolescents et adolescents que notre commission entend ce 15 mai 2025, l’effroi s’empare des députés, administrateurs et collaborateurs présents lors de cette audition à huis clos. Pendant de longues heures, les récits lourds et empreints d’une grande dignité s’accumulent, témoignant de ce que les réseaux sociaux, et en particulier TikTok, peuvent faire de pire aux esprits et aux corps. Une mécanique broyante qui s’installe derrière un écran de quelques centimètres et qui peu à peu va ruiner les vies des familles présentes réunies derrière le collectif Algos Victima. Ces familles, ces parents et proches donc qui relatent les tentatives de suicide, les suicides, les dépressions, les troubles alimentaires de leurs enfants encouragés par un algorithme infernal qui pousse au pire, qui enferme dans une bulle dont les adultes sont logiquement exclus et qu’ils peinent à percer.
Que répondre aux parents de Charlize qui s’est suicidée à 15 ans ? Elle avait republié un post où il était inscrit « la nuit porte conseil. Moi, elle m’a conseillé de prendre un tabouret et une corde » ([4]). Que dire à la mère de Marie, suicidée à 14 ans, qui dénonce la glamourisation de la dépression sur des contenus d’une tristesse incessante à partir du moment où on en a liké un seul ? À la mère d’Emma qui rapporte que les contenus sur la plateforme sont tellement violents qu’ils décrivent des méthodes de suicide peu communes : « est-ce que vous, en tant que parents, vous donneriez à vos enfants un livre expliquant comment faire un nœud et se pendre à la patère de la salle de bains ? Je ne savais même pas que cela pouvait exister, la façon dont ma fille est partie ! Je ne savais pas que cela existait ! Elle ne l’a pas appris toute seule. On lui a donné l’arme pour se suicider » ([5]) ? Que dire au père de Pénélope qui décrit l’enfermement vécu par sa fille d’un algorithme malheureusement trop puissant et ce, jusqu’au drame : « face à nous, il y a un algorithme et il est bien plus fort que nous, les parents ; il est plus fort que l’accompagnement que l’on peut donner à ses enfants. Cet algorithme la renvoyait jour après jour à sa douleur et il creusait de plus en plus le trou dans lequel elle tombait. Nous, ses parents, nous n’avons jamais pu contrôler les contenus. Elle a fait quatre tentatives. Elle a ingurgité quinze Doliprane, parce qu’elle avait vu des contenus expliquant qu’il fallait faire comme ça – c’était sa première tentative. Car c’est ça, TikTok ; il ne faut pas aller chercher plus loin, vous êtes tous des parents. C’est ça, TikTok » ([6]). Quelles réponses apporter aux parents de Zoé, Élisa, Juliette, Édouard… ? Toutes et tous victimes d’une plateforme qui modère insuffisamment, qui expose les jeunes et les moins jeunes à des contenus extrêmement choquants, dont le scroll infini, la gamification et le design de l’application pourraient faire tomber dans l’addiction chacune et chacun d’entre nous, mineurs et même majeurs.
Ces témoignages, pour glaçants et singuliers qu’ils soient, ne sont qu’une part infime de la souffrance mise en évidence, amplifiée et produite par les réseaux sociaux, et notamment par TikTok. Il suffit d’aller à la rencontre de jeunes – je l’ai encore fait à la maison des adolescents de Caen quelques jours avant la présentation de ce rapport, le 5 septembre dernier – pour entendre que ces likes qui enferment, parfois pour le pire, sont le lot commun des mineurs sur les plateformes. Même s’il convient de ne pas résumer les réseaux sociaux à cette face sombre, notre commission d’enquête entendait lever le voile de déni ou parfois de méconnaissance pour tenter de produire un diagnostic partagé sur les dérives et les effets psychologiques de TikTok sur les mineurs.
Cette commission d’enquête est naturellement dédiée aux victimes que nous avons reçues le 15 mai, mais aussi à celles et ceux qui nous écrivent quotidiennement, nous interpellent sur les réseaux sociaux. Ils nous disent être exposés à des contenus violents, être témoins de contenus insupportables, soit parce que la modération y est insuffisante soit parce que des phénomènes de cyber‑harcèlement peuvent prospérer en toute impunité et ce, malgré la loi, qui existe, et les conditions générales d’utilisation des plateformes.
J’étais au départ moi-même prudent sur le périmètre et la nécessité d’une commission d’enquête sur un sujet dont nous connaissions globalement les enjeux avant même de la mener : oui, des mineurs souffrent sur TikTok, c’est de notoriété publique, à quoi bon donc y consacrer une commission d’enquête ?
À l’heure où « l’utilité » du Parlement est souvent questionnée par nos concitoyens, qui disent n’y voir malheureusement trop souvent qu’une arène en apparence désordonnée du débat politique, force est de constater que cette commission d’enquête a attiré l’attention sur une facette essentielle de l’action parlementaire : l’activité de contrôle. Elle a permis de poser les bases non seulement d’un constat commun, mais aussi de l’analyse commune suivante : le système économique des plateformes trouve un intérêt financier à mettre en danger les mineurs par un design algorithmique dangereux et une absence de modération, tout en s’en défendant. Cette analyse partagée par les membres de la commission et désormais par nos concitoyens est, il me semble, l’un des grands enseignements de cette commission.
Combien de fois, depuis l’audition la plus médiatisée de cette commission et sur laquelle nous reviendrons dans la suite de cet avant-propos, n’avons-nous pas entendu des jeunes – et des moins jeunes – évoquer la « commission TikTok ». À de nombreuses reprises, l’audition des influenceurs dits problématiques a servi de porte d’entrée pour aller consulter ou écouter d’autres auditions de la commission d’enquête. Lors d’un forum des associations, à la veille de la publication du présent rapport, j’ai ainsi entendu une personne s’excuser d’écouter en accéléré les auditions tant elles étaient, à l’en croire, nombreuses mais précieuses. C’est tant mieux, et c’est le signe qu’il existe au sein du Parlement des espaces où, lorsqu’on prend le temps d’entendre des experts, des acteurs d’un sujet de société, il y a une demande publique. Cette commission a suscité un intérêt certain et parfois des critiques. Gageons que ce rapport sera donc lu, décortiqué, et qu’il participera aussi à la revalorisation du rôle de notre Assemblée. Le législateur n’est pas déconnecté et s’intéresse à « l’air du temps » que les réseaux sociaux modèlent : il s’agit du monde d’aujourd’hui et de demain.
Les réseaux sociaux, au cœur d’un espace numérique en construction, sont aussi au cœur de nos vies quotidiennes, de nos préoccupations et de nos inquiétudes souvent légitimes. Cette commission d’enquête le démontre. L’inconnue des algorithmes, la puissance des multinationales qui les opèrent, la violence des contenus qui y sont trop souvent produits, engendrent une réelle défiance. La connaissance collective du numérique est encore inaboutie et l’on peut espérer que ce rapport sera une brique supplémentaire dans un débat public indispensable, tant les enjeux d’appropriation et de régulation de ces technologies qui transforment l’espace social sont multiples.
Force est d’admettre qu’après l’audition de 178 personnes, 163 à l’Assemblée nationale et 15 à Bruxelles, après plus de 90 heures d’auditions menées au pas de charge en à peine 3 mois du 12 avril au 26 juin 2025, le constat est encore pire qu’escompté. Il y a urgence à répondre aux géants du numérique qui prospèrent le plus généralement dans l’illusion de la toute puissance, à leur dire que les règles qui régissent l’espace social physique s’appliquent pour protéger les utilisateurs de tout âge et que l’État mettra tout en œuvre pour mettre fin au sentiment d’impunité que ces sociétés peuvent parfois ressentir.
Avec Madame la rapporteure, nous avons mené cette commission d’enquête avec la solennité et la gravité qu’imposent les témoignages des victimes de l’algorithme de TikTok. Sur ce sujet transpartisan et relativement consensuel nous avons cherché à impliquer au maximum le citoyen, premier concerné. Nous avons mis en place une méthode démocratique inédite afin de consulter les Françaises et les Français : l’Assemblée nationale a autorisé notre commission à organiser une consultation publique citoyenne du 23 avril au 31 mai. Elle a recueilli plus de 30 000 réponses, dont près de 19 000 venant de lycéens. Notre commission a écouté et a traité ces témoignages, très nombreux, aussi bien sur la consultation citoyenne que sur la boîte mél dédiée à notre commission et qui a reçu plus de deux cents témoignages, en plus des milliers de réponses précédemment évoquées. Ces témoignages et les auditions ont donc nourri le rapport de Madame la rapporteure mais ont aussi permis d’adapter nos travaux. C’est le cas par exemple de l’audition des influenceurs qui aura capté une attention médiatique probablement démesurée. Leurs noms étaient sur-représentés dans les réponses à la question posée dans la consultation citoyenne sur les influenceurs choquants, nous ne pouvions pas les ignorer.
Puisque j’ai l’occasion de décrire le fonctionnement de notre commission d’enquête, je me dois naturellement de revenir sur l’audition d’influenceurs controversés qui aura généré un emballement médiatique et sur les réseaux sociaux dont nous n’avions évidemment pas anticipé l’ampleur. Alors que l’audition des victimes de la plateforme, la plus importante à nos yeux avec celle des représentants de TikTok, n’a été couverte que par un seul média, je déplore que celle de cinq influenceurs problématiques ait suscité l’engouement de dizaines de médias qui ont été jusqu’à faire des lives sans mise en contexte, ni de l’objet de notre commission d’enquête, ni des logiques du choix de ces influenceurs, ni du fait que d’autres acteurs et influenceurs avaient été auditionnés et que l’on ne pouvait donc résumer notre commission à une audition. À titre de comparaison, les auditions d’influenceurs plus vertueux comme le spécialiste de la vulgarisation de l’actualité Hugo Décrypte, pourtant l’un des plus suivis par les jeunes, le professeur de physique-chimie sur TikTok Monsieur Lechat ou l’influenceuse d'opinion Grande Bavardeuse, la semaine précédente, avaient été infiniment moins relayées.
Cela étant dit et comme j’ai déjà pu l’évoquer, cette audition qui a fait couler tant d’encre numérique, a été menée dans l’objectif de répondre à l’attente suscitée par la consultation citoyenne mais aussi à la suite des auditions précédentes de chercheurs, experts du sujet et lanceurs d’alerte. L’audition consacrée au sexisme en ligne avait ainsi permis de mettre en avant les rôles joués par Alex Hitchens ou AD Laurent, que nous avons alors décidé de convoquer, tout comme l’audition sur les dérives commerciales nous avait amenés à évoquer la situation de Julien et Manon Tanti. Ces auditions nous ont incontestablement permis de renforcer nos connaissances sur la plateforme et sur la fabrication du « drama » (la dramatisation de l’excès pourrait-on dire, ou la scénarisation du clash) qui permet, comme le serpent qui se mord la queue, à la fois de générer des vues pour l’influenceur mais aussi de capter l’attention de l’utilisateur et donc de générer des revenus pour la plateforme.
Il serait incorrect de dire que ces auditions ont été inutiles, même si celles-ci ont évidemment constitué une rencontre entre deux mondes considérés comme parallèles, à l’image des bulles de filtres qui isolent des univers qui s’ignorent à de rares exceptions. Comment la représentation nationale aurait-elle pu, sans sembler déconnectée, occulter des témoignages des créateurs de contenu ? Nous avons choisi de tenter de leur donner la parole, force est de constater que la plupart s’en sont servis comme d’une tribune, mais – au-delà de l’effet évoqué d’éclairage en retour du reste des travaux de la commission – les enseignements pour les travaux de notre commission restent nombreux.
Le système algorithmique a été parfaitement décrit par Nasser Sari, connu sous le pseudonyme de Nasdas, et particulièrement pour TikTok : « je vais utiliser des termes de créateur de contenu. Pour percer, TikTok est un tremplin. Pour booster ses vidéos aussi. Pour gagner en visibilité, en notoriété et en audimat, le réseau principal aujourd’hui c’est TikTok. [...] Et pour répondre en toute sincérité, ce que vous considérez comme misogyne ou violent, nous appelons ça des dramas. Sur internet, sur TikTok, ce sont des dramas. Et je le reconnais, car je l’ai constaté, un drama fera largement plus de vues qu’une vidéo qui explique, je ne sais pas » ([7]) ou encore Isac Mayembo, connu comme Alex Hitchens : « je me suis vite rendu compte que ce qui fonctionne le mieux, disons-le clairement, c’est le contenu qui choque. C’est généralement celui qui attire le plus l’attention, qui génère le plus de ventes et le plus de transactions. En bref, TikTok est une plateforme où tout se base sur les premières secondes. Je pense que vous le savez » ([8]). Nasdas, qui avait annoncé quitter les réseaux à la veille de la commission a par ailleurs conclu son propos par une mise en abîme vertigineuse : « Le conseil que j’ai à donner à toute personne qui veut se lancer sur les réseaux ? Ne vous lancez pas sur les réseaux. » ([9]).
J’ai également été touché par les nombreux messages de soutien de citoyens et parents à la suite de cette audition, qui mentionnaient le plus souvent la découverte de ces influenceurs dont ils ignoraient jusqu’alors l’existence. Si leur mépris de la représentation nationale a choqué, leurs provocations ont aussi révélé à ceux qui croyaient que TikTok n’était qu’une application de divertissement qu’il s’agissait d’abord d’un business juteux, pour la plateforme comme pour certains influenceurs sans éthique. La déconnexion, en cours d’audition, d’Alex Hitchens, a donné lieu à de nombreux commentaires voire à des détournements humoristiques. Au-delà des suites judiciaires qu’il conviendra de donner aux actes de celui qui s’est soustrait à cette audition, constatons qu’Alex Hitchens, qui avait par bravade lancé une formation pour former à la rhétorique contre les députés, a depuis cessé de faire des formations. Il déclarait pourtant qu’il s’agissait de sa principale source de revenus. L’impunité doit cesser.
Cette commission d’enquête aura donc visibilisé des pratiques problématiques auprès de grand nombre de Françaises et Français qui, jusqu'ici, les ignoraient. Une conversation avec leurs enfants leur a permis de constater, comme j’ai pu le faire à de nombreuses occasions, qu’à partir du CM2, AD Laurent, Nasdas ou Alex Hitchens sont des noms connus de la plupart. Pourtant, ces mêmes acteurs feignent d’ignorer que leurs contenus choquants touchent une part non négligeable de mineurs. Ces auditions ont également révélé au grand public les dangers et les règles de l’exploitation de l’image des enfants sur les réseaux sociaux. Les influenceurs Manon et Julien Tanti ignoraient par exemple l’obligation de rédiger un contrat pour les promotions exercées par leurs enfants et le cadre juridique très strict les encadrant. Ils ont depuis retiré une partie des contenus problématiques, mais pas tous. Les lives restent par ailleurs des espaces non régulés et éphémères. Les images d’enfants étaient également exposées et exploitées dans les vidéos de Nasdas, qui a confirmé accueillir de nombreux mineurs protégés ou en détresse dans sa maison à Perpignan, leur distribuant de l’argent, dans une mise en scène entremêlant misère et réussite à ses millions d’abonnés.
Avant de livrer une lecture personnelle du sujet qui a occupé notre commission pendant de nombreuses semaines, je tiens à remercier les artisans de l’ombre de cette commission. Nos administrateurs, Inés Fauconnier, Irène Gay, Sofian Khabot et notre apprenti Baptiste Prétot ([10]). Madame la rapporteure et moi‑même avons eu la chance de pouvoir nous appuyer sur nos propres collaborateurs dont l’implication doit être saluée, Léopold Benattar, Antonin Thomas, Iphigénie Bétolaud et Benjamin Lacourt. Frédéric Poli, de la division de la communication, a de son côté beaucoup œuvré pour la mise en ligne et l’analyse de la consultation citoyenne. Je tiens également à remercier l’ensemble des personnes que nous avons reçues et qui nous ont consacré du temps en présentiel ou en visioconférence, ou celles que nous avons vues à Bruxelles lors d’un déplacement d’une journée. Médecins, psychologues, pédiatres, chercheurs, juristes, avocats, enseignants, créateurs de contenu qui luttent contre la désinformation, notamment médicale et, bien entendu, familles des victimes et victimes des plateformes : leurs précieux témoignages ont indéniablement enrichi nos travaux mais ont aussi permis de faire la lumière sur le fonctionnement de TikTok, ses aspects positifs (ils existent) et ses nombreux dangers. C’est à ces femmes et ces hommes que cette commission d’enquête est dédiée.
L’algorithme de TikTok, un mécanisme qui broie
Lors de nos auditions et au lancement de la commission, il nous a été régulièrement demandé pourquoi nous n’avions pas élargi nos travaux à l’ensemble des réseaux sociaux. Il est indéniable que de nombreuses problématiques se retrouvent sur d’autres plateformes, avec chacune leurs spécificités, notamment X (ex-Twitter), Snapchat ou encore Instagram. Pire encore, certaines d’entre elles adoptent ou copient le fonctionnement algorithmique de TikTok, s’inspirant du pire pour leurs utilisateurs. L’affaire « Jean Pormanove » (Raphaël Graven), décédé au milieu de l’été en plein stream, après avoir subi sévices et violences psychologiques pendant des heures sur la plateforme australienne Kick qui a fait de sa marque de fabrique l’absence de modération, démontre tragiquement que TikTok n’a pas l’apanage du business du sordide, bien au contraire. L’été 2025 a ainsi été marqué par le suicide d’un autre influenceur, également majeur, Mehdi Bassit, fragilisé après avoir notamment subi une importante campagne de cyberharcèlement. Ces drames illustrent, s’il le fallait, que la dépendance, la manipulation et les violences en ligne ne se limitent pas aux mineurs et que l’action publique ne saurait se satisfaire de tenter de protéger les plus jeunes. Les adultes ont aussi le droit à un internet sain.
Néanmoins, les travaux de notre commission d’enquête étant limités dans le temps - moins de trois mois de « temps utile » entre mi-avril et fin juin - nous avons donc fait, dans la discussion collective définissant le périmètre de la présente commission, le choix de les restreindre à un public, celui des mineurs. Nous avons également circonscrit ce périmètre à une seule plateforme qui, par ailleurs, est reconnue dans les témoignages reçus comme étant l’une des plus problématiques et la plus génératrice de dépendance et de consommation de temps d’écran par les mineurs, le rapport y revient longuement. TikTok est donc l’objet, l’exemple, mais non un cas isolé. Nous avons d’ailleurs eu en audition l’occasion de confronter les représentants des autres grandes plateformes (Meta, YouTube, X, Snapchat) aux nombreuses dérives analogues constatées sur leurs réseaux. Enfin, comme les auditions ont pu le démontrer, l’algorithme extrêmement puissant et le mécanisme de flux continu vertical de TikTok, imité par les autres plateformes, en fait un objet d’enquête largement justifié.
TikTok n’est pas une plateforme neutre. C’est une machine algorithmique conçue pour capter l’attention, l’enfermer dans un circuit fermé de contenus similaires, et l’exploiter : c’est le fameux fil « Pour toi » qui tranche avec les débuts des réseaux sociaux où l’interface était basée sur un contenu chronologique nécessitant une action de l’utilisateur pour le personnaliser. Désormais, dès qu’un utilisateur ouvre l’application, il est happé dans une succession de vidéos recommandées par l’algorithme, calibrées pour provoquer une réaction émotionnelle immédiate (rire, choc, colère, par exemple) mais surtout du temps d’attention. Cet effet n’est pas le fruit du hasard, il est l’aboutissement d’un design psychologique pensé pour provoquer une addiction comportementale. C’est ce qu’on appelle l’effet « terrier de lapin », la rapporteure y revient en détail. L’algorithme, dont TikTok refuse toujours de dévoiler les ressorts, observe ainsi chaque interaction de l’utilisateur : temps de visionnage, arrêt sur image, likes, partages. Puis il affine ses suggestions en fonction de ces signaux faibles. C’est un mécanisme de spirale : plus on regarde un certain type de contenu, plus on est exposé à des vidéos similaires. En quelques clics, un adolescent peut passer d’une vidéo de danse anodine à une vidéo anxiogène sur le suicide ou la haine de soi et s’y retrouver enfermé. Cet algorithme était un point central de nos auditions. Des créateurs de contenu aux chercheurs, toutes et tous sont unanimes : il est opaque, incompréhensible et généré selon des paramètres inconnus des utilisateurs, ce qui est évidemment inadmissible.
Selon Médiamétrie, que nous avons auditionné, les 11-17 ans passent en moyenne 4 heures et 38 minutes par jour sur Internet, dont 3 heures et 11 minutes sur les réseaux sociaux et les messageries. Chez les adolescents, TikTok est utilisé quotidiennement par 40 % des 11‑17 ans, un chiffre qui grimpe à 47 % chez les 15‑24 ans. Plus inquiétant encore, ces jeunes se connectent en moyenne cinq fois par jour à TikTok, avec une durée moyenne de session d’une heure et 28 minutes. L’usage est intensif, multi-journalier, et clairement favorisé par le design de l’application. L’architecture attentionnelle de TikTok s’inscrit dans une économie de captation du temps de cerveau disponible qui laisse peu de place au recul critique. L’algorithme est très puissant et vise à maintenir l’utilisateur sur la plateforme. Amnesty International, dans un rapport intitulé Poussé.e.s vers les ténèbres. Comment le fil “Pour Toi” de TikTok encourage l’automutilation et les idées suicidaires ([11]) a pu démontrer très facilement comment cet algorithme encourage le visionnage de vidéos nocives : « parmi les recommandations proposées à un compte, la première vidéo accompagnée du hashtag “#depresionanxiety” (sic) (“dépressionanxiété”) et montrant un garçon en état de détresse a été suggérée au bout de 67 secondes de défilement du contenu recommandé sur la page “Pour toi”. À partir de 12 minutes de défilement, 58 % des publications recommandées avaient un rapport avec l’anxiété, la dépression, l’automutilation et/ou le suicide, et étaient catégorisées comme pouvant avoir des effets néfastes sur les enfants et les jeunes souffrant déjà de problèmes de santé mentale ». Ces phénomènes inquiètent d’ailleurs le milieu médical. Le professeur Amine Benyamina, psychiatre et addictologue, alerte sur les conséquences : « lorsqu’un individu présente une désocialisation, une déscolarisation, une immersion excessive dans les réseaux sociaux, nous le prenons en charge comme pour toute autre addiction » ([12]).
Mise en danger de la vie humaine, prolifération de la haine masculiniste : TikTok, terreau fertile des violences faites à soi et aux autres
La prolifération de contenus dangereux sur cette plateforme est donc non seulement tolérée, mais parfois activement promue par l’algorithme de TikTok, du fait de leur capacité à susciter l’engagement. Et ce qui choque, engage. C’est le cas des « challenges » à risque par exemple ou des mots-clés que la plateforme met parfois plusieurs mois à faire retirer. Maître Laure Boutron-Marmion, avocate, expliquait ainsi que « des jeunes se voient proposer de l’argent pour se filmer en train de se scarifier, de vomir, bref : pour se mettre en scène » ([13]). Charlyne Buigues, infirmière et lanceuse d’alerte sur les contenus liés à la maigreur extrême, rappelait que « plus ces influenceuses accumulent des millions de vues et d’abonnés, plus elles sont rémunérées, ce qui entretient cette pathologie très grave, de telle sorte que de nombreuses jeunes filles souffrant de TCA se mettent, elles aussi, à ouvrir des comptes TikTok pour gagner de l’argent » ([14]). Alors que TikTok était parfaitement au courant de l’existence du mot-clé #SkinnyTok, il a fallu attendre la mobilisation citoyenne via une pétition et l’intervention des pouvoirs publics pour que la plateforme prenne enfin des actions concrètes. Le name and shame doublé d’un volontarisme politique semble ainsi plus efficace que la modération. D’autres mots-clés dangereux, malgré les alertes et nos remarques émises lors de la commission, restent par ailleurs encore en ligne.
La présence de contenus dangereux ne s’arrête pas aux contenus qui mettent en danger la santé voire la vie des utilisateurs. La plateforme favorise, par les mécanismes de viralisation des contenus problématiques, la diffusion d’idéologies politiques négatives et contraires aux droits humains. Racisme, antisémitisme, glorification du terrorisme, sexisme… les dérives sont nombreuses. Lors de nos auditions, une mouvance est particulièrement ressortie, nous conduisant à y dédier une table-ronde : le masculinisme, qui connaît un fort retentissement sur l’application. Des discours appelant à dominer, humilier, ou dénigrer les femmes y sont largement diffusés, particulièrement chez les jeunes voire les très jeunes. L’audition du masculiniste Alex Hitchens a été particulièrement commentée chez les collégiens.
La plateforme semble aussi être un espace favorable pour le harcèlement des créateurs de contenus. La créatrice de contenu Anna Baldy évoquait les nombreuses insultes à caractère sexiste qu’elle reçoit : « “t’es un torchon à foutre inculte, reste dans le domaine des gorges profondes, réservoir à foutre lobotomisé, essaie plutôt d’apparaître dans un fait divers le vide-couille du tiers-monde”. Ce qui m’inquiète profondément, c’est que ces commentaires ont probablement été écrits par des personnes mineures et que de tels propos sont vraisemblablement formulés quotidiennement sous les vidéos de créatrices et de créateurs mineurs » ([15]). Alors même que de récents faits divers impliquant la mouvance masculiniste et les attaques au couteau de la part d’hommes souhaitant exprimer leur haine des femmes se multiplient récemment, l’influence des réseaux sociaux et particulièrement de TikTok doit conduire à une prise de conscience collective. Nous ne pouvons nous contenter de diffuser des extraits de la série Adolescence dans les établissements scolaires. M. Pierre Gault, réalisateur du documentaire Mascus, les hommes qui détestent les femmes, a décrit TikTok comme « une plateforme incontournable pour la diffusion du discours masculiniste », expliquant que ces contenus abordent au départ des thèmes « tels que la musculation, la séduction, le style de vie », avant de bifurquer vers des « communautés privées beaucoup plus radicales » ([16]). Lors de notre audition consacrée au sujet, Mme Shanley Clemot McLaren, cofondatrice de l’association Stop Fisha, a rappelé un chiffre très inquiétant : « 60 % des femmes déclarent avoir été victimes de violences en ligne et elles sont 27 fois plus susceptibles d’être harcelées en ligne que les hommes ». Mme Pauline Ferrari, journaliste, confirme ce rôle central de TikTok dans la diffusion des discours masculinistes, décrivant la plateforme comme « un catalyseur dans ce processus de radicalisation », ajoutant qu’« en moyenne, les jeunes hommes sont exposés à de tels contenus en moins de 20 minutes de navigation » ([17]). La responsabilité de la plateforme, qui permet la prolifération de ces contenus, est immense. M. Tristan Duverné, doctorant, l’a mis en lumière lors de nos auditions : « le débat sur la féminité [d’une] streameuse a entraîné une augmentation de 45 % de l’audience en seulement deux minutes », soulignant ainsi que « ces offenses servent souvent à augmenter la visibilité » ([18]).
Enfin, il faut noter que l’ensemble des contenus dangereux, violents ou choquants sur TikTok sont démultipliés par leur duplication sur les autres plateformes et réciproquement. Ainsi, il est parfaitement courant de retrouver ces contenus sur Instagram, Snapchat, Facebook, X, etc. Les producteurs de contenus eux-mêmes sont présents sur la plupart des plateformes et jouent avec les règles de modération et les codes de chacune.
L’inaction désolante et dangereuse de TikTok
Une des auditions les plus marquantes a bien sûr été celle des dirigeants de TikTok accompagnés par leur avocat qui organisait quelques jours avant cette audition un évènement intitulé « Commissions d’enquêtes parlementaires et entreprises privées ». Cette formation avait pour objectif « d’analyser les leviers juridiques à la disposition des opérateurs économiques pour se préparer à une audition devant une commission d’enquête parlementaire et limiter le risque d’y voir leur responsabilité exposée » car les commissions d’enquête seraient aujourd’hui « détournées de leur objet pour intervenir dans la stratégie des entreprises privées et mettre en cause leurs dirigeants ([19]) ». Ambiance.
Nous avons auditionné pendant 7 heures et 35 minutes plusieurs dirigeants de la firme qui se sont succédé dans un exercice de langue de bois et de déni. Lors des auditions, comment ne pas être frappé par l’absence de réponse claire, par le manque d’humilité et par l’inaction de responsables qui de toute façon ne semblent pas contrôler grand-chose d’une application internationale dont la volontaire fragmentation en plusieurs entités favorise l’immobilisme. Par ailleurs, l’attitude prétendument collaborative des dirigeants de TikTok contrastait avec la difficulté à obtenir les réponses au questionnaire très détaillé que nous avons envoyé en amont de l’audition. Nous en avons renvoyé un second à l’issue de cette audition. Des dizaines de questions sont donc restées sans réponse sous de faux prétextes, et lorsque nous obtenions des réponses elles restaient parcellaires, quand elles n’étaient pas à côté de la plaque ou de simples copiés-collés des rapports de transparence. Par ailleurs, alors qu’on nous avait proposé de visiter le centre de transparence à Dublin ([20]), nous avons demandé formellement à la plateforme de pouvoir se déplacer dans un centre de modération au Portugal. Nous avons eu en retour une proposition de déplacement à Dublin uniquement au Transparency and Accountability Center, pour une durée d’une heure sans possibilité d’échanger avec des salariés. Tout ceci témoigne bien évidemment d’une forme de mépris de l’entreprise envers la représentation nationale et, plus largement, d’un refus de rendre des comptes à la société et à ses représentants qui en demandent légitimement.
Forte de moyens colossaux et grâce à une vitrine composée de salariés courtois et bien préparés, TikTok a tenté de sauver son image de marque. L’audition marathon à l’Assemblée nationale restera néanmoins marquée par ces quelques moments où, derrière les réponses lisses et les attitudes impassibles, les visages des représentants de TikTok se liquéfiaient quand ils étaient confrontés à la violente réalité de certains contenus ou propos présents sur la plateforme. Que dire également de ces dirigeants qui, confrontés par exemple aux propos masculinistes d’Alex Hitchens, et alors que nous évoquions la possibilité d’interroger la responsable Europe sur ces contenus l’après-midi, ont « fait le ménage » sur la pause méridienne en suspendant ses nombreux comptes, avant de les réactiver le lendemain et en ne supprimant que les vidéos les plus problématiques. Le sexisme plus ou moins diffus, l’environnement misogyne qui flirte avec les limites du judiciarisable, semble donc avoir sa place sur TikTok, comme sur de nombreuses plateformes. La constellation de contenus produits par les influenceurs problématiques devrait pourtant être prise en compte et donner lieu à la suspension intégrale des comptes, ça n’est pas le cas.
La responsable des politiques de sécurité a néanmoins osé affirmer que TikTok était un « environnement sûr » ([21]), un slogan mirage rappelant le temps où les alcooliers martelaient que l’alcool à petite dose était bon pour la santé, ou ces cigarettiers qui faisaient de la promesse d’émancipation un levier de désirabilité du produit. L’aspect économique prime évidemment derrière la vitrine d’une application soi-disant destinée à forger des communautés. TikTok Shop, récemment lancé en France, est devenu en quelques semaines une plateforme de dropshipping où les produits de basse qualité fabriqués en Asie sont revendus à moindre coût, tout cela étant bien sûr largement encouragé par la plateforme qui positionne des influenceurs faisant la promotion en continu de ces mêmes produits bas de gamme. Notons que la page d’e-commerce de Tiktok est désormais située entre les fils “Pour toi” (contenu suggéré, automatiquement proposé à l’ouverture de la plateforme) et “Suivis” (contenus auxquels l’utilisateur est abonné). Tout est fait pour favoriser la dépense sur la plateforme.
Mais dans le monde fabuleux de TikTok, si l’aspect algorithmique est central, un autre l’est tout autant et reste pourtant moins connu : celui des lives, ces diffusions en direct qui rapportent énormément d’argent à la plateforme. Lors de ces lives où des matchs sont souvent organisés, des influenceurs récoltent des cadeaux virtuels de la part des utilisateurs, ces cadeaux étant payés à partir de pièces virtuelles, elles-mêmes achetées par de l’argent en monnaie courante. Les influenceurs perçoivent ces cadeaux sous forme de diamants (qui sont égaux aux pièces initialement créditées par les utilisateurs), sur lesquels TikTok empoche 50 % de commission. Vous avez eu du mal à suivre ? C’est normal, tout est fait pour donner l’apparence d’un jeu à l’utilisateur, alors même qu’il dépense de l’argent bien réel. Cette stratégie de gamification est particulièrement néfaste puisque tout le design des lives est fait pour encourager l’addiction : musique très forte, influenceurs criant les pseudos des donateurs, enjeu de remporter le match, incitations aux dons des influenceurs, pièces gratuites données ponctuellement pouvant être converties… Les lives sur TikTok empruntent les codes des casinos et des jeux d’argent tout en étant dispensés de la réglementation afférente car à la seule différence d’un casino, il n’y a pas d’espoir d’emporter un gain numéraire. Pourtant, il existe bien une autre forme de gain : une reconnaissance de la part de l’influenceur et le développement d’un sentiment d’appartenance à une communauté. Alors même que la plateforme assure que les mineurs ne peuvent pas figurer sur les lives ou même acheter des cadeaux (mais ils peuvent y assister normalement, nous avons fait le test), en seulement quelques défilements de lives nous pouvons voir des mineurs les mener tranquillement et faire participer d’autres mineurs, certainement sous de faux comptes majeurs. Nous avions identifié cette difficulté depuis plusieurs mois déjà : au moment de la dénonciation des mauvaises pratiques de certains influenceurs sur d’autres réseaux en 2022 ([22]), nombreux se sont tournés vers ces lives, entraînant leur communauté et leurs portefeuilles avec. Cette incitation permanente à la dépense dans des formes de nouvelle mendicité sur un réseau social comme si l’attention, la collecte de données et les publicités ciblées ne suffisaient pas à générer suffisamment de revenus, fait de TikTok l’un des plus grands monstres de l’économie de l’attention. Son appétit semble malheureusement insatiable.
Si les réseaux sociaux peuvent être dangereux à bien des égards, l’insuffisance coupable de la modération est l’un des points clés. Malgré les profits records de la plateforme, l’investissement pour assurer une modération de qualité est dérisoire et bien en-deçà du volume de contenus qu’il faudrait traiter. Lors de son intervention devant notre commission, un ancien modérateur ayant travaillé pour TikTok via un sous-traitant au Portugal a révélé des conditions de travail extrêmement difficiles, devant examiner jusqu’à 800 vidéos par service à un rythme infernal pour respecter la cadence imposée par le cahier des charges. Il a également décrit une formation d’une semaine à peine, sans lien avec TikTok. Cette mission, qui est donc sous-traitée, est confiée à 509 modérateurs (selon les chiffres du second semestre 2024) pour les contenus francophones du monde entier, un chiffre dérisoire et en baisse constante depuis qu’ils sont publics : il était de 634 six mois plus tôt. Les dirigeants de TikTok ont indiqué à notre commission que 80 % du contenu enfreignant leurs conditions générales sont modérés par de l’intelligence artificielle, laissant officiellement 20 %, mais probablement beaucoup moins, au filtre humain. Pourtant, nulle statistique nécessaire pour prouver l’inefficacité de ce système, nous avons nous‑mêmes créé de faux comptes mineurs sur l’application, signalé des contenus choquants, la modération par intelligence artificielle n’ayant rien fait et l’appel étant également rejeté. À la veille de la présentation de ce rapport, une vidéo du suicide en direct d’une jeune femme est restée toute une nuit en ligne, malgré les signalements. La réponse automatique indiquait qu’elle ne contrevenait pas aux règles d’utilisation. En réalité, la suppression de contenus est bien trop faible et nous recevons quotidiennement des signalements concernant des posts n’ayant pas fait l’objet de modération : le parlementaire, dont le rôle n’est pas de se substituer à la plateforme et à la justice, ne peut que se résoudre à un constat, celui de manquements majeurs. C’est bien la responsabilité de la plateforme de s’assurer que les contenus présents sur celle-ci respectent le droit national et européen ainsi que leurs propres règles internes. Malheureusement, comme évoqué précédemment, les contenus générant de la viralité, de l’engagement et donc des revenus pour la plateforme, sont souvent problématiques. La plateforme n’a donc pas d’intérêt économique à les retirer. Tel est le drame de la modération chez TikTok.
Quelle réponse politique pour ne pas se résoudre à l’impuissance et sortir de la sidération ?
Face à ces drames et défaillances majeures, la réponse politique doit être à la hauteur pour répondre à l’inaction des plateformes, pour rendre leur environnement numérique sain. Si j’ai ici esquissé les principales failles de la plateforme, je ne nie pas que des points positifs peuvent s’en dégager. Pendant nos auditions, les jeunes ou ceux qui sont à leur contact ont évoqué des bienfaits tels l’accès à l’information, à de la découverte, à des créateurs vertueux, à des contenus divertissants, drôles ou humoristiques mais aussi inoffensifs. Souvent, la plateforme crée un sentiment d’appartenance, donne à des jeunes en recherche de repères le sentiment d’être compris ou de trouver sur la plateforme des personnes qui partagent des expériences similaires.
Contrairement aux autres plateformes, l’espace de socialisation véritable reste faible, hormis l’espace consacré aux commentaires, mais la plateforme peut être un lieu de détente. Loin d’avoir une vision conservatrice des choses, je suis persuadé qu’à partir de 13 ans une utilisation des réseaux sociaux encadrée, s’agissant des contenus et de la durée, peut être bénéfique ou en tout cas acceptable. Nous avons aussi entendu des experts évoquer un recul critique des jeunes sur les usages du numérique : ils sont bien souvent plus vigilants et conscients des biais que leurs aînés, il faut renforcer l’éducation aux médias pour prolonger cela. Ne cédons néanmoins pas à la naïveté, les plateformes n’étant pas des acteurs philanthropiques, elles sont avant tout guidées par un intérêt économique qui passe d’abord par la collecte et la revente de données et de temps d’attention. Elles sont donc particulièrement réticentes à assainir leur espace, se réfugiant plus que de raison derrière leur statut contestable d’hébergeur.
Pourtant, l’interdiction de l’accès aux réseaux sociaux pour les moins de 15 ans – souhaitée notamment par le président de la République et préconisée par Madame la rapporteure – ne me paraît pas être la réponse la plus adaptée et ce pour plusieurs raisons. Interdire l’accès des réseaux sociaux aux moins de 15 ans, c’est d’une certaine manière admettre que nous avons renoncé à réguler les géants du numérique. Nous ferions d’abord reposer la charge de la responsabilité sur les jeunes plutôt que sur l’entreprise privée qui est à l’origine du problème : je ne peux m’y résoudre. En outre, les jeunes ne vivent pas hors ligne dans un monde où le numérique a pris une part essentielle. Le périmètre même d’une telle interdiction, au-delà des questions de faisabilité technique et des contournements possibles, pose question : faut-il interdire YouTube, Whatsapp ou Telegram ? La borne d’âge à 15 ans ne me semble par ailleurs pas être la plus adaptée. Serions-nous vraiment moins vulnérables à un contenu choquant à 15 ans qu’à 14 ans ? En quoi le fil « Pour toi » sur TikTok serait-il plus sain à 17 ans qu’à 13 ans ? Nous avons vu une jeune de 16 ans basculer en quelques mois, malgré un contrôle parental, dans une spirale de contenus mortifères et multiplier les tentatives de suicide. Comment, surtout, appliquer une telle mesure sans risquer d’apparaître impuissant, une fois de plus, sur le sujet ? Face aux dérives, il peut donc être tentant de chercher la martingale, la bonne idée qui viendra peut-être régler le problème. La responsabilisation ou l’infantilisation des jeunes peut être une solution simple.
Loin de souhaiter une action nationale dispersée, la réponse que nous devons apporter devra au contraire d’abord être européenne et commune à l’ensemble des plateformes tant les dérives sont loin de se circonscrire à TikTok. Nous avons rencontré une quinzaine d’acteurs à Bruxelles lors de nos travaux : Commission européenne, Parlement européen, Commission de protection des données, Data Protection Commission (l’équivalent irlandais de la CNIL)... Comment ne pas être frappé par la lenteur des processus, et la multiplication des strates de décisions, qui donnent l’impression d’un immobilisme au moment où les citoyens n’ont jamais eu autant besoin de l’Europe pour les protéger ? Un cadre européen, le plus protecteur du monde, existe désormais. Un cadre complémentaire, le DFA (Digital Fairness Act) en préparation, doit permettre d’aller plus loin. Des procédures de contrôle sont d’ores et déjà engagées mais elles sont trop lentes et les enquêteurs sont trop peu outillés face aux pressions et aux hordes d’avocats des plateformes. Le partage d’information entre les différents services et commissaires reste lacunaire, nous avons pu le constater. La force du marché unique réside dans son unité, sa taille et sa capacité à peser face aux géants américains. Sans réponse commune, nous sommes objectivement moins forts. Mais la France doit être à l’initiative, comme elle a su l’être sur la loi n° 2023-451 du 9 juin 2023 visant à encadrer l'influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, dite loi influenceurs, et doit prendre les devants, comme elle le fait actuellement sur les mécanismes de vérification d’âge.
La plus grande des urgences, c’est d’obliger les plateformes à contrôler et à vérifier efficacement l’âge des utilisateurs par le biais d’un intermédiaire sécurisé et d’un système public qui ne collecte pas les données et qui donnera uniquement l’indication de minorité ou d’âge aux plateformes.
La seconde urgence, c’est d’agir sur le design des applications en adaptant les interfaces aux utilisateurs déclarés comme mineurs, afin que celles-ci ne soient pas addictives, protègent du cyberharcèlement et de l’exposition aux contenus choquants, et permettent une déconnexion effective. Laissons la possibilité d’appliquer cette exacte même interface aux comptes majeurs, malheureusement soumis aux mêmes problématiques.
Contraignons les plateformes à revoir leur système de modération en dédiant une part significative de leur chiffre d’affaires au recrutement d’un nombre de modérateurs suffisant, et à participer au financement des signaleurs de confiance via un mécanisme public de redistribution afin d’éviter les conflits d’intérêt. Ces signaleurs sont souvent des associations sans but lucratif qui effectuent un travail de vigie d’importance.
Enfin, et en cas d’échec de la régulation, laissons-nous la possibilité de fermer purement et simplement les plateformes récalcitrantes, le droit européen le prévoit. Les utilisateurs retrouveront aisément le divertissement sur des plateformes respectueuses de nos règles. Ce n’est pas aux plateformes d’imposer un fonctionnement, c’est à la puissance publique de les y soumettre, peu importe le nombre d’avocats qui veulent bien les représenter.
Conclusion
TikTok n’est pas qu’une simple application de divertissement. C’est un univers algorithmique tentaculaire, façonné pour capter l’attention et monétiser l’engagement. Tant que le public ne s’en saisit pas et que les sanctions tardent à venir, tant que les risques réputationnels restent limités, tous les coups semblent permis. À l’issue de cette commission d’enquête, le verdict est sans appel : cette plateforme expose en toute connaissance de cause nos enfants, nos jeunes, à des contenus toxiques, dangereux, addictifs. Elle échappe trop souvent aux règles, se défausse de ses responsabilités, et prospère dans une économie de l’attention qui feint d’ignorer les ravages psychologiques et sociaux qu’elle provoque. Les chiffres, les témoignages, les faits : tout démontre que l’algorithme de TikTok pousse au pire, isole, enferme, détruit. Je pense que notre mission n’est pas de moraliser, ni d’interdire par facilité. Elle est de rendre le numérique compatible avec les droits et la santé mentale de nos jeunes, à en limiter les effets psychologiques sur les mineurs. Il faut forcer TikTok à repenser son modèle. Cette commission était dédiée aux victimes et à leurs proches, à celles et ceux qui ont parlé, qui ont témoigné. Nous ne pouvons pas leur rendre ce qui a été perdu, mais nous pouvons et devons faire en sorte d’avoir tout fait pour que plus jamais un adolescent ne soit conduit à se voir proposer des conseils pour se donner la mort sur une application. Pour que plus jamais un parent n’ait à découvrir trop tard l’ampleur du désespoir de son enfant sur un fil algorithmique.
Ce combat ne fait que commencer.
Recommandations du Président
Ces recommandations sont complémentaires à celles de la rapporteure auxquelles le président souscrit pour l’essentiel, nonobstant les quelques réserves émises dans cet avant-propos.
Recommandation du président n° 1 : Imposer que les comptes mineurs ne puissent avoir accès qu’à un fil présentant leurs abonnements volontaires, interdire les fils “Pour toi” ou présentant des contenus d’autres comptes auxquels les mineurs ne sont pas abonnés. L’algorithme ne peut personnaliser le fil d’actualité, tout flux addictif est interdit.
Recommandation du président n° 2 : À l’installation de l’application, proposer à l’utilisateur un fil qui n’est pas infini. Interdire le défilement infini de vidéos pour les comptes mineurs. Le défilement des publications y est chronologique par défaut et ne peut être modifié pour les comptes mineurs.
Recommandation du président n° 3 : Renforcer le cadre juridique des délits sexistes en ligne et du cyberharcèlement en y intégrant la lutte contre l’idéologie masculiniste.
Recommandation du président n° 4 : Interdire totalement les lives qui offrent la possibilité aux utilisateurs de verser de l’argent ou des cadeaux aux utilisateurs âgés de moins de 18 ans.
Recommandation du président n° 5 : Qualifier les dons sur TikTok de jeux d’argent, supervisés par l’Autorité nationale des jeux, contenant des messages de prévention et un suivi des dons à l’instar du principe du jeu responsable.
Recommandation du président n° 6 : Renforcer significativement les contrôles des produits vendus sur la plateforme TikTok Shop et procéder à sa fermeture si ceux-ci ne respectent pas les règles commerciales européennes. Interdire l'accès à la plateforme TikTok Shop aux comptes mineurs, et ne pas imposer cet accès aux autres comptes.
Recommandation du président n° 7 : Obliger les plateformes à vérifier l’âge des utilisateurs par le biais d’un outil sécurisé développé au niveau européen.
Recommandation du président n° 8 : Contraindre les plateformes de réseaux à dédier une part de leur chiffre d’affaires au recrutement de nouveaux modérateurs, à la formation de ceux-ci et à l’amélioration sensible de leurs conditions de travail.
Recommandation du président n° 9 : Mettre en place un système de financement public des signaleurs de confiance reposant sur une contribution des réseaux sociaux proportionnelle à leur chiffre d’affaires, afin que l’activité complémentaire de signalement exercée par des ONG, coûteuse en moyens humains, puisse être financée par un mécanisme de redistribution, afin de prévenir les conflits d’intérêts avec des signaleurs de confiance dépendants d’un financement direct.
Recommandation du président n° 10 : Imposer une surtaxation aux très grandes plateformes au sens du DSA qui ne mettent pas en place des mesures correctrices de protection des mineurs.
Recommandation du président n° 11 : Mettre en place le principe d’une fiscalité pollueur-payeur pour les plateformes au regard de l’impact de leurs activités sur l’environnement et la santé.
Recommandation du président n° 12 : Installer un comité des usagers des jeunes utilisateurs français des plateformes afin d’associer les premiers concernés aux évolutions de ces entreprises. Leurs recommandations seraient transmises aux plateformes qui pourraient également assister aux échanges.
Recommandation du président n° 13 : En cas de non-respect des règles de vérification d’âge, d’adaptation de l’interface pour les comptes mineurs et d’une modération satisfaisante, ordonner la fermeture définitive de la plateforme.
Le jeudi 13 mars 2025, l’Assemblée nationale approuvait à l’unanimité la proposition de résolution créant une commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Une semaine plus tôt et après examen de sa recevabilité juridique et de l’opportunité de la création d’une telle commission d’enquête, la commission des affaires sociales avait adopté cette même résolution, issue d’une initiative transpartisane portée par votre rapporteure, Mme Laure Miller.
Le 25 mars 2025, la commission d’enquête était constituée.
Pendant six mois, elle a étudié le réseau social TikTok. Créé en 2017 par la société chinoise ByteDance ([23]), TikTok propose un flux infini de vidéos courtes au format vertical ([24]), souvent accompagnées de musiques entraînantes. Alors que ses prédécesseurs – Facebook, Instagram, YouTube, etc. – reposaient sur les abonnements des utilisateurs pour déterminer les contenus à leur faire voir, le fil « Pour toi » de TikTok est constitué en fonction de leur comportement, analysé par des algorithmes hautement efficaces.
Bien qu’elles aient tendance à s’estomper ([25]), ce sont ces particularités, ainsi que le succès indéniable l’application auprès des jeunes, qui ont justifié la restriction du champ de la commission d’enquête au seul réseau social TikTok.
Votre rapporteure a également défendu le choix de se concentrer sur les effets psychologiques de TikTok sur les mineurs. La création de la commission d’enquête faisait en effet suite aux témoignages de familles reprochant au réseau social chinois d’avoir entraîné et enfermé leurs enfants dans des boucles de contenus faisant l’apologie du suicide, de l’automutilation et des troubles des conduites alimentaires.
Point de départ de son travail, ces témoignages ont également constitué le temps fort de la commission d’enquête, puisque celle-ci a entendu, le 15 mai 2025, trois adolescents et huit familles meurtries et endeuillées par l’inconcevable : la mort d’un enfant, d’une sœur, l’automutilation, les tentatives de suicides. Aux deux adolescents qui ont évoqué ce jour-là des vidéos morbides « imprégnées », « gravées » dans leur rétine ([26]), et aux autres victimes qui les accompagnaient, la rapporteure le dit sans détour : leur audition, poignante, a laissé, elle aussi, une trace indélébile dans l’esprit des membres de la commission.
Elle remercie également tous ceux, adultes, enfants, adolescents, qui ont fait part de leur histoire à la commission d’enquête, par courriel ou par la voie d’une consultation citoyenne menée du 23 avril au 31 mai 2025 ([27]). Au total, ce sont plus de 31 000 écoliers, collégiens, lycéens, parents, professeurs et citoyens concernés qui ont raconté leurs usages, leur attachement aux outils numériques et aux réseaux sociaux mais aussi leurs angoisses et leurs souffrances.
C’est d’abord à tous ces témoins que s’adresse ce rapport, qui se veut un hommage à la mémoire d’enfants qui devraient encore être de ce monde, au courage de ceux qui n’auraient jamais dû avoir à témoigner devant la représentation nationale, et à la dignité de parents résolument tournés vers l’avenir pour que les tragédies du passé ne se reproduisent plus. Il a aussi pour ambition de répondre à leur détresse, à leur besoin d’être entendus, crus, accompagnés, rassurés.
À ce titre, le premier travail de la commission d’enquête a été d’établir un diagnostic le plus exhaustif possible sur les usages numériques des mineurs et leur utilisation de TikTok, d’une part, et les effets psychologiques de cette application, d’autre part. Tout au long de ses travaux, la rapporteure a fait sienne cette citation de Baruch Spinoza « Ni rire, ni pleurer, ni haïr, mais comprendre » ([28]).
Alertée par les études d’organisations non-gouvernementales comme Amnesty International ([29]), la commission d’enquête a voulu s’atteler à une tâche inédite mais plus que nécessaire : elle a pris en charge le premier travail institutionnel français centré sur les effets psychologiques de TikTok sur les mineurs, approfondissant les premiers constats formulés dès 2023 par la commission d’enquête du Sénat sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence ([30]), dont elle a entendu le président, M. Mickaël Vallet, et le rapporteur, M. Claude Malhuret.
La rapporteure a pu s’appuyer sur l’audition de plus de soixante sociologues, psychologues, psychiatres, médecins, informaticiens, journalistes, chercheurs et associations spécialisées. La commission d’enquête a également souhaité associer les Français à sa démarche, par un appel à témoignage : c’est le sens de la consultation citoyenne organisée sur le site de l’Assemblée nationale. Sans prétendre être dénuée de tout biais, puisque le temps imparti à la commission d’enquête n’a pas permis de faire appel à des professionnels des enquêtes d’usages et d’opinions, cette consultation peut se targuer de reposer sur un échantillon significatif, puisque 30 979 personnes y ont participé, dont presque 19 000 lycéens. La rapporteure souligne en outre que les participants étaient invités à renseigner les principales variables sociologiques les concernant : genre, âge, département de résidence, catégorie socio-professionnelle.
Le second objectif de la rapporteure a été de rechercher des solutions courageuses mais pragmatiques de nature à protéger les mineurs des risques de l’utilisation des réseaux sociaux pour la santé mentale. Si les recherches relatives aux conséquences psychologiques pour les enfants et les adolescents ont porté presque exclusivement sur TikTok, objet de la commission d’enquête, les recommandations formulées par la rapporteure ont incontestablement vocation à s’appliquer à l’ensemble des réseaux sociaux, dont il a d’ailleurs également été question tout au long des travaux.
Six mois après la création de la commission d’enquête, la rapporteure ne peut que se féliciter des très nombreuses avancées politiques obtenues en l’espace de quelques mois en matière de protection des mineurs en ligne. Elle salue avant tout l’action de la ministre déléguée au numérique et à l’intelligence artificielle, Mme Clara Chappaz, mise au service de l’engagement du Président de la République en faveur de l’interdiction des réseaux sociaux aux mineurs de moins de quinze ans et du déploiement de systèmes de contrôle de l’âge efficaces. Elle se réjouit en outre de la mise en œuvre d’une politique volontariste de protection des enfants de moins de trois ans contre l’exposition aux écrans par la ministre du travail, de la santé, des solidarités et des familles, Mme Catherine Vautrin. Surtout, alors que la France, par une législation mieux-disante, a longtemps fait figure de pionnière quelque peu solitaire en fait de régulation des réseaux sociaux, la Commission européenne est aujourd’hui prête à accompagner les États membres souhaitant édicter une majorité numérique, et a adopté, le 14 juillet 2025, des lignes directrices très complètes et relativement exigeantes sur la protection des mineurs en ligne. Dans ce contexte, la rapporteure est heureuse d’avoir pu contribuer à mettre en lumière les risques psychologiques des réseaux sociaux pour leurs utilisateurs les plus vulnérables, et ainsi à imposer dans le débat public la nécessité d’une politique de régulation plus ambitieuse.
Elle décline cette idée, dans le présent rapport, par 43 recommandations visant à affermir les règles et dispositifs de protection des mineurs sur les réseaux sociaux, dont elle espère qu’elles seront mises en œuvre le plus rapidement possible.
Face à des plateformes qui, comme a pu le prouver l’audition de TikTok, ne souhaitent pas prendre en considération l’ampleur des enjeux – des acteurs économiques majeurs, responsables d’un gigantesque incendie qu’ils prétendent encore pouvoir éteindre avec un verre d’eau –, la puissance publique se doit d’être à la hauteur de l’urgence, des attentes des familles et de l’avenir de notre jeunesse.
première partie : TIKTOK, un des PIREs RéSEAUX SOCIAUX à L’ASSAUT DE NOTRE JEUNESSE
I. malgrÉ la grande jeunesse de son public, la plateforme tiktok est conçue pour capter l’attention de ses utilisateurs devant des contenus MAJORITAIREMENT néfastes
A. Suicide et automutilation, canons de beauté malsainS, désinformation médicale, violences, discriminations, sexisme, pédocriminalité… Tiktok diffuse auprès de son public une multitude de contenus néfastes
1. Panorama du réseau TikTok : une large gamme de contenus néfastes qui pour la plupart mettent en danger les utilisateurs
a. « Elle m’a dit de prendre une corde et un tabouret » : incitation au suicide et astuces d’automutilation
La commission d’enquête sur les effets psychologiques de TikTok sur les mineurs est née d’un constat sinistre mais sans appel : le public de TikTok est exposé à de multiples images, vidéos et musiques glorifiant le suicide et l’automutilation. Les travaux de la commission d’enquête ont ensuite permis de recueillir de multiples témoignages poignants d’utilisateurs de TikTok qui ont été victimes de ce type de contenus.
Il en ressort que de nombreux utilisateurs de l’application y font part de leur mal-être, de leurs idées noires, de leurs pensées suicidaires. Mademoiselle X., adolescente « victime de TikTok », qui a fait plusieurs tentatives de suicide et s’est longtemps scarifiée, se remémore ainsi « une vidéo où la première image dit : “la nuit porte conseil”, et la deuxième : “moi, elle m’a dit de prendre une corde et un tabouret”. Sous-entendu : “elle m’a dit que je devais mourir” » ([31]). Cette vidéo a été évoquée par plusieurs personnes auditionnées qui ne se connaissent pas et à des séquences différentes d’auditions, ce qui n’a pas manqué d’interpeller la rapporteure.
Le suicide et l’automutilation sont souvent présentés comme une solution. Mme Stéphanie Mistre, qui a perdu sa fille par suicide en 2021, explique ainsi : « les contenus qu’elle regardait étaient mortifères, […] mettant en avant des chansons qui prônent le suicide comme une libération – “suicide-toi et tu iras beaucoup mieux” » ([32]). M. Arnaud Ducoin, membre du collectif Algos Victima dont la jeune fille s’est suicidée, décrit quant à lui « quinze vidéos qui ne parlaient que suicide, avec des messages comme : “J’en ai marre de la vie” et “Je serai mieux quand je serai morte” » ([33]). Une jeune femme de 17 ans témoigne, dans le cadre de la consultation citoyenne menée par la commission d’enquête, avoir lu sur une vidéo TikTok la légende suivante : « à 17 ans j’ai rien fait de ma vie il vaut mieux que je me suicide ».
Ces formules alarmantes peuvent être accompagnées d’images explicites, montrant de façon crue les conséquences des actes de scarification. M. Y. évoque une vidéo TikTok où sa grande sœur, qui s’est tragiquement donné la mort en février 2024, « s’était mutilée le poignet – […] c’était une de ses mutilations les plus profondes. On voyait les photos des plaies ouvertes et du sang » ([34]).
Plus que de simples évocations ou descriptions du suicide ou de l’automutilation, TikTok regorge d’incitations à passer à l’acte. C’est ce qu’a constaté M. Y. : « D’après ce que j’ai vu, les vidéos [que ma grande sœur] publiait portaient surtout sur la mutilation. Je pense qu’elle parlait aux gens de sa “communauté” en leur disant : “Ne voyez pas ça comme quelque chose de négatif, mais comme quelque chose de positif. N’arrêtez pas forcément, car ce sera une marque de ce que vous avez réussi à vous en sortir” » ([35]).
Ces incitations peuvent prendre la forme de discussions entre utilisateurs, en commentaires. Mme Delphine Dapui, dont l’enfant a mis fin à sa vie, relate ainsi un échange morbide : « “Moi, j’ai essayé [de] prendre six [médicaments], cela n’a pas marché ; peut-être qu’il faut que j’en prenne plus ?” “Oui, essaie d’en prendre plus” » ([36]).
Ne se limitant pas à glorifier le suicide et la scarification, certains utilisateurs de TikTok dévoilent, de façon détaillée, leurs techniques et astuces d’automutilation. « Tiktok livre clé en main des méthodes pour se faire mal à soi‑même », déplore une femme de 49 ans qui a participé à la consultation citoyenne sur les effets psychologiques de TikTok sur les mineurs. Ce constat est partagé par de nombreuses personnes auditionnées par la commission d’enquête, sidérées par l’inventivité et la précision des techniques partagées sur TikTok. Mme Elisa Jadot, journaliste, auteure et réalisatrice, a, pour la préparation de son documentaire Emprise numérique, 5 femmes contre les Big 5, créé sur TikTok un faux profil d’adolescente de treize ans. « J’y ai appris les meilleures façons de me scarifier, avec la lame de mon taille-crayon, un stylo et des glaçons », raconte-t-elle, ajoutant avoir été orientée vers « des vidéos tutorielles pour faire un nœud coulant en vue de me pendre dans ma chambre » ([37]). Mme Dapui explique que TikTok a proposé à sa fille « de prendre des douches bouillantes, ou encore des moyens pour démonter les taille-crayons » ([38]). Mme X. confirme : « il y avait aussi des vidéos expliquant quels médicaments prendre pour en finir […], comment se fournir en médicaments, etc. » ([39]).
Les « influenceurs » en scarification n’hésitent pas à donner des conseils des plus morbides et dangereux. L’on apprend ainsi sur TikTok que « s’il n’y a pas de sang, ça ne compte pas », comme le rapporte une participante à la consultation citoyenne de 47 ans, ou que « si ça saigne pas c’est pas assez profond » – un message transmis dans le cadre de la consultation citoyenne par une adolescente de 17 ans.
Plus grave encore, les utilisateurs de TikTok peuvent s’y renseigner sur la façon de s’automutiler sans ne laisser rien paraître, sans attirer l’attention ni les secours nécessaires. « L’on m’a expliqué comment cacher mes blessures à mes parents », indique Mme Jadot, tandis que Mme Dapui, décrit que sa fille a trouvé sur TikTok des moyens de « se faire du mal sans que cela se voie » ([40]).
b. « Tu n’es pas moche, tu es juste grosse » : canons de beauté malsains et troubles des conduites alimentaires (TCA)
De nombreux contenus publiés sur TikTok véhiculent des normes physiques inatteignables voire maladives. Loin de diffuser des standards de bonne santé et de célébrer les corps dans leur diversité, l’application participe à la normalisation et à l’exaltation de la maigreur excessive. Mme Carole Copti, diététicienne-nutritionniste, explique ainsi que « la plateforme expose [l]es jeunes à une quantité massive de contenus, souvent centrés sur l’apparence, la minceur et les habitudes alimentaires. TikTok installe une norme inaccessible et irréelle, créant un décalage qui agit directement sur la construction de l’image corporelle et de l’estime de soi » ([41]). TikTok participe à une « propagande des corps squelettiques », confirme une jeune femme de 17 ans via la plateforme de la consultation citoyenne.
Ces canons de beauté malsains sont soutenus par des discours encourageant des comportements dangereux en matière d’alimentation, pouvant s’apparenter à des troubles des conduites alimentaires (TCA) ([42]).
Mme Bérangère Couillard, présidente du Haut Conseil à l’égalité entre les hommes et les femmes, rapporte que « de jeunes femmes […] diffusent [sur TikTok] […] des messages culpabilisants : “Tu n’es pas moche, tu es juste grosse”, “Plaisir éphémère, regret éternel”. Ce discours, qui valorise la restriction alimentaire extrême et stigmatise la prise de poids, participe activement à la normalisation des troubles du comportement » ([43]). Mme Copti mentionne quant à elle « [d]es citations au ton faussement bienveillant mais aux effets ravageurs, telles que “Si tu ressens la faim, c’est que tu es sur la bonne voie” ou “Ce que tu manges en privé, tu le portes en public”. […] C’est d’une violence inouïe » ([44]). « On entend des phrases du type : “si ton estomac gargouille, il te remercie”, ou encore “si tu as faim, bois de l’eau” », écrit une femme de 31 ans au courriel de la commission d’enquête. Une jeune femme de 17 ans rapporte avoir lu « du vocabulaire déplacé tel que “vous avez faim : buvez de l’eau” ou encore “tu n’es pas un chien donc tu ne mérites pas de manger” ».
Outre ces messages culpabilisateurs, l’utilisateur de TikTok est exposé à des méthodes détaillées, malsaines et dangereuses, de perte de poids. Mme Charlyne Buigues, infirmière et auteure de la pétition « Stop #SkinnyTok » a pu constater la publication de multiples « astuces pour maigrir » ([45]). Mme Couillard fait part de la diffusion de « régimes drastiques » et de « routines sportives excessives » ([46]), ce que confirme Mme Copti : « Je pense notamment […] à ces challenges qui promettent bonheur et réussite en mangeant moins de 1 000 calories par jour ou en ne consommant que de l’eau pendant plusieurs jours » ([47]). « Des régimes sont proposés sur TikTok, et des manières de perdre du poids de façon très malsaine. Par exemple des vidéos où on nous explique comment se faire vomir plus facilement ! », témoigne une participante à la consultation citoyenne de 16 ans. Une autre adolescente, de 17 ans, écrit à la commission d’enquête avoir vu sur TikTok des « tutos pour maigrir (se faire vomir, rien manger, beaucoup boire ou manger des glaçons) ».
La tendance #SkinnyTok : la promotion de la maigreur extrême
Apparu sur TikTok en janvier 2025, le hashtag #SkinnyTok a rapidement pris de l’ampleur, inondant la plateforme de contenus valorisant la maigreur extrême et des restrictions alimentaires délétères.
« Nous avons […] effectué durant deux jours, les 23 et 24 avril, des mesures portant sur les publications mises en ligne sur TikTok au cours des trente jours précédents : sur cette seule période, 5 500 publications, diffusées par 3 000 créateurs différents, comprenaient l’expression SkinnyTok. Ces publications, dont 80 % étaient en anglais et 7 % en français, ont obtenu 97 millions de vues et 9,5 millions de likes » ([48]), indique M. Martin Ajdari, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom).
Après le lancement d’une pétition « Stop #SkinnyTok » par l’infirmière Charlyne Buigues, la ministre chargée de l’intelligence artificielle et du numérique, Clara Chappaz, a saisi l’Arcom et la Commission européenne.
En juin 2025, la publication du hashtag #SkinnyTok a été bloquée sur TikTok.
Les travaux de la commission ont toutefois montré que certains contenus prônant la maigreur extrême subsistaient sur la plateforme, référencés sous d’autres hashtags tels que le #FearFood.
c. Le TikTok des charlatans : désinformation médicale et psychologie de comptoir
Loin des cabinets médicaux, cliniques et hôpitaux, TikTok peut rapidement laisser libre cours à des médecins improvisés, revendiquant parfois de façon impropre le statut de professionnel de santé, partageant des informations douteuses voire dangereuses.
La docteure Nawale Hadouiri, praticien hospitalo-universitaire en médecine physique et de réadaptation au centre hospitalier universitaire (CHU) de Dijon, relève « une présence très importante de non-professionnels de santé diffusant des contenus, parfois teintés d’un esprit complotiste à l’égard de la communauté des soignants. Ces personnes peuvent prodiguer des conseils pour éloigner des bonnes pratiques, avec un esprit presque sectaire » ([49]).
Le docteur Jean-Marcel Mourgues, vice-président du Conseil National de l’Ordre des Médecins, constate quant à lui « des actes à visée esthétique illégaux, impliquant principalement des injectrices de toxines botuliques et d’acides hyaluroniques » ([50]).
Une enquête du Guardian a révélé que, sur les 100 contenus TikTok les plus visionnés sous le hashtag #mentalhealthtips – astuces de santé mentale –, plus de la moitié contenait de la désinformation, allant parfois jusqu’à conseiller de manger une orange sous la douche pour réduire l’anxiété ([51]).
Certains contenus peuvent inciter à l’abstention thérapeutique, comme une vidéo décrite par M. Baptiste Carreira Mellier, psychologue et neuropsychologue, « déconseillant formellement le traitement médicamenteux pour le [trouble déficit de l’attention avec ou sans hyperactivité] » ([52]).
L’utilisation de TikTok est également à l’origine de nombreux diagnostics et autodiagnostics pour le moins douteux, opérés par ou sur les conseils d’utilisateurs ne pouvant prétendre aux titres de psychologue ou psychiatre. M. Carreira Mellier témoigne ainsi : « j’ai reçu en consultation une adolescente de 14 ans persuadée d’avoir un trouble borderline. Or ce type de trouble n’est pas diagnostiqué à 14 ans, encore moins chez un psychologue qui n’en a pas le droit. Elle m’a expliqué qu’elle a reçu ce diagnostic de sa “psychologue” faisant de la création de contenu sur les réseaux sociaux. En réalité, cette personne est thérapeute et propose, par le biais des réseaux sociaux ou de sites internet, des consultations » ([53]).
d. Insultes, tueries de masse et chat passé au mixeur : TikTok comme lieu d’exposition à la violence sous toutes ses formes
À l’ère de ce qu’il est coutume d’appeler le « pseudonymat », TikTok est d’abord le lieu d’une violence verbale souvent décomplexée : en ligne, les limites que la société impose habituellement aux paroles violentes, et la désapprobation qu’elle leur porte, semblent atténuées. M. Tristan Duverné, doctorant et auteur d’une étude sur les violences sexistes sur TikTok ([54]), explique que « le contexte numérique, en particulier l’architecture de TikTok, supprime certains mécanismes de régulation des offenses que nous trouvons dans nos interactions ordinaires. Dans la vie réelle, un comportement offensant ou violent est généralement sanctionné par l’interlocuteur ou les pairs, puis suivi d’une tentative de réparation de l’interaction » ([55]).
Au-delà de la violence verbale, TikTok donne aussi à voir des images crues et morbides de violence physique. Une adolescente de 15 ans, ayant participé à la consultation citoyenne menée par la commission d’enquête, raconte avoir visionné des « vidéos mettant en scène de la torture, […] des chutes mortelles ». « Des vidéos de morts d’accident sans prévenir ça choque », renchérit un jeune homme de 19 ans.
Les utilisateurs de TikTok peuvent en outre être exposés à la violence à grande échelle, à des actes terroristes. M. Valentin Petit, journaliste à l’agence Capa, raconte ainsi la stupeur qu’il a ressentie en découvrant, sur l’application, des reconstitutions d’attentats, voire de vraies images de tueries de masse : « Au mois de janvier 2025, j’ai découvert, complètement par hasard, d’étranges vidéos diffusées sur TikTok : il s’agissait d’extraits de jeux vidéo. Jusque-là, il n’y avait rien d’anormal. Mais en y regardant de plus près, ces jeux étaient des reconstitutions, au détail près, d’attentats djihadistes ou d’extrême droite ayant été commis. Comme on peut le voir sur ces images, il s’agit, d’un côté, de versions vidéoludiques et, de l’autre, d’images filmées par les tueurs eux-mêmes – les tueries dans la synagogue de Halle et dans une mosquée de Christchurch. J’en ai trouvé d’autres, notamment relatives à l’attentat homophobe du Pulse en Floride et à l’attentat raciste de Buffalo, etc. […] Plus inquiétant encore, on trouve aussi de vraies images déguisées sur ces réseaux. Je pense à un exemple particulièrement révélateur, un contenu violent qui est resté six mois sur la plateforme. Bien que la vidéo ait été supprimée, le compte est encore actif – j’ai vérifié il y a quarante‑huit heures. Il s’agit de la vidéo de la tuerie de Buffalo, ce sont les vraies images tournées par le tueur où on voit les personnes s’effondrer. Ce sont de vraies personnes qui ont été tuées. Dans cette vidéo, on voit le tueur tirer une autre balle dans la tête d’une personne. […] Pour conclure, sur TikTok, j’ai vu des gens mourir, se prendre des balles dans la tête, le tout agrémenté de musiques à la mode, de stickers rose flashy et de filtres roses » ([56]).
Sur TikTok, la violence peut prendre des formes des plus surprenantes. Mme Jennifer Elbaz, chargée de mission éducation au numérique à la Commission nationale de l’informatique et des libertés (CNIL), relate ainsi ses interventions auprès de milliers de mineurs : « tous les enfants racontaient avoir vu sur TikTok la vidéo d’un chat passé au mixeur. La plupart du temps, ils n’en avaient jamais parlé avec qui que ce soit, pas même avec leurs camarades, et ils découvraient ensemble qu’ils avaient tous vu la même vidéo » ([57]). « Mon fils m’a fait voir une vidéo choquante d’une personne qui était en train de tuer des chats, de la pure barbarie », confirme une femme de 49 ans sur la plateforme de la consultation citoyenne de la commission d’enquête.
Les animaux sur TikTok : victimes d’un trafic normalisé ?
Des témoignages adressés à la rapporteure ont attiré son attention sur l’utilisation, par des créateurs de contenus sur les réseaux sociaux, d’animaux issus du trafic.
Sur TikTok, de nombreux comptes utilisent des animaux sauvages, souvent issus du trafic illégal d’espèces sauvages, pour produire des vidéos attendrissantes ou sensationnelles, montrant des singes, félins, perroquets, ou encore reptiliens interagissant avec des humains. Se propagent des scènes de nourrissage, des mises en scènes de « jeu » et « câlins », voire des mises en scène de faux sauvetage.
Derrière ces vidéos se cache une réalité bien plus sombre : ces animaux sont arrachés à leur milieu naturel, parfois après que leurs parents aient été tués par des braconniers, puis achetés illégalement. Cette criminalité s’inscrit dans un business lucratif : des comptes émergent pour proposer à la vente ou à la location des animaux sauvages ([58]).
e. Racisme et antisémitisme : sur TikTok, la haine de l’autre sans complexe
TikTok recèle de photos, vidéos et commentaires discriminants, racistes et antisémites. L’on y ressent « beaucoup de racisme et de haine », témoigne une femme de 42ans ayant participé à la consultation citoyenne. En 2024, la plate-forme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (PHAROS), destinée à recevoir les contenus illicites, publics et en ligne, a reçu 1 237 signalements ([59]) relatifs à des provocations publiques à la haine et à la discrimination raciale, ethnique ou religieuse et injures et discrimination raciale, ethnique ou religieuse ([60]).
TikTok : un paradis pour les antisémites
« L’antisémitisme sur Tiktok est diffus, il est partout : dans les noms d’utilisateurs, les vidéos, les commentaires », indique Mme Sophie Taïeb, responsable du pôle cybersécurité du Conseil représentatif des institutions juives de France (Crif), qui évoque « une vidéo dans laquelle une jeune femme dit : “Vous allez tous finir en enfer, bande de Juifs, vous allez tous cramer […]” ». « Des comptes s’intitulent gazeur2juif, des lives sont accompagnés de commentaires tels que “on va attaquer les synagogues jusqu’à la mort ». « Sous [une] vidéo où l’on voit une famille en train de danser pendant une bar‑mitsvah, 3 500 commentaires ont été publiés parmi lesquels “Le grand-père, il a du gaz qui sort de sa bouche, c’est normal ? ”, “Papy, va à la douche” […] » ([61]).
f. « Je comparerais les femmes un peu aux enfants, c’est à peu près la même chose » : diffusion d’une idéologie masculiniste agrémentée de violences sexistes
À l’instar de ses concurrents, TikTok véhicule très largement des stéréotypes de genre. C’est ce que démontre un rapport du Haut Conseil à l’égalité entre les hommes et les femmes (HCE) sur le « cercle vicieux du sexisme » ([62]), présenté par Mme Couillard : sur TikTok, « l’humour dit “masculin” et donc stéréotypant est ultradominant. Ainsi, 35 % des vidéos présentent un comportement féminin stéréotypé, c’est-à-dire incluant un ou plusieurs stéréotypes féminins. Les données montrent que dans les cas où la femme correspond à un archétype de genre, elle est dépeinte respectivement comme étant la femme réservée et calme (18 %), hystérique (16 %) et séductrice (13 %). Ensuite, 61 % des vidéos présentent des comportements stéréotypés masculins. Quand les hommes sont représentés au travers d’un archétype de genre, ils le sont très largement au travers de la figure de l’homme humoriste. Ainsi, 33 % des vidéos ont pour but de divertir et 32 % sont humoristiques » ([63]).
Mme Shanley Clemot McLaren, cofondatrice et co-présidente de l’association Stop Fisha, déplore quant à elle la prolifération de contenus masculinistes via « une romantisation des contenus misogynes et extrémistes, notamment masculinistes, à travers l’utilisation de musiques patriotiques ou guerrières, créant une forme de fictionnalisation attrayante, particulièrement efficace auprès des jeunes garçons » ([64]).
Les travaux de la rapporteure ont permis d’identifier les propos d’un influenceur qui, considérant que « la femme est un être faible », déclarait : « je comparerais les femmes un peu aux enfants, c’est à peu près la même chose, c’est le même principe ».
Quand ce même influenceur assène, comme vérité générale, que « les françaises à l’étranger c’est des salopes », d’autres utilisateurs de TikTok choisissent de cibler certaines femmes en particulier. Mme Anna Baldy, créatrice de contenus sous le pseudo de Grande Bavardeuse, indique avoir été la cible de nombreux commentaires haineux : « Je cite : “T’es un torchon à foutre inculte, reste dans le domaine des gorges profondes” » ([65]).
Les comptes « Fisha » : le revenge porn sur les réseaux sociaux
Nés sur Snapchat, les comptes « Fisha » – « affiche » en verlan –, qui se sont rapidement propagés sur TikTok, Instagram, « [ont] pour but de publier et diffuser sans leur consentement des contenus intimes de jeunes filles et de femmes » ([66]), explique Mme Clemot McLaren.
« Pour l’année 2024, notre association a déjà reçu plus de 400 signalements sur TikTok. L’âge moyen des victimes, qui sont majoritairement des femmes et des filles, est de quinze à seize ans. Ces chiffres ne prennent pas en compte les personnes qui ne connaissent pas notre association ou celles qui demandent une aide juridique ou psychologique sans effectuer de signalement formel. » ([67]), poursuit-elle.
g. Atteintes aux mineurs et pédocriminalité
M. Samuel Comblez, directeur général adjoint de l’association e-Enfance, relève divers types de contenus préjudiciables en lien avec des mineurs : « la principale remontée concerne « l’extorsion sexuelle » d’enfants qui sont sollicités pour obtenir des contenus à caractère sexuel. […] La deuxième thématique la plus signalée concerne le cyberharcèlement avec notamment des insultes, des moqueries, des contenus textes, vidéos ou photos dégradants pour l’enfant ou l’adolescent. […] La troisième thématique concerne le revenge porn, c’est-à-dire des contenus à caractère sexuel envoyés à des fins de vengeance […]. Viennent ensuite des contenus à caractère pédocriminel » ([68]).
L’Office anti-cybercriminalité (OFAC), qui gère la plateforme PHAROS, note une hausse des signalements en lien avec des atteintes aux mineurs, qui représentent 7,5 % de l’ensemble des signalements en reçus entre le 1er janvier et le 22 mai 2025 contre 3,15 % l’année précédente ([69]). « Il ne s’agit pas de pédocriminalité », précise Mme Cécile Augeraud, commissaire divisionnaire, chef‑adjoint à l’OFAC, « mais de contenus provenant de mineurs qui vont être détournés, comme des images détournées d’enfants jouant sur la plage, des contenus s’inscrivant dans des campagnes très spécifiques. » ([70]).
Mme Alejandra Mariscal Lopez, directrice de Point de Contact, association de lutte contre les cyberviolences et de protection des victimes dans l’espace numérique indique avoir reçu en 2024 « 37 000 signalements concern[ant] une suspicion d’exploitation sexuelle de mineurs, dont 70 % (17 000 contenus) se sont avérés effectivement illicites et ont été transmis aux autorités compétentes. Il est à noter que 90 % des contenus qualifiés de pédocriminels concernaient des filles. » ([71]).
L’intelligence artificielle, catalyseur de la prolifération de contenus néfastes : un péril imminent
L’essor de l’intelligence artificielle, et en particulier des outils génératifs tels que ChatGPT (génération de texte), MidJourney (génération d’images), Runway (génération de vidéos) ou ElevenLabs (synthèse vocale), risque d’amplifier considérablement la diffusion de contenus néfastes sur les réseaux sociaux comme TikTok. En effet, ces nouveaux outils, très facilement accessibles, permettent de produire massivement et de manière automatisée des contenus (images, vidéos, textes, musiques) nocifs, pour discriminer, harceler, désinformer ou manipuler.
Plusieurs faits récents ont démontré la gravité des menaces posées par l’essor de l’IA pour la sécurité des mineurs en ligne : au printemps 2025, un adolescent américain de 16 ans s’est donné la mort après avoir suivi les conseils très précis de ChatGPT, poussé au suicide par le chatbot d’IA générative ([72]). En juillet 2025, une enquête a été ouverte par la Garde civile espagnole, après qu’un adolescent de 17 ans a partagé en ligne des fausses photos et vidéos générées grâce à l’IA – également appelées « deepfakes » – de ses camarades de lycée dénudées, afin d’en faire commerce ([73]).
Les constats dressés en matière de prolifération de contenus néfastes sur les réseaux sociaux, et en particulier sur TikTok, risquent donc d’être exacerbés par l’essor rapide de l’IA. Au-delà de la nécessaire régulation de cette technologie – amorcée par le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissement des règles harmonisées concernant l’intelligence artificielle ou AI Act, entré en vigueur le 1er août 2024 – son développement rend indispensable le renforcement immédiat par les plateformes de réseaux sociaux de l’efficacité de leurs dispositifs de modération.
2. Des contenus néfastes qui se répandent sur TikTok comme une trainée de poudre
a. Des contenus néfastes dont la nouveauté tient à leur volumétrie et à leur viralité
La nouveauté des contenus néfastes diffusés sur TikTok tient principalement à ce que l’informaticien et logicien M. Gilles Dowek appelle le « web 2.0 » : « c’est une rupture avec l’ensemble des moyens de communication utilisés lors de la période de 5 000 ans qui débute avec l’invention de l’écriture et se termine avec le premier web. Les moyens de communication étaient alors limités. Le premier web permettait certes à ceux qui avaient une certaine connaissance technique d’envoyer des messages universels, mais eux seuls le pouvaient. Ce n’était pas à la portée de tout le monde, car il fallait pouvoir créer son site. […] Tout cela a complètement changé avec le web symétrique. Désormais, tout le monde peut parler et tout le monde peut entendre ce que tout le monde dit – et n’importe quand » ([74]). Les messages véhiculés, en eux-mêmes, étaient déjà présents sur Internet bien avant la création des réseaux sociaux, par exemple sur les blogs « pro-ana » – pro-anorexia. Mme Rayna Stamboliyska indique que « la principale [différence entre les forums d’il y a dix ans et les mouvements actuels, notamment dans le domaine « pro-ana »] tient à la volumétrie et à la viralité des contenus […] » ([75]).
Une seconde évolution relève de « l’utilisation de l’image et de la vidéo, notamment sur TikTok », constate Mme Stamboliyska : « par le passé, les échanges étaient principalement textuels et se déroulaient par l’intermédiaire de sites plus ou moins statiques. Ce changement n’est pas bénéfique, car l’impact de ce que l’on voit est beaucoup plus fort. » ([76]).
Les « challenges » sur TikTok : la viralité sous sa pire forme
Les « challenges » ou défis constituent un phénomène important et préoccupant sur TikTok : certains d’entre eux mettent en évidence les dangers de la viralité exacerbée sur la plateforme. Des défis tels que le « Paracétamol challenge », où des adolescents s’encouragent mutuellement à ingérer des doses excessives de paracétamol pour tester leur résistance ([77]), ou le « Zizi challenge », qui incite des enfant à diffuser des vidéos montrant leurs parties intimes, les exposant ainsi à des risques graves, notamment l’exploitation par des pédocriminels ([78]), exploitent la vulnérabilité des jeunes utilisateurs et mettent en péril leur santé physique et psychologique, ainsi que leur sécurité en ligne.
b. Sur le terrain, le constat sans équivoque d’une large diffusion des contenus néfastes
Dans la pratique, les interlocuteurs des utilisateurs des réseaux sociaux et de TikTok sont unanimes : loin d’être un épiphénomène, les contenus choquants et préjudiciables bénéficient d’une large audience.
Mme Elbaz relève, de façon empirique, que « quasiment 100 % des enfants qui consultent seuls des plateformes diffusant des vidéos – réseaux sociaux, sites de jeux vidéo sur lesquels ils sont identifiés… – ont été confrontés à des contenus choquants. […] oui, nos enfants ont accès massivement, dès qu’ils sont connectés, à des contenus choquants divers et variés : violences d’adultes à adultes, d’adultes à enfants, d’enfants ou d’adultes à animaux également » ([79]). « Lors de nos interventions dans les écoles primaires, il y a dans CHAQUE classe des élèves ayant vu des contenus choquants et non appropriés. Et nous démarrons au CE2… », écrit à la commission d’enquête la fondatrice d’une entreprise spécialisée en cybersécurité.
Dans le cadre de la consultation citoyenne menée par la commission d’enquête, 43 % des réponses à la question « des membres de votre foyer (y compris vous) ont-ils déjà vu sur TikTok des contenus choquants ? » ont été positives.
Enquêtes de terrain en classe et au sein des communautés masculinistes :
TikTok comme porte d’entrée vers l’idéologie masculiniste, et vecteur de diffusion de formules sexistes
Mme Pauline Ferrari, journaliste indépendante et auteure de Formés à la haine des femmes. Comment les masculinistes infiltrent les réseaux sociaux, publié en 2023, est intervenue dans plusieurs établissements scolaires de la région parisienne pour des séances d’éducation aux médias. « Lors de mes interventions en classe, il est fréquent que certains élèves s’appellent par le terme “pupuce”, une expression popularisée par AD Laurent », rapporte-t-elle. « À plusieurs reprises, des références explicites aux propos d’Alex Hitchens ont également été formulées. […] Dans au moins la moitié des classes, une majorité d’élèves connaissent ces influenceurs et, même s’ils ne les suivent pas activement, sont exposés à leurs contenus dans leur fil d’actualité » ([80]).
Le journaliste M. Pierre Gault, qui a infiltré des communautés masculinistes en ligne pour la réalisation de son documentaire Mascus, diffusé en 2025, a également constaté « le rôle crucial de TikTok comme vecteur de diffusion [des] idéologies [masculinistes] auprès d’un public jeune et potentiellement vulnérable » et comme « porte d’entrée » vers des communautés privées radicales ([81]).
B. Défilement infini, profit infini ? L’algorithme de la dépendance ou comment TikTok monétise notre attention
1. Le modèle économique de TikTok : capter l’attention à tout prix
a. Au cœur du modèle d’affaires de TikTok : données personnelles et publicité ciblée
Comme pour la majorité des grandes plateformes de réseaux sociaux, le modèle d’affaires de TikTok repose sur l’économie de l’attention, à savoir « un ensemble de dispositifs mis en œuvre afin d’extraire une valeur marchande à partir de la captation de l’attention des utilisateurs » ([82]).
Dans cette économie de l’attention, les revenus des réseaux sociaux reposent très majoritairement sur la publicité, et plus marginalement sur les abonnements – à l’instar de LinkedIn ou YouTube avec leurs formules « premium » – comme l’explique Mme Joëlle Toledano, professeure émérite d’économie associée à la chaire gouvernance et régulation de l’université Paris Dauphine-PSL, membre du Conseil national du numérique : « depuis quinze ans, les réseaux sociaux relèvent, en Europe et aux États-Unis, d’un modèle économique très majoritairement financé par la publicité, parfois par des abonnements » ([83]).
Cette prépondérance du marché de la publicité dans les revenus des plateformes de réseaux sociaux est confirmée par les plateformes elles-mêmes : selon M. Anton’Maria Battesti, directeur des affaires publiques France Meta, « […] la publicité représente l’essentiel du chiffre d’affaires de Meta. Vous avez le choix entre un modèle payant sans publicité et un modèle gratuit avec de la publicité ciblée en fonction de différents critères, comme vos centres d’intérêt, votre âge ou votre localisation » ([84]). Mme Claire Dilé, directrice des affaires publiques de X (ex‑Twitter), reconnaît également que les « revenus [de X] proviennent principalement de la publicité et des annonceurs » ([85]).
Ce modèle repose sur la rétention maximale des utilisateurs sur la plateforme, comme l’explique Mme Toledano : « le modèle économique est celui de l’économie de l’attention, qui consiste à échanger la gratuité contre autre chose. […] Si l’on cherche à capter l’attention, c’est non seulement pour passer de la publicité, mais aussi, secondairement, pour pousser à des actes d’achat, plus impulsifs, et à toute autre forme de gaming. L’attention porte sur les algorithmes, mais également sur les types de contenus, la façon de scroller, les formats : l’ensemble du système vise à nous garder présents le plus longtemps possible. Le social commerce ([86]) permet de déployer une variété d’outils et de rentabiliser encore plus la captation de l’attention » ([87]).
Ce constat est partagé par Bruno Patino, président de Arte France et auteur des ouvrages La civilisation du poisson rouge, Tempête dans le bocal et Submersion : « les réseaux ont tous été construits par des acteurs numériques qui se rémunèrent grâce à l’économie de l’attention, c’est-à-dire par de la publicité. Du point de vue économique, leur objectif est que nous y consacrions un temps sans cesse croissant » ([88]).
Le choix de la gratuité et d’un modèle économique fondé sur la publicité « peut notamment s’expliquer par le fait qu’un tel modèle d’affaires propose le service gratuitement aux utilisateurs. Ce qui facilite l’acquisition d’une masse critique d’utilisateurs, déclenchant les effets de réseau présents dans une économie de plateformes : on observe que plus il y a d’utilisateurs d’un service, plus celui-ci attire en retour de nouveaux utilisateurs. Ce qui tend alors à renforcer la position de plateformes d’ores et déjà installées » ([89]).
Ce modèle économique est le résultat du développement de l’économie de la donnée à la fin des années 2010, que décrit M. Patino : « les acteurs ont mis en place à la fois des outils capables de procéder à l’extraction maximale des données des utilisateurs pour les monétiser d’un point de vue publicitaire et des outils de captologie permettant de développer une certaine forme d’assuétude aux écrans » ([90]).
Les réseaux sociaux, et en particulier TikTok dont le mode de fonctionnement (défilement infini de vidéos, caractère imprévisible de la succession des vidéos et absence de choix de l’utilisateur) le rend particulièrement efficace en la matière, s’appuient sur l’accumulation de données de leurs utilisateurs, comme le décrit Mme Anne Savinel-Barras, présidente d’Amnesty International France : « le modèle économique des plateformes du numérique est fondé sur un profilage intrusif et la publicité ciblée. Les plateformes cherchent notamment à collecter de manière constante de nouvelles informations sur les utilisateurs et utilisatrices afin d’établir des profils aussi précis que possible qu’elles pourront ensuite vendre à des publicitaires » ([91]).
Le Conseil national du numérique va jusqu’à parler d’économie de la manipulation : « les plateformes ont acquis une telle finesse dans le profilage des utilisateurs qu’il leur est quasiment possible d’anticiper leurs intérêts, leurs conduites, leurs envies, et de les manipuler » ([92]).
L’économie de la donnée : un pilier du modèle économique des plateformes de réseaux sociaux
Les réseaux sociaux valorisent les données collectées auprès de l’ensemble de leurs utilisateurs, qu’ils soient majeurs ou mineurs. Il est souvent difficile de mesurer l’ampleur de cette collecte de données : un simple clic, le moindre mouvement de souris ou le temps passé sur un contenu sont interprétés comme des éléments significatifs permettant d’inférer les préférences, les intérêts, voire l’état émotionnel d’un utilisateur, comme le décrit le Conseil national du numérique : « L’attention est désormais quantifiée par de multiples indicateurs : temps de connexion, nombre d’amis, nombre de likes, nombre de commentaires, nombre de partages, nombre de messages privés, nombre de clics… […] L’économie de l’attention est donc indissociable de l’économie des données » ([93]).
Il ne s’agit pas ici de données personnelles saisies de manière explicite, comme dans un formulaire, mais de l’accumulation d’une multitude de données indirectes (temps passé sur une vidéo, etc.). Ces micro-interactions, analysées en masse, permettent de dresser un profil comportemental dont l’exactitude est statistiquement probable, comme le décrit M. Gilles Dowek, informaticien et logicien, chercheur à l’Institut national de recherche en informatique et en automatique (Inria) et co-auteur de l’ouvrage Le temps des algorithmes : les réseaux sociaux « ont pour but de générer des profits, qu’[ils] tirent de l’exploitation des données personnelles de leurs utilisateurs. La plupart de ces derniers n’imaginent pas la quantité de données qu’ils transmettent sur eux. Un adolescent qui publie une vidéo dans laquelle il annonce redoubler sa terminale fera penser à la plupart des personnes qui la regarderont qu’il est paresseux. Le public déduira d’une vidéo d’une personne évoquant ses angines à répétition qu’elle fume, d’une autre visitant la cathédrale de Chartres qu’elle est catholique, d’une autre qui a une entorse à la cheville qu’elle pratique le volley-ball, ou d’une autre aimant Émile Zola qu’elle est socialiste : ces conclusions peuvent être individuellement erronées, mais elles sont statistiquement probables » ([94]).
Toutefois, en exploitant les mécanismes de l’économie de l’attention, les réseaux sociaux tels que TikTok exercent une influence profonde sur leurs utilisateurs. En effet, les médias numériques comme TikTok présentent quatre ruptures majeures en matière de captation de l’attention dans un but économique, ainsi décrites dans le rapport du Conseil national du numérique, Votre attention, s’il vous plaît ! Quels leviers face à l’économie de l’attention ? ([95]) :
– l’immersion et l’ubiquité : depuis l’apparition des smartphones, les outils numériques sont constamment présents et remplissent des fonctions variées (communication, déplacements, etc.) ;
– l’immédiateté et le temps réel : « la grande majorité des applications sollicitent les comportements réflexes des individus et éliminent les temps de réflexion, le flux continu des contenus informationnels ou divertissants que nous recevons laisse peu de possibilités de faire retour sur ce qui a été vu et entendu » ([96]) ;
– le calcul, le ciblage et les prédictions : « à travers la collecte des données, les comportements humains sont soumis à des processus de calculs statistiques et de prédictions algorithmiques, qui influencent en retour les conduites à travers des suggestions » ([97]) ;
– le modèle économique : « l’individu n’est plus seulement utilisateur, consommateur ou spectateur, mais il participe directement à l’optimisation des systèmes d’intelligence artificielle à travers ses activités en ligne et à la génération de profit par le biais des données et traces qu’il laisse sur le réseau » ([98]).
Le modèle économique des réseaux sociaux, fondé sur la captation d’un temps d’attention croissant de la part des utilisateurs, met en évidence un désalignement d’intérêts, à l’origine de multiples dérives. Les plateformes et leurs utilisateurs poursuivent des objectifs en partie divergents : là où les utilisateurs cherchent une utilisation bénéfique et mesurée, les plateformes, elles, visent à maximiser le temps passé sur leurs services, même au-delà du seuil optimal pour l’utilisateur. Autrement dit, leur rentabilité repose sur « l’addiction » des utilisateurs à la plateforme, à tout le moins une captation excessive de l’attention, comme le souligne M. Bruno Patino : « le modèle de l’économie de l’attention vise à rendre les utilisateurs de plus en plus dépendants » ([99]).
Pour M. Olivier Ertzscheid, chercheur en sciences de l’information et de la communication, maître de conférences à l’université de Nantes, auteur des ouvrages L’appétit des géants : pouvoir des algorithmes, ambitions des plateformes et Le monde selon Zuckerberg : portraits et préjudices, la cause des effets néfastes que peuvent avoir les réseaux sociaux sur leurs utilisateurs est bien à chercher dans leur modèle économique : « si je devais résumer en une phrase ces vingt-cinq années de recherche, je dirais que tout est de la faute du modèle économique de ces plateformes. […] Nous avons construit une dystopie rien que pour obliger les gens à cliquer sur des publicités » ([100]).
Il existait cependant une alternative au modèle économique actuel des réseaux sociaux, comme le dépeint M. Patino : « un réseau social comme Facebook aurait pu être payant sur abonnement. D’autres modèles économiques auraient pu être imaginés, en s’inspirant du modèle contributif en code source ouvert de Wikipédia par exemple. L’influence du contexte historique des années 2006‑2007, marqué par le développement de l’économie de la donnée, a toutefois été déterminante » ([101]).
L’engagement sur les réseaux sociaux : une donnée essentielle dans l’économie de l’attention
Engagement et taux d’engagement sont deux indicateurs essentiels dans l’économie des réseaux sociaux.
L’engagement correspond au nombre total d’interactions (mentions « J’aime », commentaires, partages, abonnements, clics sur un lien, temps de visionnage pour TikTok en particulier, etc.) des utilisateurs avec un contenu sur un réseau social.
Le taux d’engagement correspond quant à lui au nombre d’utilisateurs ayant interagi avec un contenu par rapport au nombre total d’individus qui ont vu ce contenu. Cet indicateur permet de mesurer plus précisément l’intérêt des utilisateurs pour un contenu en particulier.
Ces indicateurs sont suivis à la fois par les créateurs de contenus et les influenceurs, qui cherchent à générer de l’engagement sur leurs publications et à avoir un taux d’engagement élevé afin que celles-ci soient mises en avant par l’algorithme de recommandation de la plateforme – les influenceurs cherchent donc en permanence à optimiser l’effet de leurs publications sur les utilisateurs afin qu’elles suscitent le plus de réactions – et par les plateformes elles-mêmes qui cherchent à susciter le plus d’engagement possible de la part des utilisateurs, car cet engagement est directement (achats intégrés) ou indirectement (visionnage et clics sur des publicités) source de revenus.
b. Un modèle économique qui pousse au trash
Comprendre le modèle économique des réseaux sociaux, sans les déresponsabiliser, permet de mieux appréhender les mécanismes à l’origine des effets délétères qu’ils peuvent avoir sur leurs utilisateurs – en particulier la prolifération de contenus nocifs évoquée dans la partie précédente.
Pour Mme Savinel-Barras, présidente de Amnesty international France, il est clair que « ce modèle économique alimente la diffusion de contenus néfastes. Les systèmes algorithmiques sont conçus pour garder les personnes sur la plateforme. Plus ces personnes sont impliquées, plus les recettes publicitaires sont élevées. En conséquence, ces systèmes mettent en avant les contenus les plus virulents, clivants et néfastes, car ceux-ci sont les plus susceptibles de garantir l’implication des utilisateurs et utilisatrices » ([102]).
Dans une certaine mesure, il est donc dans l’intérêt économique des réseaux sociaux de mettre en avant des contenus radicaux, plus susceptibles de capter l’attention de l’utilisateur. Deux raisons principales peuvent toutefois inciter les plateformes à limiter et modérer ces contenus : d’une part, la préservation de leur image de marque et de leur réputation, qui conditionne leur attractivité commerciale et leur capacité à vendre des espaces publicitaires ou à attirer de nouveaux utilisateurs ; d’autre part, le respect du cadre juridique en vigueur – la question de la réglementation sera abordée dans la seconde partie de ce rapport.
De même, il n’est pas exagéré d’affirmer à ce stade que les réseaux sociaux ont intérêt à entretenir une forme de dépendance chez leurs utilisateurs – non comme une fin en soi, mais comme un levier pour maximiser leurs revenus. Mme Océane Herrero, journaliste ([103]), évoque une étude interne à TikTok datant de 2019, selon laquelle « le visionnage de 260 vidéos est nécessaire pour que l’utilisateur développe une habitude de consommation » ([104]), soit une forme de dépendance à la plateforme.
Afin d’accroître le temps passé sur les réseaux sociaux, ceux-ci recourent en effet à des dispositifs « captologiques », qui ne sont pas sans conséquence, « que ce soit pour l’état cognitif et psychique de l’utilisateur, pour ses relations sociales ou pour l’attention qu’il porte plus largement à son environnement : en effet, les ressources psychiques sont limitées et les individus ne peuvent pas allouer une attention infinie à tout » ([105]).
Le modèle économique des réseaux sociaux, et en particulier celui de TikTok, joue donc un rôle déterminant dans leur conception addictive et dans la mise en avant de certains contenus destinés à retenir les utilisateurs le plus longtemps possible sur la plateforme. C’est le constat qu’en fait M. Patino : « dans le modèle de l’attention, les messages sont organisés de façon à maximiser les revenus publicitaires. Ils sont classés selon leur efficience économique. L’objectif est que vous les regardiez, même si vous êtes occupés à autre chose, et que vous les partagiez le plus rapidement possible. L’un des principaux leviers est l’émotion, mais pas n’importe laquelle. La joie ou le rire ne provoquent pas autant de viralité que la colère et la rage » ([106]).
Il est en effet évident qu’au regard de son modèle d’affaires, TikTok n’a pas pour premier intérêt la prise en compte du bien-être de ses utilisateurs, comme l’explique le Dr Servane Mouton, neurologue et neurophysiologiste, co-présidente de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans (2024) : « la motivation première de TikTok n’est pas le bien-être de ses utilisateurs, elle a pour finalité unique le profit. La plateforme a développé un modèle économique extrêmement lucratif basé sur de nombreux systèmes publicitaires : marques thématiques, publicités entre les vidéos, placements de produits, filtres de marque, partage facilité sur d’autres réseaux sociaux pour recruter de nouveaux utilisateurs, publicités sur d’autres médias, et partenariats commerciaux avec de grandes enseignes, comme Walmart aux États-Unis, permettant des achats directs via l’application. Il est également possible d’acheter des cadeaux virtuels pour les influenceurs que l’on apprécie. Ces cadeaux sont ensuite convertis en monnaie réelle, générant un chiffre d’affaires estimé à 1,9 milliard de dollars en 2023. Cette stratégie commerciale agressive, dénuée de considérations éthiques pour la santé et le bien-être des utilisateurs, transforme ces plateformes en outils d’une puissance quasi incontrôlable » ([107]).
L’exemple des live matches : le modèle du jeu d’argent addictif
Le système des live matches, créé par TikTok en 2021, consiste en « la diffusion en direct de l’affrontement verbal de deux influenceurs (ou plus) dans le but d’obtenir le plus de popularité. Durant ces quelques minutes [5 minutes], les créateurs de contenus, face à la caméra, sollicitent de leur audience des cadeaux virtuels et monétisables. Pour remercier à leur tour les donateurs, les influenceurs citent à haute voix leur nom et offrent aux plus généreux membres de leur communauté un espace de reconnaissance de quelques secondes » ([108]).
Pour Mme Audrey Chippaux, auteure de Derrière le filtre, Enquête sur le système d’influence (2025), on peut bien parler de « jeu d’argent » en ce qui concerne les live matches, avec les dérives associées : « on y achète des pièces qui servent à acheter des cadeaux numériques. Au cours de ce premier jeu financier, on perd la notion de l’argent : quand il est offert, le cadeau numérique se transforme en diamants qui s’affichent au-dessus du compte de l’influenceur. On ne sait plus exactement ce que l’on a donné. Ces diamants sont ensuite transformés en euros ou en dollars, dont TikTok prélève 50 %. Le réseau a donc un sérieux intérêt à l’existence de tels matches » ([109]).
Le déroulement d’un live match incite les spectateurs à donner toujours plus, avec un système de gratification sociale singulier que décrit Mme Chippaux : « Quand on donne un cadeau, notre nom est hurlé. (…) J’ai pensé à l’effet produit sur quelqu’un qui n’a pas de communauté, qui ne sait pas ce que c’est, qui n’a jamais reçu de message un peu sympa. On se met à hurler son nom pendant un live où nous étions au moins 1 000. Comment le vit-il ? Ce n’est pas anodin. Tout le monde n’est pas habitué à un tel traitement. Cela crée de la dépendance : on va avoir envie de redonner pour entendre encore notre nom, pour être encore mis en avant – l’influenceur demande même aux gens de s’abonner à notre compte » ([110]).
Ainsi, TikTok percevant la moitié des dons effectués lors de ces live matches, la plateforme, comme les influenceurs qui participent à ces matches, ont intérêt à ce que le montant total des dons soit le plus élevé possible, donc à ce que les influenceurs poussent les spectateurs de ces matches à donner le plus et le plus vite possible.
Pourtant, en dépit de son intérêt économique manifeste et des constats répétés, TikTok continue de nier l’existence d’incitations aux dons lors de ces live matches. Interrogé à ce sujet par la commission d’enquête, M. Mogniat-Duclos, responsable France de TikTok LIVE, botte en touche : « Le fait d’appeler régulièrement au don est une infraction à nos règles de monétisation » ([111]). Il persiste ensuite à nier toute forme d’appel aux dons lors de ces live matches, avec des affirmations qui frôlent parfois le ridicule au regard du fonctionnement concret et observable de ces matches : « Je ne considère pas qu’un remerciement soit un encouragement à donner. C’est de la
politesse. » ; « Je pense qu’un remerciement est une bonne chose. Je ne pense pas que ce soit une incitation. » ([112]). Et ce alors même que peu après, M. Mogniat-Duclos reconnaît qu’« il y a des badges pour les gros donateurs, sous la forme d’un chiffre qui s’affiche à côté de leur pseudo » ([113]).
Ce positionnement empêche toute prise en compte par TikTok des risques liés à ces live matches, ainsi balayés par M. Vincent Mogniat-Duclos : « sur TikTok LIVE, plusieurs mécanismes nous permettent d’éviter tout type d’addiction. Ainsi, il n’existe pas de lien direct entre le don de cadeaux et le compte en banque de l’utilisateur » ([114]). Si ce lien n’existe pas directement, il suffit d’acheter de nouvelles pièces virtuelles pour pouvoir offrir de nouveaux cadeaux. Mais M. Mogniat-Duclos ne semble pas avoir conscience des montants en jeu, qui peuvent être conséquents pour certains donateurs – dont des mineurs qui parviennent à contourner l’interdiction de donner sur des lives – pour qui les dépenses sur la plateforme peuvent parfois largement dépasser leurs moyens et les mettre en difficulté financière ([115]). Le responsable France de TikTok LIVE ne connaît ainsi ni le montant moyen du cadeau par utilisateur et par match, ni la valeur du cadeau le plus cher pouvant être donné au cours des live matches ([116]).
c. Un modèle économique opaque, aux logiques antagonistes à la protection des mineurs
D’après Mme Toledano ([117]), la répartition des différentes sources de revenus de TikTok serait la suivante :
– 75 % du chiffre d’affaires de TikTok proviendrait de la publicité ;
– 15 % proviendrait du commerce ;
– 10 % proviendrait des achats « in-app », achats intégrés effectués au sein de l’application permettant notamment d’acheter des cadeaux virtuels pour en faire don à des influenceurs ([118]).
Le chiffre d’affaires de la plateforme, au niveau mondial, se serait élevé à 39 milliards de dollars en 2024, soit une hausse de 63 % par rapport à l’année précédente ([119]). S’il reste largement en retrait par rapport à Meta, qui détient Facebook et Instagram et dont le chiffre d’affaires en 2024 s’est élevé à 164 milliards de dollars en 2024 (+ 20 % par rapport à 2023) ([120]), la très forte dynamique de croissance des revenus de TikTok est remarquable. Toutefois, TikTok étant détenu par ByteDance, une société non cotée en bourse, à la différence des autres grands réseaux sociaux, l’information financière disponible le concernant est extrêmement limitée, voire inexistante.
De fait, les travaux menés par la commission n’ont pas permis de déterminer avec précision le modèle économique de TikTok, pourtant essentiel à la compréhension des motivations de la plateforme. Lors des auditions, comme dans ses réponses aux questionnaires de la rapporteure, TikTok a refusé de transmettre certaines informations qu’il considère couvertes par le secret des affaires et n’a notamment pas précisé la répartition de ses revenus ni fourni d’ordre de grandeur concernant ses différentes sources de revenus.
En outre, les réponses de TikTok concernant le fonctionnement de son modèle économique se sont révélées au mieux évasives, et au pire insincères.
Interrogé sur l’intérêt que pouvait avoir TikTok à retenir les utilisateurs sur la plateforme, M. Arnaud Cabanis, responsable de l’activité commerciale France et Benelux de TikTok affirmait qu’il n’y avait pas de corrélation positive entre le temps passé sur la plateforme par les utilisateurs et le nombre d’espaces publicitaires pouvant être vendus : « l’algorithme prévoit de livrer, en moyenne, quatre publicités par jour et par utilisateur. Nous essayons donc de limiter les couloirs publicitaires » ([121]).
Or, en pratique, n’importe quel utilisateur de TikTok peut constater que l’exposition à la publicité sur TikTok est très importante : la fréquence des publicités est d’environ une vidéo sur trois sur le fil « Pour toi » ([122]). Confronté à un test fait en direct au cours de l’audition, M. Cabanis s’est défendu en indiquant que le chiffre indiqué de quatre publicités par jour et par utilisateur est une « moyenne quotidienne sur le marché français » ([123]) et que des réponses seraient apportées par écrit. Les réponses au questionnaire complémentaire adressé à TikTok à la suite des auditions du 12 juin 2025 n’ont cependant pas permis d’éclaircir ce point. Ainsi, aux questions suivantes : « Quel est le nombre d’expositions maximum à des publicités par jour pour un utilisateur français ? », « Quel est le nombre d’expositions maximum à des publicités pour un utilisateur français mineur ? », « Quelle est l’exposition moyenne pour les utilisateurs français pour une heure d’utilisation de l’application ? », « Quelle est l’exposition moyenne pour les utilisateurs français mineurs pour une heure d’utilisation de l’application ? », la réponse apportée par TikTok s’est invariablement limitée à « TikTok SAS ne détient ni ne contrôle ces données » ([124]).
Au regard de la fonction de M. Cabanis au sein de TikTok, qui dirige la régie publicitaire de TikTok en France et au Benelux et vend des espaces publicitaires à des annonceurs, on peut finalement interpréter cette limite de quatre publicités par jour et par utilisateur comme une limite d’exposition pour la publicité d’un seul annonceur. Un test pratique permet en effet de vérifier que malgré une forte exposition aux publicités, il est rare de voir plusieurs fois la même publicité au cours d’une session de visionnage de vidéos sur TikTok.
Ces échanges et l’impossibilité qui en résulte d’avoir une réponse claire sur la stratégie économique de TikTok reflète l’absence totale de transparence de TikTok sur ces sujets, pourtant déterminante pour comprendre le fonctionnement et les incitations du réseau social.
À cet égard, TikTok demeure une véritable boîte noire, et il est pour le moins surprenant qu’un responsable de la régie publicitaire d’un réseau social n’ait pas accès à des données aussi essentielles que le nombre moyen d’expositions à des publicités par utilisateur, par heure ou par jour. Cette absence de transparence interroge d’autant plus qu’il paraît évident qu’un annonceur souhaite connaître ce type d’indicateur afin d’évaluer l’efficacité de ses propres campagnes publicitaires.
On peut également légitimement s’interroger sur les raisons poussant un responsable de TikTok France à ne pas reconnaître un aspect pourtant évident du modèle économique de la plateforme : pour un réseau social reposant sur la publicité, les revenus sont directement corrélés au temps moyen passé par les utilisateurs car dans le cadre de l’économie de l’attention, TikTok monétise ce temps d’attention en le vendant à des annonceurs.
Il est révélateur qu’un acteur majeur de la protection des mineurs sur internet comme e-Enfance, premier signaleur de confiance désigné par l’Arcom en novembre 2024 dans le cadre de la mise en œuvre du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), ait choisi de quitter le comité d’experts sur la sécurité ou safety board de TikTok. Mme Justine Atlan, directrice générale de l’association e-Enfance, en expose ainsi les principales raisons : « je siégeais à ce comité, mais il était difficile de continuer à demeurer dans ce cadre de réflexions, dont les échanges étaient très intéressants, mais qui n’aboutissait finalement pas à des grandes nouveautés en termes de sécurité des enfants sur Internet. En tant qu’experts, nous pouvions partager nos étonnements – vous avez déjà évoqué dans votre commission la façon dont les algorithmes poussent un certain nombre de contenus défavorables à la santé mentale des mineurs. Mais nous avons fait le constat que le cœur du problème réside dans leur modèle économique et que leurs algorithmes n’étaient absolument pas contestés et travaillés. Nous passions notre temps à “colmater les brèches”, sans toucher le cœur du problème » ([125]).
d. L’impossible estimation de la valeur économique d’un utilisateur mineur pour TikTok
À l’instar des autres plateformes de réseaux sociaux, il demeure impossible de déterminer précisément comment TikTok monétise ses utilisateurs mineurs. Cette opacité complique la compréhension des incitations économiques qui pourraient conduire la plateforme à mieux protéger ce public, et limite l’évaluation de l’impact qu’aurait une interdiction d’accès à la plateforme en dessous d’un certain âge.
Les utilisateurs mineurs de TikTok sont exposés à la publicité, mais celle‑ci ne peut être ciblée : en application de l’article 28 du règlement DSA, une plateforme de réseau social telle que TikTok ne peut proposer de publicité qui repose sur le profilage « dès lors qu’[elle a] connaissance avec une certitude raisonnable que le destinataire du service est un mineur » ([126]). Ainsi, un utilisateur mineur semble, en apparence, présenter un intérêt économique nettement inférieur à celui d’un utilisateur majeur pour la plateforme.
Pourtant, il apparaît clairement que les réseaux sociaux, et TikTok en particulier, considèrent les utilisateurs mineurs comme une source de revenus déterminante à court ou moyen terme. Il faut donc « tenir compte de la socio-économie des plateformes et du fait qu’elles considèrent les jeunes comme une cible stratégique » ([127]) selon Mme Sophie Jehel, professeure en sciences de l’information et de la communication à l’Université Paris 8 Vincennes – Saint-Denis ([128]).
Mme Jadot, journaliste, auteure et réalisatrice du documentaire Emprise numérique, 5 femmes contre les Big 5, donne des pistes d’interprétation concernant l’intérêt des réseaux sociaux pour les utilisateurs mineurs : « pour continuer à grossir, les plateformes doivent s’assurer que les générations suivantes seront autant, voire plus accros que les précédentes. Cela passe par l’instauration précoce d’habitudes de connexion et par l’évitement de toute forme d’autorégulation chez les jeunes. Des documents internes révélés par des lanceurs d’alerte prouvent que ces entreprises analysent les vulnérabilités cognitives des jeunes pour maximiser leur engagement. Le modèle des plateformes repose donc sur un double levier : la vulnérabilité des jeunes et l’ignorance ou l’absence de réaction des adultes face à la puissance des algorithmes » ([129]).
Selon la journaliste, la priorité des réseaux sociaux serait donc de « monétiser » les enfants : elle évalue ainsi à 270 dollars la valeur d’un adolescent pour Instagram. On comprend donc bien l’intérêt économique que représentent les utilisateurs mineurs pour les réseaux sociaux : « sachant que plus de 1 milliard d’adolescents sont connectés aux plateformes, cette catégorie représente une cible économique et stratégique majeure. Certaines réalisent jusqu’à 41 % de leurs revenus grâce aux mineurs. Elles ont tout à gagner à capter l’attention des plus jeunes, dont le cerveau, encore en construction, est malléable – il n’est mature qu’à 25 ans » ([130]).
2. Un modèle lucratif pour certains influenceurs, fondé sur la viralité et l’outrance
a. Une économie de l’influence encore peu transparente
Le modèle économique des réseaux sociaux, et de TikTok en particulier, repose d’une part, sur l’augmentation du temps passé par les utilisateurs sur la plateforme ; d’autre part, sur leur participation active, à travers la création et la diffusion de contenus qui l’alimentent en permanence.
Les influenceurs, entendus comme les personnes qui « à titre onéreux, mobilisent leur notoriété auprès de leur audience pour communiquer au public, par voie électronique, des contenus visant à faire la promotion, directement ou indirectement, de biens, de services ou d’une cause quelconque » ([131]), ou plus généralement les créateurs de contenus, représentent en effet une catégorie bien spécifique d’utilisateurs de ces plateformes, notamment dans le cas de TikTok. En effet, alors que les réseaux sociaux des années 2010 reposaient principalement sur les contenus produits et partagés par un entourage proche, et donc sur la participation généralisée des utilisateurs à la production de contenus, le modèle a significativement évolué au cours des dernières années. Sur la plupart des réseaux sociaux (à quelques exceptions près, comme Snapchat), il existe désormais une distinction plus marquée entre les utilisateurs qui publient sur les plateformes, les créateurs de contenus, et ceux qui visionnent ces contenus, simples consommateurs désormais majoritaires.
Les influenceurs et créateurs de contenus sont donc également soumis à des incitations financières mises en places par les réseaux sociaux. Il est toutefois difficile d’estimer précisément les montants perçus par les créateurs de contenu.
M. Nasser Sari – connu sous le nom de Nasdas sur les réseaux sociaux – qui compte 3,8 millions d’abonnés sur TikTok et qui cumule des millions de vues sur le réseau social, affirmait devant la commission d’enquête ne « pas avoir dépassé la barre des 5 000 euros sur TikTok en cinq ans » ([132]). Dans le même temps, M. Sari affirmait que les montants versés par les autres réseaux sociaux, notamment Snapchat, atteignaient plusieurs centaines de milliers d’euros par mois ([133]).
M. Adrien Laurent, dit AD Laurent, dont le compte TikTok a été supprimé le 15 mai 2025, mais qui disposait de plus de 1,8 million d’abonnés sur la plateforme, affirmait gagner auparavant environ « 555 euros par mois » sur TikTok, des revenus « principalement issus de la monétisation du contenu publié » ([134]). Pour l’influenceur, « les règles encadrant la monétisation sont très floues […] les créateurs de contenu touchent entre 50 centimes et 1 euro toutes les 1 000 vues pour un contenu de plus d’une minute » ([135]).
M. Julien Tanti complète cette estimation, tout en soulignant à nouveau la complexité du système de rémunération de la plateforme : la rémunération pour une vidéo publiée « dépend du ratio par minute (RPM). Pour avoir un gros ratio, il faut poster dix vidéos de plus d’une minute par jour ; avec une seule par mois, notre ratio n’est que de 10 centimes : même si je fais 10 millions de vues sur une vidéo, je ne gagne qu’une centaine d’euros » ([136]).
Pour M. Morgan Lechat, professeur de physique-chimie et créateur de contenu scientifique sur TikTok (400 000 abonnés), indique quant à lui que la rémunération sur TikTok, pour les créateurs de contenus comptant plus de 10 000 abonnés, « s’élève à environ 30 ou 40 centimes pour mille vues, pour une vidéo dépassant une minute et respectant certains critères, notamment l’absence de violence, de nudité ou de contenu illégal » ([137]).
b. La fausse promesse de l’argent facile et rapide
Les revenus perçus par les influenceurs et créateurs de contenu grâce à leur activité sur TikTok peuvent atteindre des montants très significatifs. Les travaux de la commission n’ont pas permis d’analyser de manière exhaustive l’ensemble des sources de revenus des influenceurs et créateurs de contenu, tels que les placements de produits, les commissions sur ventes ou la commercialisation de formations, mais ont cherché à estimer les ordres de grandeur des sommes versées directement par la plateforme. Celles-ci proviennent principalement des revenus publicitaires, calculés en fonction du nombre de vues, ainsi que des dons effectués par les utilisateurs.
L’importance des revenus pouvant être perçus sur la plateforme incite les créateurs de contenus à se conformer aux règles, explicites ou implicites, de celle‑ci pour faire un contenu « qui marche ». Elle alimente également un fort attrait pour l’activité d’influenceur, renforcé par la mise en scène souvent ostentatoire de la richesse sur les réseaux sociaux.
Ainsi, pour les lives uniquement, « certains top livers reçoivent l’équivalent de plusieurs dizaines de milliers d’euros par mois sur TikTok LIVE » d’après M. Mogniat-Duclos, responsable France de TikTok LIVE ([138]). Le fait qu’il précise que cela ne concerne qu’une poignée de créateurs de contenus et non la majorité des livers, ne retire rien à la possibilité bien réelle de gagner des sommes très importantes à travers cette activité.
Les revenus des créateurs de contenus sur ces plateformes sont toutefois caractérisés par une grande variabilité, comme en témoigne M. Miloude Baraka, co-fondateur de Live’up Agency, agence qui accompagne les créateurs de contenu sur TikTok LIVE : « les revenus varient considérablement. Les influenceurs débutants gagnent entre 10 et 15 euros par mois. Comme dans toute activité, il y a une élite très restreinte qui performe exceptionnellement bien. Aujourd’hui, un TikTokeur très performant sur le live peut générer entre 10 000 et 20 000 euros par mois » ([139]).
Dans le contexte d’attrait croissant pour l’activité d’influence et de création de contenus, TikTok est, parmi les autres réseaux sociaux, peut-être celui qui permet aujourd’hui d’atteindre le plus grand nombre de personnes le plus rapidement, comme le décrit M. Sari : « pour percer, TikTok est un tremplin. Pour booster ses vidéos aussi. Pour gagner en visibilité, en notoriété et en audimat, le réseau principal aujourd’hui c’est TikTok » ([140]).
Toutefois, accéder à la notoriété sur la plateforme, tout comme s’y maintenir, demeure soumis à une forte incertitude, en raison de la volatilité des tendances et de l’opacité des mécanismes de mise en avant des contenus, comme le souligne Mme Herrero, sur la notoriété rapide et l’imprévisibilité : « Quand vous postez une vidéo, vous ne savez jamais si elle va toucher 10, 10 000 ou 100 000 personnes. Pour un créateur de contenus qui s’inscrit dans une démarche professionnelle ou qui recherche activement une audience, un tel fonctionnement revient à jouer à la roulette. Il est possible d’obtenir une certaine célébrité du jour au lendemain, puis d’avoir un nombre de vues qui plafonne, apparemment sans raison » ([141]).
c. Créer du trash pour exister : la course aux contenus extrêmes imposée par le modèle de rémunération de TikTok et son algorithme de recommandation
D’après les témoignages des créateurs de contenus eux-mêmes, les logiques de fonctionnement de TikTok, exercent une pression qui favorise la production de contenus plus clivants, au détriment de la nuance.
M. Sari, affirmait ainsi que « cela rapporte (…) plus d’argent de faire des dramas que de la pédagogie » ([142]).
« Arrêtez de croire au rêve de Nasdas »
Longtemps premier influenceur français sur Snapchat, Nasdas s’y est fait connaître à partir de 2018 en filmant le quotidien du quartier Saint-Jacques de Perpignan. Il s’est rapidement constitué une « team » : « une vingtaine de jeunes choisis par l’influenceur qu’il filme sans arrêt dans sa maison de Villelongue-de-la-Salanque […]. Parmi eux, mineurs isolés, SDF, ancienne prostituée, copains d’enfance au destin fracassé, à qui l’influenceur assure donner une chance » ([143]).
Si Nasdas a gagné en popularité en reversant une partie de l’argent gagné grâce à ses contenus Snapchat – l’influenceur aime à distribuer des liasses de billets dans la rue, « beaucoup d’internautes l’accusent, au contraire, d’exploiter [les] fragilité[s], d’orchestrer engueulades, réconciliations, ruptures. Les dérapages s’enchaînent : menaces au couteau, insultes, bagarres parfois devant des enfants. Tant que ça buzze sur Snapchat » ([144]) . Nasdas le reconnaît devant la commission d’enquête : « ce que vous considérez comme misogyne ou violent, nous appelons ça des dramas », admet-il. « Sur internet, sur TikTok, ce sont des dramas. Et je le reconnais, car je l’ai constaté, un drama fera largement plus de vues qu’une vidéo qui explique [comment fonctionne une commission d’enquête]… » ([145]).
Dramas et promesse d’ascension attirent : les mineurs sont nombreux à vouloir rejoindre la « team Nasdas », quitte parfois à traverser la France. « Il y a énormément de jeunes mineurs qui fuguent de leur ville pour venir à Perpignan : j’ai vu des enfants de 10 ou 11 ans attendre à 2 heures du matin dans mon quartier, pour me voir », confirme l’influenceur ([146]). Résultat : des enfants fatigués, isolés, souvent issus de l’aide sociale à l’enfance, qui ne rejoindront pas la villa perpignanaise. Le responsable d’un café du quartier raconte avoir « offert un thé à la menthe à un Parisien de 13 ans, le temps d’appeler la police. À l’aube, des jeunes épuisés par une nuit à la rue rôdent devant sa terrasse » ([147]).
Nasdas semble lui-même tenter de mettre fin au phénomène : « je dis et je redis – et vous pouvez aller vérifier : “Ne venez pas. Arrêtez de croire au rêve de Nasdas.” […] Le conseil que j’ai à donner à toute personne qui veut se lancer sur les réseaux ? Ne vous lancez pas sur les réseaux » ([148]). En juin 2025, l’influenceur a annoncé quitter les réseaux sociaux.
M. Tristan Duverné, doctorant, évoque les contenus produits par l’influenceur Adrien Laurent, auditionné par la commission le 10 juin 2025 ([149]) : « Du côté d’AD Laurent, cela se traduit par un jeu avec les limites normatives pour visibiliser son contenu en direct. Il provoque et joue avec les règles d’interaction, de politesse et de respect, commettant des offenses pour produire du spectacle. L’architecture de la plateforme inverse finalement l’économie des échanges verbaux, puisque le contenu du propos devient un moyen au service de la visibilité plutôt qu’une finalité en soi. La situation prend ainsi la forme d’un combat conversationnel où deux interlocuteurs s’affrontent par une surenchère d’offenses, produisant le clash et la polémique jusqu’à atteindre les limites de respect et de politesse permises par l’ordre interactionnel » ([150]).
M. Duverné, dont les recherches portent sur le rôle de TikTok dans la production d’offenses interactionnelles et de violences en ligne, souligne ainsi le rôle central joué par la violence et le caractère clivant des contenus dans leur viralité, ce qu’exploitent délibérément certains influenceurs et créateurs de contenus afin d’augmenter leur nombre de vues et de dons, dans une logique de profit : « ces offenses servent souvent à augmenter la visibilité. Dans le cas étudié, le débat sur la féminité de la streameuse a entraîné une augmentation de 45 % de l’audience en seulement deux minutes. Cette dynamique peut être observée à travers le compteur d’auditeurs, indicateur de visibilité intégré au live, qui atteste en temps réel de l’audience » ([151]).
Par ailleurs, la fréquence de publication des vidéos a un effet déterminant sur la rémunération que perçoivent les créateurs de contenus par vidéo publiée. Ceux-ci sont donc incités financièrement par la plateforme à produire un contenu régulièrement, parfois au détriment de la qualité, comme l’indique Mme Manon Tanti : « si on veut vraiment gagner de l’argent sur TikTok, il faut avoir un gros ratio et donc entrer dans l’algorithme. Et pour cela, il faut poster très souvent – au moins deux à trois vidéos par jour » ([152]).
Ainsi, le modèle économique de TikTok structure les comportements des influenceurs et créateurs de contenus et façonne des dynamiques d’interaction parfois délétères avec leur audience, comme le met en lumière M. Duverné : « une fois encore, nous constatons que l’économie propre à cette plateforme incite à la production de contenus rentables, dans la mesure où ceux-ci génèrent un soutien monétisé de l’audience. Cette dernière participe activement à la dynamique interactionnelle puisqu’elle peut soutenir, récompenser, encourager, mais également rejeter ou sanctionner les propos tenus en direct par les influenceurs. […] Sur TikTok, le contenu ne constitue plus une finalité en soi, mais devient un instrument au service de la visibilité. Pour capter l’attention et susciter l’engagement de l’audience, la transgression des normes ordinaires de respect et de politesse s’avère redoutablement efficace » ([153]).
3. Algorithme et design addictifs : le cocktail détonant de TikTok pour capter l’attention de l’utilisateur
a. Des dispositifs addictifs présents sur tous les réseaux sociaux les plus fréquentés
Si les entreprises éditrices de réseaux sociaux nient publiquement développer des fonctionnalités similaires à leurs concurrents lors de la sortie de ces nouvelles fonctionnalités, en pratique, lorsqu’une fonctionnalité est particulièrement appréciée par les utilisateurs, c’est-à-dire significativement prédatrice en matière de captation de l’attention, elle est recopiée et adaptée par l’ensemble des acteurs du secteur, dans la perspective d’éviter de perdre des parts de marché et de générer un maximum de revenus publicitaires. Cette spirale négative incite sans cesse les éditeurs à développer les algorithmes les plus prédateurs en matière d’attention, qui sont déployés à l’ensemble des utilisateurs lorsqu’ils réussissent l’A/B testing (« test A/B » en français) ([154]).
Selon M. Simon Corsin, fondateur de l’application Mindie, le développement d’un comportement addictif chez l’utilisateur est la résultante attendue d’un algorithme de recommandation qui fonctionne bien : « un algorithme de recommandation qui ne fonctionne pas ne sera pas addictif : si je vous montre les vidéos que vous n’aimez pas du tout, il n’y aura forcément pas de phénomène d’addiction. En revanche, si je réalise un très bon travail, que je vous donne les vidéos que vous voulez voir absolument et que vous n’arrivez pas à décrocher parce que vous êtes trop engagé dans cette application, cela signifie que l’algorithme de recommandation fonctionne extrêmement bien. Chaque application essaie d’atteindre ce niveau » ([155]).
Ces dispositifs et les conséquences des choix algorithmiques sont d’autant plus pernicieux pour les publics les plus fragiles, tels que les mineurs, qu’ils ont moins conscience de ces mécanismes et peuvent dès lors prendre moins de mesures pour s’en protéger.
b. Le développement du format court et vertical
Afin de fluidifier l’expérience de l’utilisateur et dans la mesure où l’usage du smartphone comme terminal a pris une place prépondérante, les acteurs du marché ont adapté le format des vidéos afin de réduire les frictions pour filmer et consommer du contenu vidéo. Le format vertical pour la vidéo s’est ainsi standardisé au cours de la dernière décennie. Par ailleurs, d’après M. Corsin, le modèle de fil vertical de vidéos à défilement infini, développé par Mindie puis par Musical.ly et enfin par TikTok, a influencé l’ensemble des éditeurs d’application diffusant du contenu vidéo.
TikTok a en effet imposé un nouveau format pour les réseaux sociaux, à savoir le défilement infini de vidéos courtes, ce qui a eu pour effet de favoriser la diffusion de contenus extrêmes, ainsi que le décrit M. Petit : « Tiktok joue vraiment un rôle de vitrine par rapport aux autres plateformes. Les contenus sont beaucoup plus courts et potentiellement plus viraux que ceux publiés sur d’autres médias sociaux, ce qui permet aux influenceurs d’attirer un public qui ne les connaît pas nécessairement. TikTok soumet directement des contenus aux utilisateurs, sans qu’ils aient forcément le temps d’identifier leur créateur, ni même leur titre. Vous êtes donc directement exposé à des images et à des discours, ce qui laisse plus de chance à des propos plus radicaux, différents de votre idéologie ou de votre vision du monde, de vous convaincre » ([156]).
Ce format très court des vidéos sur TikTok rend par ailleurs plus complexe l’évaluation des effets concrets et de la portée des contenus extrêmes diffusés sur la plateforme, comme l’explique M. Petit : « les contenus sur TikTok étant très courts, les vues commencent très rapidement. Cela ne signifie pas que 300 000 personnes ont regardé la vidéo en entier, mais que ce contenu a été conseillé à 300 000 personnes : la nuance est importante » ([157]).
Ainsi, tant le défilement sans fin et sans temps mort entre les contenus, que le format court et facile à consommer (parfois dénommé « snack content »), sont de nature à désorienter les utilisateurs, notamment en leur faisant perdre la notion du temps.
c. Une réduction des actions requises par les utilisateurs ou l’éloge de la passivité : l’efficacité des algorithmes de TikTok
Là où les anciens modèles des réseaux sociaux demandaient à l’utilisateur de choisir parmi plusieurs contenus et de s’abonner à des comptes pour accéder à leurs publications futures, le modèle développé par TikTok n’implique plus aucune action positive de l’utilisateur mais repose quasi exclusivement sur des signaux comportementaux. « Auparavant, un signal existait, le “like”, mais il devient de moins en moins utilisé », explique M. Corsin, qui relève que, s’agissant des nouveaux algorithmes de recommandation, « les développeurs […] traquent les métriques (metrics) clés, comme le temps passé sur l’application chaque jour, le temps passé sur une vidéo, le nombre de vidéos regardées » ([158]). L’utilisateur demeure passif et n’opère plus aucun choix mis à part celui de passer au contenu suivant. Dès lors, un type de contenu provoquant une forme de sidération chez l’utilisateur, qui cesse momentanément de faire défiler, sera de nouveau proposé par la suite, l’algorithme interprétant cette pause comme un signe d’intérêt.
d. Une personnalisation accrue du contenu affiché
La possibilité pour TikTok de déterminer en temps réel, en fonction du comportement de l’utilisateur, les contenus qui lui seront ensuite montrés, fait toute sa spécificité.
L’ultra-personnalisation des contenus expose l’utilisateur au risque de se retrouver enfermé et isolé intellectuellement, du fait d’une sélection algorithmique opérée à son insu et par suite d’une réduction de la diversité des informations qui lui sont présentées. L’auteur Eli Pariser désigne ce phénomène par le nom de « bulle de filtres ».
Dans le même temps, l’utilisateur peut se retrouver dans des « chambres d’écho », où certaines informations, idées ou croyances sont amplifiées, renforcées, et rarement remises en question. La perte de contrôle de l’utilisateur et la difficulté à interrompre une consommation prolongée et irrationnelle de ces contenus sont désignées par l’expression anglaise « rabbit hole effect » (ou « effet terrier de lapin » en français) ([159]). Cet « effet terrier de lapin » est particulièrement présent sur TikTok du fait de son « puissant algorithme », qui « suggérera des vidéos allant dans le même sens que celles que l’utilisateur a déjà regardées », comme l’explique Mme Taïeb. « S’il commence à regarder des contenus antisémites ou avec des fake news, il lui en proposera davantage. C’est cela qui entraîne une spirale de radicalisation » ([160]).
En matière de personnalisation des contenus affichés, TikTok, fort d’algorithmes de recommandation hautement efficaces, fait figure de précurseur. L’application analyse, en temps réel, le comportement de l’utilisateur pour que chaque vidéo soit toujours plus proche de ses intérêts. Selon M. Corsin, « [l]es premiers algorithmes étaient quelque peu limités et TikTok a contribué à transformer le paysage. L’algorithme de TikTok est dynamique et recommande aux utilisateurs des contenus lors de l’utilisation de l’application en elle-même. TikTok détecte les contenus appréciés par les utilisateurs et essaye de trouver des contenus similaires. L’une des caractéristiques de TikTok repose précisément sur sa capacité rapide d’apprentissage ». « TikTok se distingue par sa capacité à analyser en temps réel l’activité de ses utilisateurs, enrichissant ainsi l’algorithme par des données relatives à leurs préférences, leurs pensées et sentiments. Ceci contribue à l’extraordinaire capacité de la plateforme de servir du contenu personnalisé et ciblé », confirme Mme Sihem Amer-Yahia, directrice de recherche au CNRS.
Mme Taïeb partage ce constat et souligne la spécificité de TikTok en matière de spirales de contenus : selon elle, l’efficacité toxique de l’algorithme de TikTok est « très supérieure à ce qu’on trouve sur Instagram, Facebook, X ou YouTube ». Toute l’architecture de TikTok est en réalité conçue pour piéger l’utilisateur dans une boucle infinie de contenus similaires, comme le décrit Mme Laurence Allard : « structurellement, TikTok expose à des contenus répétitifs qui, par leur récurrence, ont une grande force d’influence. C’est l’application la plus efficace pour enfermer l’utilisateur dans ses centres d’intérêt et ses opinions, et donc pour les renforcer. Le problème ne tient pas tant au contenu des messages qu’à la forme de l’interface : elle est conçue autour de trois boucles – le défilement, la répétition, l’algorithme – qui renforcent la possibilité d’être influencé, négativement ou positivement » ([161]).
Ces spirales de contenus sur TikTok sont irrésistibles : même l’utilisateur volontaire aura de grandes difficultés à modifier les contenus qui lui sont proposés. D’après Mme Allard, « d’un point de vue formel, l’algorithme de TikTok est plus enfermant que celui d’autres applications. Il est difficile pour l’utilisateur de le corriger, de le forcer à s’ouvrir à d’autres centres d’intérêt, d’autres tendances et d’autres cercles de contacts » ([162]).
Selon TikTok ([163]), son algorithme de recommandation répond à un objectif de diversification des contenus présentés dans le fil « Pour toi ». Toutefois, en ne présentant pas exclusivement du contenu pleinement apprécié par l’utilisateur dans le fil « Pour toi », et donc en ne satisfaisant qu’aléatoirement ses attentes, cela peut générer chez lui une frustration et une incertitude de nature à lui faire passer, en fin de compte, plus de temps sur la plateforme en retardant le moment où il se lasse et quitte la session.
Face à ces mécanismes fabriqués pour capter l’attention, le DSA impose aux plateformes, telles que TikTok, la mise à disposition pour les utilisateurs d’un fil d’actualité sans personnalisation. Il apparaît toutefois que celui-ci est bien moins attractif pour les utilisateurs, et par suite bien peu activé.
e. La viralité à tout prix – un algorithme qui met en avant les contenus extrêmes pour faire des vues… et défendre un agenda politique ?
L’algorithme de recommandation de TikTok est conçu afin que soient mis en avant sur la plateforme les contenus les plus extrêmes et radicaux, toujours dans un souci de captation maximale de l’attention de l’utilisateur.
M. Petit relève ainsi la promotion par l’algorithme de TikTok de contenus djihadistes : « les petits comptes n’ont pas besoin de diffuser des publicités : le fonctionnement opaque de la plateforme et de l’algorithme se charge de pousser les contenus problématiques. Ainsi, un compte de moins de 300 abonnés pourra percer et atteindre 300 000 vues grâce à une vidéo glorifiant par exemple un tueur djihadiste ayant fait cinquante morts. C’est un phénomène que l’on voit rarement sur d’autres plateformes, mais qui est très fréquent sur TikTok » ([164]).
M. Boursier observe quant à lui des phénomènes similaires de mise en avant par l’algorithme de recommandation de contenus sexistes et masculinistes : « selon des études faites par des équipes de recherche états-uniennes, il faut environ une quinzaine de minutes pour tomber sur des contenus masculinistes radicaux sur TikTok. Mes propres recherches montrent aussi que tout va extrêmement vite s’agissant de l’extrême droite » ([165]).
Au regard des constats réalisés par MM. Petit et Boursier, il est difficile de ne pas conclure à une intention manifeste des concepteurs de l’algorithme de la plateforme de mettre en avant les contenus les plus radicaux, même si ceux-ci ne sont pas représentatifs des utilisateurs et de leurs opinions. Les réticences de TikTok à agir pour corriger les biais de son algorithme de recommandation apparaissent ainsi particulièrement malhonnêtes : la plateforme « dit publiquement ne pas avoir la capacité d’agir sur les algorithmes ; on ne pourrait donc rien y faire, et pourtant leur comportement montre clairement l’existence d’une éditorialisation » ([166]), comme le souligne M. Micheron.
Or, cette mise en avant de contenus radicaux par les paramètres des algorithmes de TikTok a des conséquences manifestes et dramatiques, ce sur quoi insiste M. Micheron en ce qui concerne le terrorisme islamiste : « on ne réglera pas le problème du djihadisme tant que, dans l’état actuel des choses, on n’aura pas empêché TikTok de fonctionner comme il le fait actuellement » ([167]).
Plus encore, il y aurait selon M. Micheron un véritable agenda politique caché derrière l’algorithme de recommandation de TikTok, dont les paramètres seraient modifiés sciemment par la plateforme pour favoriser la mise en avant de certains contenus plutôt que d’autres : « les mêmes algorithmes font la promotion de contenus très radicaux liés au salafisme et au djihadisme, à l’extrême droite et à d’autres mouvances dites à risque, mais censurent en Chine ce qui concerne la répression des Ouïghours et font la promotion des sciences mathématiques auprès des jeunes. Cela signifie que des gens paramètrent les algorithmes dans un sens ou dans un autre, en fonction de leurs intérêts » ([168]).
Pour réguler ces algorithmes, la tâche du législateur est d’autant plus ardue qu’à la différence de « la recette du Coca-Cola [qui] ne bouge pas, […] les algorithmes de recommandation des réseaux sociaux peuvent être modifiés presque au jour le jour » ([169]), comme le précise M. Abiteboul.
f. Le principe de récompense aléatoire ou comment les algorithmes des réseaux sociaux s’inspirent des jeux d’argent
Les algorithmes de recommandation de contenus des réseaux sociaux, et en particulier de TikTok, exploitent largement le principe de récompense aléatoire – ou effet machine à sous – pour maximiser le temps passé par les utilisateurs sur ces plateformes. M. Stora insiste sur la puissance de ce mécanisme, destiné à rendre plus addictive l’expérience de l’utilisateur de ces réseaux sociaux, à travers un processus de gamification qui consiste, « après cinq à dix minutes de navigation, à insérer délibérément une vidéo sans lien apparent avec les préférences habituelles de l’utilisateur, souvent anxiogène ou dissonante. Cette rupture cognitive suscite un sentiment de manque, incitant l’utilisateur à relancer frénétiquement le défilement, dans l’espoir de retrouver un contenu plus gratifiant » ([170]).
g. Notifications push et notifications in-app
En plus des nombreux mécanismes addictifs précédemment exposés, des messages appelés « notifications » incitent les utilisateurs à revenir sur l’application ou à utiliser de nouvelles fonctionnalités.
Si les notifications push ([171]) et les notifications in-app ([172]) se chevauchent parfois, notamment lorsqu’un utilisateur reçoit un message privé ([173]), les notifications in-app sont généralement plus nombreuses. Dans de nombreux cas, les utilisateurs sont incités à modifier leur comportement en étant encouragés à consulter davantage de contenu, à utiliser TikTok Shop ou encore TikTok LIVE, dans une logique de maximisation des revenus par une massification des usages les plus rémunérateurs. En effet, à titre d’exemple, TikTok conserve 50 % des revenus générés par les cadeaux virtuels donnés par les utilisateurs et effectivement retirés par les créateurs.
C. TikTok se caractérise par une audience particulièrement élevée chez les mineurs, en termes tant de couverture que de durée d’utilisation
La mesure de l’audience des médias est un exercice qui se heurte à d’importantes difficultés. « La mesure des usages et du temps passé devant un média est une tâche très complexe », indique à ce titre M. Yannick Carriou, président-directeur général de Médiamétrie, qui précise notamment que son entreprise ne se fonde pas sur « [d]es mesures purement déclaratives, consistant à demander aux gens combien de temps ils passent devant un média, [qui] donnent des résultats aléatoires et imprécis » ([174]).
Appliquées à l’audience des réseaux sociaux, ces difficultés ressortent à la lecture des estimations effectuées par différentes institutions.
Ainsi, pour le second semestre 2024 :
– TikTok fait état de 25,1 millions d’utilisateurs actifs mensuels en France ([175]) ;
– l’entreprise de mesure d’audiences Médiamétrie en dénombre 23,5 millions ([176]).
Pour le premier semestre 2024 :
– TikTok déclare 24,7 millions d’utilisateurs actifs mensuels en France ([177]) ;
– Médiamétrie en comptabilise 27,9 millions ([178]).
Médiamétrie indique toutefois avoir procédé à une évolution méthodologique en septembre 2024, qui a conduit à une diminution des audiences mesurées pour TikTok, et illustre encore les difficultés rencontrées pour évaluer précisément le nombre d’utilisateurs des réseaux sociaux.
L’ensemble de ces mesures situe l’audience de TikTok à plus de 40 % de la population française de plus de 15 ans ([179]), et autour de 35 % de l’ensemble de la population française ([180]).
b. Les biais spécifiques à la mesure de l’audience des réseaux sociaux auprès des mineurs
En l’absence de contrôle systématique et efficace de l’âge des utilisateurs des plateformes (voir infra), il n’est pas pertinent de se fier à l’âge déclaré à la création d’un compte sur les réseaux sociaux. Cette limite est particulièrement valable pour les mineurs :
– d’une part, puisqu’il est impossible de créer un compte en déclarant un âge inférieur à 13 ans, les utilisateurs de moins de 13 ans ont nécessairement déclaré un âge supérieur ;
– d’autre part, certains utilisateurs de 13 à 17 ans peuvent être tentés de se déclarer majeurs, afin d’accéder à l’entièreté des fonctionnalités des réseaux sociaux ([181]).
À ce titre, le chiffrage des utilisateurs mineurs de TikTok effectué par la plateforme, en fonction des âges déclarés, est manifestement en dessous de la réalité ([182]).
C’est ce que constatent, en pratique, les créateurs de contenus. M. Hugo Travers, journaliste et vidéaste présent sur TikTok sous le pseudonyme Hugo Décrypte relève « une difficulté majeure » : « l’impossibilité d’accéder aux statistiques concernant les utilisateurs mineurs ». M. Nasser Sari, créateur de contenus sous le pseudonyme Nasdas, confirme n’avoir « pas réussi à voir le nombre de mineurs qui [l]e regardent ». En « tentant de compiler les données disponibles » M. Anna Baldy « arrive à une proportion de mineurs d’environ 0,5 % » parmi ses followers. Pourtant, les créateurs de contenus sont bien conscients d’être suivis par un nombre important de mineurs : M. Travers indique recevoir « [de] nombreuses questions […] sur des sujets tels que les examens, le baccalauréat ou le brevet », et Mme Baldy « des commentaires […] mentionnant des expériences lycéennes ou des demandes liés à des projets scolaires » ([183]).
Quand on sait qu’en moyenne chaque foyer dispose de dix écrans ([184]), il est nécessaire de prendre en compte la variété des modes d’utilisation des réseaux sociaux par les enfants et les adolescents – notamment, il convient de souligner qu’utilisation des réseaux sociaux n’équivaut pas à inscription sur les réseaux sociaux.
M. Carriou indique ainsi mesurer « uniquement les usages, et non la nature de ces derniers » : il distingue les données de consommation et les inscriptions – « un enfant peut tout à fait utiliser le compte TikTok d’un de ses parents, voire pirater un compte » ([185]).
Les difficultés méthodologiques relatives à la mesure de l’audience des réseaux sociaux n’empêchent pas l’établissement d’un constat clair : dans une société où l’utilisation des outils numériques et des réseaux sociaux est en augmentation constante, TikTok est largement plébiscité par les mineurs.
Selon le Centre de recherche pour l’étude et l’observation des conditions de vie (CRÉDOC) ([186]), la population française est « toujours plus équipée et connectée » : 94 % des Français sont connectés à Internet et 84 % le sont quotidiennement, tandis que plus de 9 Français sur 10 possèdent un smartphone ([187]).
ÉVOLUTION DE LA PART DE LA POPULATION ÉQUIPÉE D’UN SMARTPHONE DEPUIS 2011
Source : commission d’enquête d’après le CREDOC
Le CREDOC mesure que près de la moitié de la population – 44 % – estime passer 2 heures ou moins par jour sur son smartphone ; 32 % y consacrent entre 2 et 5 heures, et 8 % indiquent y passer plus de 5 heures.
L’équipement numérique est particulièrement important chez les mineurs. 96 % des Français de 12 à 17 ans possède un smartphone, un taux supérieur de cinq points à celui de la population générale ([188]).
Cet équipement s’accompagne d’un temps d’utilisation élevé : 42 % des enfants de 12 à 17 ans passent 2 à 5 heures par jour devant un smartphone ([189]). Une utilisation massive qui peut parfois s’apparenter à une dépendance à l’outil numérique : dans le cadre d’une étude menée par l’association e-Enfance / 3018 ([190]), il a été montré que 24 % des jeunes équipés d’un smartphone ne tiendraient pas plus d’une heure sans ce dernier – cette proportion s’élève à 28 % parmi les lycéens et à 22 % à l’école primaire.
La très grande majorité de la population utilise les plateformes de réseaux sociaux : 9 internautes sur 10 consultent au moins un réseau social, et les trois‑quarts – soit les deux-tiers des Français – les consultent plusieurs fois par jour ou tous les jours ou presque ([191]).
Ces chiffres ont fortement augmenté depuis 2020. M. Carriou décrit la période de la crise sanitaire comme un « accélér[ateur] [d]es tendances » : « ayant tous été bloqués chez nous et, pour une part, oisifs, nous avons été exposés à l’intégralité des offres média disponibles, avec tout le temps nécessaire pour les tester. Or, parfois, “l’essayer, c’est l’adopter”, pour reprendre un slogan célèbre » ([192]).
L’entreprise de mesure d’audiences relève ainsi que le temps passé par la population française sur les réseaux sociaux et messageries a augmenté de 86 % depuis 2020 ([193]). Toutes les plateformes ont vu leur nombre d’utilisateurs quotidiens progresser : celui de Facebook a augmenté de 347 %. L’une des dernières arrivées sur le marché (2018), TikTok a bénéficié de la hausse la plus importante : l’application a gagné 354 % d’utilisateurs français supplémentaires entre janvier 2020 et janvier 2025.
ÉVOLUTION DU NOMBRE DE VISITEURS QUOTIDIENS DES PRINCIPAUX RÉSEAUX SOCIAUX DEPUIS 2020
(en millions)
Source : commission d’enquête d’après Médiamétrie
Les mineurs ne sont pas en reste et ont très largement essayé, et adopté, les diverses plateformes de réseaux sociaux.
Selon l’association e-Enfance ([194]), 86 % des Français de 8 à 18 ans sont inscrits sur les réseaux sociaux. La réalité dépasse donc largement l’interdiction théorique des réseaux sociaux aux mineurs de moins de 13 ans (voir infra) puisque 67 % des élèves de primaire, et 65 % des enfants de 6 à 8 ans, sont inscrits sur les réseaux sociaux. Chez leurs aînés, la non inscription sur les réseaux sociaux est, de loin, l’exception – elle concerne seulement 7 % des collégiens et 4 % des lycéens.
Les mineurs de 12 à 17 ans font partie des plus enclins à une utilisation quotidienne des réseaux sociaux : 58 % d’entre eux consultent les réseaux sociaux tous les jours ou plusieurs fois par jour, dépassés par la seule tranche des 25-39 ans (59 %) ([195]).
UTILISATION QUOTIDIENNE DES RÉSEAUX SOCIAUX EN FONCTION DE L’ÂGE EN 2024
Source : commission d’enquête d’après le CREDOC.
Les mineurs représentent en outre l’une des tranches de la population consacrant le plus de temps quotidien aux réseaux sociaux. Selon Médiamétrie ([196]), les Français de 11 à 17 ans qui utilisent les réseaux sociaux et les messageries y passent en moyenne 3 heures et 11 minutes par jour, soit 27 minutes de moins que les 15-24 ans mais 1 heure et 15 minutes de plus que l’ensemble de la population. Ils y consacrent 64 % de leur temps quotidien d’utilisation d’internet, tandis que la population générale y réserve 39 % de ce temps.
La principale raison de l’usage des réseaux sociaux par les mineurs est son « immense valeur sociale » : M. Mehdi Arfaoui, sociologue au Laboratoire d’innovation numérique de la CNIL, souligne « le rôle essentiel que jouent les outils numériques et les réseaux sociaux pour de nombreux collégiens, tant pour s’intégrer et développer des liens sociaux que pour construire leur identité » ([197]). M. Arthur Melon, délégué général du Conseil français des associations pour les droits de l’enfant (Cofrade), confirme que les adolescents soulignent que les plateformes « permettent de rompre une certaine solitude, […] apprécient […] la possibilité de maintenir le contact avec leur famille à l’étranger grâce à des communications gratuites via wifi, […] et reconnaissent aussi l’efficacité des réseaux sociaux pour une communication rapide et une mobilisation facile […] » ([198]). Cet aspect est à toutefois nuancer en fonction du réseau social dont on parle. S’agissant de Tiktok, il n’est que très peu utilisé pour communiquer avec ses proches, à l’inverse d’Instagram ou de Snapchat.
TikTok est l’une des applications les plus utilisées par les mineurs. « Tous les utilisateurs de TikTok ne sont pas des adolescents, mais tous les adolescents sont sur TikTok », constate Mme Herrero, auteure d’une enquête sur TikTok ([199]).
L’application est effectivement utilisée par une large part des mineurs : dans le cadre de la consultation citoyenne menée par la commission d’enquête, 72 % des répondants de 16 à 18 ans et 64 % de ceux de 12 à 15 ans affirment consulter TikTok au moins une fois par jour.
Selon Médiamétrie ([200]), 64 % des enfants de 11 à 17 ans l’utilisent tous les mois, et 40 % chaque jour.
AUDIENCE DES PRINCIPAUX RÉSEAUX SOCIAUX AUPRÈS DES FRANÇAIS DE 11 À 17 ANS EN JANVIER 2025
Source : commission d’enquête d’après Médiamétrie.
En comparaison, TikTok est relativement peu consulté par l’ensemble de la population : seuls 36 % des Français utilisent l’application chaque mois, et 16 % le font quotidiennement ([201]).
AUDIENCE DES PRINCIPAUX RÉSEAUX SOCIAUX AUPRÈS DE L’ENSEMBLE DES FRANÇAIS EN JANVIER 2025
Source : commission d’enquête d’après Médiamétrie.
De ce fait, non seulement TikTok touche une majorité des Français mineurs, mais les mineurs constituent une large part de l’audience de TikTok. Celle-ci se caractérise en effet par sa jeunesse : 14 % de ses utilisateurs ont entre 12 et 17 ans, contre 16 % pour Snapchat mais 10 % pour YouTube et Instagram, 8 % pour Facebook et 6 % pour X ([202]).
Surtout, TikTok se distingue de ses concurrents comme l’une des plateformes – si ce n’est la plateforme – sur lesquelles les mineurs passent le plus de temps. Selon Médiamétrie, les utilisateurs de TikTok de 11 à 17 ans passent en moyenne 1 heure et 28 minutes par jour sur l’application, contre 1 heure et 9 minutes s’agissant de la population générale et 1 heure et 18 minutes pour les utilisateurs de 15 à 24 ans. TikTok n’est surpassé que par Snapchat, auquel les utilisateurs de 11 à 17 ans consacrent en moyenne 1 heure et 49 minutes par jour.
Selon l’Arcom ([203]), TikTok est même la plateforme sur laquelle les adolescents (12-17 ans) passent le plus de temps – en moyenne 40 heures et 53 minutes par mois, soit 1 heure et 21 minutes par jour.
D’autres constats peuvent être plus inquiétants encore. M. Hugo Micheron, enseignant-chercheur en sciences politiques, rapporte : « quand vous demandez à des enfants, dans une classe, combien de temps ils passent en moyenne sur TikTok, c’est plutôt six ou sept heures par jour. Une enseignante qui fait un travail de conscientisation en classe m’a signalé que certaines réponses étaient même “autant que possible” » ([204]).
Parmi les répondants à la consultation publique menée par la commission d’enquête, seuls 15 % des mineurs de 12 à 15 ans ont déclaré passer en moyenne moins d’une heure sur TikTok – 33 % indiquent passer entre une et deux heures sur l’application, 24 % entre deux et trois heures, 14 % entre trois et quatre heures, 7 % entre 4 et 5 heures et 8 % plus de cinq heures.
TEMPS D’UTILISATION QUOTIDIEN DES DIFFÉRENTS RÉSEAUX SOCIAUX PAR LES MINEURS DE 12 À 15 ANS AYANT RÉPONDU À LA CONSULTATION PUBLIQUE
Source : consultation publique de la commission d’enquête
17 % des 12-15 ans et 18 % des 16-18 ans qui ont répondu à la consultation citoyenne indiquent ressentir des difficultés à ne pas utiliser TikTok pendant plusieurs heures ; 28 % des 12-15 ans et 33 % des 16-18 ans indiquent ressentir des difficultés à ne pas utiliser TikTok pendant un jour.
Le succès de TikTok auprès des mineurs tient notamment à son « modèle d’interface [qui] rend la plateforme attractive et séduisante », selon M. Mehdi Arfaoui : « pour rechercher de l’information ou interagir avec un proche, un jeune sera attiré par l’outil qui se présente comme le plus facile et agréable » ([205]).
TikTok constitue d’abord un espace de divertissement, vers lequel les enfants et les adolescents peuvent se tourner pour combattre l’ennui et l’angoisse. « Garçons et filles se rendent aussi sur TikTok pour s’amuser : beaucoup de vidéos les font rire, alors qu’ils vivent dans un environnement angoissant. Cela leur permet de décompresser », indique Mme Jennifer Elbaz, chargée du mission éducation au numérique à la CNIL ([206]). Selon le Dr Serge Tisseron, psychiatre « certains y trouvent un refuge apaisant face à un monde anxiogène, créant ce qu’ils appellent leur “safe place” » ([207]). Il ajoute que « les jeunes affirment utiliser TikTok principalement pour combattre l’ennui » ([208]).
La plateforme est également un référentiel partagé par les adolescents. Mme X. témoigne ainsi : « J’arrive à vivre sans TikTok. Il y a certaines semaines où je ne vais pas sur l’application. Cependant, je continue à y aller pour ne pas être en décalage complet avec les gens de mon âge, pour rester à la page. C’est un outil qui fait désormais partie de notre société et de ma génération » ([209]).
Alors que le travail de la recherche nécessite du temps – celui d’obtenir des données fiables, de les observer et de les analyser –, le domaine des outils numériques et des réseaux sociaux est en constante évolution. « Quant à un éventuel diagnostic, peut-on vraiment l’établir ? (...) Nous ne sommes plus dans la même situation qu’il y a vingt ou vingt-cinq ans : le temps de la technique est beaucoup plus rapide que celui de la science, en particulier sur les questions de santé mentale », regrette Sophie Jehel, professeure en sciences de l’information et de la communication à l’Université Paris 8 Vincennes ([210]). Grégoire Borst, professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris Cité, et directeur du Laboratoire de psychologie du développement et de l’éducation de l’enfant (LaPsyDÉ – CNRS), ajoute que « le temps de la recherche diffère de celui de l’observation clinique » ([211]).
Du fait de la relative nouveauté des réseaux sociaux, et particulièrement de TikTok, créé en 2016 et arrivé en France en 2018, la recherche commence seulement à disposer du recul nécessaire pour évaluer les conséquences psychologiques de leur usage. La science a besoin d’études longitudinales, c’est-à-dire de suivis d’échantillons représentatifs de la population sur le temps long, pour démontrer les conséquences d’un phénomène sur la santé mentale des individus.
Le principal écueil serait de confondre corrélation et causalité : si la dégradation de la santé mentale des jeunes (voir infra) semble parallèle à la montée en puissance de l’usage des outils numériques, des réseaux sociaux et de TikTok, il est difficile d’établir scientifiquement que ceux-ci, parmi les différents facteurs contribuant à cette dégradation, en sont la principale cause.
Mme Sarah Sauneron, directrice générale de la santé par intérim, indique à ce titre que « les données en matière de santé mentale s’avèrent […] plus complexes à analyser. Si nous observons une corrélation évidente, le débat porte encore sur l’établissement d’un lien de causalité direct. Il n’est pas encore établi que les troubles préexistants incitent les jeunes à se réfugier davantage dans les écrans, ou si ces derniers en sont la cause » ([212]).
Sur ce point, la recherche rencontre en effet plusieurs difficultés.
D’une part, l’exercice d’établissement d’un lien de causalité entre usage des réseaux sociaux et dégradation de la santé mentale est périlleux face à une population adolescente extrêmement hétérogène. « Un […] défi majeur réside dans l’hétérogénéité de la population adolescente », indique en effet le professeur Grégoire Borst ([213]).
Il faut notamment prendre en compte :
– les différences de genre : selon le professeur Borst, celles-ci « sont particulièrement marquées, avec des dynamiques de développement cérébral distinctes entre filles et garçons, engendrant des facteurs de vulnérabilité spécifiques à chaque sexe » ([214]) ;
– de manière plus globale, « [l]es interactions complexes [qui] existent en fonction de l’âge et des vulnérabilités préexistantes » : le professeur Borst rappelle que l’adolescence « est caractérisée par une variabilité interindividuelle exceptionnelle, notamment en raison du neurodéveloppement » ([215]).
D’autre part, l’établissement d’un lien de causalité direct et exclusif entre dégradation de la santé mentale des jeunes et utilisation des réseaux sociaux se heurte à la dimension multifactorielle de la problématique.
« Pour avoir une vision plus globale et mieux appréhender les réalités, il faut sortir d’une lecture binaire et adopter une approche davantage multifactorielle, qui conjugue les témoignages de terrains et les statistiques à grande échelle, puisque c’est celle des algorithmes de l’[intelligence artificielle] » , indique le professeur Sophie Jehel ([216]). « La multiplicité des facteurs en jeu est source de difficultés pour les chercheurs et empêche les études d’être totalement conclusives », souligne-t-elle. Selon Mme Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie, « la santé mentale des jeunes est multidimensionnelle : les réseaux sociaux peuvent l’affecter, en particulier en cas de cyberharcèlement, mais d’autres éléments interviennent […] » ([217]).
Alors que la dégradation de la santé mentale des jeunes tient à une multitude de facteurs, la difficulté est d’isoler les effets de l’utilisation des réseaux sociaux. Le professeur Borst confirme à ce titre que « la complexité survient lorsqu’il s’agit d’identifier précisément la contribution de chaque facteur dans les mécanismes de vulnérabilité » ([218]).
À cela s’ajoute, selon le professeur Serge Tisseron, « la diversité des usages » ([219]) qu’il est fait des réseaux sociaux : défilement de vidéos sans interaction et communication via les fonctionnalités de messagerie n’influent pas de la même façon sur le bien-être mental des utilisateurs.
Le facteur principal de vulnérabilité face aux écrans : l’environnement familial
Une étude ([220]), menée notamment par M. Jonathan Bernard, affilié à l’Institut national de la santé et de la recherche médicale (Inserm) et au Centre national de la recherche scientifique (CNRS), s’est intéressée aux données de près de 14 000 enfants de la cohorte française Elfe ([221]), collectées de leur 2 ans à leur 5 ans et demi, entre 2013 et 2017.
Si cette nouvelle étude montre une relation négative entre le temps d’exposition aux écrans et le développement, elle met aussi en évidence que cette relation n’est pas vraie pour tous les domaines de la cognition et qu’elle est différente lorsque le cadre de vie familial est correctement pris en compte. M. Michael Stora, psychologue et psychanaliste, co-fondateur de l’Observatoire des mondes numériques en sciences humaines, précise qu’il est démontré que « les effets délétères des écrans sont considérablement accrus dans les milieux où le dialogue parental est faible et où règne une précarité sociale ou relationnelle importante. À l’inverse, dans des familles où les parents sont disponibles, où les échanges sont fréquents et constructifs, ces effets sont nettement atténués. Il existe donc une forme d’injustice structurelle selon laquelle les réseaux sociaux ont un impact plus destructeur dans les contextes déjà fragilisés ou incertains » ([222]).
Les observations cliniques sont nombreuses, mais si elles ont le mérite de mettre en lumière les cas les plus graves de surexposition aux écrans, elles ne permettent pas d’appréhender de manière satisfaisante les effets psychologiques de l’utilisation des réseaux sociaux sur l’ensemble de la population
En parallèle, les études scientifiques sont encore insuffisantes pour étayer la certitude d’un lien de causalité entre utilisation des réseaux sociaux et déclin de la santé mentale. Si plusieurs études ont été menées, elles sont peu nombreuses ou ne sont pas toujours probantes. Le professeur Serge Tisseron rappelle ainsi qu’il est « primordial de distinguer les études de corrélation, nombreuses, des études de causalité, plus rares […] » ([223]). Mme Erhel confirme : « les études existent mais elles sont surtout corrélationnelles, c’est-à-dire qu’elles évaluent des associations ; certaines, longitudinales, parviennent à démontrer des causalités, mais elles sont peu nombreuses » ([224]). Dans certains domaines, les effets de l’exposition aux écrans sont plus difficiles à démontrer – « les études sur les conséquences des écrans sur le neurodéveloppement des enfants et des adolescents nécessitent encore d’être approfondies », relevaient par exemple les membres de la commission « enfants et écrans » ([225]).
Réseau social « junior », TikTok ne fait pas encore l’objet d’une littérature exhaustive. M. Antonin Atger, doctorant en psychologie sociale, indique : « en termes synthétiques, on ne connaît pas de lien de causalité directe entre l’état de santé mentale et l’usage de TikTok. Il est très difficile d’établir un tel lien sur le plan scientifique, car cela supposerait une étude longitudinale dont la réalisation est compliquée » ([226]). Le professeur Borst explique quant à lui le manque d’études sur le réseau social chinois par la difficulté de « distinguer précisément l’usage d’un réseau social par rapport à un autre. Nous observons des parts d’utilisation relatives, mais en l’absence d’une mise en place complète du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), nous ne disposons pas encore de toutes les données des plateformes qui nous permettraient de différencier exactement l’utilisation de TikTok par rapport à celle d’Instagram » ([227]).
c. La faute aux plateformes ? Documents caviardés et enquêtes internes, à rebours des plans de communication des entreprises de réseaux sociaux
Consciente de tous les biais méthodologiques exposés précédemment, la rapporteure estime que les plateformes ne sont pas neutres dans les difficultés rencontrées aujourd’hui pour établir un lien de causalité entre utilisation des réseaux sociaux et dégradation de la santé mentale des mineurs.
Les entreprises de réseaux sociaux ont en effet mis en œuvre des plans de communication musclés pour gagner la confiance du public. Mme Jadot, réalisatrice du documentaire Emprise numérique, 5 femmes contre les Big 5, souligne que « depuis vingt ans, les plateformes affirment publiquement – notamment devant le Sénat américain – qu’il n’existe aucune étude établissant un lien de causalité direct entre les réseaux sociaux et la santé mentale des mineurs, voire présentent des contre-études qui prouveraient que ce sont des outils formidables pour les enfants. Cet enjeu est au cœur de leur stratégie de communication » ([228]).
Pourtant, certaines plateformes ont elles-mêmes identifié les potentiels effets délétères de leurs applications, sans toutefois informer le public de leurs constats. Selon M. Olivier Ertzscheid, chercheur en sciences de l’information et de la communication, il s’agit là du dernier des « trois grands mensonges [qui] ont marqué l’ère postindustrielle, perpétrés par l’industrie du tabac, par celle du pétrole, et par les plateformes sociales, en réalité parfaitement au courant de leurs impacts sur la santé publique, mais qui n’en persistent pas moins dans un déni permanent, jusqu’à ce que des lanceurs d’alerte parviennent à documenter ce qu’il s’y passe » ([229]).
Plusieurs documents internes ont été révélés, démontrant la parfaite connaissance par les plateformes des risques inhérents à l’utilisation des réseaux sociaux. « Leurs propres études internes montrent combien ces réseaux sont catastrophiques pour la santé mentale des mineurs », déplore Mme Jadot, faisant référence aux « Facebook Files », révélés en 2021 par la lanceuse d’alerte Mme Frances Haugen, ancienne employée de Facebook. Ces documents internes, publiés par le Wall Street Journal ([230]), montraient que deux adolescentes sur trois avaient souffert de la comparaison sociale sur Instagram, et que parmi celles ayant une image négative de leurs corps, une adolescente sur trois s’était sentie plus mal encore en utilisant Instagram.
3. Plusieurs consensus forts partagés par la communauté scientifique
Certains spécialistes sont plus catégoriques et alarmistes que d’autres. Il en est ainsi de M. Jonathan Haidt qui met en avant quatre dégâts indéniables : le premier est la privation sociale, le second est le manque de sommeil et ses conséquences (anxiété, irritabilité, déficits cognitifs, difficultés d’apprentissage…) le troisième est la fragmentation de l’attention et, enfin, le quatrième dégât fondamental est l’addiction.
En matière d’effets sur la santé mentale des mineurs, la docteure Sylvie Dieu-Osika, pédiatre, souligne que si les réseaux sociaux ont « des effets positifs comme la connexion sociale », « ces réseaux amplifient les vulnérabilités individuelles, perturbent les processus biologiques et émotionnels, notamment le sommeil et l’humeur, et renforcent des dynamiques sociales délétères telles que la comparaison sociale » ([231]). Elle précise par ailleurs que « la comparaison sociale permanente, facilitée par le caractère visuel et quantifiable des interactions sur les réseaux sociaux, a des répercussions importantes sur l’estime de soi et le bien-être mental » ([232]).
L’utilisation substantielle des réseaux sociaux, notamment en raison de la dépendance qu’ils génèrent chez les utilisateurs mineurs du fait de leur conception même, induit également des risques pour la santé physique de ceux-ci sur le long terme. En ce sens, Mme Servane Mouton relève que « d’une manière générale, les activités sur écran favorisent la sédentarité et augmentent ainsi les risques d’accidents cardiovasculaires, d’obésité et de diabète de type 2 » mais également « la myopie en raison du manque d’exposition à la lumière naturelle, de la surexposition à la lumière bleue émise par les écrans de type LED, et de la sursollicitation de la vision de près » ([233]).
Mais, même pour les plus nuancés, un consensus fort est établi sur certains effets de l’utilisation des réseaux sociaux. C’est ce que reconnaît le professeur Borst : « nous sommes unanimes sur le constat selon lequel les adolescents rencontrent des difficultés. De même, il est indéniable que les réseaux exploitent certaines vulnérabilités cérébrales, particulièrement chez les adolescents, les incitant à rester connectés plus longtemps. De plus, les preuves sont solides concernant l’impact négatif de l’exposition à la lumière artificielle des écrans sur le sommeil, avec des répercussions en cascade sur la santé physique et mentale. La question de la sédentarité ne fait pas non plus débat » ([234]). « S’agissant du cyberharcèlement, on peut commencer à parler de causalité », indique Mme Erhel ([235]).
En outre, si l’établissement d’un lien de causalité entre utilisation des réseaux sociaux et dégradation du bien-être mental, le phénomène d’amplification de vulnérabilités psychologiques existantes semble être largement reconnu. Mme Erhel évoque ainsi « des analyses bivariées qui examinent les liens entre, par exemple, des symptômes de dépression ou d’anxiété et l’utilisation des réseaux sociaux : des individus ayant des vulnérabilités arrivent sur les réseaux sociaux où les algorithmes, notamment, les exposent à des contenus qui aggravent leurs difficultés et leurs symptômes » ([236]). M. Atger explique en ce sens que « nous disposons d’un bon nombre de méta-analyses et qu’un consensus entre plusieurs études montre un lien assez fort entre un usage démesuré de TikTok et des troubles mentaux anxieux. On peut donc imaginer que, même s’il n’y a pas de lien direct, l’anxiété d’une personne anxieuse peut être décuplée sur TikTok à cause du contenu qu’elle y trouve. Cela ne concerne toutefois pas seulement TikTok ni les seuls mineurs et, si TikTok peut amplifier ce phénomène, il n’en est pas nécessairement la cause » ([237]).
B. Du divertissement au drame : les effets dévastateurs de TikTok sur la santé mentale des mineurs
1. La préoccupante dégradation de la santé mentale des jeunes constitue un terrain propice
Les effets psychologiques de l’utilisation de TikTok par les mineurs doivent être analysés à l’aune d’un contexte spécifique : celui d’une vulnérabilité psychologique accrue à la préadolescence et à l’adolescence et, bien souvent, d’une santé mentale déjà fragilisée chez les mineurs.
a. L’adolescence, une période charnière, marquée par une plus grande vulnérabilité sur le plan psychologique
Il ne saurait être question d’analyser les conséquences psychologiques liées à l’utilisation de TikTok par les mineurs sans rappeler qu’ils ne sont pas des utilisateurs comme les autres, mais des publics particulièrement vulnérables, devant faire l’objet d’une attention spécifique et d’une protection renforcée.
À l’adolescence, on se construit dans le miroir des autres, et avec un réseau social comme TikTok, ce miroir est démultiplié, amplifiant les comparaisons, les injonctions, la pression des pairs, et potentiellement les souffrances, comme le souligne Mme Copti, diététicienne-nutritionniste : « l’adolescence est une période charnière, marquée par des bouleversements corporels, une quête d’identité, une construction fragile de l’estime de soi. C’est une période où l’on se cherche, où l’on s’inspire et se compare. Comme une cour de récréation, TikTok devient alors un lieu d’identification et de comparaison envahissant. On ne parle plus d’un cercle de quelques camarades, mais de milliers – voire de millions – de profils, souvent retouchés, mis en scène, idéalisés » ([238]).
Cette période de fragilité psychologique coïncide avec l’émergence effective de pathologies psychiatriques, comme le décrit la pédiatre Dr Sylvie Dieu-Osika: « d’un point de vue médical, l’adolescence est une période critique pour l’apparition de nombreuses pathologies psychiatriques. On observe des pics d’incidence pour les troubles du comportement alimentaire vers 15 ans, potentiellement exacerbés par l’utilisation de réseaux comme TikTok qui valorisent certains standards corporels. S’y ajoutent les troubles obsessionnels compulsifs, les troubles anxieux, les addictions, les troubles de l’humeur, les troubles de la personnalité, et les premiers signes de schizophrénie. La vulnérabilité intrinsèque à l’adolescence s’étend de 10 à 25 ans, touchant tous les jeunes à des degrés divers, modulés par leur environnement familial » ([239]).
L’enfance et l’adolescence sont donc des périodes de vulnérabilité psychologique, que les usages numériques ont tendance à accentuer. En effet, l’espace numérique constitue en lui-même un espace où les risques pour les mineurs sont amplifiés, comme l’explique le Haut Conseil de la Famille, de l’Enfance et de l’Âge (HCFEA) : « les usages permanents et “pour tout” du numérique peuvent avoir des effets de banalisation des frontières entre l’espace public et la vie privée. Ceci génère une banalisation ludique et narcissique de l’exposition de l’intimité, du corps, voire de la sexualité. Pour les adolescents, ils peuvent induire l’accès ou la diffusion de contenus inappropriés, de photos ou données personnelles qui peuvent s’avérer préjudiciables, situations de honte, manipulations, parfois harcèlement et jusqu’à des formes de prédation. La toile est une sphère aux bords flous entre le privé et la voie publique » ([240]).
Dans ce cadre, l’utilisation des réseaux sociaux présente inévitablement davantage de risques, non seulement parce que l’enfant est moins armé pour faire face aux dynamiques nocives de ces plateformes, mais aussi parce que celles-ci sont conçues pour exploiter ses vulnérabilités et favoriser une forme de dépendance, comme le met en avant Mme Sabine Duflo, psychologue clinicienne : « l’adolescent est un être en construction, en particulier en ce qui concerne les fonctions exécutives, c’est-à-dire les capacités à planifier, à dire non, à se limiter face à la tentation, à se restreindre. Chez l’adolescent, ces capacités ne sont pas encore matures. Les plateformes, qui connaissent très bien les fragilités des usagers pour mieux capter leur attention avant de vendre leurs données aux annonceurs, représentent donc un risque pour tous les enfants et adolescents » ([241]).
Enfin, à un âge où l’on se cherche et où l’on se laisse plus facilement influencer, les préadolescents et adolescents sont particulièrement exposés à la manipulation psychologique, souvent insidieuse, que favorisent les réseaux sociaux comme TikTok. D’après le Haut Conseil de la Famille, de l’Enfance et de l’Âge (HCFEA), ces processus d’influence comme la suggestion ou l’emprise mentale « peuvent être individuels mais aussi collectifs : communications virales d’influenceurs de pensée, plus ou moins désintéressés idéologiquement et financièrement, relayés par des réseaux, licites ou pas, eux-mêmes plus ou moins institutionnalisés » ([242]). Les phénomènes de fake news, de « théories du complot », s’ajoutent aux « flottements » liés au développement de la personnalité, propres à la préadolescence.
b. Une détérioration préoccupante de la santé mentale des mineurs…
Pour appréhender les effets psychologiques de TikTok sur les mineurs, il est essentiel de rappeler que leur santé mentale s’est significativement dégradée au cours des dernières années, constituant aujourd’hui un enjeu majeur de santé publique. « La détresse psychique des jeunes – particulièrement des jeunes filles – atteint à présent des proportions dramatiques », déploraient en décembre 2024 Mesdames Nicole Dubré-Chirat et Sandrine Rousseau, députées, rapporteures de la mission d’information de la commission des affaires sociales sur la prise en charge des urgences psychiatriques.
Les résultats sur la santé mentale de l’enquête EnCLASS 2022 ([243]), conduite à partir de données recueillies auprès de 9 337 élèves du secondaire en France hexagonale, montre que :
– les collégiens et lycéens ont connu une nette dégradation de leur santé mentale entre 2018 et 2022, avec une dégradation plus marquée pour les jeunes filles ;
– 14 % des collégiens et 15 % des lycéens présentent un risque important de dépression ;
– concernant les comportements suicidaires, 24 % des lycéens ont déclaré avoir eu des pensées suicidaires au cours des douze derniers mois, et à nouveau, les filles sont plus concernées que les garçons (31 % contre 17 %) ;
– un lycéen sur dix a déclaré avoir fait une tentative de suicide au cours de sa vie.
Concernant les plus jeunes, l’enquête Enabee de Santé publique France sur le bien-être et la santé mentale des enfants de 3 à 11 ans, menée en 2022 dans des écoles avec l’appui des ministères de l’éducation nationale et de la santé, a établi que :
– 13 % des enfants de 6 à 11 ans scolarisés présenteraient au moins un trouble probable de santé mentale. D’après la direction générale de la santé, « ce chiffre est cohérent avec les données internationales, mais il est élevé et les pays voisins sont eux-mêmes inquiets » ([244]) ;
– 8,3 % des enfants de 3 à 6 ans présentent une difficulté probable sur le plan de la santé mentale.
Le rapport au ministère chargé de la Sécurité sociale et au Parlement sur l’évolution des charges et des produits de l’Assurance Maladie au titre de 2025 ([245]) observe qu’entre 2019 et 2023, les effectifs de jeunes (12-25 ans) traités par antidépresseurs ont connu une progression très importante de 60 %, soit 143 600 jeunes en plus. En 2023, 33 jeunes sur 1 000 étaient traités par antidépresseurs, et étaient en très grande majorité de sexe féminin (71 %, soit 384 000 personnes).
La santé mentale des jeunes est donc devenue une problématique importante, en lien avec la crise sanitaire et l’augmentation des troubles psychologiques chez les jeunes : durant la crise sanitaire, une forte augmentation des passages aux urgences pour geste suicidaires et troubles de l’humeur chez les enfants de moins de 15 ans a été observée ([246]). Et à ce jour, « 30 à 40 % de la population adolescente présente des symptômes dépressifs » ([247]) selon les estimations du professeur Borst.
Ce constat dépasse le seul cadre national : à l’échelle mondiale, d’après les travaux de l’OMS ([248]), la dépression est l’une des principales causes de morbidité et d’invalidité chez les adolescents. Les problèmes de santé mentale représentent 16 % de la charge mondiale de morbidité et de blessures chez les personnes âgées de 10 à 19 ans, et avant les impacts de la pandémie Covid-19, le suicide était déjà la troisième cause de mortalité chez les 15-19 ans.
Dans ce contexte de fragilisation de la santé mentale des jeunes, il convient également de souligner un biais de genre notable, les filles étant plus fréquemment concernées par des troubles psychologiques que les garçons. Le rapport du Haut Conseil de la Famille, de l’Enfance et de l’Âge (HCFEA) La traversée adolescente des années collège souligne l’écart persistant entre les filles et les garçons en matière de santé mentale, et en analyse les principaux facteurs : la période de l’adolescence est globalement moins bien vécue par les filles, dès lors qu’elles subissent plus fortement la pression sociale qui consiste à les assigner à un rôle social, à des comportements et apparences socialement acceptables, qui les conduit à faire de l’image qu’elles renvoient une variable déterminante de leur bien‑être. Les filles sont également plus souvent la cible d’agressions – physiques et verbales – et de harcèlement ([249]).
Le 6ème rapport de l’Observatoire national du suicide (Direction de la recherche, des éudes, de l’évaluation et des statistiques – DREES, février 2025) ([250]) fait état d’une situation de vulnérabilité particulière chez les jeunes femmes et constate :
– une très forte augmentation des hospitalisations pour gestes auto‑infligés (GAI, incluant tentatives de suicide et automutilations) chez les adolescentes et les femmes de moins de 25 ans depuis 2017. Cette hausse s’est accélérée à partir de 2021 et persiste au-delà de la période post-covid : 516 femmes de 15 à 19 ans sur 100 000 ont été hospitalisées en 2023 pour GAI (+ 46 % par rapport à 2017), plus de quatre fois le taux observé chez les hommes (113 sur 100 000) ;
– une forte différenciation sociale avec un écart très marqué des taux d’hospitalisation pour GAI en fonction du niveau de vie : ces taux sont plus élevés chez les plus modestes, et plus faibles chez les plus aisés. Pour tous les niveaux de vie, les femmes sont particulièrement vulnérables entre 15 et 19 ans mais plus particulièrement celles appartenant aux 25 % des ménages les plus modestes ;
– une augmentation du nombre de morts par suicide de près de 40 % entre 2020 et 2022 chez les jeunes femmes ; une augmentation de 63 % des tentatives de suicide chez les filles de 10 à 14 ans en 2022, et de 42 % pour la tranche d’âge 15‑19 ans.
Ces disparités de genre ne se limitent pas à la France : aux États-Unis, « le raz-de-marée d’anxiété, de dépression et d’actes d’automutilation touche davantage les filles, et parmi elles surtout les préadolescentes, que les garçons » ([251]) d’après M. Jonathan Haidt.
c. … qui n’est pas sans lien avec une utilisation intensive des réseaux sociaux
Si la santé mentale des enfants s’est dégradée au cours des dernières années, il est désormais établi que les réseaux sociaux ont contribué à amplifier ce phénomène, comme l’atteste Mme Sarah Sauneron, directrice générale par intérim à la Direction générale de la santé : « sur le temps long, nous observons une augmentation continue des troubles anxio‑dépressifs depuis 2010, avec une accélération à la suite du covid. Parmi les facteurs corrélés à ces troubles, nous identifions le niveau social, la sédentarité et, de manière particulièrement marquée, un temps d’exposition aux écrans supérieur à cinq heures quotidiennes, indépendamment des autres facteurs. Cette corrélation s’observe dans tous les pays et coïncide précisément avec l’essor des réseaux sociaux. Nous pouvons donc légitimement établir un effet significatif des réseaux sociaux sur la santé mentale, particulièrement chez les jeunes préalablement vulnérables dans ce domaine » ([252]).
Mme Katia Roux, chargée de plaidoyer à Amnesty International France, décrit le processus par lequel les réseaux sociaux comme TikTok peuvent affecter la santé mentale des utilisateurs, notamment les plus jeunes : « sur le réseau, les utilisateurs peuvent très rapidement basculer dans ces espaces de contenus toxiques. Des jeunes, qui peuvent être plus sensibles, plus influençables et a fortiori ceux qui présentent des problèmes de santé mentale, sont beaucoup plus vulnérables et vont être littéralement entraînés dans des spirales de contenu toxique, des “rabbit’s holes” dont il est extrêmement difficile de s’extraire » ([253]).
De nombreuses recherches confirment ces observations sur le lien entre la détérioration de la santé mentale et l’exposition aux réseaux sociaux.
Ainsi, l’utilisation intensive d’un réseau social, de même que l’« oversharing » (partage incontrôlé d’aspects de la vie privée) particulièrement présent sur TikTok sont associés à des niveaux élevés d’anxiété, de dépression et de comportements agressifs, d’après une étude menée en décembre 2024 par les professeurs Ruth Castillo-Gualda et Juan Ramos-Cejudo, de l’Universidad Camilo José Cela (UCJC) ([254]). Cette étude décrit que 55 % des symptômes d’anxiété et 52 % des symptômes de dépression sont liés à cette utilisation intensive des réseaux sociaux.
Une enquête menée par l’Autorité danoise de la concurrence et des consommateurs (Konkurrence- og Forbrugerstyrelsen) auprès de 3 445 jeunes Danois âgés de 8 à 25 et de 2 381 parents, dont les conclusions ont été publiées en février 2025, « Young Consumers and Social Media » ([255]), a quant à elle montré qu’une utilisation excessive des réseaux sociaux était associée à une baisse du bien‑être, à une diminution de l’estime de soi et à une augmentation des symptômes dépressifs chez les jeunes.
Les effets des réseaux sociaux sur la santé mentale sont particulièrement accentués chez les filles, qui sont bien plus exposées aux effets négatifs de ces plateformes que les garçons.
Au Royaume-Uni, selon un rapport de la commission de l’éducation de la Chambre des communes portant sur l’impact du temps d’écran sur l’éducation et le bien-être ([256]), l’exposition accrue des jeunes filles et des femmes aux dangers en ligne est particulièrement préoccupante, contribuant notamment à la hausse des problèmes de santé mentale et des troubles de l’alimentation. En effet, 81 % des filles et femmes âgées de 7 à 21 ans auraient subi une forme de comportement menaçant ou traumatisant en ligne.
Dans le même pays, l’étude Millenium Cohort qui a suivi près de 19 000 enfants nés en 2000-2001 jusqu’à la fin de l’adolescence montre qu’il y a un lien de corrélation entre temps passé sur les réseaux sociaux et la dépression, qui est démultiplié chez les filles : « pour les filles, le rapport de cause à effet est à la fois plus flagrant et plus systématique. Plus une fille passe de temps sur les réseaux sociaux, plus elle est susceptible d’être déprimée. Celles qui déclarent passer cinq heures ou plus chaque jour sur les réseaux sociaux ont trois fois plus de risques de souffrir de dépression que celles qui n’y vont pas du tout » ([257]).
En Australie, les hospitalisations pour automutilation chez les filles de 15 à 19 ans ont augmenté de 70 % entre 2008 et 2022 d’après les recherches menées par la Sleep Health Foundation – une dynamique préoccupante que l’on peut associer à la proportion de jeunes Australiens ayant été exposés à des contenus relatifs au suicide ou à l’automutilation sur les réseaux sociaux, qui s’élèverait à 83 % ([258]).
2. TikTok, un outil d’amplification mortifère des troubles psychiques entre les mains de nos enfants
Dans un contexte où la santé mentale des enfants est déjà fragilisée et où la préadolescence et l’adolescence représentent des périodes de vulnérabilité psychologique avec une prévalence importante de l’anxiété, de la dépression ou des comportements addictifs, TikTok fait bien l’effet d’une bombe aux effets dévastateurs sur ses utilisateurs les plus jeunes. L’utilisation du réseau social peut aggraver de manière significative des troubles psychiques existants, voire contribuer à leur apparition. Pour reprendre les mots de M. Michael Stora, « ces plateformes, bien qu’immatérielles, produisent des effets tangibles aux conséquences souvent inquiétantes » ([259]) : dans le cas de TikTok, ces conséquences peuvent être dramatiques.
a. « Spirales » de contenus néfastes et ciblage algorithmique des thématiques liées aux vulnérabilités psychologiques des jeunes : le fonctionnement de TikTok à l’origine du problème
En raison de son architecture algorithmique, TikTok représente un environnement fondamentalement inadapté à la protection des mineurs, notamment les plus vulnérables d’entre eux. Loin d’être un espace sûr, TikTok est un véritable terrain miné pour les enfants, confrontés à la mise en avant de contenus dangereux qui les ciblent spécifiquement, et aux « spirales » de contenus néfastes qui les enferment dans des boucles morbides.
Si l’algorithme de recommandation de TikTok ne cherche sans doute pas délibérément à promouvoir des contenus dangereux, notamment liés aux troubles psychiques des adolescents, sa logique de captation maximale de l’attention conduit inévitablement à exploiter les vulnérabilités des utilisateurs, en particulier les plus jeunes.
C’est le constat que fait Mme Katia Roux, chargée de plaidoyer à Amnesty International France : « TikTok peut être un espace toxique et addictif pour les jeunes et les enfants, en raison d’une part du système de recommandation algorithmique de la plateforme, et d’autre part de ses pratiques très intrusives de collecte de données personnelles. […] Concrètement, le système algorithmique de TikTok expose des jeunes, des enfants, à de graves risques de santé mentale grâce à une conception addictive, qui exploite leurs vulnérabilités psychologiques afin de maximiser leur participation en ligne et, finalement, maximiser ses profits » ([260]).
L’efficacité sinistre de TikTok est renforcée par la capacité de la plateforme à déterminer de manière très fine le profil d’un utilisateur à travers l’exploitation des nombreuses données que celui-ci lui communique, volontairement ou involontairement, comme le décrit Mme Roux : « TikTok s’immisce dans la vie privée de ses utilisateurs et utilisatrices en pistant littéralement toutes les activités en ligne, les contenus visualisés, partagés, commentés, aimés par les jeunes utilisateurs. L’objectif de l’outil consiste ici à deviner leurs centres d’intérêt, leur état émotionnel, leur niveau de bien-être, puis de diffuser des contenus ultrapersonnalisés dans le fil “Pour toi” de la plateforme, qui s’appuie sur la collecte massive de données personnelles » ([261]).
Le fonctionnement de l’algorithme de recommandation de TikTok, qui cible les fragilités psychologiques des utilisateurs, en particulier mineurs, a pour effet de démultiplier les risques auxquels ils sont exposés. Plusieurs études révèlent ainsi une surexposition des comptes de mineurs à des contenus dangereux, notamment liés à la dépression, au suicide, à l’automutilation ou aux troubles du comportement alimentaire.
Le constat de Mme Elisa Jadot s’applique ainsi particulièrement à TikTok : « la dépression est un thème central dans l’univers adolescent ; les plateformes l’identifient comme un sujet stratégique et la mettent automatiquement en avant dans les contenus suggérés » ([262]).
Mme Roux évoque l’enquête « Poussé·e·s vers les ténèbres : Comment le fil “Pour toi” encourage l’automutilation et les idées suicidaires » ([263]), menée par Amnesty International, qui montre que « les enfants, les jeunes qui regardent des contenus relatifs à la santé mentale, sur la page “Pour toi” vont facilement tomber dans des spirales de contenus néfastes, de contenus potentiellement dangereux, notamment des vidéos qui viennent banaliser, voire idéaliser la dépression, l’automutilation ou le suicide. Selon notre enquête technique à partir de comptes que nous avons gérés manuellement, il ne faut qu’entre trois et vingt minutes pour que les fils “Pour toi” soient inondés de ces vidéos qui peuvent aller jusqu’à encourager le suicide » ([264]).
Des constats établis de longue date – les études du Center for Countering Digital Hate et d’Amnesty International sur les spirales de contenus néfastes et le ciblage des vulnérabilités des utilisateurs mineurs sur TikTok
En décembre 2022, le Center for Countering Digital Hate a publié une étude sur la mise en avant des contenus dangereux sur TikTok. Celle-ci constatait que les personnes vulnérables se voient proposer de manière quasiment immédiate des contenus dangereux, à une fréquence beaucoup plus élevée qu’un utilisateur standard ([265]).
Pour cette étude, plusieurs comptes de mineurs ont été créés sur l’application aux États‑Unis, au Royaume-Uni, au Canada et en Australie. Ces comptes étaient paramétrés comme appartenant à des mineurs de 13 ans, et avaient pour seule autre caractéristique le fait de s’arrêter brièvement sur les vidéos liées à l’apparence corporelle (body image) et à la santé mentale.
Les résultats de l’expérience menée étaient alarmants : au bout de 2,6 minutes en moyenne, TikTok recommandait à ces comptes des vidéos sur le suicide. Au bout de 8 minutes, la plateforme proposait des contenus sur les troubles alimentaires. Toutes les 39 secondes, TikTok recommandait aux comptes d’adolescents des vidéos sur l’apparence corporelle et la santé mentale. Enfin, par rapport à des comptes standards, ces comptes correspondant à des personnes vulnérables se voyaient proposer 12 fois plus de vidéos relatives à l’automutilation et au suicide.
Cette surexposition des utilisateurs vulnérables à des contenus dangereux participe de l’effet amplificateur de TikTok sur les problèmes psychologiques.
Le rapport d’Amnesty International, « Poussé·e·s vers les ténèbres : Comment le fil “Pour toi” encourage l’automutilation et les idées suicidaires » ([266]) confirme quant à lui que la stratégie de TikTok pour capter l’attention des utilisateurs peut contribuer à aggraver des problèmes de santé mentale comme la dépression ou l’anxiété et encourager l’automutilation. L’enquête s’appuie sur les résultats de deux simulations. La première se fonde sur des comptes automatisés qui ont été paramétrés de manière à représenter des enfants de 13 ans au Kenya et aux États-Unis afin de mesurer les effets du système de recommandation de TikTok sur les jeunes utilisateurs et utilisatrices. La deuxième simulation, exécutée manuellement, a été réalisée sur trois comptes distincts, un au Kenya, un aux Philippines et un aux États-Unis.
Ces simulations ont révélé qu’au bout de cinq ou six heures passées sur la plateforme, près d’une vidéo sur deux était relative à la santé mentale et potentiellement nocive, soit un volume 10 fois plus important que celui présenté aux comptes n’ayant indiqué aucun intérêt pour le sujet.
L’effet de « spirale » était encore plus rapide et manifeste lorsque l’équipe de recherche revisionnait manuellement des vidéos concernant la santé mentale qui avaient été suggérées : entre 3 et 20 minutes après le début de l’étude manuelle, plus de la moitié des vidéos du fil « Pour toi » étaient en rapport avec les problèmes de santé mentale, et de nombreuses vidéos recommandées en l’espace d’une heure seulement idéalisaient, banalisaient voire encourageaient le suicide.
b. Fragiles avant, en grande détresse après : quand TikTok amplifie des troubles psychiques préexistants
L’exposition répétée à ces contenus nocifs a des effets inévitablement destructeurs pour les utilisateurs mineurs de TikTok. Y compris lorsqu’il s’agit de chercher de l’aide pour répondre à une détresse psychologique, la force des images sur un public mineur, bien plus réceptif que les adultes à leur impact psychologique et émotionnel, peut provoquer un véritable effet de sidération, au détriment des mots, de la parole thérapeutique et de l’interaction sociale directe avec des professionnels.
TikTok peut au premier abord donner l’illusion d’un refuge, en ce qu’il permet de retrouver une communauté de personnes traversant des difficultés similaires, on y cherche du soutien, mais ses effets néfastes n’en sont alors que renforcés et les troubles psychiques aggravés par l’effet d’enfermement que crée la plateforme, telle une mécanique implacable conçue pour se refermer sur sa cible. Parfois considérée comme une « safe place », TikTok est aussi un lieu d’enfermement autour de thématiques négatives. Mme X témoigne ainsi s’être « beaucoup renfermée sur la plateforme », qui « a été un peu comme un refuge, même si, en même temps, [elle] savai[t] que c’était malsain » ([267]).
Il convient de souligner la solitude des enfants face aux contenus nocifs auxquels ils sont exposés sur internet, et notamment sur TikTok, et l’impossibilité de pouvoir partager les traumatismes qui en résultent, qui a inévitablement des effets sur leur santé mentale. À la question « lorsqu’il vous est arrivé de voir des contenus problématiques, en avez-vous parlé avec vos amis ou votre famille ? », Mme X a répondu « je n’en parlais pas à l’époque parce que j’en avais honte », et M. Z. : « je partageais ces contenus avec mes amis pour leur montrer mon mal-être. Sinon, je n’en ai pas vraiment parlé. Une fois, avec ma mère, nous avions parlé de la nocivité des réseaux avec des amis, mais ils n’avaient pas dit qu’ils recevaient des contenus nocifs » ([268]).
En définitive, TikTok agit comme un amplificateur des troubles psychiques chez les utilisateurs les plus vulnérables, en particulier les mineurs. Le constat de Mme Erhel, maître de conférences en psychologie cognitive et ergonomie, relatif à cet effet amplificateur que peut avoir l’utilisation des réseaux sociaux sur les troubles psychiques dont souffrent de nombreux enfants s’applique particulièrement à TikTok : « les études que j’ai menées montrent que les adolescents qui […] utilisent beaucoup [les réseaux sociaux] sont vulnérables : il est possible que les réseaux servent de refuge en cas de difficultés psychologiques ou intrafamiliales. Pris dans des spirales de contenus qui font écho à leurs symptômes dépressifs, les jeunes concernés tendent à y rester enfermés » ([269]).
M. Bruno Gameliel décrit l’exacerbation des troubles psychiques induits par l’utilisation de TikTok chez les enfants « présentant des singularités ou des problématiques neurologiques. Cela inclut les troubles de l’attention avec ou sans hyperactivité (TDAH), les troubles « dys » (dysphasie, dyslexie, dysorthographie, dyspraxie, etc.), les phobies scolaires et sociales, ainsi que les enfants à haut potentiel. Pour tous ces profils, l’usage intensif des écrans, et particulièrement de TikTok, accentue les difficultés existantes » ([270]).
Pour les mineurs souffrant de troubles psychiques et utilisant massivement TikTok, un cercle vicieux se met en place : le réseau social accentue leurs difficultés psychologiques, tout en les rendant davantage captifs. À cela s’ajoute la pression des pairs qui rend plus difficile toute forme de « sevrage ».
Cette dynamique est décrite par M. Elie Andraos, psychologue clinicien et coordonnateur du projet Addict IEJ (Intoxication éthylique jeunes) au centre hospitalier universitaire (CHU) Amiens-Picardie : « chez des sujets présentant des vulnérabilités spécifiques, comme l’anxiété et la dépression, la peur de passer à côté influence l’usage des smartphones et des réseaux sociaux » ([271]). Ainsi, selon M. Andraos, « lorsque des personnes sont vulnérables, le risque [de développer des usages problématiques des réseaux sociaux] est plus élevé. L’anxiété et la dépression sont des facteurs de vulnérabilité, comme le trauma, l’impulsivité, la recherche de sensation et l’adolescence » ([272]).
En ce qui concerne les troubles du comportement alimentaire, les études qui « concluent à un effet aggravant de TikTok sur les personnes qui souffrent de TCA » ([273]) sont nombreuses, selon Mme Nathalie Godart, professeur des Universités en psychiatrie de l’enfant et de l’adolescent.
Les conséquences de l’utilisation de TikTok sont donc bien concrètes et alarmantes chez ces utilisateurs vulnérables – automutilation, scarification, comportements violents, anorexie – comme en témoigne Mme Anne-Hélia Roure, médecin psychiatre : « J’ai reçu Léa, qui se scarifie tous les soirs sur TikTok, soutenue et encouragée par une communauté, sans que ses parents n’aient la moindre idée de ce qui se passe, alors que de nombreux jeunes à l’école le savent pertinemment. […] Je voudrais aussi parler des troubles du comportement alimentaire. Combien de petites filles ai-je vu arriver qui avaient commencé par regarder des vidéos sur la beauté, mais qui en sont arrivées finalement à apprendre à se faire vomir, à avoir une image de leur corps déformée, à faire des challenges pour arrêter de manger pendant plusieurs heures. J’ai également reçu des jeunes filles de 15 ans au visage angélique qui veulent “faire du Botox” ou recevoir des injections pour ressembler à des personnages qu’elles voient dans cette réalité alternative » ([274]).
c. La fabrique du mal-être : quand TikTok fait naître des troubles psychiques chez les mineurs
Face au constat du rôle de TikTok dans l’amplification des troubles psychiques existants, il serait tentant de conclure qu’un premier moyen d’action résiderait dans la lutte contre l’apparition des troubles psychiques et la dégradation générale de la santé mentale des mineurs, comme le suggère M. Antonin Atger : « Le malaise existant dans la vraie vie est exploité par TikTok. Il faut donc agir sur TikTok, mais aussi sur les problèmes existant dans la vraie vie pour empêcher ensuite les dérives observées sur le réseau » ([275]).
Toutefois, l’utilisation de TikTok ne se limite pas à accentuer des troubles psychiques existants : elle semble, à elle seule, en favoriser l’émergence. Les recherches les plus récentes convergent en ce sens : la méta‑analyse réalisée par Lakshit Jain et al., « Exploring Problematic TikTok Use and Mental Health Issues: A Systematic Review of Empirical Studies » ([276]), « montre que l’usage des réseaux sociaux provoque anxiété, dépression, faible estime de soi » ([277]).
Bien que la recherche en la matière reste encore embryonnaire, plusieurs études mettent en évidence le rôle de TikTok dans l’émergence de troubles psychiques, comme le souligne le professeur Godart : « Moins d’une dizaine d’articles concluent à des effets négatifs du réseau sur l’apparition des perturbations de l’alimentation et de l’image de soi avec une internalisation de la maigreur, ce qui peut favoriser le développement de troubles psychiques, notamment des TCA » ([278]).
Selon M. Bruno Gameliel, psychopédagogue et psychothérapeute, « un consensus se dégage [dans les études sur les effets psychologiques de TikTok], selon lequel TikTok agit comme un amplificateur des difficultés psychologiques préexistantes, particulièrement chez des personnes déjà vulnérables » ([279]).
Une étude de Calanthe Hendrikse et al. ([280]) citée par M. Atger, observe que « le temps passé sur TikTok est corrélé [positivement] avec un usage problématique des réseaux sociaux, de la dépression et des problèmes d’estime de soi » ([281]).
La commission a reçu de nombreux témoignages attestant du rôle initiateur de TikTok dans l’apparition de troubles psychiques. La docteure Roure, médecin psychiatre, nous évoque le cas d’un patient, Gaspard : « âgé de 16 ans, il passe 90 heures par semaine sur son téléphone et reçoit plus de 1 000 notifications sur son téléphone. Sur ces 90 heures, 75 heures sont passées sur TikTok. C’est un jeune anxieux, qui dit que son cerveau est “grillé” – il s’est présenté initialement à ma consultation pour des troubles de l’attention. Il est incapable de dormir, tellement il craint de manquer quelque chose. Ce jeune allait bien avant de consulter les réseaux sociaux et TikTok. Il n’avait jamais eu besoin de consulter. Il s’agit d’un bon élève, qui vit dans un environnement familial sain » ([282]).
Un témoignage d’une jeune femme de 23 ans reçu dans le cadre de la consultation citoyenne lancée par la commission, témoigne également du rôle actif de TikTok dans la suggestion de contenus néfastes et l’apparition d’un mal-être : « Tiktok utilise un algorithme très poussé sur ce qui intéresse chaque personne. Que les individus aient un mal-être déjà présent ou non, ils vont avoir tendance à regarder du contenu néfaste pour le bien-être moral car ce contenu est “classique” sur TikTok. Par la suite, seul ce type de contenu est proposé, ce qui accroît le mal-être ou le crée, notamment par des comparaisons physiques, en insistant sur des troubles alimentaires ou des pratiques nocives pour la santé (des tendances sur la plateforme prônent la maigreur extrême, un contenu qui glamourise la dépression, etc.). La plateforme étant addictive, les personnes peuvent rester des heures et des heures à scroller sur ce contenu qui entraîne un véritable état de mal-être dont j’ai pu constater les effets et c’est la raison pour laquelle j’ai supprimé l’application. Je suis quelqu’un d’origine très joyeuse et quand j’ai téléchargé l’application à 19 ans, j’ai commencé à avoir des pensées suicidaires (ce qui ne m’est jamais arrivé et qui ont disparu quelques mois après avoir désinstallé [l’application]) » ([283]).
Mme Buigues, infirmière et auteure de la pétition « #StopSkinnyTok », dont un nombre important de patientes mineures souffre de troubles du comportement alimentaire, témoigne également du lien entre ces pathologies et une utilisation addictive de TikTok : « TikTok est omniprésent dans le quotidien des jeunes adolescentes à un moment où elles sont vulnérables car elles sont dans une phase de recherche d’identité et de construction de soi. À cette période où elles se comparent, se cherchent et s’éduquent, elles sont influencées par toutes ces images, sans avoir conscience de la dangerosité et des conséquences de la dénutrition sévère. J’ai été peinée par le cas d’une jeune patiente atteinte d’anorexie mentale, tout juste âgée de 14 ans, qui m’a montré tous ces contenus néfastes qui la poussaient même à se faire vomir. Les jeunes souffrent, n’ont plus confiance en eux, et sont de plus en plus fragilisés par ce qu’ils regardent sur tous ces réseaux sociaux » ([284]).
Les effets délétères de l’utilisation de TikTok sur la santé mentale peuvent s’inscrire dans le long terme, comme le décrit M. Stora dans le cas de la dysmorphophobie : « dans ma pratique, j’ai pu observer à quel point les influenceurs et influenceuses peuvent agir sur la psychologie adolescente. Il est essentiel d’analyser la nature spécifique du lien qui s’établit entre ces figures numériques et leur jeune public, un lien qui diffère profondément de l’admiration portée, autrefois, à des figures publiques comme des artistes ou des sportifs. Ces mécanismes peuvent conduire à une véritable forme de ravissement, dans laquelle l’adolescent se trouve placé sous influence permanente, en proie à un sentiment d’inadéquation récurrent. J’ai longuement travaillé sur la dysmorphophobie, ce trouble de l’image corporelle qui pousse l’individu à percevoir son apparence comme fondamentalement défectueuse. Il est aujourd’hui particulièrement alarmant de constater que les 18-30 ans sont devenus les principaux demandeurs de chirurgie esthétique, devant les plus de 50 ans. Cette évolution témoigne de l’importance démesurée prise par l’image de soi dans nos sociétés contemporaines, en particulier chez les jeunes, pour qui elle est devenue un vecteur central de reconnaissance et de validation sociale » ([285]).
Enfin, il faut souligner les effets de renforcement des inégalités sociales que peut avoir l’utilisation de TikTok chez les mineurs. Les conséquences néfastes de l’utilisation du réseau social varient selon les catégories sociales et tendent à renforcer les inégalités existantes, touchant plus fortement les enfants issus de milieux défavorisés, comme le met en lumière M. Atger : « un point important nécessite d’être mis en avant : les personnes issues de milieux défavorisés vont reporter un usage problématique plus important. On peut estimer qu’il est plus difficile d’avoir accès dans ce milieu à une aide thérapeutique, ou un accompagnement. Ainsi les réseaux sociaux peuvent provoquer un accroissement de la disparité socio-économique » ([286]).
d. Un engrenage mortel : quand TikTok précipite le passage à l’acte
L’intensification des troubles psychiques, amplifiés ou déclenchés par l’utilisation de TikTok, est particulièrement alarmante : elle se traduit par des comportements de mise en danger de soi, pouvant aller jusqu’à des passages à l’acte mortels. La commission a reçu, avec une vive émotion, plusieurs témoignages en ce sens.
Mme X, une adolescente auditionnée par la commission d’enquête, décrit le cercle vicieux amorcé par TikTok – d’une utilisation en apparence inoffensive au départ, la plateforme conduit progressivement à l’émergence d’idées suicidaires, jusqu’au passage à l’acte : « j’ai été victime de TikTok. J’ai reçu un téléphone pour Noël. J’étais alors en quatrième, ce qui est assez tard par rapport à la moyenne des gens de mon âge. J’ai installé TikTok sur le conseil d’une amie qui m’a dit : “tu verras, c’est super”. Au début, je voyais beaucoup de contenus qui me ressemblaient – de musique, d’art, de crochet, de cinéma –, mais, de fil en aiguille, ces contenus se sont obscurcis. On m’a proposé des musiques plus tristes, qui parlent de sujets plus sensibles, comme le mal-être ou la dépression, des vidéos d’artistes parlant de leur santé mentale. Je suis assez vite tombée dans une sphère mortifère, parce que j’ai “liké” certaines de ces musiques, qui me parlaient : j’allais déjà un peu mal avant d’aller sur TikTok, mais cela s’est aggravé avec ces contenus. Jusqu’en avril 2024, je me suis beaucoup renfermée sur la plateforme. Cela a été un peu comme un refuge, même si, en même temps, je savais que c’était malsain. J’ai fait plusieurs tentatives de suicide. Je me suis aussi beaucoup scarifiée, parce que j’ai vu des gens qui ont banalisé le fait de se faire du mal, d’avoir des comportements autodommageables. J’ai été hospitalisée plusieurs fois ; en tout, pendant vingt-cinq semaines sur une période de deux ans et demi » ([287]).
M. Y, 17 ans, auditionné par la commission d’enquête, témoigne des conséquences tragiques que l’utilisation de TikTok a eues sur sa grande sœur. Poussée dans une spirale d’automutilation par TikTok, elle a mis fin à ses jours : « ma grande sœur s’est pendue en février 2024. Avant cela, elle avait effectué quatre tentatives de suicide avec des médicaments. C’est pour ça que je dis qu’elle a été victime des réseaux sociaux : cette idée de se pendre ne lui est pas venue toute seule. En plus de cela, avant de passer à l’acte, elle avait le corps détruit par les mutilations, les scarifications et les cicatrices – sur toutes les parties du corps, visibles ou non. Je sais, parce que je l’ai vu sur son fil TikTok, qu’elle regardait des vidéos qui lui disaient que c’était en quelque sorte positif de se mutiler, parce que cela pouvait signifier qu’elle allait s’en sortir, tout en ayant traversé une épreuve : ce serait marqué sur son corps, mais elle s’en serait sortie. Au final, elle ne s’en est pas sortie et elle s’est juste abîmé le corps » ([288]).
Témoignages : les jeunes face à la « spirale de TikTok »
Dans le cadre de la consultation citoyenne lancée le mercredi 23 avril et close le 31 mai 2025 par la commission d’enquête, ainsi que par le biais de l’adresse électronique de la commission mise à disposition, de nombreux témoignages de jeunes ont été reçus, décrivant les effets directs de TikTok sur leur santé mentale, y compris des passages à l’acte. Bien que le rapport ne puisse pas tous les citer, la rapporteure a tenu à en mettre en lumière un certain nombre, afin d’illustrer la gravité du phénomène. À l’exception du dernier témoignage, tous ont été formulés par des filles ou des jeunes femmes – un constat préoccupant qui souligne la réalité d’un véritable biais de genre concernant les effets délétères de TikTok ([289]).
« TikTok a fortement contribué à aggraver mon mal-être et à faire naître mon anorexie, l’application me proposait des contenus qui m’enfonçaient toujours plus, de personnes qui promouvaient d’une certaine manière le suicide pour faire cesser la souffrance. Puis l’application permet aussi de promouvoir le « corps parfait » (même s’il y a des comptes de “body positivité”), donc ça nous pousse à nous préoccuper vachement de notre apparence, à faire des régimes qui n’ont pas lieu d’être chez des personnes qui souffraient déjà. Et le pire c’est que, d’une certaine manière, on devient accro à l’application parce que ça nous divertit en quelque sorte, mais ça nous enfonce tellement. Et arrêter TikTok c’est vraiment dur aujourd’hui parce qu’on a nos amis
aussi sur ce réseau, et même si on essaie d’échapper à l’appli, elle nous retrouve toujours d’une certaine manière et on n’arrive pas à sortir du schéma et on va de plus en plus mal » ([290]) – femme, 18 ans.
« Perte de confiance en soi, comparaison exacerbée aux autres (recherche permanente de productivité, d’esthétisme dans toutes les activités quotidiennes, accroissement de l’envie de consommer incluant nourriture, vêtements, skincare, etc.). Dépendance et perte d’ouverture aux autres et d’ancrage dans le réel. Déconnexion de mon rapport à la nature, à l’effort, à la discipline. Perte du sentiment d’accomplissement ou de fierté, de progrès, de réussite. J’ai donc décidé de supprimer définitivement TikTok en octobre 2022. Pour autant je pense que les 3 ans d’utilisation compulsive m’ont empêchée de lire, ont réduit mon esprit critique, et mes capacités intellectuelles, encore aujourd’hui. Toutefois, l’utilisation de TikTok pendant le confinement a contribué à ma dépendance aux écrans, absente avant. Après TikTok je me suis rabattue sur les “Reels” Instagram. Je suis aujourd’hui en tentative de “digital detox”, grâce à des applications comme OPAL pour me débarrasser de ce temps d’écran superflu et de cette recherche de dopamine. Sans TikTok et les réseaux sociaux je n’aurais certes pas découvert certains lieux ni suivi l’activité culturelle de la même manière, en revanche je suis convaincue que je ne serais pas dépendante aujourd’hui. Cette dépendance accroît selon moi l’anxiété et les sentiments dépressifs chez les jeunes, contribue à l’illettrisme, et à la perte de qualité de travail et de réflexion des élèves, et est un enjeu crucial, qui doit être traité maintenant avant de perdre d’autres générations » ([291]) – femme, 20 ans.
« Les problèmes de mal-être de notre adolescente ont démarré avec l’utilisation de TikTok. Manque d’envie pour tout le reste, irritabilité, gestion de la frustration difficile, automutilation. Le réseau social ne lui proposait que des vidéos de jeunes déprimés, suicidaires ou qui s’automutilaient. Difficultés à ne pas consulter l’application. Malgré la mise en place d’un temps d’écran et d’un contrôle parental, elle a trouvé des moyens de contourner les restrictions. Nous avons alerté son médecin, sans succès. Le corps médical n’est pas du tout formé et au fait de ce problème lié à TikTok. Le peu de fois où elle ne l’a pas utilisé plusieurs jours : motivation retrouvée, sommeil, lecture » ([292]) – femme, 43 ans.
« Tentative de suicide de ma fille lorsqu’elle était en 3ème, il y a 3 ans, suite à des interactions sur TikTok sur des groupes qui incitaient à la mutilation et au suicide. Nous venions de lui autoriser l’accès à TikTok depuis moins d’un mois. Elle est restée hospitalisée pendant 3 semaines » ([293]) – femme, 44 ans.
« Avec la surexposition à des contenus sombres (suicide, TCA, automutilation...) j’ai moi‑même eu des problèmes psychologiques importants (tentative de suicide, mutilation et TCA) » ([294]) – fille, 17 ans
« [J’ai] déjà eu des TCA et TikTok a empiré les problèmes avec [les contenus liés à] l’alimentation, avec les pro-ana qui reviennent pour dire qu’il ne faut pas manger car “être mince, c’est être belle” » ([295]) – femme, 17 ans.
« Ces contenus peuvent selon moi inciter à la “rechute” dans le cadre de la santé mentale. Voir des personnes sous-alimentées en faisant croire que c’est sain avec le #skinnytok, par exemple, ou encore des personnes postant des playbacks avec le visage automutilé (coupures encore sanguinolentes), peut être choquant. Il y a aussi un #sadtok, publiant des contenus tristes, dans lesquels chacun peut à peu près se reconnaître. Après à peine 30 minutes à scroller ce genre de vidéos, un mal-être, une incitation à aller mal, à avoir des comportements à risque s’installe » ([296]) – femme, 16 ans.
« Je suis tombée en dépression et TikTok m’a encore plus enfoncée. Je suis devenu accro à l’automutilation à cause du contenu que je voyais » ([297]) – femme, 15 ans.
« Parfois après avoir regardé des TikTok j’avais envie de me faire vomir ou de me scarifier » ([298]) – femme, 19 ans.
« Je suis tombée dans l’anorexie sévère à l’âge de 15 ans (2022), j’ai dû être hospitalisée d’urgence, scopée et sondée, mon coeur ne battait plus qu’à 30 bpm... Je suis restée 4 mois enfermée, à enchaîner les rendez-vous, les pesées, les prises de sang, les repas thérapeutiques, etc. Il y a plusieurs facteurs à ma maladie mais je sais aujourd’hui (en ayant pris du recul mais n’étant toujours pas guérie) que les réseaux sociaux, et en partie TikTok, ont participé au développement de mon trouble. Ma soeur jumelle est elle aussi tombée dans l’anorexie, plus tôt, au moment du premier confinement (2020), elle a été hospitalisée trois fois à l’hôpital psychiatrique... Elle le dit aussi aujourd’hui que TikTok est néfaste pour les jeunes, surtout lorsqu’ils sont en train de se construire. Avec la pression de la société et donc les contenus qui sont partagés sur la promotion de la maigreur extrême, les jeunes tombent facilement dans cet engrenage malsain qui peut aboutir à des TCA. J’en ai fait les frais, ma soeur jumelle également mais aussi toutes les filles que j’ai rencontrées durant mon hospitalisation » ([299]) – femme, 17 ans.
« J’ai développé de l’anorexie à l’âge de mes 15 ans en 2022, même si les causes sont multifactorielles, je sais aujourd’hui que Tik Tok a joué un gros rôle dans ma maladie ; les vidéos de sports, de nutrition, la promotion des régimes restrictifs, des applications de comptage de calories, des vidéos pour préparer le “summer body”, les “what i eat in a day”, les vidéos de jeunes filles avec la sonde...
[…] Ma sœur jumelle, a aussi développé une anorexie restrictive. […] Lors du premier confinement de 2020, ce trouble s’est emparé d’elle, la faisant mourir à petit feu ; heures de sport à outrance, réduction drastique de l’alimentation, etc. Aujourd’hui, elle affirme que les réseaux sociaux et surtout TikTok l’ont enfoncée encore plus profondément dans la maladie et que cela a entretenu inconsciemment le trouble. Même dans une volonté de guérison, elle a signalé les contenus inappropriés et malsains qui malgré ça [n’ont pas été retirés] » ([300]) – femme, 17 ans. Cette jeune femme, qui semble être la même personne que l’autrice du précédent témoignage, précise que les autres filles souffrant d’anorexie rencontrées lors de son hospitalisation ou de son parcours scolaire ont également été victimes de la prolifération des contenus dangereux sur TikTok.
« Il y a trois ans, à la suite d’un choc post-traumatique, j’ai développé des troubles du comportement alimentaire (TCA). L’algorithme de TikTok m’a rapidement exposée à des contenus dangereux : des vidéos de jeunes filles extrêmement maigres, des encouragements à la perte de poids excessive, des conseils pour sauter des repas ou éviter de manger, des contenus liant les TCA au suicide, avec des messages du type : “si je n’arrive pas à guérir, j’en finirai”.
Même aujourd’hui, malgré les nombreux signalements et blocages, ce type de contenu continue de m’être proposé. Cela m’a profondément enfoncée dans mes troubles, au point d’atteindre 32 kg pour 1m68 il y a un an et demi, ce qui a causé de nombreuses hospitalisations depuis 3 ans. […]
Aujourd’hui encore, je subis les conséquences de ces images et messages : ils ont profondément marqué mon esprit et me hantent au quotidien. Je souhaite que cela cesse, pour moi et pour les autres. Ces contenus dangereux peuvent détruire des vies, et il est urgent d’agir » ([301]) – femme, 17 ans.
« Personnellement, le flot constant de contenus centrés sur le corps, l’apparence, la compétition sociale, m’a profondément affectée. J’ai développé des complexes, une mauvaise image de moi-même, et même des idées noires. Ce n’est pas une influence positive. C’est devenu une pression constante » ([302]) – femme, 20 ans.
« J’ai moi-même été pris dans la spirale de TikTok à partir de 2020. Je suis tombé dedans comme beaucoup d’autres, d’abord par curiosité, puis par habitude, puis par automatisme. Ce swipe infini a été plus addictif que tout ce que j’avais connu auparavant. Pendant plus d’un an et demi, j’ai été pris dans ce flux. Ce n’est qu’en entrant dans une période de dépression que j’ai pleinement mesuré la violence de ce système. L’algorithme a amplifié mon état en m’inondant de contenus en lien avec ma détresse. Il savait exactement ce que je ressentais et il me le servait en boucle. Ce qui était un divertissement est devenu un piège. J’ai mis des mois à m’en sortir » ([303]) – homme, 20 ans.
3. TikTok, une addiction ? Au-delà de la notion clinique, des phénomènes de dépendance bien établis
a. L’emploi de la notion d’addiction pour qualifier l’usage de TikTok reste controversé
La notion d’addiction renvoie à une définition clinique précise (voir dans l’encadré ci-dessous les « 5C » caractérisant une addiction). Si l’utilisation excessive de TikTok présente des caractéristiques addictives, l’emploi de la notion d’addiction continue de faire l’objet de débats parmi les experts.
Tout d’abord, « s’agit-il d’une addiction aux écrans ou aux contenus » ? D’après M. Bernard Basset, président de l’association Addictions France, « même si les écrans sont partout, nous avons tendance à considérer qu’il s’agit principalement d’une addiction aux contenus, favorisée par l’algorithme, qui est un facteur additionnel : quand un contenu court et éphémère produit du plaisir, on a tendance à le renouveler. […] [Les plateformes] créent un environnement qui favorise les comportements addictifs, aussi bien du fait de l’algorithme et de la vitesse à laquelle les contenus s’enchaînent qu’en raison des produits promus » ([304]).
Toutefois, pour un certain nombre de praticiens, l’utilisation intensive de TikTok ne correspond pas aux critères cliniques de l’addiction, à la différence des jeux vidéo, pour lesquels une utilisation abusive est reconnue comme pouvant relever d’une addiction comportementale.
Ainsi, selon le Dr Serge Tisseron, il convient de distinguer les phénomènes de dépendance à un réseau social comme TikTok de l’addiction aux jeux vidéo, une addiction comportementale reconnue par l’Organisation mondiale de la santé (OMS) qui « se caractérise par une utilisation exclusive du jeu vidéo, entraînant une déscolarisation et une désocialisation complètes sur plus d’une année, généralement accompagnées de troubles mentaux » ([305]).
La notion d’addiction : un terme qu’il vaut mieux réserver à la dépendance à des substances toxiques
L’addiction est une pathologie définie par une dimension comportementale et biologique. Sur le plan comportemental, une addiction est caractérisée par le cumul des « 5C » ([306]) :
– Contrôle : perte de contrôle des impulsions ;
– Consommation : envie irrépressible de consommer ;
– Compulsion : activité compulsive, qui apparaît lorsqu’il ne s’agit plus d’éprouver un plaisir mais de lutter contre le déplaisir induit par le manque de produits ;
– Continuation : usage continu ;
– Conséquences : usage continu malgré les conséquences négatives.
Le jeu vidéo est reconnu comme une addiction sans substance (« gaming disorder ») par l’OMS depuis le 25 juin 2018. L’addiction aux jeux vidéo est déterminée par trois critères : activité exclusive, désocialisation et déscolarisation complètes, depuis plus d’un an.
Toutefois, à la différence des addictions à des substances, l’addiction comportementale ne présente pas de syndrome de sevrage physiologique ou de risque de rechute : les usagers pathologiques deviennent des usagers occasionnels ([307]).
En ce qui concerne les réseaux sociaux, et en particulier TikTok, le constat diffère sensiblement : « leur utilisation se caractérise par une grande diversité d’activités, ce qui rend difficile l’application du concept d’addiction. Les jeunes alternent entre le visionnage de vidéos, le partage de contenus avec leurs amis, et la recherche de nouvelles informations. Cette multiplicité d’usages ne correspond pas à la définition classique d’une addiction » ([308]).
Ainsi, pour le Dr Tisseron, on ne peut pas parler d’addiction aux réseaux sociaux, et à plus forte raison à TikTok : « il serait inapproprié de parler d’addiction aux réseaux sociaux. Leur utilisation, bien que parfois intensive, ne correspond pas aux critères d’une addiction comportementale. Les jeunes naviguent entre différentes plateformes comme TikTok, Instagram, WhatsApp et YouTube, démontrant une variété d’usages incompatible avec la notion d’addiction telle qu’elle est définie pour des substances comme l’alcool, le tabac ou la morphine. Cette diversité des pratiques numériques ne permet pas, à l’heure actuelle, de les qualifier d’addictions » ([309]).
Le professeur Amine Benyamina, addictologue et psychiatre, co‑président de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, partage le constat du Dr Tisseron quant à l’absence de reconnaissance clinique de l’addiction aux réseaux sociaux, mais souligne que cela ne doit pas avoir d’incidence majeure sur la manière de prendre en charge les situations de dépendance avérées aux réseaux sociaux : « Sur le plan académique […] l’addiction aux écrans ou aux réseaux sociaux n’est pas officiellement reconnue dans les classifications internationales. Seul le jeu pathologique a été reconnu comme une addiction comportementale, et ce après de longues discussions.
Cette dichotomie entre la réalité clinique et les classifications officielles est courante dans l’évolution de notre compréhension des addictions. Des études à grande échelle seront nécessaires pour éventuellement inclure la consommation des réseaux sociaux dans le cadre général des addictions, de la même manière qu’une discussion est actuellement conduite à propos des troubles du comportement alimentaire. En attendant, nous traitons cliniquement cette problématique comme une addiction » ([310]).
Pour le Dr Tisseron, le refus de reconnaître officiellement l’existence d’une addiction aux réseaux sociaux, et à TikTok en particulier, n’empêche pas de répondre aux troubles causés par leur usage, et permet d’éviter notamment la déresponsabilisation des parents : « la réticence de certains cliniciens à utiliser le terme d’addiction provient d’une volonté d’éviter une médicalisation excessive des comportements. En effet, cette tendance à la médicalisation risque de déresponsabiliser les parents, alors qu’il faudrait au contraire les impliquer davantage dans la gestion de ces problématiques. […] En effet, les messages de prévention, même s’ils ne sont pas toujours appliqués par ceux qui les entendent, peuvent bénéficier aux plus jeunes.
Notre espoir réside dans le fait que les nouvelles générations puissent recevoir ces messages de prévention avant leur première utilisation des réseaux, contrairement aux générations actuelles qui y ont été exposées sans préparation » ([311]).
b. Des formes de dépendance à la plateforme toutefois clairement identifiées
S’il ne s’agit pas à proprement parler d’addiction d’un point de vue clinique, il est toutefois évident que l’utilisation des réseaux sociaux, et en particulier de TikTok, crée des formes de dépendance chez les utilisateurs les plus jeunes. Il ne fait aucun doute que les réseaux sociaux, TikTok en tête, jouent un rôle central dans la dépendance d’une partie des enfants au smartphone (voir supra pour les temps d’utilisation et l’incapacité à s’en passer).
Selon M. Patino, « TikTok peut être considéré comme la version ultime des produits d’addictologie. Si on comparait les réseaux sociaux à une forme de drogue addictive, cette plateforme serait la formule parfaite. Elle vous met dans un rail de passivité sucrée. Vous pouvez visionner à l’infini des vidéos de formats courts, en accélérant et en passant ce qui ne vous convient pas » ([312]).
Plusieurs experts et praticiens auditionnés par la commission ont confirmé l’existence de phénomènes de dépendance aux réseaux sociaux, et plus particulièrement à TikTok.
Le professeur Amine Benyamina a observé directement ces formes de dépendance à TikTok chez des patients mineurs : « Sur le plan clinique, je constate dans mon service d’addictologie la présence de nombreux jeunes dépendants aux réseaux sociaux, à TikTok en particulier, dont l’algorithme est particulièrement addictogène. Nous les prenons en charge de manière similaire aux addictions aux substances comme le cannabis ou l’alcool. Ces cas se caractérisent rarement par une consommation isolée des réseaux sociaux et s’accompagnent souvent d’effets délétères, tant métaboliques que psychologiques : anxiété, insomnie, dépression, difficultés relationnelles. Nous traitons donc cette problématique dans un cadre global de psychologie, de psychiatrie ou de psychoaddictologie de l’adolescent ou du jeune adulte » ([313]).
Les phénomènes de dépendance aux réseaux sociaux font l’objet de constats convergents au niveau international. Ainsi, d’après l’étude HBSC (« The Health Behaviour in School-aged Children ») de l’OMS ([314]), plus d’un adolescent sur dix (11 %) montre des signes de comportement problématique vis-à-vis des réseaux sociaux, luttant pour contrôler leur utilisation et en subissant des conséquences négatives. Les filles rapportent des niveaux plus élevés d’utilisation problématique des réseaux sociaux que les garçons (13 % contre 9 %). Cette étude définit l’utilisation problématique des réseaux sociaux comme un comportement caractérisé par des symptômes semblables à ceux de l’addiction, tels que l’incapacité à contrôler l’utilisation des médias sociaux, la sensation de sevrage ou de privation lorsqu’on ne les utilise pas ou l’abandon d’autres activités au profit des réseaux sociaux.
De nombreux témoignages reçus par la commission d’enquête font état de formes de dépendance à TikTok, qu’il s’agisse de la difficulté à se détacher de son téléphone ou du temps quotidien passé sur la plateforme, révélateur d’une emprise réelle de la plateforme sur certains utilisateurs.
TikTok – récits d’une nouvelle forme de dépendance
« Ma fille désormais majeure a utilisé TikTok sans mon accord mais avec celui de sa mère à partir de l’âge de 15 ans. Deux ans plus tard, je découvre qu’elle se mutile (scarification des bras et jambes) […] et qu’elle passe en moyenne entre 35 et 40 heures par semaine sur TikTok » ([315]) – homme, 50 ans.
« Avant je passais beaucoup de temps sur TikTok, je n’arrivais pas à ne pas l’utiliser, quand je l’utilisais je pouvais y rester une heure à deux heures alors qu’à la base je voulais rester 5 minutes, j’étais un peu accroché à ce réseau social » ([316]) – homme, 17 ans.
« Tiktok a rendu ma vie fade. Puisque je recevais de la dopamine rapide en permanence, je n’arrivais plus à éprouver de satisfaction dans les tâches plus longues ou les choses simples. J’en suis venue à avoir des pensées sombres, persuadée que ma vie était trop longue et inutile » ([317]) – femme, 17 ans.
« Le temps passé sur TikTok à scroller me fait culpabiliser de ne pas avoir par exemple pris le temps de lire, réviser, etc. Cette impression de rater quelque chose est fatigante, je passe mon temps à comparer ma vie à celle des autres. Je sais que mon frère âgé de 15 ans est très impacté par ce réseau social, il y passe tout son temps et finit par adopter un comportement similaire à celui que l’on peut voir sur les vidéos. Ce réseau social est nocif, le temps qu’on y passe ne se contrôle pas » ([318]) – femme, 18 ans.
Les résultats de la consultation citoyenne lancée par la commission d’enquête – malgré les précautions méthodologiques nécessaires en raison de l’absence de correction des biais de représentativité – révèlent également qu’une proportion significative de mineurs présente des formes de dépendance à TikTok. Ainsi, à la question « Ressentez-vous des difficultés à ne pas utiliser TikTok ? », 17 % des répondants de 12 à 15 ans ont indiqué avoir des difficultés à ne pas utiliser TikTok pendant plusieurs heures, et 28 % pendant un jour. Pour les 16-18 ans, 18 % ne peuvent se passer de TikTok pendant plusieurs heures et 33 % pendant un jour.
rÉponses de la consultation citoyenne À la question « ressentez-vous des difficultÉs À ne pas utiliser tiktok ? » chez les 12-15 ans
rÉponses de la consultation citoyenne À la question « ressentez-vous des difficultÉs À ne pas utiliser tiktok ? » chez les 16-18 ans
La dépendance observée chez de nombreux mineurs trouve sa source dans les ressorts mêmes du fonctionnement de TikTok, conçus pour capter et retenir l’attention. Mme Jehel, professeure en sciences de l’information et de la communication, précise que cette relation de dépendance à la plateforme s’appuie sur une instrumentalisation des émotions, qui repose sur trois piliers :
– l’« injonction à la publication » : les réseaux sociaux ne peuvent exister sans que les utilisateurs ne postent de nouveaux contenus en continu, qui constituent autant d’informations sur leurs centres d’intérêt ;
– le « web affectif » : à travers leur design (émojis, fonctions de partage et d’enregistrement, likes, etc.), les réseaux sociaux comme TikTok cherchent à « calculer » des comportements ;
– la « surveillance panoptique des comportements » : l’activité des contacts d’une personne participe à la construction de son profil comportemental par la plateforme ([319]).
M. Andraos, psychologue clinicien et coordonnateur du projet Addict IEJ (Intoxication éthylique jeunes), identifie un autre facteur d’amplification du phénomène de dépendance, celle de passer à côté de quelque chose, une angoisse constante que TikTok exploite efficacement : « Nous avons déterminé, avec une bonne validité convergente, une corrélation positive – qui s’exerce dans les deux sens – entre la peur de passer à côté et l’usage problématique des réseaux sociaux, évalué avec l’IAT-RS, le test de dépendance à internet adapté aux réseaux sociaux, ou l’addiction au smartphone, mesurée avec le SAS-SV, l’échelle de dépendance au smartphone, version courte. Autrement dit, les personnes qui ressentent le plus fortement la peur de passer à côté utilisent davantage leur écran, plus spécifiquement les réseaux sociaux » ([320]).
Enfin, il y a des éléments dans la dépendance à TikTok qui la rapprochent d’autres addictions, comme l’addiction aux jeux d’argent, que décrit M. Andraos : « quand on va sur l’application, toutes les vidéos ne nous intéressant pas, on les fait défiler – on scrolle –, jusqu’à tomber sur la bonne, comme celle qui nous fait rire ou nous émeut : le plaisir va renforcer notre comportement. Or le renforcement à intervalle variable est le plus puissant des systèmes : c’est celui des machines à sous. Le casino veut notre argent ; TikTok veut notre temps. Comme on tire sur le bras de la machine, on fait glisser notre doigt jusqu’à trouver la bonne vidéo, ce qui renforce notre comportement. Le système existe depuis des décennies » ([321]).
L’échelle d’addiction à TikTok – TTAS
Un test en 15 questions permettant aux utilisateurs de TikTok de déterminer leur niveau d’addiction a été développé par des chercheurs de l’Université nationale d’Athènes ([322]). Le test repose sur une « échelle d’addiction à TikTok – TTAS », qui s’appuie elle-même sur six critères : le niveau d’attention, la modification de l’humeur, le seuil d’atteinte de satisfaction, les sentiments négatifs lorsque l’usager n’utilise pas TikTok, l’effet de l’utilisation excessive ou la durée avant une rechute après la dernière utilisation. Cette échelle, qui s’adresse principalement à des adolescents permet de situer l’usager sur une échelle définissant une utilisation occasionnelle ou contrôlée, un impact modéré sur la vie quotidienne et une utilisation problématique. Sur le fondement de l’échelle TTAS, 17,4 % des personnes testées présentaient un haut niveau d’addiction.
4. Un poison lent : les effets délétères de l’utilisation de TikTok sur la santé physique des enfants
Les effets néfastes de l’utilisation des réseaux sociaux, et de TikTok en particulier, sur la santé physique des mineurs, sont aujourd’hui bien établis et constituent un sujet majeur de préoccupation. Mme Sauneron, directrice générale par intérim à la Direction générale de la santé, les résume ainsi : « Il est […] avéré que cette surexposition contribue à l’émergence de troubles oculaires, à l’altération de la qualité et de la quantité de sommeil, ainsi qu’à l’augmentation de la sédentarité et donc du risque de surpoids et d’obésité » ([323]).
En ce qui concerne les effets de l’utilisation de TikTok sur la dégradation de la qualité et de la durée du sommeil, la Dr Dieu-Osika, pédiatre, relève que « les troubles du sommeil constituent un problème majeur, corroboré par l’ensemble des études sur le sujet. Les conséquences d’un sommeil perturbé sont vastes et affectent de nombreux aspects de la vie de ces jeunes. […] Plus de 20 % des enfants reçoivent plus de 500 notifications par jour, tous réseaux confondus, alors que 100 notifications seraient déjà excessives. Ces chiffres s’étendent également à la période nocturne, ce qui montre l’ampleur du phénomène » ([324]).
Mme Sauneron fait un constat similaire : « L’hypervigilance, la connexion tardive et l’exposition aux lumières artificielles perturbent considérablement le cycle du sommeil, ce qui impacte directement la santé mentale de nos jeunes » ([325]).
Mme Marie-Christine Cazaux, éducatrice spécialisée, membre du collectif Mineurs, éthique et réseaux (Meer) observe un phénomène d’ « hyperconnexion […] des jeunes, à l’affût de chaque publication, y compris en cours ou durant la nuit » ([326]), avec des effets notables sur le sommeil.
Ces constats sont d’autant plus préoccupants que l’usage de TikTok ne se limite pas aux mineurs de plus de 13 ans, comme évoqué dans la première partie, mais touche en réalité des mineurs de moins de 13 ans, pour lesquels les effets de la privation ou de la dégradation de la qualité du sommeil sur la santé sont encore plus importants.
Une étude réalisée en 2022 par l’université de Montfort (Leicester) ([327]) sur un échantillon local de 60 enfants âgés de 10 à 11 ans a ainsi montré que les enfants en école primaire pourraient perdre l’équivalent d’une nuit de sommeil chaque semaine du fait de l’usage excessif des réseaux sociaux, alors même que ces enfants ne sont pas censés avoir accès aux réseaux sociaux. Près de 70 % des enfants interrogés dans le cadre de cette étude ont révélé utiliser les réseaux sociaux quatre heures par jour ou plus, 66 % les utilisant dans les deux heures avant de dormir et 12,5 % déclarant les utiliser au milieu de la nuit quand ils devraient dormir. TikTok était la plateforme la plus citée par l’échantillon des sondés, 90 % des interrogés l’utilisaient, contre 88 % pour YouTube, 84 % pour Snapchat et 57 % pour Instagram.
Les effets de TikTok sur le sommeil - le témoignage d’une lycéenne sur les conséquences de son utilisation de TikTok au collège
« J’ai ressenti une sorte de désintérêt général pour tout ce qui ne relevait pas de TikTok. Troubles du sommeil, fatigue chronique, l’utilisation de TikTok a eu un impact majeur sur mon sommeil malgré les consignes de mes parents de ne plus utiliser mon téléphone après 21 heures. J’avais beaucoup de mal à résister et je me disais “juste une vidéo de plus” et je me retrouvais à regarder l’application jusqu’à 1 heure ou 2 heures du matin. Cette privation de sommeil se répercutait directement sur ma journée : j’étais fatiguée en cours, j’avais du mal à me concentrer, j’étais souvent irritable, mes résultats scolaires ont commencé à baisser significativement au deuxième trimestre. Difficultés de concentration, procrastination : un autre problème majeur que j’ai rencontré concernait ma capacité à me concentrer sur mes devoirs » ([328]).
5. TikTok, le grand perturbateur : des effets plus larges sur la sociabilité et le développement cognitif des enfants
Les effets de l’usage de TikTok sur les mineurs s’inscrivent dans une dynamique plus large de recours massif aux réseaux sociaux par les plus jeunes, avec répercussions notables sur de nombreux aspects de leur développement. Comme évoqué précédemment, l’enfance et l’adolescence sont des périodes de grande plasticité cérébrale : les usages numériques à ces âges ont donc des conséquences plus importantes sur l’ensemble des dimensions de leur vie, que Mme Sauneron résume ainsi : « la surexposition [aux réseaux sociaux] entrave l’acquisition de compétences sociales, émotionnelles et cognitives essentielles au bien-être physique, mental et social des enfants et des adolescents » ([329]). Pour des mineurs, l’utilisation de TikTok en particulier peut ainsi représenter un grand bouleversement dans leur existence.
a. Les effets de TikTok sur la concentration et le développement cognitif
L’utilisation de TikTok a des effets délétères sur le développement cognitif des enfants, affectant des capacités fondamentales telles que la concentration, la mémoire, la persévérance, la patience et plus généralement l’aptitude à accomplir des tâches exigeant un effort soutenu et prolongé.
M. Michael Stora, psychologue et psychanalyste, co-fondateur de l’Observatoire des mondes numériques en sciences humaines, décrit notamment le rôle du circuit de la récompense dans l’utilisation de TikTok, où l’exposition à des contenus courts, stimulants et aléatoires entraîne une libération excessive de dopamine, qui favorise une recherche compulsive de gratification immédiate : « Ce qui m’apparaît le plus préoccupant dans cette mécanique, c’est la libération répétée de dopamine qu’elle provoque à chaque visionnage de vidéo courte. Si la dopamine, hormone du circuit de la récompense, est libérée dans de nombreuses situations agréables du quotidien, l’intensité et la fréquence de ces décharges dopaminergiques sur TikTok excèdent toutefois de très loin ce que permet la réalité ordinaire. Ce décalage induit un effet de contraste brutal car, lorsqu’un utilisateur quitte l’application, le monde réel, avec ses frustrations, ses lenteurs et son absence de gratification immédiate, lui apparaît soudain fade, terne et peu valorisant. Ce déséquilibre entre un univers virtuel survalorisé et la réalité quotidienne entraîne des conséquences significatives sur l’équilibre psychique des jeunes car il peut altérer leur capacité à gérer la frustration, nuire à leur motivation dans les activités nécessitant un effort soutenu et influencer leur humeur générale » ([330]).
Selon M. Stora, la brièveté des vidéos proposées par TikTok est un aspect particulièrement préoccupant, « qui semble affecter directement la capacité de concentration des jeunes ». M. Stora a ainsi « pu observer, chez certains patients, une difficulté croissante à maintenir leur attention sur des formats longs tels que les films, qu’ils perçoivent désormais comme excessivement lents » ([331]).
M. Bruno Gameliel rejoint ce constat et observe que l’utilisation de TikTok entraîne « une diminution de la concentration, une recherche de gratification immédiate et une réduction de la tolérance à l’ennui », alors que ce dernier « joue un rôle fondamental dans le développement cognitif » ([332]).
Mme Murielle Popa-Fabre, ancienne chercheuse au Collège de France et à l’Institut national de recherche en informatique et en automatique (Inria), relève quant à elle les conséquences négatives de TikTok sur la mémoire : « l’impact de l’activité sur TikTok, lié au nombre d’heures qui y sont consacrées, et le fait que les jeunes effectuent souvent d’autres tâches en même temps qu’ils consultent les réseaux sociaux – ce qu’on appelle le “digital multitasking”. Des études ont montré que cette habitude avait une incidence importante sur la capacité de mémorisation des jeunes. Et, d’autre part, l’impact lié à tout ce que le mineur ne fait pas lorsqu’il reste devant les écrans et sur les réseaux sociaux, avec des répercussions en termes de sédentarité, de perte de motricité fine, d’obésité [...] ou encore de socialisation » ([333]).
b. Les effets de TikTok sur la construction sociale des jeunes
En parallèle du développement cognitif, le développement des compétences sociales constitue un autre pilier essentiel de la construction de l’enfant. Or, TikTok a sur ce plan également des effets pernicieux, en transformant profondément les modalités de socialisation des enfants et des adolescents, désormais en grande partie façonnées par la plateforme et ses biais.
M. Duflo, psychologue clinicienne, décrit le tournant décisif que représente l’obtention du premier smartphone pour les enfants, qui leur permet d’accéder aux réseaux sociaux comme TikTok : « pour les filles, l’addiction – ou l’usage problématique, peu importe le terme – commence en général en sixième ou en cinquième. Elles connaissent alors un changement radical dans leur vie, celui de l’acquisition du portable avec un forfait leur permettant d’accéder à internet à l’extérieur de la maison. Ce changement intervient à un moment où elles ont besoin de construire leur moi social, c’est-à-dire de prendre une place au sein d’un groupe de pairs plutôt que dans la famille, qui les intéresse de moins en moins. Aujourd’hui, cette construction se fait uniquement sur les réseaux sociaux au détriment des activités classiques, comme traîner avec des copains en dehors du collège. Le risque est que la construction du moi social ne se fasse plus ou qu’elle soit détricotée » ([334]).
La docteure Roure, médecin psychiatre, décrit un rapport à l’autre altéré par l’utilisation de TikTok, marqué notamment par une intensification des comportements violents : « J’ai reçu plusieurs jeunes qui ont été victimes d’un “challenge MMA” pendant les deux dernières semaines – ce sont des comportements extrêmement dangereux d’étranglement. J’ai reçu des jeunes filles et des jeunes hommes dont la sexualité est très influencée par TikTok de façon dangereuse, en particulier par des pratiques d’étranglement – le choking – pendant les relations intimes. La banalisation, la normalisation de la violence sont extrêmement préoccupantes » ([335]).
Les enfants sont également exposés sur TikTok à des formes de relations sociales qui les rend particulièrement vulnérables. M. Atger parle ainsi de « relation parasociale » : « Il s’agit de gens qui ont le sentiment d’avoir une relation réelle avec une personne imaginaire – un personnage de roman – ou avec une star, une célébrité, un youtubeur, un tiktokeur ou autres. Ils ont l’impression de connaître cette personne qui, elle, ne les connaît pas. C’est donc une relation déséquilibrée qui peut être exploitée, de manière volontaire ou non, par la personne célèbre » ([336]).
c. Banalisation des violences, fuite du réel, lieu de fragmentation identitaire : les effets de TikTok sur le rapport au monde
Au-delà des effets sur le développement cognitif et la socialisation des enfants, l’utilisation de TikTok modifie intimement leur rapport au monde, et ce d’autant plus que « les mondes numériques offrent un refuge idéal, d’autant plus que les parents en ignorent souvent les subtilités » ([337]), comme le décrit le docteur Serge Tisseron. Lorsque les adolescents cherchent à s’émanciper de leur famille, les réseaux sociaux deviennent ainsi particulièrement attractifs. En outre, « cette fuite dans le virtuel peut aussi être une réponse aux restrictions parentales concernant les activités extérieures » ([338]).
M. Jonathan Haidt, auteur de l’ouvrage Génération anxieuse. Comment les réseaux sociaux menacent la santé mentale des jeunes, décrit ce changement que l’on pourrait presque qualifier de « civilisationnel », lié à la démocratisation des smartphones : « en l’espace de cinq ans à peine, les schémas sociaux, les modèles d’identification, les émotions, l’activité physique et même le cycle de sommeil des adolescents ont été remaniés de fond en comble. Le quotidien, l’état d’esprit et les relations sociales des jeunes de 13 ans (nés en 2000) équipés d’iPhone en 2013 n’avaient plus rien à voir avec ceux des adolescents du même âge (nés en 1994) équipés de portables basiques en 2007 » ([339]).
Il y a en effet une spécificité de l’usage des réseaux sociaux, celle de « l’absence de contexte » entourant les contenus diffusés sur la plateforme. M. Patino pointe ainsi cette singularité, qui contribue à façonner un rapport au monde différent de celui des anciennes générations, et qui affecte la construction de soi : « au cours des derniers siècles, [le contexte] normait toutes les conversations. Comme le disait le philosophe espagnol Ortega y Gasset, “je suis moi et ma circonstance”. À 15 ans, quand on me demandait de définir ce qu’était l’information, je répondais par le contexte. L’information, c’était ce que je lisais dans le journal, ce que j’écoutais au journal radiophonique le matin ou ce que je voyais au journal télévisé le soir. Nos conversations ne sont pas de même nature selon que nous sommes au bistrot, en audition parlementaire, avec des amis, etc. Notre société s’est construite en ayant des conversations différentes selon le contexte. […] Les réseaux sociaux ont la particularité de ne pas proposer de contexte, ou plutôt de laisser l’utilisateur comprendre lui-même la nature de la conversation à laquelle il assiste et la nature du message auquel il est soumis » ([340]).
Sans mise en contexte, les réseaux sociaux offrent de larges prises aux biais cognitifs des enfants et adolescents, voire les renforcent. Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France, déplore que « [l]es plateformes créent un miroir déformant de la réalité, car le biais de confirmation y est amplifié » ([341]). En effet, les algorithmes de recommandation tendent à faire voir, de façon répétée, des contenus similaires à sur lesquels s’attarde l’utilisateur et dont, peut-on penser, il partage le point de vue. En outre, les contenus sont diffusés sans hiérarchisation des sources ni remise en question, si ce n’est par les utilisateurs eux-mêmes, en commentaires. Ainsi, selon Mme Taïeb, sur les réseaux sociaux, « vous recevez, sous forme de suggestions, du contenu qui vous entraîne dans une spirale et empêche toute pensée critique, puisqu’il va toujours dans le même sens, qu’il s’agisse de comptes en français ou en anglais » ([342]).
Par ailleurs, dans la lignée des constats de la docteure Roure sur l’intensification des comportements violents, Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France, observe chez les mineurs largement présents sur TikTok le développement d’un « phénomène inquiétant de désensibilisation […] par rapport aux violences, y compris sexuelles » Mme Sim trouve l’origine de cette désensibilisation dans l’usage des réseaux sociaux comme TikTok : « la répétition de contenus choquants entraîne une perte d’indignation et peut même susciter une recherche d’adrénaline à travers des contenus de plus en plus choquants, tels que des vidéos à caractère sexuel ou montrant des tortures. Cette banalisation se traduit dans leurs relations réelles, où certaines formes de violence sont minimisées ou considérées comme de simples défis » ([343]).
Une société désensibilisée à la violence ? Sur Kick, le décès du streamer Jean Pormanove
Le 18 août 2025, le décès ([344]) de Raphaël Graven, connu sur la plateforme Kick sous le nom de Jean Pormanove, ou « JP », a été diffusé en direct.
Jean Pormanove participait quotidiennement à des vidéos en direct du groupe « Lokal », qui lui faisait subir diverses violences physiques et morales : grandes claques sur la tête, moqueries et humiliations, étranglement, etc.
Une violence banalisée, normalisée, qui semblait pourtant – et c’est peut-être le plus inquiétant – obtenir les faveurs d’une partie du public. Les vidéos du Lokal « permett[ai]nt à la bande de recueillir des fonds, sous forme d’abonnements récurrents ou de dons ponctuels, auprès de spectateurs complaisants, dont certains encourageaient dans leurs commentaires la réalisation de sévices toujours plus avilissants », indique Le Monde. « À la fin du long direct marqué par la mort de Raphaël Graven, le compteur d’une cagnotte apparaissant sur la vidéo laisse penser qu’ils avaient recueilli plus de 36 000 euros » ([345]).
Enfin, les mineurs sont exposés comme tous les autres utilisateurs aux biais massifs des réseaux sociaux, comme les phénomènes de polarisation, décrits par M. Chris Bail ([346]) : les réseaux sociaux sont de fait un lieu de socialisation, mais aussi de confrontation. En particulier sur TikTok, les dynamiques de polarisation sont exacerbées car la confrontation à des groupes opposés se fait à travers une image déformée, construite par la mise en avant des profils les plus radicaux. Ce sont en effet les contenus les plus polarisants – ceux qui suscitent le plus de réactions, de commentaires, de mentions « J’aime » – qui bénéficient d’une visibilité accrue, contribuant ainsi à un renforcement des antagonismes. En outre, enfermés dans des bulles de contenus, les utilisateurs ne sont plus exposés à la confrontation, à l’altérité, et ne sont donc pas incités à l’accepter.
Parmi les profils radicaux mis en avant par TikTok, M. Hugo Micheron, enseignant-chercheur en sciences politiques, spécialiste du Moyen-Orient, présente l’exemple saisissant des comptes salafistes. « Lors d’une étude faite à Sciences Po, […] une cinquantaine de comptes vierges, paramétrés avec le moins d’informations possible, ont été créés sur TikTok », raconte-t-il. « La première recherche de contenu a consisté à taper le mot islam, on ne peut plus générique, dans la barre des tâches. Il s’agissait de voir au bout de combien de vidéos on tomberait sur des contenus indiscutablement – j’insiste sur ce point – salafistes, qui font la promotion, par exemple, des auteurs de référence de cette doctrine radicale de l’islam ou de ses éléments constitutifs, comme le port du voile intégral et de gants par les femmes. Le résultat n’a jamais été supérieur à cinq vidéos – c’était entre trois et cinq ». « La visibilité de ces vidéos était très importante, à en juger par le nombre de vues », explique M. Micheron : « 300 000 pour une vidéo de jeunes femmes faisant la promotion du corpus salafiste dans une librairie islamique. On ne trouve sur aucune autre plateforme de tels scores ». Le chercheur précise la méthode de visibilisation des groupes extrémistes : « la banalisation ». « On parle de groupes radicaux extrémistes idéologisés, mais ils se présentent autour d’une blague, d’une situation de la vie quotidienne – les djihadistes en Syrie se mettaient en scène avec des petits chatons qu’ils nourrissaient […]. C’est le principe élémentaire de la propagande : banaliser une idéologie et la faire passer pour totalement acceptable et ordinaire » ([347]).
Le cas spécifique des dérives sectaires : TikTok, porte d’entrée pour l’embrigadement des plus jeunes
Les mineurs présents sur TikTok sont de plus en plus exposés à un nouveau type de danger, celui des dérives sectaires favorisées par la plateforme, et des mécanismes d’emprise exercés par certains influenceurs malintentionnés.
M. Donatien Le Vaillant, chef de la mission interministérielle de vigilance et de lutte contre les dérives sectaires (Miviludes) constate « l’apparition de nouveaux métiers exercés par des personnes dépourvues de tout diplôme reconnu par l’État ou de compétences vérifiables dans leur domaine d’activité, mais qui exercent néanmoins une influence considérable sur la vie de ces mineurs. Il s’agit notamment d’influenceurs se revendiquant spirituels, de coachs de vie ou encore de spécialistes autoproclamés du développement personnel, dont les compétences apparaissent souvent aléatoires, […] une diversité d’acteurs, souvent dépourvus de qualifications reconnues, intervenant dans des domaines tels que le bien-être, la santé mentale, les sciences occultes, l’astrologie, le coaching de vie pour mineurs, le sport, ou encore les cryptoactifs et les conseils en placements financiers. Ces influenceurs prétendent également traiter des sujets d’ordre intime, tels que les traumatismes, le harcèlement, les souffrances affectives ou les difficultés relationnelles, induisant ainsi des formes de dépendance chez les mineurs » ([348]).
D’après la Milivudes, les moyens et les actions mises en place pour lutter contre ces nouveaux dangers sont largement insuffisants, ce qui est particulièrement préoccupant eu égard à la vulnérabilité des mineurs sur les réseaux sociaux : « La constitution de communautés en ligne constitue un phénomène encore récent, pour lequel nous ne disposons pas à ce jour de dispositifs réellement efficaces permettant d’anticiper ou de prévenir les dérives […] au sein de ces communautés virtuelles, la pression du groupe peut prendre une forme insidieuse et s’avérer particulièrement préoccupante, surtout lorsqu’elle s’exerce sur des publics mineurs » ([349]).
Les attentes à l’égard de la mise en œuvre de la stratégie nationale de lutte contre les dérives sectaires pour la période 2024-2027, annoncée en novembre 2023 par le Gouvernemnt et incluant un axe spécifiquement consacré au numérique, sont donc élevées.
Les dangers que représentent ces communautés constituées sur TikTok sont multiformes : « Au-delà des escroqueries numériques, nous faisons face à la prolifération des fake news et des discours complotistes, lesquels tendent à saper la légitimité des savoirs constitués et remettent en cause les fondements mêmes de la science, de la médecine ou des institutions publiques » ([350]).
Les effets délétères de ces groupes à tendance sectaire sur la construction de soi apparaissent inévitables : comment un adolescent peut-il structurer son rapport au monde lorsqu’il se trouve sous l’emprise d’influenceurs aux discours manipulateurs ?
M. Le Vaillant relève une spécificité propre à TikTok – celle de pouvoir faire des micro‑dons aux influenceurs – qui favorise la prolifération de ces communautés en ligne et accentue les dangers qu’elles représentent pour les mineurs : « S’agissant de TikTok, la possibilité offerte aux utilisateurs de verser des micro-dons instaure une dynamique singulière, particulièrement préoccupante dès lors qu’elle concerne des mineurs. Bien qu’une réglementation existe, celle-ci demeure aisément contournable. Ce qui nous alarme tout particulièrement, c’est l’impact direct sur les jeunes utilisateurs. Nous avons ainsi reçu un signalement impliquant des mineurs, dont certains étaient âgés de moins de quinze ans. La conjonction entre les fonctionnalités propres à un réseau social et l’émergence d’un phénomène de célébrité peut générer une forme marquée de dépendance, certains mineurs se retrouvant dans une attente permanente de réactions ou d’interventions émanant de la figure centrale du groupe. Cet état d’hypervigilance peut altérer la qualité de leur sommeil, bouleverser leurs habitudes de vie et provoquer une détresse émotionnelle profonde » ([351]).
M. Le Vaillant décrit ainsi les différentes phases de l’emprise mentale, utilisées par certains influenceurs pour constituer leurs communautés en ligne :
– la séduction, lors de laquelle l’individu est valorisé ;
– l’endoctrinement, qui vise à faire disparaître les repères antérieurs sous la pression du groupe ;
– l’adoption de règles de vie nouvelles, en rupture avec l’environnement habituel ;
– l’isolement et la dépendance psychologique.
6. TikTok, irrattrapable ? La désinformation sur la santé mentale sur TikTok, ou le vice dans le vice
D’après une étude menée en mai 2025 par le quotidien The Guardian, la moitié des 100 vidéos les plus populaires sur TikTok sous le hashtag #mentalhealthtips contient des informations erronées ([352]). Cette étude a soumis ces vidéos à un panel composé de psychologues, psychiatres et experts universitaires, qui ont conclu que 52 d’entre elles contenaient des informations fausses.
Ce constat est particulièrement préoccupant, notamment au regard de la moindre capacité des enfants à discriminer entre vrai et faux contenu sur les plateformes, comme l’a montrée une étude de mars 2023 réalisée par l’Office of communications (Ofcom), l’autorité régulatrice britannique des télécommunications ([353]). D’après cette étude, 23 % des enfants ayant affirmé une forte confiance en leur capacité à identifier du faux contenu sur les réseaux sociaux n’étaient en réalité pas capable de le faire.
Ainsi, non seulement TikTok nuit à la santé mentale des mineurs en créant ou en exacerbant des troubles psychiques, mais il contribue à les aggraver davantage encore en diffusant de fausses informations sur la santé mentale, ainsi que de faux remèdes trompeurs pour les utilisateurs, notamment les plus jeunes.
7. Inexcusable : des risques bien connus de TikTok depuis longtemps
« Ton bien-être est important pour nous, en ligne et hors ligne. Nous voulons que tu sentes que tu as le contrôle de ton expérience sur TikTok et que tu interagisses avec la technologie d’une manière qui te convient. Pour mieux te soutenir, ainsi que notre communauté, TikTok s’associe à des experts pour développer des boîtes à outils permettant à chacun d’en savoir plus sur l’amélioration de son bien-être et pour créer une communauté en ligne solidaire » ([354]) . C’est ainsi que débute le « Guide sur le bien-être » disponible sur la plateforme chinoise.
La réalité est éloignée de ces discours policés.
Il est désormais établi que TikTok a une connaissance ancienne et documentée des risques que la plateforme fait peser sur la santé mentale des mineurs. Mme Herrero fait mention d’une étude interne datant de 2019, « révélée dans le cadre d’une enquête de la justice américaine, après la plainte de plusieurs États qui accusaient la plateforme de ne pas avoir pris de mesures suffisantes et de tromper les utilisateurs sur la sécurité de l’application » ([355]).
Ces documents internes, pièces versées au dossier des poursuites du procureur général de l’État de Kentucky contre la plateforme, ont été découverts par la Kentucky Public Radio, qui en a déchiffré les éléments caviardés, et révélés par la National Public Radio (NPR) ([356]). Ils démontrent que les équipes de TikTok étaient conscientes des effets néfastes de l’application pour les jeunes, mais que ce danger a été minimisé au profit d’une stratégie de communication positive. Il est notamment fait état des propos d’un chef de projet sur l’outil de limitation de temps, reconnaissant que l’objectif était d’« améliorer la confiance du public en TikTok grâce à la couverture médiatique » de cette nouvelle fonctionnalité, et « non de réduire le temps passé » sur l’application ([357]).
Selon cette étude, il suffit de visionner 260 vidéos sur la plateforme pour développer une forme de dépendance à celle-ci – un chiffre rapidement atteint sur une plateforme de vidéos courtes. En outre, « TikTok reconnaît […] qu’une utilisation compulsive de l’application est corrélée à une série d’effets négatifs sur la santé mentale, en altérant les capacités d’analyse, de mémorisation et de compréhension contextuelle, la qualité des échanges, l’empathie et en provoquant une augmentation de l’anxiété » ([358]).
Dans son rapport d’évaluation des risques de 2024, publié en application du DSA, TikTok constate que « certains utilisateurs (en particulier les jeunes utilisateurs) peuvent parfois être confrontés à des effets négatifs graves sur leur santé mentale et physique ». Toutefois, pour s’affranchir de toute responsabilité, TikTok précise que ces effets négatifs apparaissent « en raison de la manière dont ils [les utilisateurs] utilisent les plateformes » ([359]), c’est-à-dire que ces utilisateurs, à travers une utilisation abusive, seraient entièrement responsables des effets négatifs graves sur leur santé mentale et physique.
TikTok reconnaît en outre dans le même rapport d’évaluation des risques que l’usage de la plateforme peut avoir des « impacts potentiels sur le bien-être » : « Les jeunes utilisateurs peuvent ressentir des effets négatifs sur leur bien-être, comme le fait de passer trop de temps sur la plateforme ou de se sentir obligés de publier du contenu et de recevoir des mentions “J’aime”, ce qui a un impact sur leur estime de soi et leur bien-être général » ([360]).
TikTok n’a toutefois pas engagé d’actions suffisantes pour limiter les risques et réduire l’exposition des mineurs aux contenus les plus nocifs. La notion de dispersion des contenus, évoquée par les responsables de la plateforme ([361]), reste largement théorique et ne correspond pas à la réalité concrète du fonctionnement de la plateforme, encore largement concernée par les effets de « terriers de lapin », spirales de contenus néfastes.
On notera à ce titre que lors son audition par la commission, Mme Marlène Masure, responsable du contenu États d’Europe, du Moyen-Orient et de l’Afrique, directrice exécutive du développement commercial et marketing de TikTok, n’a pas su indiquer si des psychologues et des psychiatres faisaient partie des équipes internes de TikTok. Dans les réponses écrites au questionnaire de la rapporteure, TikTok indique qu’il y a des « personnes avec une expertise approfondie dans plusieurs domaines, notamment en psychologie clinique et en santé mentale » ([362]) au sein de ses équipes, sans en préciser toutefois le nombre, contrairement à ce qui avait été explicitement demandé à la plateforme dans le questionnaire qui lui avait été adressé. Au regard de l’ampleur des effets néfastes de TikTok sur la santé mentale des mineurs, l’absence de précisions apportées par TikTok à ce sujet a de quoi interroger.
M. Stora pointe ainsi l’inaction de la plateforme face aux risques identifiés, et qui se sont aggravés au cours des dernières années : « TikTok, bien que plus récent, s’est initialement présenté comme un espace plus inclusif, ouvert à la diversité des discours. Contrairement à Instagram, qui promouvait une représentation idéalisée du bonheur, de la beauté ou de la minceur, TikTok proposait des contenus plus hétérogènes, allant jusqu’à inclure des thématiques négatives ou marginales. Cette diversité initiale s’est toutefois peu à peu estompée en raison d’une modération insuffisante, fondée sur un filtrage de surface, incapable d’appréhender les effets psychiques plus subtils sur les mineurs, pourtant premières cibles de la plateforme » ([363]).
L’exemple de YouTube : vers une prise de conscience généralisée des réseaux sociaux de la nécessité de mieux protéger les mineurs ? Une mise en œuvre concrète qui reste à vérifier.
Alors que la plateforme risque aujourd’hui d’être interdite aux moins de 16 ans en Australie en raison de ses « algorithmes prédateurs » et de l’exposition massive des mineurs à des contenus inappropriés ([364]), YouTube annonce avoir mis en place un comité de treize experts internationaux issus de milieux scientifiques, universitaires et associatifs qui conseillent YouTube sur l’évolution des besoins des jeunes, en s’appuyant notamment sur des travaux de recherche reconnus ([365]). M. Thibaut Guiroy, directeur des affaires publiques France et Europe du Sud, affirme ainsi que « des mesures ont été prises pour réduire la recommandation de contenus nocifs pour les plus jeunes » ([366]).
Depuis 2023, YouTube aurait « identifié des catégories de contenus qui peuvent paraître totalement inoffensifs lorsqu’ils sont visionnés de manière isolée, mais qui peuvent s’avérer néfastes ou toxiques à long terme pour la santé mentale des adolescents lorsqu’ils sont visionnés de manière répétée » et a « pris la décision de restreindre leur diffusion, en limitant les recommandations de ces contenus sur la plateforme » ([367]).
YouTube évoque plusieurs de ces catégories : « l’idéalisation de normes malsaines ou de comportements problématiques, de niveaux de forme physique ou de poids corporels spécifiques, de la comparaison de caractéristiques physiques et de l’idéalisation de certains types par rapport à d’autres, […] l’encouragement à l’intimidation physique ou au dépassement physique, la violence verbale et les interactions conflictuelles de manière générale » ([368]).YouTube évoque plusieurs de ces catégories : « l’idéalisation de normes malsaines ou de comportements problématiques, de niveaux de forme physique ou de poids corporels spécifiques, de la comparaison de caractéristiques physiques et de l’idéalisation de certains types par rapport à d’autres, […] l’encouragement à l’intimidation physique ou au dépassement physique, la violence verbale et les interactions conflictuelles de manière générale » ([369]).
C. L’étonnante clairvoyance d’une partie des mineurs quant aux effets psychologiques néfastes de TikTok
Les enfants et les adolescents ont, dans une certaine mesure, conscience de leur propre vulnérabilité et des risques liés à l’utilisation des réseaux sociaux, et de TikTok en particulier. Ils ne sont donc pas des utilisateurs naïfs : s’ils ne disposent pas toujours des ressources nécessaires pour faire un usage raisonné et sans danger de TikTok, ils sont néanmoins capables de porter un regard critique sur leur propre usage de la plateforme. C’est précisément cette lucidité, parfois impuissante, qui rend la notion de dépendance particulièrement pertinente : pour des utilisateurs mineurs, être conscient de l’emprise exercée par la plateforme n’implique pas nécessairement la capacité de réduire son usage ou de s’en détacher.
Le docteur Serge Tisseron, qui intervient en classe avec l’association 3‑6‑9‑12+ dans le cadre de l’éducation au numérique et à l’usage des réseaux sociaux ([370]), indique que les collégiens en classe de quatrième et de troisième sont souvent critiques de leurs usages passés des réseaux sociaux : « Ils évoquent fréquemment des changements d’habitudes, la suppression de contenus et de certaines pratiques, voire la suppression de comptes » sur certains réseaux sociaux, et considèrent généralement que « leurs petits frères et sœurs ont un accès trop étendu aux réseaux sociaux et que les règles appliquées par les parents sont insuffisantes. Les adolescents valorisent le cadre proposé par les adultes de leur entourage, quand ils ne le réclament pas explicitement » ([371]).
Les chercheurs Mehdi Arfaoui et Jennifer Elbaz mettent en évidence ce qu’ils appellent « l’appropriation réflexive » et la « désappropriation » des outils numériques ([372]) par les adolescents, qui « révisent leur jugement et adaptent leurs pratiques. » Durant les entretiens réalisés par les chercheurs, il était commun que les collégiens remettent fortement en cause des comportements qu’ils ont pu avoir dans le passé, comme pour cette collégienne de 3ème : « avant je postais des TikTok avec ma tête dessus mais j’étais inconsciente… […] aujourd’hui je comprends qu’on sait pas ce qui peut se passer sur les réseaux sociaux, donc ma tête je la mets que en privé ».
Cette prise de conscience des risques liés aux usages des réseaux sociaux et les changements de pratique y afférents peuvent intervenir sur un court laps de temps : « Parfois seuls quelques mois séparent l’avant de l’après, illustrant la dimension à la fois dynamique et exploratoire de l’appropriation » ([373]).
Il est intéressant de noter que dans ce processus de « ré/désappropriation » TikTok se distingue des autres plateformes, comme le décrit M. Arfaoui : « Notre enquête a permis de montrer que TikTok est une plateforme très stigmatisée aux yeux des adolescents et de leurs parents, souvent décrite comme une application chronophage dont ils aimeraient se défaire. Sans surprise, dans notre échantillon, TikTok apparaît comme la plateforme faisant le plus souvent l’objet de désappropriation par les adolescents et leurs familles ; de nombreux témoignages d’adolescents détaillent les étapes de “sevrage” avant de quitter TikTok. Ces stigmates, s’ils sont utilisés à bon escient, peuvent être un levier pour la régulation. Plus généralement, un encadrement de TikTok pour les mineurs aurait plus de succès s’il parvenait à s’appuyer sur ces étapes de désappropriation » ([374]).
L’enquête retranscrit le témoignage d’une collégienne : « ma mère m’a fait désinstaller TikTok parce qu’elle a une amie qui l’a fait désinstaller à sa fille. Sa fille elle a revécu après la désinstallation. Et moi aussi, c’est vrai que j’ai commencé à plus lire et à plus sortir, et même à travailler plus. Demain je pense que je réinstallerai pas [Tiktok]… en plus il y a le même contenu sur Insta. » Un groupe de collégiens interrogé par les chercheurs affirmait même que « ceux qui sont sur TikTok, ils ont de moins bonnes notes » ([375]).
M. Y, 17 ans, dont la grande sœur s’est donné la mort après une utilisation intensive de TikTok, a relaté à la commission comment il avait tenté de préserver sa petite sœur du même engrenage infernal sur la plateforme : « c’est lorsqu’elle [la grande sœur de M. Y] est partie et que j’ai dû m’occuper de ma petite sœur que j’ai compris que je ne pouvais pas la perdre aussi. Je suis donc allé sur son fil. J’ai compris que comme elle venait de perdre sa sœur et qu’elle éprouvait une grande tristesse, et même du désespoir, si elle allait voir des publications contenant des propos comme “j’ai perdu une personne qui m’est chère, je me sens incomprise”, elle risquait de les “liker”, précisément parce qu’elle se sentait incomprise et qu’elle devait se sentir terriblement seule à ce moment-là. On ne peut pas lui en vouloir : ce n’est pas de sa faute, d’autant qu’en plus de ça, elle n’avait que 14 ans.
J’ai donc décidé, après la mort de ma grande sœur, de prendre le téléphone de ma petite sœur et de passer chaque soir une heure ou une heure et demie à regarder toutes les vidéos qui étaient proposées, d’avoir le courage de cliquer encore et encore sur “Pas intéressée”, jusqu’à ce que son fil redevienne normal et que je puisse, le matin, me réveiller en me disant que ma sœur aurait un téléphone propre, qui lui permette de se divertir ou de s’instruire, plutôt que de la tirer vers le bas » ([376]).
M. Y avait ainsi parfaitement saisi le fonctionnement de l’algorithme, de même que la persistance des spirales de contenus nocifs, qui restent présentes durablement, y compris lorsque l’utilisateur tente de s’en défaire en le signalant à la plateforme par la mention « Pas intéressé ».
Les adolescents sont donc en capacité d’identifier une partie des risques liés à leur utilisation de TikTok. M. Melon, délégué général du Cofrade, évoque ainsi plusieurs risques fréquemment repérés par les adolescents eux-mêmes, tels que le harcèlement en ligne, les dangers « liés aux challenges en tout genre qui mettent en péril l’intégrité physique et morale des participants », l’usurpation d’identité, les risques d’arnaque, la prolifération de fake news et de propos extrémistes, les biais de confirmation.
M. Melon ajoute que les enfants « pointent un danger d’uniformisation des pratiques et de standardisation, notamment en termes d’apparence vestimentaire et de maquillage. Les filles, en particulier, soulignent que cette standardisation des corps idéalisés engendre des complexes et peut donner lieu à des remarques et insultes sexistes de la part de garçons, alors qu’elles estiment que ces derniers ne sont pas la cible des mêmes commentaires » ([377]).
Il conclut ainsi que « les enfants sont conscients des conséquences à long terme de leur présence en ligne. Ils rapportent des cas où des personnes se sont vues refuser des stages en raison de l’historique de leurs profils sur les réseaux sociaux. (…) Les jeunes soulignent également le caractère éphémère de la popularité en ligne, qui nécessite une création constante de contenu pour maintenir une audience » ([378]).
Mme Anna Baldy, activiste humanitaire et créatrice de contenus (Bavardage) auditionnée par la commission, « refuse [ainsi] de dépeindre une jeunesse passive et crédule », alors que le « regard critique sur l’usage des réseaux sociaux » ([379]) vient aussi des adolescents, engagés plus qu’on ne le pense dans le débat public à ce sujet.
Même les plus jeunes sont donc en mesure de développer une réflexion critique sur leurs propres pratiques numériques : il est donc essentiel de ne pas sous-estimer cette faculté. M. Patino, président de Arte France, souligne ainsi la prise de conscience généralisée des utilisateurs quant au fonctionnement des réseaux sociaux : « D’après les dernières études qui ont été publiées, les utilisateurs ont pris conscience du rôle joué par l’algorithme et ont compris que ce qu’ils voyaient n’était pas dû au hasard. Ce qui leur est proposé est défini en fonction de leurs propres données et des « intérêts » de la plateforme. Il y a dix ans, cette perception n’était pas aussi claire. Beaucoup pensaient que le contenu était aléatoire, qu’il était lié à la chronologie ou qu’il dépendait de l’activité de leurs amis. Ils savent maintenant qu’il existe un organisateur caché » ([380]).
Le décalage entre la prise de conscience des risques par les mineurs et leur capacité à s’en détacher s’explique en partie par la diversité des usages qu’ils font de la plateforme. En effet, TikTok est à la fois un espace de divertissement et de découverte et un outil d’apprentissage, d’information et de révision. Cette polyvalence renforce son attractivité : se détacher de la plateforme est alors plus difficile, même chez ceux qui identifient clairement les risques, c’est-à-dire qu’un usage initialement raisonnable peut très rapidement glisser vers une consommation excessive, problématique et finalement dangereuse.
Mme Marie-Caroline Missir, directrice générale du réseau Canopé – Centre pour l’éducation aux médias et à l’information (Clemi) confirme cette diversité des usages de TikTok, qui explique l’ancrage de la plateforme dans le quotidien des adolescents, et la difficulté à s’en détacher : « nous identifions enfin une obsession du temps consacré à TikTok, oscillant entre plaisir et perte de contrôle. Les jeunes en parlent avec lucidité, parfois avec anxiété, et même les plus enthousiastes reconnaissent leur difficulté à se déconnecter. Il convient toutefois de noter que TikTok donne également accès à des contenus éducatifs, certains enseignants étant présents sur cette plateforme, particulièrement durant les périodes de révision. Cette conscience exprimée par les jeunes crée une tension manifeste entre le plaisir qu’ils éprouvent, leur besoin d’évasion et un fort sentiment de culpabilité » ([381]).
Ces constats invitent donc à s’appuyer davantage sur les mineurs, capables, pour certains, d’adopter une distance critique vis-à-vis de leurs pratiques numériques. Toutefois, il convient de garder à l’esprit que cette clairvoyance – qui ne concerne pas l’ensemble des mineurs utilisant TikTok – ne saurait constituer à elle seule une garantie de protection face à ces risques.
Désinstaller TikTok ? Témoignages de jeunes qui ont décidé d’arrêter TikTok
« Me concernant, j’ai éprouvé un mal-être mental car je ne cessais de me comparer aux influenceurs américains qui ont un “corps de rêve”. Je n’étais pas à l’aise avec mon corps et aller sur TikTok n’arrangeait rien, c’est donc pour cela que j’ai décidé de désinstaller cette appli (que je n’utilise plus depuis 2020). Je me suis contenté d’Instagram et de la fonctionnalité des “Reels”, qui s’est avérée provoquer [chez moi] le même sentiment de mal-être avec les influenceurs qui montrent leur vie parfaite et leur corps parfait, sans pour autant avoir du contenu véritablement utile (simplement des vidéos d’eux en train de danser ou en train de voyager)... J’ai donc également fini par désinstaller cette application [en] décembre 2024. Cela a été très compliqué car j’utilisais cette appli comme moyen de communication avec mes amis. On devrait pouvoir choisir le genre de contenus que l’on souhaite voir sur les réseaux sociaux et ne pas se voir inondé de contenus générés par des algorithmes. Je recherche sur les réseaux un moyen de communiquer et d’être informé sans pour autant souffrir d’un mal-être provoqué par la vie des influenceurs qui ne représente pas la réalité et qui ne tient pas compte de la réalité des choses » ([382]) – homme, 20 ans.
Une femme de 20 ans : « Tiktok joue beaucoup sur la santé mentale et également sur le sommeil. Voyant le danger de cette appli (et des écrans), j’arrive à m’en défaire mais je vois les dérives sur mon entourage ou sur moi-même quand j’y retourne. C’est tellement addictif, que même si je déteste cette appli, ça m’arrive d’y retourner… C’est une application qui peut également être source de harcèlement, de critiques (je le vois dans certains commentaires de personnes qui postent des vidéos). Surtout l’algorithme, dès qu’on like une vidéo triste, on n’a le droit qu’à ça… pour le moral ce n’est pas top. […] Sincèrement si cette application pouvait disparaître, je pense que ça serait un grand bien pour beaucoup de gens et pas que pour les jeunes… » ([383]) – femme, 20 ans
« Tiktok est tout à fait différent des autres réseaux sociaux : j’avais la sensation que les autres réseaux sociaux et le contenu qu’ils me proposaient étaient basés sur mes humeurs et mes sensations du moment. Or, dans le cas de Tiktok, c’était comme si c’était le réseau lui-même qui déterminait mon humeur et ma façon de penser. Mon sentiment de mal‑être provenait du fait que je me sentais manipulé. Voilà pourquoi cela fait maintenant un an que j’ai désinstallé TikTok de mon téléphone » ([384]) – homme, 16 ans
« TikTok a détruit une partie de ma vie. Voir toutes ces filles si belles me faisait tellement complexer, voir les jeunes de mon âge sortir, faire tant de choses… Je les enviais tellement ! Je passais ma nuit dessus, beaucoup, beaucoup de temps. La prise de conscience est difficile, cela requiert de la maturité. Maintenant, j’ai 17 ans, je passe moins de temps dessus la nuit, je me sens mieux dans mon corps. Alors, avec beaucoup de recul, je pense que TikTok devrait être limité à ceux ayant plus de 14 ans, par exemple, mais avec des sessions de discussion en classe à ce propos, pour voir leur ressenti, pour leur faire prendre conscience des risques de TikTok. » ([385]) – femme, adolescente.
« Mon avis : je pense que TikTok devrait être supprimé ou limité aux moins de 16 ans en France. Tous les jeunes sont sur TikTok, ils sont influencés par ce réseau social. Ils perdent tout leur potentiel à scroller des heures et des heures. Cela nous rend complètement faibles mentalement. Nos relations sociales sont impactées car nos discussions sont fondées sur TikTok grâce aux refs [références], donc si tu n’as pas TikTok, ça reste difficile de sociabiliser avec les autres. Aujourd’hui, je vous demande de faire quelque chose de concret sur l’accès limité de TikTok » ([386]) – homme, 15 ans.
Si la multiplicité des facteurs en cause et le déficit de données scientifiques appellent à une certaine prudence, ces limites ne sauraient occulter l’existence de constats désormais largement établis. Ceux-ci mettent en évidence des risques graves, documentés et persistants, pesant sur la santé mentale des enfants du fait de l’usage de TikTok. Eu égard à la vulnérabilité particulière de ce public, l’application d’un principe de précaution est indispensable.
Deuxième partie : La rÉgulation des rÉseaux sociaux : LE COMBAT DE DAVID CONTRE GOLIATH À L’ISSUE ENCORE INCERTAINE…
Plateformes en ligne, réseaux sociaux : quelques définitions
Le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques) (DMA) définit un « service de réseaux sociaux en ligne » comme « une plateforme permettant aux utilisateurs finaux de se connecter ainsi que de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils et, en particulier, au moyen de conversations en ligne (chats), de publications (posts), de vidéos et de recommandations » ([387]).
Les réseaux sociaux appartiennent à la catégorie des « services de plateforme essentiels » au titre du DMA ([388]). Ils sont désignés comme « plateformes en ligne » par le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) (DSA), les principaux réseaux sociaux, dont TikTok, appartenant plus spécifiquement à la catégorie des « très grandes plateformes en ligne » ([389]).
Le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), dit RGPD, prévoit en son article 66 plusieurs motifs de licéité du traitement de données à caractère personnel, dont :
– le consentement de la personne concernée ;
– l’existence d’une nécessité liée à l’exécution d’un contrat auquel la personne concernée est partie ;
– l’existence d’une nécessité liée à des intérêts légitimes poursuivis par le responsable du traitement ou par un tiers, à moins que ne prévalent les intérêts ou les libertés et droits fondamentaux de la personne concernée qui exigent une protection des données à caractère personnel, notamment lorsque la personne concernée est un enfant.
Lorsque le traitement de données à caractère personnel repose sur la base légale du consentement de la personne concernée, l’article 8 du RGPD prévoit que, pour les enfants de moins de 16 ans, « ce traitement n’est licite que si, et dans la mesure où, le consentement est donné ou autorisé par le titulaire de la responsabilité parentale à l’égard de l’enfant ». Il est prévu que « le responsable du traitement s’efforce raisonnablement de vérifier, en pareil cas, que le consentement est donné ou autorisé par le titulaire de la responsabilité parentale à l’égard de l’enfant, compte tenu des moyens technologiques disponibles ». Le RGPD précise que « les États membres peuvent prévoir par la loi un âge inférieur pour ces finalités pour autant que cet âge inférieur ne soit pas en dessous de 13 ans ». En France, l’article 20 de la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles a abaissé le seuil de consentement au traitement de données à caractère personnel à 15 ans.
La Commission nationale de l’informatique et des libertés (CNIL) estime toutefois que le traitement des données effectuées par les plateformes de réseaux sociaux ne se fonde pas sur le consentement des utilisateurs mais sur la nécessité contractuelle. « En créant leur compte et en cochant les cases des conditions générales d’utilisation du service (CGU) », les utilisateurs « s’engagent, de fait, dans une démarche d’ordre contractuel » ([390]). Est donc applicable le droit national des contrats. Si en droit français, les mineurs sont en principe considérés comme juridiquement incapables de conclure un contrat, dans certaines situations, un contrat peut être considéré comme un « acte courant » et être donc valablement conclu par un enfant ([391]) . Ayant « procédé à une analyse approfondie du droit national applicable (droit des contrats, régime d’incapacité des mineurs), notamment grâce à l’expertise de professeures de droit et de la Chancellerie », la CNIL considère, « sous réserve de l’appréciation souveraine des tribunaux, [qu’]il serait cohérent que les mineurs puissent être considérés, en fonction de leur niveau de maturité et en tout état de cause à partir de 15 ans, comme capables de conclure des contrats ayant pour objet le traitement de leurs données dans le cadre de services en ligne, tels que l’inscription à un réseau social […] » ([392]).
Si ces deux interprétations de l’application du RGPD pourraient donc justifier l’interdiction de créer un compte sans autorisation parentale avant 15 ans, force est de constater qu’en l’état actuel des pratiques, il n’en est rien. Les plateformes invoquent notamment « le manque d’homogénéité des dispositions légales introduisant la nécessité d’un contrôle de l’âge » ([393]). Ainsi, l’âge fixant l’obligation du consentement d’un titulaire de la responsabilité parentale en vertu de l’article 8 du RGPD varie selon les États : il a été fixé à 13 ans en Belgique, au Danemark, en Finlande, et en Suède, 14 ans en Autriche, en Italie et en Espagne, 15 ans en République Tchèque tout comme en France, 16 ans en Irlande, aux Pays‑Bas et en Slovaquie.
Les plateformes profitent donc de l’absence de consensus sur la question de la limite d’âge et des relatives souplesses du RGPD. C’est ce qu’illustre la réponse pour le moins étonnante de TikTok France s’agissant de l’application du RGPD : « en ce qui concerne la base légale, TikTok ne se fonde pas sur le consentement », indique la plateforme. C’est ici la première étape permettant d’éviter de demander la preuve d’une autorisation parentale lors de l’inscription d’un mineur de moins de 15 ans. La seconde consiste en l’utilisation d’une base légale différente en fonction de l’âge de l’utilisateur : « pour les utilisateurs ayant la capacité juridique de conclure un contrat contraignant, TikTok s’appuie sur la nécessité contractuelle pour un certain nombre d’activités de traitement […]. Pour les utilisateurs ayant une capacité limitée à conclure un contrat contraignant, TikTok s’appuie sur l’intérêt légitime pour traiter les données des utilisateurs dans le but de fournir la plateforme TikTok » ([394]).
Adoptée à l’unanimité par l’Assemblée nationale à l’initiative de M. Laurent Marcangeli, la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne a pour vocation de mettre en place une majorité numérique, fixée à 15 ans, pour l’inscription sur les réseaux sociaux.
Son article 4 impose en effet aux réseaux sociaux de « refuse[r] l’inscription à leurs services des mineurs de moins de quinze ans, sauf si l’autorisation de cette inscription est donnée par l’un des titulaires de l’autorisation parentale sur le mineur » ([395]). Il est également prévu que les titulaires de l’autorisation parentale puissent demander la suspension du compte des utilisateurs de moins de 15 ans.
La loi prévoit qu’afin de vérifier l’âge de leurs utilisateurs et l’autorisation des titulaires de l’autorité parentale, les réseaux sociaux doivent utiliser des solutions techniques conformes à un référentiel élaboré par l’Arcom après consultation de la CNIL – à défaut, ils s’exposent à une amende pouvant aller jusqu’à 1 % du chiffre d’affaires mondial.
Auditionné par la commission d’enquête, M. Marcangeli justifie le choix de l’âge de 15 ans par le fait que cette borne « correspond normalement à l’entrée au lycée et à celui de la majorité sexuelle », ce qui constitue « un palier intéressant » ([396]).
Deux ans après sa promulgation, la loi « majorité numérique » n’est toujours pas appliquée. Le décret d’application de son article 4, relatif aux modalités d’inscription des mineurs de 15 ans sur les réseaux sociaux exerçant leur activité en France, comme celui devant fixer la date d’entrée en vigueur de la loi ([397]), n’a pas été publié.
Les dispositions adoptées ont en effet été considérées comme contraires au droit de l’Union européenne. « L’application de la loi a été entravée non par une carence politique mais par une résistance européenne », témoigne M. Marcangeli. « Le commissaire européen Thierry Breton, dans un courrier daté du 14 août 2023, a [...] indiqué que la loi […] fragmentait le marché unique » ([398]). La loi « majorité numérique » prévoyant des obligations renforcées de modération des plateformes, il a été estimé qu’elle enfreignait l’applicabilité directe du DSA ainsi que certaines de ses dispositions. Elle va également à l’encontre de la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur, dite « directive sur le commerce électronique ». Cette dernière repose en effet sur le principe du « contrôle par l’État d’origine » : les services de la société de l’information ([399]) doivent être réglementés à la source de l’activité et ne sont, en principe, soumis qu’aux lois de l’État membre dans lequel ils sont établis. Or, la loi « majorité numérique » avait vocation à s’appliquer aux prestataires de services de la société de l’information établis en dehors du territoire français.
Estimant avoir été l’auteur d’un texte « lanceur d’alerte », M. Marcangeli a précisé à la commission d’enquête qu’il avait été envisagé de « permettre l’application de [s]on texte » via une loi portant diverses dispositions d’adaptation au droit de l’Union européenne, dite loi Ddadue. Ce texte aurait permis de modifier la loi « majorité numérique » pour la mettre en conformité avec le droit de l’Union européenne et ainsi permettre son application en droit français – c’est ce qui avait été fait pour la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, dont la non-conformité au droit de l’Union européenne avait été signalée par la Commission européenne dans la même lettre que celle portant sur la loi « majorité numérique » ([400]). Ce projet a été abandonné avec le changement de Gouvernement intervenu en janvier 2024.
L’interdiction de créer un compte sur la plupart des réseaux sociaux, dont TikTok, avant 13 ans est purement contractuelle : elle ne repose pas sur des dispositions législatives mais sur les conditions générales d’utilisation (CGU) de ces plateformes. « Vous ne pouvez utiliser la Plateforme que si vous avez 13 ans ou plus », sont ainsi prévenus les utilisateurs de TikTok ([401]).
Aucune disposition législative nationale ou européenne effective ne prévoit à ce jour d’âge limite en dessous duquel l’utilisation des réseaux sociaux est interdite ([402]).
L’existence d’un âge minimal fixé à 13 ans pour s’inscrire sur la plupart des réseaux sociaux tient au droit étatsunien, et plus particulièrement au Children’s Online Privacy Protection Act of 1998 (COPPA). Cette loi fédérale étatsunienne encadre de façon stricte, pour les sites internet commerciaux et services en ligne relevant de la juridiction des États-Unis d’Amérique, la collecte en ligne d’informations personnelles relatives à des mineurs de moins de 13 ans – y compris des mineurs situés en dehors des États-Unis si le service en ligne est implanté aux États-Unis. Elle impose notamment l’obtention du consentement d’un parent ou d’un tuteur. Si la loi COPPA n’a pas pour portée d’interdire l’utilisation des réseaux sociaux par les mineurs de moins de 13 ans, c’est bien son effet : les coûts liés à la mise en conformité avec ce texte ainsi que les risques juridiques auxquels seraient exposés les réseaux qui rendraient leurs services accessibles aux moins de 13 ans expliquent la limite d’âge retenue par la majorité des réseaux sociaux dans leurs CGU.
En vertu de l’article 28 du DSA, relatif à la protection des mineurs en ligne, « les fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service ». Cette formulation, bien que relativement large, permet d’envisager que les plateformes adaptent leur fonctionnement, leurs contenus et leurs fonctionnalités à l’âge de leurs utilisateurs.
La loi « majorité numérique » prévoit aussi l’adaptation des fonctionnalités des réseaux sociaux à leurs utilisateurs mineurs : son article 4 dispose que « lors de l’inscription d’un mineur, les fournisseurs de services de réseaux sociaux en ligne activent un dispositif permettant de contrôler le temps d’utilisation de leur service et informent régulièrement l’usager de cette durée par des notifications ».
Les plateformes ont elles-mêmes mis en œuvre certaines restrictions, proposant aux utilisateurs mineurs une expérience limitée sur l’application.
Sur TikTok, certaines fonctionnalités sont obligatoirement limitées en fonction de l’âge de l’utilisateur :
– ceux-ci doivent être âgés de 16 ans ou plus pour utiliser la fonction de messagerie directe ;
– pour les mineurs âgés de 13 à 15 ans, une plage horaire est automatiquement définie de 21 heures à 8 heures pendant laquelle les notifications push ([403]) sont désactivées. Pour les mineurs âgés de 16 à 17 ans, cette plage horaire est fixée de 22 heures à 8 heures Ce paramètre ne peut pas être modifié ;
– les mineurs ne peuvent pas passer en live, ni accéder aux lives soumis à une restriction d’âge ;
– les comptes des mineurs de moins de 16 ans sont automatiquement définis comme privés, de même que leur contenu. Leur contenu ne peut pas être téléchargé et ne sera pas recommandé dans le flux « Pour Toi » à des personnes qu’ils ne connaissent pas ;
– certains contenus sont soumis à une restriction d’âge et ne peuvent être visionnés que par des utilisateurs âgés de plus de 18 ans (images frappantes et effrayantes ou scénarios à suspense, dialogues vulgaires, violence graphique et images dégoûtantes dans un contexte fictionnel, documentaire ou d’actualité, comportement sexualisé, abus d’alcool ou de tabac par des adultes, références détaillées aux drogues, discussions détaillées de thèmes matures ou complexes sans cautionner des comportements dangereux, cascades dangereuses non réalisées par des professionnels) ([404]).
En outre, il est loisible aux utilisateurs mineurs mais également à leurs parents ou tuteurs légaux, via le mode « Connexion Famille », d’activer des restrictions supplémentaires. Peut ainsi être programmée une plage horaire sans notification push plus large que celle automatiquement appliquée aux comptes d’utilisateurs mineurs ([405]).
L’efficacité de certaines restrictions est toutefois fortement affectée par leur caractère contournable et optionnel. Ainsi, si les comptes des utilisateurs âgés de 13 à 17 ans sont, par défaut, soumis à une limite quotidienne de soixante minutes de temps d’écran, les utilisateurs, même mineurs, peuvent choisir de la désactiver. Une invitation à définir leur propre limite de temps d’écran leur sera adressée s’ils dépassent cent minutes d’utilisation quotidienne de l’application ([406]).
Fonctionnalités limitées pour les enfants et adolescents sur les plateformes : YouTube Kids et Comptes Ado
Créé en 2015, YouTube Kids est aujourd’hui disponible dans plus de 80 pays. Cette application propose des contenus adaptés aux enfants de moins de 13 ans, grâce à un système fondé sur les retours des parents, des filtrages automatiques et des examens manuels.
Depuis 2024, les « comptes Ados » sur Instagram présentent des restrictions activées automatiquement, que les parents ont le choix d’autoriser ou non leurs enfants de moins de 16 ans à assouplir. Il est notamment prévu que le contrôle du contenu sensible soit défini sur la valeur la plus restrictive, et que les notifications soient mises en sourdine pendant la nuit.
B. En pratique, l’âge des utilisateurs de TikTok n’est pratiquement pas contrôlé
1. Le principal mode de contrôle de l’âge et premier trou dans la raquette : une date de naissance purement déclarative
Comme l’ensemble des acteurs du secteur, TikTok se fonde uniquement sur la date de naissance déclarée par l’utilisateur à la création du compte, sans procéder à sa vérification, pour déterminer l’âge de l’utilisateur. La seule limite est l’impossibilité d’indiquer une date de naissance correspondant à un âge inférieur à 13 ans. « Si une personne essaie de créer un compte sans respecter l’âge minimum requis, nous suspendons sa capacité à tenter de créer un autre compte en utilisant une date de naissance différente », précise la plateforme ([407]).
L’absence de contrôle de la véracité de la date de naissance déclarée a pour conséquence de permettre aux utilisateurs mineurs – souvent seuls lors de leur inscription sur un réseau social, peu informés de l’importance d’être protégés du développement d’une dépendance et peu conscients des risques que présentent les réseaux sociaux pour leur santé – d’indiquer une date de naissance antérieure à la leur, voire une date correspondant à un âge supérieur à 18 ans. Une telle fausse déclaration peut notamment avoir pour but de préserver leur anonymat, ou de bénéficier de l’ensemble des fonctionnalités du réseau social en contournant les dispositifs de protection ou de limitation ([408]) normalement induits par leur âge réel, en application de l’article 28 du DSA.
Dès lors, les mesures mises en œuvre – si tant est qu’elles soient suffisantes – par les réseaux sociaux, et en particulier par TikTok, dans le cadre de l’article 28 du DSA, relatif à la protection des mineurs en ligne, se révèlent en pratique parfaitement inopérantes tant que les réseaux sociaux ne vérifient pas l’âge ou la date de naissance des utilisateurs à la création du compte.
Par ailleurs, en l’absence de vérification de l’âge par les réseaux sociaux, il revient en pratique entièrement aux parents ou aux tuteurs de vérifier directement depuis l’appareil de leur enfant mineur que la date de naissance indiquée est bien exacte. Cela suppose toutefois que les parents sachent, tout d’abord, que leur enfant est un utilisateur de TikTok ([409]), mais également que l’enfant ne dispose pas d’un deuxième compte caché, que le parent soit suffisamment à l’aise avec les nouvelles technologies et, qu’enfin, ce dernier estime qu’il y ait un réel intérêt à vérifier cet élément.
2. De rares contrôles, faciles à contourner : des tentatives peu convaincantes d’exclusion des mineurs de moins de 13 ans
TikTok indique ne pas se limiter à la seule date de naissance déclarée, mais « utilis[er] des technologies comme le machine learning pour identifier et supprimer les utilisateurs soupçonnés d’avoir moins de 13 ans de la plateforme », « former [leur] équipe de modération à être attentive aux signes indiquant qu’un compte pourrait appartenir à un enfant de moins de 13 ans » et « utilis[er] […] d’autres informations, comme les signalements issus de [la] communauté ou des parents, pour détecter d’éventuels comptes de mineurs. Lorsqu’un compte semble appartenir à une personne mineure, celui-ci est alors suspendu. Si aucun recours n’est accepté, le compte est définitivement banni » ([410]).
Lorsque TikTok suspend ainsi un compte, son détenteur peut effectuer un recours. Les modalités de contrôle sont alors aisément contournables. M. Arnaud Cabanis, responsable de l’activité commerciale France et Benelux de TikTok indique que : « pour rétablir un compte, nous avons instauré une procédure très stricte. Vous devez envoyer une photographie de vous, avec votre carte d’identité à côté de votre visage. Si vous n’êtes pas en mesure de le faire, nous vous demanderons d’envoyer un selfie sur lequel figure également un parent ou un tuteur. Si vous n’arrivez pas à nous [transmettre] cette information, nous vous demanderons une authentification par carte bancaire, avec un micropaiement, comme le font de nombreuses applications en France. Nous utilisons aussi la technologie Yoti, qui nous permet d’analyser les contenus des utilisateurs et de nous assurer qu’ils correspondent à l’âge déclaré » ([411]). À titre d’exemple, ce rare et unique contrôle peut être aisément contourné avec le concours de n’importe quel adulte qui ne serait pas effectivement le parent ou le tuteur.
Mme Charlyne Buigues, infirmière à la Fondation santé des étudiants de France (FSEF) de Grenoble, décrit le cas d’une patiente de son service âgée de 13 ans, souffrant d’anorexie mentale, dont le compte TikTok « sur lequel chacune de ses vidéos recevait plus de 3 millions de “j’aime” » a été bloqué, et qui « avait besoin d’une personne majeure pour débloquer son compte » ([412]) : la patiente a ainsi demandé à Mme Buigues de la photographier avec son téléphone, cette simple démarche suffisant apparemment à TikTok à garantir l’autorisation du parent ou du tuteur. À la suite du refus de Mme Buigues, la patiente a finalement réussi à débloquer son compte TikTok peu après, sans obtenir l’accord de ses parents – ce qui laisse à penser qu’elle a trouvé un adulte plus coopératif pour débloquer son compte.
Des contrôles sont également effectués dans de rares cas, par exemple lorsque l’utilisateur souhaite « passer en live », c’est-à-dire diffuser sur la plateforme du contenu en direct. « Lorsque tu passes en live, suis les instructions fournies pour confirmer que tu as au moins 18 ans », indique la plateforme : les utilisateurs peuvent fournir une pièce d’identité et des selfies, les informations d’une carte de crédit ou un selfie qui servira de base à une estimation de l’âge par l’intelligence artificielle ([413]).
La commission d’enquête a toutefois relevé des éléments surprenants, en totale contradiction avec les déclarations de TikTok concernant le contrôle de l’âge sur TikTok LIVE. Ainsi, à un compte mineur souhaitant participer à un live, la plateforme a, incidemment, proposé de changer sa date de naissance (annexe 1).
En pratique, TikTok dispose de nombreuses informations peu intrusives afin d’estimer l’âge d’un mineur telles que la taille des mains en fonction des mouvements opérés sur l’écran ou encore les sujets d’intérêt de l’utilisateur, permettant de réduire drastiquement la présence des mineurs de moins de 13 ans ou de présumer un écart entre la date de naissance déclarée et l’âge réel de l’utilisateur pour les mineurs âgés de 13 à 17 ans. Cette seconde possibilité est par exemple déjà exploitée par TikTok selon M. Arnaud Cabanis, dans une faible mesure toutefois, au regard des modestes résultats.
Les conséquences d’une absence de vérification de l’âge ne se limitent pas aux pays de l’Union européenne. À titre d’exemple, aux États-Unis, en 2019, TikTok a été sanctionné d’une amende de 5,7 millions de dollars américains en raison du non-respect du Children’s Online Privacy Protection Act (COPPA) du fait du recueil des informations personnelles des mineurs de moins de 13 ans opéré sans le consentement des parents.
3. La cécité opportuniste et dangereuse de TikTok sur l’âge réel de ses utilisateurs
Une vérification de l’âge semble techniquement, pleinement possible. TikTok pourrait également appliquer par défaut toutes les règles applicables aux comptes mineurs à l’ensemble des comptes et demander à vérifier la date de naissance lorsque l’utilisateur souhaite faire usage d’une fonctionnalité destinée exclusivement aux majeurs ou décide de réduire certaines protections. Ces mesures, supposant une réelle bonne volonté du réseau social, sont peu coûteuses à mettre en œuvre.
Il apparaît dès lors que l’absence de vérification de la date de naissance présente l’intérêt pour TikTok de réduire les obstacles à l’ouverture du compte et, lors de l’usage de ces comptes théoriquement majeurs par des mineurs, de bénéficier de revenus plus importants. En effet, l’absence de limitations implique que les mineurs soient exposés à un nombre plus important de publicités pour un temps donné par rapport à ce qu’afficherait un compte mineur et passent finalement plus de temps sur l’application en l’absence d’outils de limitation du temps passé sur TikTok, générant ainsi plus de revenus publicitaires pour TikTok. S’agissant de l’activation de l’ensemble des fonctionnalités, elle implique par exemple que les utilisateurs mineurs puissent dépenser de l’argent dans TikTok LIVE, rapportant à TikTok 50 % des montants versés aux créateurs, quand ces revenus ne devraient normalement pas exister.
Pourtant, les dispositifs visant à protéger les mineurs activés sur les comptes des mineurs ayant déclaré une date de naissance pourraient être utiles : comme l’indique TikTok, ils sont les composantes de l’« accompagnement spécifique [de leurs] jeunes utilisateurs afin de les aider à développer une relation saine avec le temps passé devant un écran » ([414]).
Pour autant, il apparaît clairement que TikTok organise sa propre cécité sur la réalité de la situation de ses utilisateurs, alors que l’entreprise a la possibilité technique de faire autrement. En conséquence, d’après TikTok, en 2025, seuls 4,5 % de ses utilisateurs français seraient âgés de 13 à 17 ans ([415]), soit 1,13 million d’utilisateurs, ce qui représente environ un quart de cette tranche d’âge ([416]), contrastant nettement avec la réalité des usages largement renseignée dans le présent rapport – selon les mesures d’audience de Médiamétrie précédemment citées, 64 % des 11-17 ans utilisent TikTok au moins une fois par mois.
Mme Marlène Masure, directrice générale des opérations France, Benelux, et Europe du sud de TikTok, indique que TikTok a supprimé 642 000 comptes d’enfants de moins de 13 ans en 2024, soit l’intégralité des comptes possédés par des mineurs de moins de 13 ans à leur connaissance. Ce chiffre représente près de 17 % des enfants de 8 à 13 ans en France ([417]) : significatif, il semble largement inférieur à la proportion des enfants de cette tranche d’âge utilisant TikTok, dans un contexte où 67 % des élèves de primaire et 93 % des élèves de collège sont inscrits sur les réseaux sociaux (voir supra).
Interrogés par la commission d’enquête, les représentants de TikTok ont dû reconnaître que, malgré une limite d’âge théorique, une part non négligeable d’utilisateurs mineurs sont, sur la plateforme, considérés comme majeurs. « Je pense que c’est possible. […] Techniquement, c’est possible », a admis M. Cabanis ([418]).
C. Les lignes directrices de la commission européenne sur la protection des mineurs ouvrent la perspective d’un encadrement effectif de l’utilisation des réseaux sociaux par les mineurs
1. Les lignes directrices de la Commission européenne : une précision bienvenue des exigences du règlement DSA en matière de protection des mineurs
Le DSA instaure des obligations spécifiques pour la protection des mineurs en ligne.
En premier lieu, les réseaux sociaux doivent prendre des mesures appropriées pour garantir la protection des mineurs en ligne. L’article 28 du DSA, sobrement formulé, impose aux plateformes d’assurer la protection des mineurs et prendre les mesures nécessaires à cet effet. L’article dispose que « les fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service ».
Le règlement donne dans ses considérants plusieurs exemples de ces mesures permettant de mieux protéger les mineurs : les plateformes peuvent concevoir « leurs interfaces en ligne ou des parties de celles-ci avec le plus haut niveau de protection de la vie privée, de sécurité et sûreté des mineurs par défaut », adopter « des normes de protection des mineurs » ou participer « à des codes de conduite pour la protection des mineurs » ([419]).
En second lieu, les conditions générales d’utilisation des plateformes doivent être aisément compréhensibles pour les mineurs. Afin que les mineurs puissent comprendre pleinement les règles qui encadrent leur expérience en ligne, le DSA prévoit également que les plateformes comme TikTok communiquent clairement, et de manière adaptée aux jeunes utilisateurs, les conditions d’utilisation du réseau social. L’article 14 du DSA dispose ainsi que « lorsqu’un service intermédiaire s’adresse principalement à des mineurs ou est utilisé de manière prédominante par des mineurs, le fournisseur de ce service intermédiaire explique les conditions et les éventuelles restrictions relatives à l’utilisation du service d’une manière compréhensible pour les mineurs ».
À la suite d’un appel à contributions lancé à l’été 2024, la Commission européenne a soumis à la consultation du public, du 13 mai au 10 juin 2025, son projet de lignes directrices sur la protection des mineurs dans le cadre du DSA et particulièrement de son article 28.
Les lignes directrices ont été publiées par la Commission le 14 juillet 2025, alors que les travaux de la commission d’enquête touchaient à leur fin ([420]). Elles s’inscrivent dans un contexte de mobilisation croissante de nombreux gouvernements des États membres, et particulièrement du gouvernement français, pour un renforcement de la protection des mineurs en ligne, notamment via des mécanismes obligatoires de vérification de l’âge ([421]).
Les lignes directrices de la Commission européenne ont pour objectif de préciser les exigences du DSA et de pallier ses insuffisances en matière de protection des mineurs, dans un calendrier resserré – c’est-à-dire sans attendre l’adoption d’un nouveau texte législatif. L’exécutif européen établit « une liste non exhaustive de mesures proportionnées et appropriées pour protéger les enfants contre les risques en ligne tels que [la sollicitation à des fins sexuelles], les contenus préjudiciables, les comportements problématiques et addictifs, ainsi que le cyberharcèlement et les pratiques commerciales préjudiciables ». La recommandation phare de la Commission européenne consiste en la mise en œuvre de méthodes précises, fiables, robustes, non intrusives et non discriminatoires de contrôle de l’âge. L’exécutif européen conseille également aux plateformes de définir les comptes des mineurs en privé par défaut, de modifier leurs systèmes de recommandation, de désactiver par défaut les fonctionnalités contribuant à une utilisation excessive, et propose des mesures visant à améliorer les outils de modération et de signalement. Les lignes directrices « serviront de point de référence pour vérifier si les plateformes en ligne qui permettent aux mineurs de les utiliser satisfont aux normes nécessaires et peuvent informer les régulateurs nationaux de leurs mesures d’application. Toutefois, [leur] respect est volontaire et ne garantit pas automatiquement la conformité » ([422]).
2. Vers un contrôle de l’âge effectif
a. Les différentes méthodes de contrôle de l’âge
Les lignes directrices adoptées par la Commission européenne classifient les méthodes de contrôle de l’âge en trois catégories ([423]) :
– l’auto-déclaration : l’utilisateur indique son âge, en signalant sa date de naissance ou en déclarant avoir plus d’un certain âge ;
– l’estimation de l’âge : sont utilisées des méthodes pour établir approximativement l’âge, ou la tranche d’âge, de l’utilisateur ;
– la vérification de l’âge : l’âge de l’utilisateur est établi à un haut degré de certitude, grâce à des identifiants physiques ou à des sources d’identification vérifiées.
La Commission précise que la différence principale entre l’estimation de l’âge et la vérification de l’âge est le degré de précision.
b. Le choix de la méthode de contrôle de l’âge
La Commission exclut les méthodes d’auto-déclaration, qui ne peuvent pas « garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs » au titre de l’article 28 du DSA.
Les plateformes devront dont choisir entre l’estimation de l’âge et la vérification de l’âge. La Commission conseille de recourir à cette dernière :
– en cas de risques importants pour les mineurs, ne pouvant être évités par des mesures moins restrictives que la vérification de l’âge (vente d’alcool, de tabac ou de drogue, contenu pornographique, jeux en ligne) ;
– lorsque les conditions contractuelles du service exigent que l’utilisateur soit majeur ;
– quand la plateforme a identifié des risques pour la vie privée, la sûreté et la sécurité des mineurs, ne pouvant être évités par des mesures moins restrictives que la vérification de l’âge ;
– lorsque le droit de l’Union européenne, ou des dispositions nationales qui lui seraient conformes, exige un âge minimal pour accéder à certains produits ou services, comme certaines catégories définies de réseaux sociaux ([424]).
Il est conseillé de recourir aux méthodes d’estimation de l’âge :
– lorsque les conditions contractuelles du service exigent que l’utilisateur ait un certain âge, inférieur à 18 ans ;
– quand la plateforme a identifié des risques moyens pour les mineurs, ne pouvant être évités par des mesures moins restrictives que l’estimation de l’âge ([425]).
c. Les technologies de contrôle de l’âge
Les méthodes de contrôle de l’âge doivent être « précises, fiables, robustes, non intrusives et non discriminatoires » ([426]).
La vérification de l’âge peut s’appuyer sur des documents d’identité officiels, analysés par un tiers en adoptant la solution du « double anonymat » –c’est-à-dire que le site auquel l’internaute accède reçoit la preuve de sa majorité mais ne connaît pas son identité, tandis que le prestataire de la solution de contrôle d’âge connaît l’identité de l’internaute mais ne sait pas quels sites il consulte. L’âge de l’utilisateur serait certifié à la plateforme par l’obtention d’un « jeton numérique » ([427]).
Une solution de vérification de l’âge consiste en l’utilisation du futur portefeuille européen d’identité numérique (EU Digital Identity Wallet), prévu par le règlement (UE) n° 910/2014 du Parlement européen et du Conseil du 23 juillet 2014 sur l’identification électronique et les services de confiance pour les transactions électroniques au sein du marché intérieur et abrogeant la directive 1999/93/CE, dit Electronic Identification, Authentication and Trust Services (eIDAS), amendé par le règlement (UE) 2024/1183 du Parlement européen et du Conseil du 11 avril 2024 modifiant le règlement (UE) n° 910/2014 en ce qui concerne l’établissement du cadre européen relatif à une identité numérique (eIDAS 2). Une fois mis en œuvre, ce portefeuille d’identité numérique offrira aux citoyens et résidents de chaque État membres un moyen d’identification électronique, qui leur permettra notamment de prouver leur âge.
En attendant que les portefeuilles d’identité numériques ne soient disponibles dans chaque État membre, la Commission proposera une solution de vérification que l’utilisateur a 18 ans ou plus ([428]).
Le référentiel de l’Arcom
En octobre 2024, l’Arcom a publié un référentiel déterminant les exigences techniques minimales applicables aux systèmes de vérification de l’âge mis en place pour l’accès à certains services de communication au public en ligne et aux plateformes de partage de vidéos qui mettent à disposition du public des contenus pornographiques.
Il repose sur deux exigences :
– la fiabilité ;
– la protection de la vie privée : le mécanisme de « double anonymat » doit permettre que les données à caractère personnel permettant la vérification de l’âge ne soient pas traitées par les services et plateformes de contenus pornographiques, et que les données fournies par l’utilisateur ne soient pas conservées par le prestataire de génération de preuve d’âge.
Il est prévu que les solutions mises en place soient évaluées en conditions réelles, chaque année, par un prestataire d’audit indépendant.
3. L’adaptation de la conception des plateformes à l’âge de leurs utilisateurs
L’un des principes généraux sur lesquels reposent les lignes directrices sur la protection des mineurs est la « conception adaptée à l’âge » (age-appropriate design) : les plateformes doivent adapter leurs services aux besoins développementaux, cognitifs et émotionnels des mineurs ([429]).
Il s’agit donc de proposer aux utilisateurs mineurs une expérience limitée, et donc plus protectrice, de la plateforme. La Commission estime en effet qu’il est possible que certains contenus, sections ou fonctionnalités des plateformes présentent un danger pour les mineurs, justifiant des restrictions d’accès ([430]).
Elle propose par exemple :
– de limiter les interactions des mineurs aux utilisateurs avec lesquels ils sont connectés ([431]) ;
– de désactiver les notifications push par défaut, et en tout état de cause pendant les heures de sommeil ([432]) ;
– de désactiver les filtres pouvant être associés à des conséquences négatives sur l’image corporelle, l’estime de soi ou la santé mentale ([433]) ;
– de mettre en place des outils de gestion du temps d’écran ([434]).
II. la modération des contenus diffusés par tiktok ne répond pas aux exigences du règlement DSA ni aux impératifs de la protection des mineurs
A. Les plateformes de réseaux sociaux sont soumises à des obligations renforcées de modération des contenus depuis l’entrée en vigueur du règlement DSA
1. Hébergeur, éditeur ? Le règlement DSA redéfinit la responsabilité des plateformes numériques
a. La distinction entre hébergeur et éditeur limite la responsabilité des plateformes pour les contenus qu’elles diffusent
La loi n° 2004-575 du 21 juin 2004 pour la confiance en l’économie numérique (LCEN), qui transpose la directive européenne 2000/31/CE du 8 juin 2000 relative au commerce électronique (directive e-commerce) et la directive européenne du 12 juillet 2002 relative à la protection des données personnelles dans les communications électroniques, a créé un régime spécifique de la responsabilité sur internet à travers la distinction entre éditeur, qui crée ou rassemble un contenu qu’il met en ligne, et hébergeur, qui assure, pour mise à disposition du public par des services de communication au public en ligne, le stockage de ces contenus.
Le statut d’hébergeur soumet les personnes physiques et morales concernées à un régime de responsabilité limitée pour les contenus illicites, et représente donc un statut favorable au développement de leurs activités. La LCEN considère en effet que l’hébergeur, à la différence de l’éditeur, peut ne pas avoir connaissance du caractère illicite des informations qui figurent sur son site. Ainsi, la responsabilité civile ou pénale des hébergeurs pour les infractions commises sur leur réseau n’est engagée que s’ils en ont eu effectivement connaissance, et n’ont pas « agi promptement pour retirer ces informations ou en rendre l’accès impossible » ([435]).
TikTok, à l’instar des autres réseaux sociaux, est ainsi considéré comme un hébergeur malgré l’existence d’une curation des contenus ([436]) par algorithme (ou par un autre procédé informatique), et est soumis à un régime de responsabilité allégé par rapport à un éditeur doté d’une liberté éditoriale.
b. Une responsabilité accrue pour les plateformes prévue par le règlement DSA
Toutefois, l’évolution des usages sur internet, marquée par l’essor des très grandes plateformes, en particulier des réseaux sociaux et des plateformes de partage de vidéos, a conduit à un renforcement de leur responsabilité. Ce tournant est consacré par le règlement européen sur les services numériques (DSA), qui a consacré un principe selon lequel ce qui est illégal hors ligne doit également être illégal en ligne.
M. Matthieu Couranjou, délégué à la régulation des plateformes numériques au sein de la Direction générale des médias et des industries culturelles (DGMIC) du ministère de la Culture, explique cette évolution rapide des usages sur internet : « La directive “e-commerce” établissait initialement la dichotomie entre éditeur et hébergeur à une époque où internet était fondamentalement différent, un hébergeur étant essentiellement un prestataire technique stockant des sites internet tels que des blogs, des pages personnelles, des sites de médias ou de e-commerce. L’avènement des réseaux sociaux a profondément modifié cette donne, puisque les plateformes ont commencé à collecter, organiser, recommander et présenter des contenus générés par leurs utilisateurs, tout en s’abritant derrière le statut confortable d’hébergeur technique à responsabilité limitée » ([437]).
Ainsi, pour éviter que les grands acteurs du numérique ne se réfugient derrière le statut protecteur de simple hébergeur technique pour limiter leurs efforts en matière de lutte contre les contenus préjudiciables, voire illicites, le DSA a consacré un régime de responsabilité conditionnelle des hébergeurs, tout en créant un nouveau statut, celui de « plateforme en ligne », aux responsabilités accrues.
Une plateforme en ligne est donc « un service d’hébergement qui, à la demande d’un destinataire du service, stocke et diffuse au public des informations » ([438]). La prise en compte de leur rôle dans la diffusion des contenus confère à ces plateformes des responsabilités plus étendues que celles d’un hébergeur technique au sens de la directive e-commerce. Ces responsabilités sont désormais proportionnées à leur audience, notamment à travers les dispositions spécifiques applicables aux très grandes plateformes en ligne.
Le DSA réaffirme l’obligation, pour les plateformes, de retirer les contenus dont le caractère illicite leur est connu. L’article 6 du DSA fixe une obligation de résultat pour une plateforme de réseau social en matière de retrait ou de limitation de l’accès à un contenu illicite et impose que « dès le moment où [elle] en prend connaissance ou conscience, [elle] agisse promptement pour retirer le contenu illicite ou rendre l’accès à celui-ci impossible ». À défaut, elle peut être considérée comme responsable du stockage et de la diffusion d’un contenu illicite.
Par ailleurs, les très grandes plateformes en ligne et les très grands moteurs de recherche sont soumis, à travers les articles 34 et 35 du DSA, à une responsabilité étendue. Ils sont soumis à des obligations spécifiques d’évaluation et d’atténuation des risques systémiques, notamment ceux liés à la diffusion de contenus sur leurs services, permettant ainsi de prendre en compte les contenus préjudiciables, et non les seuls contenus illicites.
Le DSA repose donc principalement sur une logique de modération a posteriori, et ne considère pas les plateformes de réseau social comme de véritables éditeurs, soumis quant à eux à des obligations de modération a priori.
Une telle approche paraît limitée, dès lors que TikTok intervient activement dans la sélection et la mise en avant des contenus. Ce rôle d’éditorialisation des contenus, en particulier de son fil « Pour toi », avait déjà été reconnu par la plateforme en juillet 2023, dans le cadre des travaux de la commission d’enquête du Sénat sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence. Mme Marlène Masure, indiquait alors que TikTok pouvait « apporter un avis éditorial sur certains contenus » et que « les données que [TikTok] collecte sur le moteur de recherche sont des données qui [lui] permettent uniquement de cibler pour, sur le plan éditorial, pousser un contenu particulier » ([439]).
M. Sébastien Bakhouche, chef de service, adjoint à la directrice au sein de la DGMIC, défend toutefois la solution intermédiaire apportée par le DSA : « la distinction entre éditeurs et hébergeurs s’inscrit dans un cadre juridique national de longue date, notamment la loi du 29 juillet 1881 sur la liberté de la presse […] Depuis le début des années 2000, le droit communautaire opérait une distinction entre hébergeur et créateur de contenu qui ne correspond plus exactement à la situation actuelle des plateformes en matière de diffusion d’information. Cependant, une différence fondamentale persiste entre le rôle d’une plateforme et celui d’un éditeur de presse traditionnel : la création de contenu. Un éditeur de presse produit et diffuse ses propres contenus d’information, tandis qu’une plateforme se contente de diffuser des contenus produits par d’autre.
Cette nuance est centrale et justifie, selon nous, la création d’un régime de responsabilité intermédiaire spécifique, adapté à cette situation particulière. Ce nouveau régime ne devrait être ni celui applicable aux éditeurs de presse traditionnels, ni celui des simples hébergeurs. Il s’agirait de reconnaître la responsabilité de fait des plateformes dans la diffusion de divers contenus, notamment d’information, tout en tenant compte de leur spécificité par rapport aux éditeurs de presse en termes de production d’informations » ([440]).
M. Couranjou souligne que l’équilibre trouvé dans le DSA entre les exigences de modération des contenus et la protection de la liberté d’expression a été activement défendu par la France, en excluant clairement l’idée de soumettre les plateformes de réseaux sociaux au régime des éditeurs : « Bien qu’un statut intermédiaire se rapprochant de celui des éditeurs puisse être envisagé, il convient de rappeler que les réseaux sociaux contribuent à la liberté d’expression. Le Conseil constitutionnel a d’ailleurs consacré ce principe en 2020 lors de la censure de la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet.
L’équilibre trouvé par le DSA n’a pas été remis en question lors des négociations. Aucun pays, y compris la France, n’a plaidé pour un passage direct au statut d’éditeur. L’approche proposée nous a semblé satisfaisante, notamment grâce à l’approche par les risques qui paraît appropriée pour garantir un équilibre entre la lutte contre les contenus illicites et préjudiciables, et la préservation de la liberté d’expression » ([441]).
2. De nouvelles obligations pour renforcer la modération des contenus et protéger les utilisateurs en ligne
Le règlement sur les services numériques (DSA), qui succède à la directive dite e-commerce du 8 juin 2000, s’applique depuis le 25 août 2023 aux très grandes plateformes et moteurs de recherche ([442]), dont fait partie TikTok, qui sont soumis à des règles plus strictes que les autres plateformes ([443]).
a. La mise en place obligatoire d’un dispositif de signalement et d’un mécanisme de réclamation
L’article 16 du DSA prévoit l’obligation pour les plateformes en ligne de proposer aux utilisateurs un outil leur permettant de signaler facilement les contenus illicites ([444]). Les plateformes doivent mettre à disposition des internautes une solution simple leur permettant de signaler les contenus illégaux : « [c]es mécanismes sont faciles d’accès et d’utilisation et permettent la soumission de notifications exclusivement par voie électronique » ([445]).
Les plateformes doivent permettre aux utilisateurs de motiver leurs signalements, en précisant les raisons pour lesquelles un contenu leur paraît illicite ([446]). Les dispositifs de signalement doivent donc « permettre la soumission de notifications suffisamment précises et dûment motivées pour permettre au fournisseur de services d’hébergement concerné de prendre une décision éclairée et diligente, compatible avec la liberté d’expression et d’information, en ce qui concerne le contenu auquel la notification se rapporte, en particulier la question de savoir si ce contenu doit ou non être considéré comme un contenu illicite et s’il doit être retiré ou si l’accès à ce contenu doit être rendu impossible » ([447]).
À la suite de ce signalement, la plateforme peut ainsi décider si elle est d’accord ou non avec cette évaluation et si elle retire ou non le contenu ou rend l’accès à celui-ci impossible.
Les contenus illicites – une liste élargie par la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (Sren)
La responsabilité des plateformes est engagée lorsqu’elles ne retirent pas les contenus illicites dont elles ont connaissance. La liste des contenus illicites a été complétée par la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (Sren), qui a modifié l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique.
Sont notamment considérés comme illicites les contenus constituant les infractions suivantes : provocation publique et directe à commettre un génocide ; harcèlement sexuel ; harcèlement moral au travail ; harcèlement moral entre partenaires ou conjoints ; harcèlement scolaire ; cession ou offre illégale de stupéfiants, provocation au suicide ; « thérapies de conversion » (pratiques visant à modifier ou réprimer une orientation sexuelle ou une identité de genre) ; proxénétisme ; provocation directe d’un mineur à commettre un crime ou un délit ; corruption d’un mineur ; menace contre dépositaires de l’autorité publique ; divulgation d’identité de membres d’unités spéciales ou antiterrorisme ; provocation ou apologie publique d’actes de terrorisme ; diffusion d’images à caractère sexuel impliquant un mineur, provocation à la discrimination ; à la haine ou à la violence à l’égard d’un groupe ; négation, contestation, banalisation de façon outrancière ou minimisation de crimes contre l’humanité ou génocides reconnus par une juridiction française ou internationale.
Le législateur pourrait, si nécessaire, étendre la liste des contenus illicites – dans les limites de la liberté d’expression. L’élargissement de cette liste pourrait être un moyen de contraindre TikTok à retirer certains contenus qui, bien qu’ils ne soient pas illicites en l’état actuel du droit, posent des problèmes majeurs en matière de sécurité en ligne et de protection des publics vulnérables, à l’instar des contenus sexistes ou ceux glorifiant le suicide ou l’automutilation. En effet, lorsque le caractère illicite d’un contenu qui lui est signalé n’est pas « manifeste » ou « clair », un hébergeur, tel qu’un réseau social ne peut voir sa responsabilité engagée. Cela souligne la nécessité d’une définition précise et juridiquement claire des contenus illicites.
Enfin, la mise en place d’un mécanisme de réclamation, « d’un accès et d’une utilisation aisés », est prévue à l’article 20 du DSA : les utilisateurs doivent aussi pouvoir contester les décisions des plateformes relatives à l’illicéité d’un contenu ou à son incompatibilité avec ses conditions générales. Les réclamations soumises par l’intermédiaire de ces mécanismes doivent être traitées « de manière non discriminatoire, diligente, et non arbitraire » ([448]). Les plateformes doivent également garantir que ces réclamations font « l’objet d’un réexamen par un être humain lorsque des moyens automatisés sont utilisés ». Les réclamations ne doivent par ailleurs pas être soumises à des exigences formelles « telles que le renvoi à des dispositions juridiques spécifiques pertinentes ou à des explications juridiques compliquées » ([449]).
Contenus illicites et faux signalements : la suspension des utilisateurs toxiques prévue par le DSA
Afin de garantir l’efficacité de la modération et lutter contre la prolifération de contenus illicites, le DSA prévoit à son article 23 la possibilité pour les plateformes de suspendre les comptes qui « fournissent fréquemment des contenus manifestement illicites ». Afin de préserver l’efficacité des dispositifs de signalement et prévenir leur détournement et leur usage abusif – par exemple, à des fins de cyberharcèlement dans le cadre de campagnes de signalements répétés et coordonnés de la part d’utilisateurs malveillants, les plateformes peuvent également suspendre les comptes qui « soumettent fréquemment des notifications ou des réclamations manifestement infondées ».
b. Le rôle des signaleurs de confiance : vers une modération des contenus illicites plus efficace et une coopération avec les autorités de contrôle
Afin de garantir une modération plus efficace, rapide et ciblée des contenus illicites en ligne, le DSA a institué à son article 22 des signaleurs de confiance. Ceux-ci sont désignés par le coordinateur pour les services numériques au niveau national. Le statut de signaleur de confiance ne peut être attribué qu’à des entités –et non des particuliers – devant remplir certains critères : disposer d’une expertise et d’une compétence particulières dans la lutte contre les contenus illicites, être indépendant de toute plateforme, effectuer ses signalements de manière « diligente, précise et objective » ([450]).
Ces signaleurs de confiance agissent dans leur domaine d’expertise désigné et disposent d’un statut privilégié : les signalements effectués par les signaleurs de confiance doivent être « prioritaires », « traités » et « donne[r] lieu à des décisions dans les meilleurs délais » ([451]).
L’objectif de la mise en place des signaleurs de confiance est donc double : lutter plus efficacement contre les dérives sur les plateformes, et désengorger les dispositifs classiques de signalement souvent surchargés.
Mme Sophie Taïeb, responsable du pôle cybersécurité du Conseil représentatif des institutions juives de France (Crif), explique les actions du Crif en tant que signaleur de confiance ([452]) : « chaque année, plusieurs milliers de signalements sont reçus par le Crif par mail, via un formulaire sur notre site internet ou la messagerie. Nous les traitons tous manuellement : je décide des contenus qui seront signalés aux plateformes et/ou à Pharos [plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements]. Nous ne signalons que les contenus illicites qui enfreignent soit la loi française, soit les règles d’utilisation des plateformes. C’est pourquoi notre taux de retrait est d’environ 90 %, toutes plateformes confondues.
Parmi les contenus les plus signalés qui entrent dans notre domaine d’expertise figurent les contenus négationnistes, la discrimination en raison de la race ou de la religion, les discours de haine, l’apologie du terrorisme et le doxxing, à savoir la divulgation d’informations et de données personnelles » ([453]).
Le déploiement du dispositif est progressif, mais la France se distingue en comptant l’un des plus grands nombres de signaleurs de confiance en Europe. À la fin juillet 2025, huit signaleurs de confiance avaient été désignés par l’Arcom :
– l’association e-Enfance (protection des mineurs) ;
– l’association de lutte contre la piraterie audiovisuelle, ALPA (prévention et lutte contre la piraterie audiovisuelle) ;
– l’association International Fund for Animal Welfare, IFAW (préservation des espèces sauvages et lutte contre la cybercriminalité liée à ces espèces) ;
– l’association INDECOSA-CGT (information et défense des consommateurs salariés) ;
– l’association Point de contact (lutte contre les cyberviolences et protection des victimes dans l’espace numérique) ;
– l’association Addictions France (prévention, formation, soin et réduction des risques des addictions et leurs conséquences) ;
– le Conseil représentatif des institutions juives de France, Crif (lutte contre l’antisémitisme et le racisme) ;
– la ligue internationale contre le racisme et l’antisémitisme, Licra, dernier signaleur de confiance à avoir été désigné par l’Arcom, le 25 juillet 2025.
Bien que l’action des signaleurs de confiance rencontre certaines limites, leur mise en place constitue une avancée notable, dans la mesure où leurs signalements sont traités rapidement par les plateformes. Cela soulève toutefois la question du traitement réservé aux signalements des utilisateurs ordinaires, encore trop souvent ignorés ou insuffisamment pris en compte (voir infra).
Par ailleurs, la question du financement à long terme des signaleurs de confiance se pose aujourd’hui. Le modèle de financement de l’association e-Enfance en est un exemple : l’association est financée à 55 % par du mécénat privé, dont 70 000 euros de TikTok (2 % du budget de l’association, qui s’élevait à 3,4 millions d’euros en 2024), et à 45 % par des subventions publiques françaises et européennes ([454]).
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone a quant à elle soulevé les problèmes de financement que rencontrent les associations voulant devenir signaleurs de confiance : « [n]ous aimerions également être signaleurs de confiance, mais cela nécessite un budget » ([455]). Dans l’attente des financements nécessaires, Mme Gros propose que les associations comme Respect Zone puissent bénéficier d’un « couloir prioritaire » auprès des signaleurs de confiance, pour que leurs signalements soient pris en compte plus rapidement.
Pour répondre à cette difficulté, la ministre déléguée auprès du Premier ministre, chargée de l’égalité entre les femmes et les hommes et de la lutte contre les discriminations Mme Aurore Bergé a ainsi annoncé le 9 juillet 2025 vouloir soutenir financièrement les associations de lutte contre la haine qui postuleraient au rôle de signaleur de confiance auprès de l’Arcom ([456]).
c. Les très grandes plateformes sont soumises à des obligations supplémentaires en matière de modération : évaluation et atténuation des risques
« La philosophie du DSA repose sur une approche de gestion des risques », comme l’indique M. Loïc Duflot, chef de service de l’économie numérique au Pôle Régulation des plateformes numériques (REGPFN). Il résume en ces termes le volet du règlement européen consacré à l’identification et à la réduction des risques systémiques : « [l]es acteurs doivent identifier les risques qu’ils génèrent pour leurs utilisateurs et proposer des mesures d’atténuation. Si les régulateurs jugent ces mesures inefficaces, ils sont habilités à ouvrir des enquêtes et, le cas échéant, à sanctionner » ([457]).
Sur le plan de l’évaluation des risques, l’article 34 du DSA prévoit que les fournisseurs des très grandes plateformes en ligne, dont fait partie TikTok, « recensent, analysent et évaluent de manière diligente tout risque systémique au sein de l’Union découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services ». Pour cette évaluation des risques, les très grandes plateformes doivent particulièrement tenir compte de « leurs systèmes de modération des contenus ».
Le règlement présente la manière dont les très grandes plateformes comme TikTok doivent évaluer ces risques : « [p]our déterminer l’ampleur des effets et impact négatifs potentiels, les fournisseurs devraient examiner la gravité de l’impact potentiel et la probabilité de tous ces risques systémiques. Par exemple, ils pourraient évaluer si l’impact négatif potentiel peut toucher un grand nombre de personnes, déterminer son éventuelle irréversibilité ou apprécier à quel point il est difficile de remédier au problème et de revenir à la situation antérieure à l’impact potentiel » ([458]).
La protection des mineurs constitue un aspect à part entière de l’évaluation des risques que les très grandes plateformes comme TikTok doivent mener.
En effet, parmi les risques systémiques que les très grandes plateformes doivent évaluer, l’article 34 du DSA mentionne notamment « tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes ». Le règlement évoque également dans ses considérants les risques résultant de « campagnes de désinformation coordonnées liées à la santé publique ou de la conception d’interfaces en ligne susceptibles de stimuler les dépendances comportementales des destinataires du service » ([459]).
Ainsi, le DSA impose à TikTok d’évaluer les risques que pose la conception addictive de la plateforme, notamment en matière de dépendance comportementale des utilisateurs.
Le règlement souligne également que, dans leur évaluation des risques, les plateformes comme TikTok devraient accorder une attention particulière aux « éléments susceptibles de contribuer aux risques » tels que les « systèmes algorithmiques […] en particulier leurs systèmes de recommandation et leurs systèmes publicitaires », ainsi qu’à « l’amplification algorithmique des informations » qui peut contribuer aux risques systémiques ([460]).
En définitive, le DSA impose bien à TikTok une évaluation des risques portant en particulier sur la manière dont les mineurs peuvent être exposés à des contenus pouvant nuire à leur santé mentale et physique, à travers une interface exploitant leur inexpérience ou leur vulnérabilité, ou favorisant des formes de dépendance comportementale. Les effets psychologiques de TikTok sur les mineurs, et en particulier les dommages directs et indirects causés par l’exposition répétée à des contenus qui glorifient l’automutilation, le suicide, ou les troubles du comportement alimentaires, relèvent donc pleinement du champ d’application du DSA.
TikTok Lite – un premier succès pour le DSA
Le 22 avril 2024, la Commission européenne a ouvert une procédure formelle à l’encontre de TikTok au titre du DSA, qui visait à déterminer si la plateforme avait enfreint le DSA lors du lancement de TikTok Lite – une version allégée de l’application TikTok visant à attirer des usagers aux connexions internet ou aux téléphones moins performants – en France et en Espagne en mars 2024. Cette version de TikTok comportait un programme de récompense, « Task and Reward Lite », qui permettait aux utilisateurs de gagner des jetons virtuels en accomplissant différentes actions, comme se connecter régulièrement sur l’application, regarder des vidéos, aimer des contenus, ou inviter des amis. Ces jetons pouvaient ensuite être convertis en carte-cadeau Amazon, ou utilisés comme monnaie virtuelle TikTok, notamment pour faire des dons à des créateurs de contenus. L’application était conçue de manière à ce que les récompenses, sous forme de jetons virtuels, augmentent proportionnellement au temps passé sur la plateforme et au nombre de vidéos visionnées, incitant ainsi les utilisateurs à passer toujours plus de temps sur la plateforme.
La Commission avait observé que la nouvelle fonctionnalité avait été lancée sans évaluation préalable diligente des risques qu’elle comporte, en particulier ceux liés à l’effet de dépendance des plateformes, et sans prendre de mesures efficaces d’atténuation des risques. La Commission avait en effet estimé que la fonctionnalité était susceptible d’avoir une incidence critique sur les risques systémiques de la plateforme et posait des risques graves pour la santé mentale des utilisateurs, en particulier des mineurs au regard de l’absence de mécanisme efficace de vérification de l’âge sur TikTok.
L’ouverture de cette procédure a ainsi abouti au retrait par TikTok du programme de récompense sur son application. Les très grandes plateformes doivent ensuite tirer les conséquences de cette évaluation des risques en mettant en place « des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux », prévues par l’article 35 du DSA.
Le règlement cite plusieurs exemples de mesures d’atténuation dans ses considérants : « adapter toute conception, toute caractéristique ou tout fonctionnement nécessaires de leur service, comme la conception des interfaces en ligne » ; « adapter et appliquer leurs conditions générales » ; « l’adaptation de leurs systèmes de modération des contenus et de leurs processus internes ou l’adaptation de leurs processus décisionnels et de leurs ressources, notamment le personnel chargé de la modération des contenus, leur formation et leur expertise locale », afin d’améliorer la rapidité et la qualité du traitement des signalements ([461]).
À ce titre, le règlement réaffirme la nécessité d’une protection renforcée des mineurs, accompagnée de mesures d’atténuation spécifiques et prévoit « l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu » ([462]).
d. Le règlement DSA instaure des autorités de surveillance et de régulation chargées de garantir le respect de ces nouvelles obligations
Pour assurer la mise en œuvre du DSA au niveau national, chaque État membre désigne des autorités compétentes ([463]) chargées de surveiller les fournisseurs de services intermédiaires et de veiller à l’application du règlement. Parmi elles, un coordinateur pour les services numériques – en France, il s’agit de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) – est désigné parmi les autorités compétentes de l’État membre pour superviser la surveillance et l’application du DSA, assurer la coordination nationale sur ce sujet et veiller à la cohérence de l’application du règlement à l’échelle de l’Union européenne ([464]). Dans ce cadre, le coordinateur national assure la liaison avec la Commission européenne.
Pour assurer leurs missions, les coordinateurs pour les services numériques sont investis de pouvoirs d’enquête à l’égard de la conduite des fournisseurs de services intermédiaires relevant de la compétence de leur État membre, ainsi que de pouvoirs d’exécution (ordre de cesser des infractions, imposition de mesures correctives, imposition d’amendes, imposition d’astreinte, adoption de mesures provisoires, demande de restriction temporaire de l’accès au service concerné par l’infraction).
À côté du rôle des coordinateurs nationaux, la Commission dispose de pouvoirs d’enquête lui permettant de vérifier le respect par les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne des obligations fixées par le DSA (articles 65). Elle peut également engager une procédure de constat de manquement ou d’imposition d’amendes à l’encontre de ces acteurs lorsqu’une infraction au règlement est suspectée (article 66).
Par ailleurs, comme le précise Mme Clara Chappaz, ministre déléguée auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargée de l’intelligence artificielle et du numérique, la Commission européenne peut « mener des audits des algorithmes pour comprendre techniquement comment les plateformes sont gouvernées et identifier les éventuels biais cognitifs qu’ils induisent, de sorte [à] demander des corrections » ([465]). L’article 69 du DSA dispose en effet que la Commission peut, dans le cadre d’une inspection, « exiger du fournisseur de la très grande plateforme en ligne […] qu’il donne accès […] à ses algorithmes ».
L’article 72 du DSA prévoit également que la Commission peut nommer des experts et des auditeurs externes indépendants pour contrôler la mise en œuvre et le respect effectif du DSA par les très grandes plateformes en ligne comme TikTok, et peut à ce titre « leur ordonner de donner accès à leurs bases de données et algorithmes ».
Par rapport au règlement général sur la protection des données (RGPD), ce rôle de la Commission européenne est une véritable nouveauté. Le DSA prévoit ainsi une meilleure répartition des missions de contrôle de l’application de la législation européenne.
Ainsi, dans le cadre du DSA, la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (Sren) a confié à la Cnil de nouvelles compétences, qui portent sur les obligations renforcées de transparence en matière de publicité ciblée, l’interdiction de présenter aux utilisateurs des publicités fondées sur du profilage sur la base de données sensibles, et l’interdiction de présenter à des mineurs des publicités fondées sur le profilage.
En comparaison, la Cnil n’a qu’une compétence limitée au titre de la législation sur la protection des données à caractère personnel, comme l’explique Mme Marie-Laure Denis, présidente de la Cnil : « depuis juillet 2020, TikTok dispose d’un établissement principal en Europe […] en conséquence de quoi c’est l’autorité de protection des données irlandaises – la Data Protection Commission (DPC) – qui est compétente, en application du système de guichet unique prévu par le RGPD » ([466]). Ainsi, la Cnil ne peut plus prendre directement de décisions sur d’éventuels manquements au RGPD de la part de TikTok : son rôle se limite à faire valoir son point de vue auprès de la DPC irlandaise et à lui transmettre des plaintes. La DPC irlandaise, en première ligne du fait de l’implantation de nombreuses grandes plateformes en Irlande, fait donc face à une surcharge structurelle de travail.
Toutefois, les avancées du DSA en matière de répartition des missions de contrôle doivent être relativisées : la marge de manœuvre des autorités compétentes, et notamment celle des coordinateurs pour les services numériques, demeure limitée au niveau national. M. Martin Ajdari, président de l’Arcom, décrit en outre « une architecture de régulation du numérique assez complexe » ([467]).
Ainsi un coordinateur pour les services numériques comme l’Arcom « ne peut pas prendre [directement] de sanction contre les plateformes comme TikTok » ([468]). L’Arcom « transme[t] des alertes à la Commission, qui s’en saisit : elle peut demander des informations à TikTok, éventuellement lui imposer de conserver toutes ses données de trafic pour mener une enquête plus approfondie. Cette enquête contradictoire prend du temps, causant impatience et frustration. La Commission peut enfin prononcer une sanction » ([469]).
L’Arcom peut également faire remonter des alertes relatives à TikTok au coordinateur pour les services numériques irlandais dans le cas où une enquête n’a pas été engagée par la Commission européenne. Dans ces alertes, l’Arcom demande à la Commission ou à l’autorité irlandaise « d’étudier tel ou tel problème constaté par [l’Arcom] ou par des tiers – chercheurs, ONG, associations, élus » ([470]).
3. Des avancées récentes au niveau national en matière de régulation des contenus
a. Les apports de la loi dite « Avia » pour la lutte contre la haine en ligne
La loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, loi dite « Avia », crée un Observatoire de la haine en ligne, assurant le suivi et l’analyse de l’évolution des contenus haineux, en association avec les opérateurs, associations, administrations et chercheurs concernés. Rattaché au Conseil supérieur de l’audiovisuel (CSA) puis à l’Arcom depuis 2022, cet observatoire prend en compte la diversité des publics concernés, notamment les mineurs. Il a permis de constater le manque de données pour mesurer la haine en ligne, comme l’indique Mme Lucile Petit, directrice des plateformes en ligne à l’Arcom dans son audition par la commission le 20 mai 2025. Elle met néanmoins en avant les progrès issus des travaux de l’Observatoire de la haine en ligne : « L’Observatoire s’est réuni quarante à cinquante fois en cinq ans, pour traiter notamment de sujets concrets. L’an dernier, nous avons organisé deux réunions pour anticiper, avec l’ensemble des membres et de façon élargie avec le ministère de la justice et celui des sports, les risques susceptibles de survenir en ligne au moment des Jeux olympiques. Chacun a pu évoquer les risques et les craintes qu’il avait identifiés mais aussi présenter les mesures déjà déployées : ces rencontres ont été l’occasion de créer des canaux. Nous nous servons de l’Observatoire comme d’un espace de dialogue et de régulation, dans lequel les plateformes sont toujours présentes » ([471]).
La loi Avia prévoit également la spécialisation d’un parquet et d’une juridiction en matière de lutte contre la haine en ligne. Un pôle national de lutte contre la haine en ligne a été créé au sein du tribunal judiciaire de Paris.
b. La loi du 7 juillet 2023 visant à instaurer une majorité numérique : ambitieuse mais inappliquée
La loi du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne précitée devait renforcer significativement les obligations des plateformes en matière de protection des utilisateurs, en particulier mineurs.
En application de son article 3, les réseaux sociaux sont tenus de diffuser des messages de prévention contre le cyber-harcèlement et d’indiquer aux auteurs de signalement les structures d’accompagnement.
De plus, la liste des contenus illicites dont les réseaux sociaux doivent permettre le signalement est étendue : sont concernées les atteintes à la représentation des personnes (deepfakes), à leur vie privée (cyber-outing) et à leur sécurité ainsi que la lutte contre toutes les formes de chantage (chantage à la webcam ou sextorsion) et de harcèlement (article 2).
Enfin, dans le cadre d’une enquête pénale, les réseaux sociaux et autres plateformes en ligne doivent répondre aux réquisitions judiciaires portant sur des contenus électroniques (textes, photos, vidéos, …) dans un délai de dix jours, ou de huit heures en cas de risque imminent d’atteinte grave aux personnes (article 5).
Comme mentionné précédemment, les décrets d’application de la loi n’ont toutefois pas été publiés, faute de conformité confirmée avec le droit de l’Union européenne. La Commission européenne a soulevé deux principaux griefs à l’encontre de la loi du 7 juillet 2023 :
– d’une part, sur la procédure, la Commission européenne considère que le processus de notification réalisé par les autorités françaises n’est pas conforme à la directive (UE) 2015/1535 relative à la transparence du marché unique compte tenu du non-respect de la période de statu quo prévue à l’article 6 de cette directive, qui prévoit que l’adoption d’un projet de règle technique doit être reportée de trois mois à compter de la réception par la Commission de la communication de tout projet de règle technique ;
– d’autre part, sur le fond, la Commission européenne considère que plusieurs dispositions de la loi du 7 juillet 2023 présenteraient des contradictions avec la direction 2000/31 dite e-commerce et le règlement DSA.
Ces griefs ont pour conséquence d’empêcher l’entrée en vigueur de la loi du 7 juillet 2023 car l’adoption des décrets d’application nécessite, comme précisé à l’article 7 de la loi, une « réponse de la Commission européenne permettant de considérer le dispositif législatif lui ayant été notifié comme conforme au droit de l’Union européenne ».
B. En apparence exigeante, la modération des contenus diffusés sur tiktok s’avère largement insuffisante, entrainant des conséquences funestes
1. En apparence, une modération exigeante
a. Des règles et modalités de modération astreignantes
Les contenus publiés sur TikTok doivent être conformes, d’une part, aux normes nationales, et d’autre part, aux règles communautaires.
Ces règles sont affichées sur le site internet de la plateforme, où l’on peut lire : « TikTok n’est PAS un espace permettant d’afficher, partager ou promouvoir tout ce qui suit :
– Tous types de contenu nocif ou à caractère dangereux ;
– Les organisations terroristes et toute autre organisation criminelle ;
– Contenu explicite, choquant ou violent ;
– La discrimination ou discours de haine ;
– Nudité ou autre activité à caractère sexuel ;
– Atteinte à la sécurité des enfants ;
– Harcèlement ou identification personnelle d’un autre utilisateur ;
– Usurpation d’identité, spam ou autre contenu trompeur ;
– Contenu qui viole les droits d’auteur, les droits de marques ou les droits de propriété intellectuelle d’une autre personne » ([472]).
S’agissant plus particulièrement de la santé mentale, « il n’est pas autorisé d’exposer, de promouvoir ou de partager des projets de suicide ou d’automutilation ». La plateforme indique en outre : « nous n’autorisons pas la présentation et la promotion des troubles du comportement alimentaire et des comportements dangereux relatifs à la perte de poids, ni la promotion du commerce et du marketing de produits pour la perte de poids ou la prise de masse musculaire » ([473]).
C’est notamment en application de cette classification que les contenus sont classés par les équipes de modérateurs. M. X, ancien modérateur TikTok dont la commission d’enquête a entendu le témoignage à huis-clos, se souvient avoir utilisé « différentes étiquettes prédéfinies » : « il y avait les catégories “mineurs”, “terrorisme”, “activités illégales”, “troubles alimentaires”, “violences graphiques”, “violences physiques”, “harcèlement”, “discours haineux”, “comportement dangereux”, “challenge à risque”, etc. » ([474]).
La modération des contenus publiés sur TikTok est assurée dans les « centres de sécurité […] situés en Irlande, à Singapour et aux États-Unis », ainsi que par « des prestataires externes » – pour la modération en langue française, ces sous-traitants sont :
– Teleperformance Lisbonne, au Portugal ;
– Marjorel Brasov, en Roumanie ;
– Telus Sofia, en Bulgarie ([475]).
Elle est majoritairement automatisée : M. Arnaud Cabanis, responsable de l’activité commerciale France et Benelux de TikTok, affirme que « 80 % des vidéos considérées comme problématiques sont bloquées par [des] algorithmes, et 15 % le sont par des hommes » ([476]) – les modérateurs humains se concentrent sur les cas nouveaux ou complexes ([477]).
La plateforme précise que les « méthodes et technologies mobilisées […] sont notamment fondées sur les éléments suivants :
– le visuel : des modèles de reconnaissance visuelle par ordinateur permettent d’identifier des objets enfreignant [les] Règles Communautaires […]
– l’audio : les extraits audio sont analysés afin de détecter d’éventuelles violations, à l’aide d’une base de données audio dédiée et de classificateurs ("classifiers") […] permettant d’identifier des audios similaires ou modifiés par rapport à des contenus précédemment signalés.
– le texte : des modèles de détection analysent les contenus écrits, tels que les commentaires ou les hashtags, à l’aide de listes de mots-clés de base permettant d’identifier des variantes de textes non conformes. Le traitement automatique du langage naturel (TALN) […] aide à identifier les infractions dépendant du contexte, par exemple des mots pouvant être utilisés de manière haineuse mais qui, lorsqu’utilisés de manière isolée, ne violent pas [les] règles.
– la similarité : les systèmes de détection de similarité […] permettent non seulement de repérer des contenus identiques ou très similaires à ceux déjà identifiés comme non conformes, mais également d’autres types de contenus partageant des éléments contextuels clés et pouvant nécessiter un examen supplémentaire.
[…]
– les modèles de langage de grande taille (LLM) : une forme d’intelligence artificielle appelée modèles de langage de grande taille (Large Language Models) [est utilisée] afin d’améliorer et de faire évoluer la modération de contenu. Ces modèles comprennent le langage humain et peuvent effectuer des tâches complexes et spécifiques […] » ([478]).
TikTok se félicite d’adopter une démarche anticipatrice, indiquant que 98 % des contenus retirés le sont « de manière proactive » : en 2024, 94,7 % des vidéos seraient retirées avant tout signalement. La plateforme atteste avoir retiré 6,6 millions de vidéos en France en 2024, dont les deux tiers avant même d’avoir été visionnées et 97,7 % avant d’atteindre 1 000 vues ([479]).
Précisant que chaque vidéo peut relever de plusieurs catégories, la plateforme indique avoir retiré, au dernier trimestre 2024, en France :
– 111 309 vidéos en violation de la politique d’Intégrité et d’Authenticité ;
– 403 169 vidéos en violation de la politique de Santé mentale et comportementale ;
– 26 015 vidéos en violation de la politique de Confidentialité et sécurité ;
– 446 120 vidéos en violation de la politique de Sécurité et courtoisie ;
– 604 108 vidéos en violation de la politique sur les Produits réglementés et activités commerciales ;
– 675 406 vidéos en violation de la politique sur les Thèmes sensibles et destinés aux adultes ;
– 256 295 vidéos en violation de notre politique sur la Sécurité et bien-être des mineurs ([480]).
Mme Brie Pegum, responsable des aspects techniques de la régulation, ajoute que « les contenus jugés conformes et mis en ligne continuent d’être suivis : s’ils présentent un problème, [TikTok peut] en être alert[é] par des signaleurs de confiance ou par des utilisateurs ; un mécanisme de rappel peut aussi les soumettre à une nouvelle modération humaine. Quand un contenu gagne de plus en plus de vues, par exemple, il est renvoyé vers l’équipe de modération pour un nouvel examen » ([481]).
b. Des relations relativement satisfaisantes avec les acteurs institutionnels et les signaleurs de confiance
En plus d’un réseau de communautés partenaires mondial (Community Partner Channel), auquel participent notamment en France la Ligue Internationale Contre le Racisme et l’Antisémitisme (LICRA), SOS Homophobie et StopFisha, TikTok a mis en place des mécanismes de signalement pour les entités désignées comme signaleurs de confiance au titre du DSA ainsi qu’un canal dédié permettant aux autorités gouvernementales de transmettre des demandes officielles de retrait de contenus ([482]).
Les acteurs institutionnels sont relativement satisfaits de leurs relations avec la plateforme. M. Martin Ajdari, président de l’Arcom, indique que « TikTok est l’une des plateformes qui traite le plus rapidement les signalements qui lui sont faits et [que], d’un point de vue administratif, la réaction est satisfaisante » ([483]). S’agissant de la plateforme Pharos, Mme Cécile Augeraud, commissaire divisionnaire, chef-adjoint à l’Office anti cybercriminalité (OFAC), déclare : « TikTok prend assez rapidement en compte les demandes de retrait que nous formulons, essentiellement au titre de l’article 6-1 [de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN)]. Au titre du 6-1-1, toutes nos inventions de retrait ont été suivies d’effet » ([484]).
Ce constat est partagé par les signaleurs de confiance auditionnés par la commission d’enquête. Mme Alejandra Mariscal Lopez, directrice de Point de Contact atteste que « TikTok est un acteur assez réactif en matière de traitement des signalements », tandis que son collègue, M. Yann Lescop, relève « un bon taux de prise en compte [des] signalements, à quelques exceptions près » ([485]). M. Samuel Comblez, directeur général adjoint de l’association e-Enfance, renchérit : « TikTok fait partie des plateformes dont le taux de réponse est satisfaisant », avec « une suppression des contenus dans 39 % des cas ; un avertissement qui est envoyé à l’auteur des faits (28 %) ; aucune action engagée par la plateforme (28 %) et une absence de réponse (4 %) » ([486]). Quant à M. Bernard Basset, président de l’Association Addictions France, il fait part d’un « taux de retrait des contenus [TikTok] signalés comme illégaux [de] 95 % » ([487]).
Outre le taux de réponse, M. Lescop constate « une amélioration des délais » : selon M. Franck Lecas, responsable du pôle projets politiques publiques d’Addictions France, « le délai de retrait sur TikTok a été amélioré : il est désormais compris entre un et cinq jours, contre dix au début de [l’]action [du signaleur de confiance] » ([488]).
2. En pratique, une modération encore insuffisante, inégale et négligente
a. « Vider la mer avec une petite cuillère trouée » : les difficultés de modération
« L’une des spécificités de TikTok tient au volume des flux vidéo », indique M. Hugo Micheron, enseignant-chercheur en sciences politiques ([489]). En avril 2025, une étude de Cornell University a estimé qu’en un jour, 269 millions de posts étaient publiés sur TikTok, représentant un total d’environ 176 ans de vidéos ([490]).
C’est là la première difficulté de l’activité de modération : il s’agit de passer en revue des millions et des millions de contenus, en constant renouvellement.
Ce volume peut apparaître comme un motif de découragement, ou du moins de désillusion, sentiments dont fait part Mme Sophie Taïeb, responsable du pôle cybersécurité du Conseil représentatif des institutions juives de France (CRIF) : « agir […] sur une plateforme où plusieurs millions de vidéos sont téléchargées tous les jours s’apparente à essayer de vider la mer avec une petite cuillère trouée » ([491]).
La première difficulté est celle du décryptage des contenus diffusés sur TikTok. Selon M. Simon Corsin, fondateur de Mindie, un « défi consiste précisément à détecter [l]es contenus radicaux. C’est assez simple pour des contenus pornographiques qui reposent sur l’image, mais il est beaucoup plus compliqué de déterminer si un message passé par une vidéo est radical ou non. Ce travail nécessite une action humaine de modération » ([492]). Il est d’autant plus difficile lorsque les contenus examinés mobilisent un référentiel d’initiés : une image de taille-crayon peut sembler entièrement innocente, mais accompagne parfois des messages de glorification de la scarification.
Il peut également être complexe de différencier les contenus relatifs à des thématiques délicates sans pour autant être préjudiciable, voire traitant de manière saine et positive ces thématiques, de ceux véhiculant des messages néfastes. C’est ce que rappelle M. Michael Stora, psychologue et psychanalyste : « il convient de distinguer avec rigueur l’évocation de sujets sensibles tels que le suicide, l’anorexie ou la boulimie, qui n’est pas problématique en soi. Ce qui l’est, en revanche, c’est la diffusion de contenus qui en font l’apologie ou qui présentent ces comportements comme des réponses acceptables, voire valorisées » ([493]).
Face à la suppression ou à l’invisibilisation de certains mots-clés, les utilisateurs de TikTok ont développé des techniques de contournement de la modération, « jouant », selon Mme Océane Herrero, « au chat et à la souris avec la plateforme ».
La journaliste cite « des mots détournés, comme unalive, dont la signification est “qui n’est plus en vie” en anglais. ». Si aujourd’hui la recherche « unalive » fait apparaître le même message de prévention que « suicide », Mme Herrero précise que « ce n’est pas le cas si [l’on change] l’une des lettres par un chiffre » ([494]).
Mme Taïeb constate également à quel point il est facile de ne pas retenir l’attention des systèmes et équipes de modération : « Si vous tapez “Hitler was right” – “Hitler avait raison” – sur Tiktok, vous recevrez un avertissement vous invitant à vérifier les faits, notamment dans des livres d’histoire. Mais si vous faites partie de la génération qui sait contourner la modération, vous remplacez le i de Hitler par un point d’exclamation et le e par un trois, et vous accédez alors à des vidéos dont le contenu est potentiellement nazi » ([495]).
Mme Anna Baldy, créatrice de contenus, ajoute qu’« une tendance croissante parmi les créateurs consiste à contourner la détection algorithmique de certains termes sensibles en les remplaçant par des euphémismes ou des abréviations compréhensibles par les initiés. Ainsi, “viol” devient “V”, “agression sexuelle” se transforme en “AS” ou “SA” » ([496]).
Les travaux de la commission d’enquête ont également mis en lumière l’usage d’émoticônes pour contourner les règles de modération. Mme Delphine Dapui, qui a perdu sa fille par suicide, évoque à ce titre « le zèbre pour les scarifications, le drapeau suisse pour le suicide. » « Dans le langage TikTok, c’est l’emoji représentant le drapeau de la Suisse – une croix blanche sur fond rouge – qui est le mot pour parler de suicide » ([497]), confirme M. Arnaud Ducoin, dont l’enfant s’est donné la mort.
Si la rapporteure reconnaît les difficultés tenant à l’évolution des techniques de contournement de la modération, elle souligne toutefois que celles-ci ne doivent pas servir d’excuses. C’est d’ailleurs ce que reconnaît Mme Brie Pegum, qui déclare : « nos équipes suivent attentivement les variations des mots-clés utilisés, ainsi que les variations orthographiques des titres de vidéos, pour identifier les tentatives de contournement. Nos utilisateurs sont très créatifs, y compris dans leur façon de contourner les règles, mais il est de la responsabilité de notre équipe d’anticiper ces contournements et d’effectuer un suivi serré des nouvelles tendances au fur et à mesure qu’elles apparaissent » ([498]).
Les travaux de la commission d’enquête ont toutefois démontré le manque d’effets de ce travail de suivi des techniques de contournement de la modération. M. X, indique ainsi avoir reçu « des alertes de la part du team leader » et « une communication au sujet de l’émoji zèbre utilisé pour signifier “automutilation” ». Mme Marlène Masure, responsable du contenu États d’Europe, du Moyen-Orient et de l’Afrique, directrice exécutive du développement commercial et marketing tout en assurant ne pas vouloir « parler à la place [des] équipes de modération », reconnaît avoir eu connaissance de cette tendance ([499]). Pourtant, subsistent encore sur TikTok de nombreux contenus incitant à l’automutilation sous l’émoji zèbre (annexe 2).
De manière générale, M. Valentin Petit, journaliste à l’agence CAPA, regrette le « manque de sérieux en matière de modération » : selon lui, « TikTok dit ne rien pouvoir faire, parce que des comptes utilisent des codes – ce qu’on appelle le leetcode – comme le remplacement de lettres par des chiffres et d’autres formes de contournement telles que l’emploi de stickers. » Or « ces techniques, qui sont connues depuis vingt ans, sont vraiment le niveau zéro du contournement de la modération » ([500]).
Si elle rappelle que « tout le contenu est modéré, quelle que soit sa forme », Mme Pegum reconnaît que « les lives sont difficiles à modérer puisque, par définition, ils sont en direct » ([501]). Il n’est pas possible de modérer les propos qui y sont tenus où les contenus qui y sont diffusés avant que ceux-ci soient entendus ou vus par le public du live ; la modération intervient nécessairement après une ou plusieurs violations de la législation nationale ou des règles communautaires.
Selon Mme Marie-Christine Cazaux, éducatrice spécialisée et membre du collectif Mineurs, éthique et réseaux (Meer), « la principale différence entre les lives et les vidéos réside dans leur impact immédiat. Lors d’un live, l’interaction est directe et instantanée avec le public. Cette immédiateté peut rendre difficile la protection contre d’éventuels propos inappropriés ou violents, contrairement aux vidéos classiques où l’utilisateur peut simplement faire défiler le contenu » ([502]).
b. Des conditions de modération désolantes, conséquences d’un budget insuffisant
La qualité de la modération est, avant tout, une question de moyens. Selon M. Corsin, « il existe un rapport direct entre la qualité de la modération et son coût. Plus vous investissez d’argent dans la modération, plus sa qualité va s’améliorer. […] Si aucune somme n’est investie, tous les contenus sont ouverts, la qualité de modération sera très mauvaise. À l’inverse, si chaque vidéo postée est vérifiée et validée par un humain, le coût sera très élevé et cela ralentira le flux des vidéos. En pratique, les entreprises recherchent un entre-deux, en essayant d’avoir un ratio correct de faux négatifs et de faux positifs, au coût le plus faible possible. Cela dépend également de leur tolérance au backlash public. Une entreprise dont la tolérance pour le backlash est faible investira peut-être plus dans la modération pour réduire le nombre de posts négatifs. […] Il est toujours possible d’établir une modération parfaite, mais son coût peut devenir prohibitif, au point de rendre des plateformes sociales non rentables. » ([503])
Mme Elisa Jadot, réalisatrice, considère également que les plateformes déterminent les moyens qu’elles affectent à l’activité de modération, en toute connaissance de cause, pour des raisons de stratégie économique. « Pour continuer à grossir, [elles] doivent s’assurer que les générations suivantes seront autant, voire plus accros que les précédentes », explique-t-elle. Selon elle, « les entreprises minimisent [l]es risques et choisissent de ne pas agir. Elles consacrent des budgets ridicules à la modération : 2 milliards de dollars chez TikTok pour 85 milliards de revenus annuels, 5 milliards chez Meta pour 140 milliards de revenus » ([504]).
Interrogée par écrit à deux reprises, TikTok SAS n’a pas souhaité indiquer à la commission d’enquête le budget affecté à la modération des contenus, et notamment à celle des contenus francophones.
La rapporteure déplore toutefois la diminution constante du nombre de modérateurs depuis que les rapports de transparence de la plateforme sont mis en ligne, soit septembre 2023. Ils sont passés de 687 en septembre 2023 à 509 en décembre 2024 alors que le nombre d’utilisateurs actifs mensuels déclaré par la plateforme a augmenté de 3,7 millions ([505]).
ÉVOLUTION DU NOMBRE DE MODÉRATEURS FRANCOPHONES DEPUIS SEPTEMBRE 2023
Source : commission d’enquête d’après les rapports de transparence de TikTok.
Interrogée sur la diminution du nombre de modérateurs francophone, Mme Pegum répond que « la modération des contenus est très dynamique. Elle dépend des variations locales du volume de contenus. Grâce à d’importants investissements dans l’intelligence artificielle, nous accélérons le processus de détection et de suppression automatique des contenus problématiques, pour empêcher, autant que possible, que quiconque ne les voie. Cela explique que le nombre de modérateurs ait diminué, sans affecter notre capacité à repérer les infractions – sans compter que cela protège nos équipes, en plus de nos utilisateurs, du visionnage de contenus possiblement choquants » ([506]).
TikTok est en effet « la plateforme qui automatise le plus », selon Mme Murielle Popa-Fabre ([507]). Et ce processus d’automatisation est croissant : « le réseau social TikTok […] a annoncé, vendredi 22 août, la réorganisation de son service de modération de contenus au Royaume-Uni, dans le cadre de son plan mondial en faveur de l’intelligence artificielle (IA), notamment dans la modération », rapporte Le Monde. « Ainsi, à la place de l’équipe de modération du Royaume-Uni, l’IA analysera les vidéos anglophones pour déterminer automatiquement si elles respectent les règles de la plateforme » ([508]).
Le recours à l’intelligence artificielle (IA) peut constituer un atout de taille en matière de modération. M. Corsin considère en effet que « dans un futur extrêmement proche, voire dès aujourd’hui, la modération pourra être effectuée par l’IA, de manière plus automatisée », permettant d’obtenir « une modération bien plus efficace qu’aujourd’hui, à un coût raisonnable » ([509]).
Pour autant, la rapporteure estime que le recours à l’intelligence artificielle ne doit pas se faire au détriment de la modération humaine. Selon M. Valentin Petit, c’est particulièrement le cas lorsqu’est en jeu l’identification des techniques de contournement de la modération. Le journaliste indique qu’« il n’est pas difficile de repérer les codes, au contraire : c’est très simple. En une semaine, on a compris de quoi il retourne. […] C’est assez simple et frontal : ces codes ne sont pas impossibles ni même difficiles à déchiffrer ». S’il « faut évidemment utiliser l’analyse sémantique et l’intelligence artificielle », M. Petit « plaide aussi pour un investissement dans le travail humain. Les plateformes sont très peu désireuses de faire appel à des êtres humains pour opérer la modération des contenus. Elles font essentiellement confiance à l’automatisation par mots-clés, notamment TikTok. Mais il y a très peu de personnes chargées d’analyser la sémantique et d’alimenter une IA pour améliorer l’automatisation. Le manque d’outils d’analyse humaine et la prépondérance des outils d’analyse automatiques sur ces plateformes sont très problématiques » ([510]).
Projetés face à des vidéos pour certaines traumatisantes, les modérateurs employés par TikTok ou ses entreprises sous-traitantes arrivent souvent insuffisamment préparés.
« Lorsque les modérateurs entrent chez TikTok, ils reçoivent une formation approfondie sur notre politique globale de modération des contenus, mais aussi sur les spécificités de la région qu’ils couvrent, afin qu’ils soient au fait de certaines nuances culturelles et des réglementations locales. », indique Mme Pegum. Selon la responsable des aspects techniques de la régulation, « cette formation initiale est complétée à un rythme hebdomadaire ou mensuel par l’envoi de directives complémentaires et par une sensibilisation à des tendances émergentes observées sur certains marchés. Les modérateurs peuvent demander des précisions à nos experts sur l’interprétation opérationnelle des lignes directrices, et partager ces informations au sein de leur équipe. Sachant que la plateforme et les contenus évoluent constamment, il est important qu’ils puissent se référer à une ligne directrice » ([511]).
Ces éléments de langage vont à l’encontre du témoignage de M. X, qui a travaillé comme modérateur sur TikTok pour l’entreprise sous-traitante Téléperformance. « Ma formation a duré une semaine et trois jours », rapporte‑t‑il. Les deux premiers jours de formation ne portent pas sur la politique de modération : « le premier jour est consacré à la présentation de la société Teleperformance et de ses locaux, le deuxième à ses outils internes ». Seuls deux jours sont entièrement consacrés aux enjeux de modération des contenus : « les règles communautaires de TikTok, les outils de ticket et l’utilisation de la plateforme de modération sont présentés le troisième jour. Le quatrième jour est consacré au visionnage de quelques contenus et à des jeux de rôle : il faut donner son avis sur la catégorie dans laquelle classer certains contenus – automutilation, discours politique, etc. Le cinquième jour est consacré à une formation interne de Teleperformance sur le [RGPD] […] et sur la PCI DSS, une norme de sécurité informatique s’appliquant aux organisations stockant et traitant des données de cartes bancaires – on ne doit pas prendre de notes sur les données personnelles des clients. » M. X indique enfin que « les trois derniers jours de formation sont consacrés à du shadowing, aux côtés d’un modérateur qui nous montre comment classer les contenus et nous donne des conseils ». ([512])
Surtout, les conditions dans lesquelles les modérateurs exercent leurs fonctions mettent à mal la qualité de la modération.
« Je ne sais pas combien de vidéos ils visionnent par heure, car cela dépend du type de contenu », déclare Mme Pegum.
Mme Herrero, qui a échangé avec plusieurs modérateurs pour préparer son enquête Le système TikTok ([513]), a toutefois recueilli le témoignage d’un modérateur qui « avait pour mission de repérer des cigarettes ou de l’alcool dans les vidéos postées sur la plateforme, ces produits étant contraires aux règles d’utilisation de TikTok », et qui « devait passer au crible environ une centaine de vidéos par heure ». La journaliste rapporte également des modalités inquiétantes de contrôle des lives : « une modératrice était […] spécialisée dans les vidéos diffusées en direct. Ces dernières n’étant accessibles qu’à des utilisateurs de plus de 18 ans, sa principale mission était de s’assurer que cette règle était respectée et que des mineurs n’apparaissaient pas dans ces publications, qui peuvent attirer des adultes mal intentionnés. Ce travail est très intense, puisqu’il suppose de visionner plus d’une dizaine de vidéos simultanément » ([514]).
M. X, ancien modérateur, décrit également des conditions de travail largement insatisfaisantes : « la modération est effectuée par le biais d’un double écran, sur lequel défilent simultanément cinq à six vidéos ; ces contenus doivent être modérés en trente secondes à une minute, ce qui laisse très peu de temps d’analyse. Au Portugal, la durée hebdomadaire de travail est de 40 heures ; une journée de travail dure 9 heures : 8 heures à son poste et 1 heure de pause déjeuner. Je travaillais principalement au service de nuit, de 23 heures à 8 heures. Pendant ce service, il n’y avait pas de team manager, c’est-à-dire de superviseur responsable d’une équipe. En arrivant à 23 heures, j’allumais mon ordinateur et je me connectais aux outils. Je travaillais de 23 heures à 2 heures du matin avant la pause : quatre ou cinq vidéos défilaient sur le double écran, que je devais classer en moins d’une minute selon différentes catégories, sans possibilité de les revoir. Les vidéos s’enchaînaient automatiquement et on en traitait jusqu’à 600 ou 800 par journée de travail. ». « Nous n’avions pas le temps de faire une analyse complète », conclut-il.
À ces conditions de travail pour le moins intenses s’ajoutait une forte incitation à la productivité, celle-ci étant mesurée en quantité de vidéos visionnées et non en qualité de travail. « Avec les autres modérateurs, nous subissions une pression en matière de performance, non pas de la part de TikTok mais de celle de Teleperformance », indique M. X, qui mentionne « un bonus de 50 euros si [les modérateurs dépassaient] 800 vidéos dans la journée, […] inatteignable ».
Les modérateurs sont exposés aux mêmes risques psychologiques – si ce n’est à des risques plus élevés eu égard au nombre de contenus visionnés par jour – que les utilisateurs de TikTok.
Les postes de modérateurs « connaissent un turnover important, car ils sont épuisants », rapporte Mme Herrero ([515]).
M. X., qui a souffert d’une dépression alors qu’il exerçait ses fonctions de modérateur, relate avoir été « fortement perturbé émotionnellement » par les « très nombreuses vidéos sur l’anorexies » reçues par la plateforme de modération. « Je souffrais déjà de problèmes alimentaires – j’avais du mal à me nourrir –, qui ont été accentués par ces contenus, notamment d’automutilation et de scarification, qui me rendaient très triste », explique-t-il, ajoutant : « mes problèmes alimentaires se sont aggravés : j’ai perdu plus de 65 kg, passant de 130 à 70 kg. » Aujourd’hui, M. X a « encore des séquelles » : suivi par une nutritionniste, il lui arrive de ne pas réussir à manger, et le travail de nuit chez TikTok a perturbé durablement son cycle de sommeil. Il prend « cinq médicaments par jour, dont un antidépresseur, un traitement à la kétamine, un somnifère et un traitement qui [l]’empêche de vomir » ([516]).
L’ancien modérateur précise ne pas avoir été le seul employé affecté, et avoir senti « un mal-être chez les modérateurs », dont « énormément […] souffrent » ([517]).
c. La modération des contenus diffusés sur TikTok : de piètres résultats
« Sur TikTok, c’est effarant : la modération n’est pas du tout à la hauteur du problème », estime Mme Taïeb responsable du pôle cybersécurité du Crif. Des erreurs de modération ont été reconnues par les représentants de TikTok interrogés par la commission d’enquête. « Malheureusement, il arrive toujours que des contenus non conformes passent entre les mailles du filet », a ainsi admis Mme Pegum.
De nombreuses personnes auditionnées par la commission d’enquête ont fait part de leur désarroi quant au maintien sur la plateforme de contenus manifestement néfastes. « Aucune infraction trouvée » : c’est ce message souvent déconcertant qu’il est fréquent de recevoir de la part de la plateforme, qui affirme avoir « examiné la vidéo [signalée] et avoir déterminé qu’elle n’enfreint pas [les] Règles de la communauté ». Un homme de 30 ans témoigne ainsi auprès de la commission d’enquête avoir « signalé des contenus problématiques », et reçu presque systématiquement la réponse « Aucune violation – Ce contenu n’enfreint pas les règles de la communauté ». Même constat pour les lives, précise-t-il : « là encore, toujours la même réponse : “Aucune violation” ».
« Sur une vingtaine de contenus signalés dans les trois derniers mois, un ou deux ont été supprimés définitivement », relate également Mme X, adolescente dont la commission d’enquête a entendu le témoignage, qui précise : « je n’en ai pas signalé beaucoup mais, quand je le faisais, c’est que ces vidéos étaient vraiment dangereuses » ([518]). Mme Pauline Ferrari, journaliste, rapporte quant à elle qu’une vidéo d’un influenceur affirmant que « toutes les femmes sont des putes jusqu’à preuve du contraire » n’a « pas été jugé contraire aux règles d’utilisation de la plateforme » ([519]).
Les travaux de la commission d’enquête ont identifié de multiples contenus néfastes relatifs aux enjeux de santé mentale. À titre d’exemple, ont été signalés par la commission d’enquête :
– une série de photos d’une jeune fille, accompagnées de la légende « on ne peut pas s’empêcher de recommencer parce qu’au final voir notre corps couvert de sang et de cicatrices c’est ça qui nous rend bien » (annexe 3, figure 1) ;
– une vidéo sur laquelle on peut lire « le [suicide] est le chemin le plus court » (annexe 3, figure 2) ;
– une vidéo du même acabit où l’on peut lire « des fois, je me dis que le [suicide] est la seule solution » (annexe 3, figure 3).
Ces contenus, signalés et montrés aux représentants de TikTok France, n’ont pas été supprimés (annexe 3, figure 4).
L’absence de retrait de contenus néfastes est d’autant plus surprenante et critiquable lorsque le signalement provient d’un acteur institutionnel. Or, Mme Augeraud, commissaire divisionnaire, chef‑adjoint à l’OFAC indique qu’en matière de haine en ligne, hors terrorisme, sur les 195 notifications adressées par Pharos auprès de TikTok, pour informer la plateforme qu’elle « hébergeait des contenus illicites », « des retraits ont été effectués […] dans à peu près 60 % des cas » ([520]).
Les auditions menées par la commission d’enquête ont mis en lumière un constat partagé par l’ensemble des signaleurs de confiance et autres « vigies du numérique » : celui de l’incohérence des décisions de modération et des variations selon l’auteur du signalement.
Selon M. Jean-Baptiste Boisseau, membre du collectif d’aides aux victimes d’influenceurs (AVI), « TikTok se distingue par les réponses et les décisions de modération pour le moins déconcertantes par lesquelles elle donne suite aux signalements. […] Certains contenus sont supprimés, tandis que d’autres, qui […] semblent pourtant davantage problématiques, sont maintenus » ([521]). « La modération est aléatoire. », confirme Mme Taïeb, qui déclare : « à mon grand étonnement, on m’a répondu que les deux comptes intitulés gazeur2juif n’enfreignaient aucune règle. Dans ce genre de cas, je fais appel par mail à notre contact chez TikTok France, mais je ne peux le faire à chaque fois que je ne comprends pas une décision de modération » ([522]).
Le sens des décisions de modération semble notamment varier selon l’auteur du signalement. Mme Ferrari indique avoir échangé avec la plateforme dans le cadre de son enquête sur les mouvements masculinistes sur les réseaux sociaux, et avoir « soumis à TikTok plusieurs vidéos qu’[elle] jugeai[t] problématiques, relevant selon [elle] de discours masculinistes ou misogynes ». « À la suite de cet échange, ces vidéos ont été rapidement supprimées, alors que mes nombreux signalements antérieurs étaient restés sans effet », s’étonne-t-elle ([523]). Ce constat est partagé par Mme Shanley Clemot McLaren qui relève « un contraste flagrant avec l’efficacité des signalements effectués par des utilisateurs normaux ». La cofondatrice et co-présidente de l’association Stop Fisha raconte avoir signalé « des contenus extrêmement violents », à une époque où les groupes « Fisha » proliféraient dans les Hauts-de-Seine. « Ce n’est qu’après être passés par Stop Fisha que les suppressions ont commencé à être effectuées », regrette-t-elle, estimant que « ce contraste est révélateur du fait que les contenus signalés par des utilisateurs individuels ne suscitent souvent aucune réaction, tandis que ceux signalés par une association reçoivent une réponse » ([524]). Mme Mariscal Lopez, directrice de Point de Contact, soulignait les limites du système des signaleurs de confiance, et la différence de traitement entre les signalements des utilisateurs ordinaires et ceux des signaleurs de confiance ou des entités désignées comme « partenaires de confiance » par TikTok : « [c]oncernant les signalements citoyens, nous constatons clairement un sentiment d’impuissance chez les utilisateurs individuels qui se tournent vers nous. Le DSA visait à solliciter les signaleurs de confiance pour absorber un volume important de signalements, puis à utiliser ce volume à des fins de transparence. Néanmoins, s’ils analysent les données des signaleurs de confiance, les rapports de transparence ne mettront pas nécessairement en avant les données des citoyens. Nous estimons donc que les plateformes devraient intensifier leurs efforts non seulement envers les signaleurs de confiance, mais aussi envers les citoyens qui font valoir leurs droits » ([525]).
Les décisions peuvent également différer en fonction de la visibilité des contenus et des réactions suscitées. Mme Ferrari évoque à ce titre une « vidéo, largement diffusée sur TikTok, [qui] a fini par être supprimée, sans doute en raison du tollé qu’elle a suscité », alors que « lors de [s]on premier signalement, aucune mesure n’avait été prise » ([526]).
La rapporteure déplore ce fonctionnement qui peut s’apparenter à un « deux poids, deux mesures », TikTok semblant n’agir parfois que sous la pression politique et publique. Ainsi, l’intervention de Mme Clara Chappaz, ministre chargée de l’intelligence artificielle et du numérique, la pétition « Stop #SkinnyTok » et le travail de la commission d’enquête ont été décisives pour mettre fin au trend #SkinnyTok. C’est encore la mobilisation de Mme Aurore Bergé, ministre chargée de l’égalité entre les femmes et les hommes et de la lutte contre les discriminations, qui a conduit au bannissement du compte de l’influenceur AD Laurent, et la pression de la commission d’enquête qui a permis la suppression de celui d’Alex Hitchens.
En premier lieu, l’utilisation de l’outil de signalement est loin d’être instinctive. L’onglet permettant de signaler un contenu, qui prend la forme d’un petit drapeau, n’est pas accessible directement, contrairement aux fonctionnalités « j’aime », « commenter », « ajouter aux favoris » et « partager » (annexe 4, figure 1). C’est ce qu’a constaté M. Guilhem Julia, maître de conférences en droit privé et sciences criminelles : « lorsque vous êtes sur la publication, il faut aller, ce qui n’est pas du tout intuitif, sur l’onglet permettant de partager le contenu, comme si vous vouliez envoyer celui-ci à quelqu’un » ([527]) : l’application propose alors, à la troisième ligne seulement, de signaler le contenu (annexe 4, figure 2). Une autre solution est d’appuyer quelques secondes sur la photo ou la vidéo : est alors proposé, entre autres de signaler celle-ci (annexe 4, figure 3).
En second lieu, les utilisateurs soulignent le manque de suivi des résultats des démarches de signalement et l’absence de prise des utilisateurs sur ceux-ci. Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone, déplore « l’absence de retour à la suite des signalements effectués » ([528]). M. Yann Lescop, responsable projets et études de Point de Contact, regrette quant à lui « l’absence de procédure d’appel et l’impossibilité de relancer un signalement », indiquant : « une fois qu’un dossier est clôturé, nous ne disposons d’aucun bouton pour demander son réexamen ou pour relancer la plateforme, même après plusieurs semaines d’attente » ([529]).
Parmi les experts auditionnés par la commission d’enquête, l’insuffisance de la modération des lives fait consensus. Ceux-ci « donnent lieu à beaucoup plus de dérives », selon M. Tristan Boursier, chercheur spécialisé dans la convergence entre les discours et idéologies d’extrême droite et antiféministes sur les réseaux sociaux, qui explique que « le contrôle est bien moindre – la modération, déjà faible en général, doit être quasi-nulle » ([530]). Ce constat est partagé par M. Tristan Duverné, qui a mené une étude sur les violences sexistes sur TikTok LIVE ([531]) et estime que « les lives constituent une technique privilégiée par [l]es influenceurs, car ils sont mal régulés par TikTok » ([532]).
Sont notamment pointées du doigt les difficultés de signalement des lives. « Les signalements sont particulièrement complexes à effectuer lorsqu’ils concernent des événements qui surviennent au cours d’une diffusion en direct », déplore Mme Cazeaux ([533]). « Il est quasiment impossible de signaler du contenu parce qu’il n’est pas pérenne », confirme Mme Taïeb ([534]). M. Duverné identifie deux difficultés majeures : « premièrement, le processus actuel ne permet pas de spécifier précisément l’heure et le contenu exact d’un incident survenu pendant un live. […] Deuxièmement, l’architecture de la plateforme ne permet pas de soumettre au service de modération une capture vidéo d’un acte de cyberviolence survenu lors d’un direct » ([535]).
3. Les contenus « gris » : néfastes mais licites, et donc intouchables ?
La législation en vigueur ne permet pas d’englober l’entièreté des contenus néfastes publiés sur TikTok. Il convient en effet de distinguer :
– d’une part, les contenus contraires au droit français, européen ou international ;
– d’autre part, les contenus manifestement néfastes, ou du moins problématiques, qui ne constituent pour autant aucune violation des normes en vigueur.
Mme Taïeb parle à ce titre d’une « zone grise pour ces contenus qui sont sous la ligne légale mais évidemment problématiques » ([536]). Mme Gros partage cet avis : « un défi […] concerne la distinction entre contenus illicites et contenus sensibles. […] Ces contenus sensibles ne sont donc pas nécessairement illégaux, mais sont problématiques pour les mineurs. Cette “zone grise” pose problème […] » ([537]).
Il s’agit là de l’un des angles morts de la régulation des réseaux sociaux. Selon M. Micheron, si « le DSA est […] est intéressant car, pour la première fois, un cadre juridique dit clairement qu’un contenu illégal n’a rien à faire sur les réseaux sociaux – encore heureux ! », il est « probablement incomplet ». « Il existe des groupes très habiles, qui se placent en dessous de la ligne de détection du radar légal, de telle sorte que le contenu, bien que très problématique, n’est pas considéré comme illégal », indique le chercheur, qui ajoute que « le contenu antisémite est un très bon exemple : il y a plein de manières d’être juste en dessous du seuil de détection légale et pourtant de produire un discours totalement toxique. On peut faire en sorte que la machine soit capable de détecter ces stratagèmes » ([538]).
Contenus licites mais mortifères : l’exemple de l’incitation au suicide
Aux termes de la législation pénale en vigueur, les vidéos TikTok expliquant comment confectionner un nœud coulant ou quels médicaments ingérer pour réussir sa tentative de suicide sont illicites.
L’article 223-14 du code pénal dispose en effet que « la propagande ou la publicité, quel qu’en soit le mode, en faveur de produits, d’objets ou de méthodes préconisés comme moyens de se donner la mort est punie de trois ans d’emprisonnement et de 45 000 euros d’amende ».
En revanche, la glorification du suicide ne constitue pas, en elle-même, une infraction à la loi pénale.
Si l’article 223-13 du code pénal punit « le fait de provoquer au suicide d’autrui […] de trois ans d’emprisonnement et de 45 000 euros d’amende » et de « cinq ans d’emprisonnement et […] 75 000 euros d’amende lorsque la victime […] est un mineur de quinze ans », il convient de souligner que le délit est caractérisé « lorsque la provocation a été suivie du suicide ou d’une tentative de suicide ». En outre, la provocation doit être directe et viser une personne déterminée.
À ce titre, les messages présentant le suicide comme « seule solution » (annexe 3, figure 3) ne tombent pas sous le coup de la loi malgré leur caractère hautement néfaste.
La rapporteure estime que l’existence de ces « zones grises » ne doit pas empêcher les réseaux sociaux de retirer tous les contenus néfastes publiés par leurs utilisateurs – d’autant plus qu’elles appliquent des règles communautaires parfois plus restrictives que la législation nationale : « les règles internes de TikTok peuvent parfois être plus strictes que les lois locales », reconnaît ainsi la plateforme ([539]). Cette dernière adopte ainsi, du moins dans ses règles communautaires, une approche mieux-disante s’agissant des contenus liés au suicide et à l’automutilation, puisque sont interdites « la présentation et la promotion du suicide, l’automutilation et des défis, des paris, des jeux et des pactes, et le fait de donner des instructions pour réaliser ces actes, notamment en nommant ou en décrivant des méthodes » ([540]).
Il est toutefois nécessaire de trouver un juste équilibre entre protection contre les contenus néfastes et respect de la liberté d’expression : selon Mme Gros, « il faut arbitrer entre la liberté d’expression et la promotion d’un mouvement pouvant heurter la sensibilité des enfants » ([541]). Le risque serait en effet de conférer aux plateformes un rôle qui n’est pas le leur, sans savoir où fixer la limite : si le retrait de contenus glorifiant le suicide apparaît comme une évidence, même en l’absence de toute infraction, il en va autrement, par exemple, des prises de position politiques.
C. les lignes directrices de la commission européenne recommandent l’adoption de systèmes de modération adaptés aux utilisateurs mineurs pour leur offrir une protection renforcée
Considérant que la modération peut réduire l’exposition des mineurs à des contenus et comportements dangereux ([542]), les lignes directrices publiées par la Commission européenne le 14 juillet 2025 recommandent notamment de :
– définir de façon claire et transparente les contenus et comportements que la plateforme considère dangereux pour les mineurs ([543]) ;
– établir des politiques et procédures de modération énonçant comment ces contenus et comportements seront modérés pour limiter l’exposition des mineurs à des contenus dangereux, et s’assurer que ces politiques et procédures sont appliquées en pratique ([544]) ;
– évaluer et réviser ces politiques et procédures de modération pour qu’elles restent efficaces face aux évolutions des technologies et des comportements en ligne ([545]) ;
– s’assurer de la possibilité d’un contrôle humain en plus de la détection automatique des contenus dangereux, que les équipes de modération sont bien formées et équipées et que les systèmes de modération fonctionnent en permanence ([546]).
La Commission européenne invite également à adapter les outils et procédures de signalement, de retour d’expérience et de réclamation aux enjeux de protection des mineurs, en :
– les rendant efficaces, visibles et adaptés aux enfants ([547]) ;
– donnant la priorité aux signalements effectués pas des mineurs ([548]) ;
– permettant à tout utilisateur de signaler des contenus, activités, individus, comptes ou groupes leur semblant inappropriés ou non souhaitables pour les mineurs, ainsi que tout compte soupçonné d’être détenu par un mineur d’un âge inférieur à l’âge minimal énoncé par les conditions générales d’utilisation ([549]) ;
– donnant aux mineurs la possibilité d’exprimer leurs retours sur tous contenus, activités, individus, comptes ou groupes auxquels ils sont exposés, par exemple par les formules suivantes : « je ne suis pas intéressé.e », « ce contenu me rend mal à l’aise » ou encore « je ne veux pas voir les contenus de ce compte » ([550]) ;
– donnant aux mineurs la possibilité d’exprimer ses propres motifs de signalement, en évitant de recourir à des catégories prédéfinies de signalement ou, a minima, en s’assurant que les catégories soient adaptées aux utilisateurs les plus jeunes ([551]) ;
– délivrant aux mineurs un accusé de réception de leurs signalements et plaintes, et une explication des décisions prises en conséquence ou, le cas échéant, de l’absence de sanction ([552]).
III. les dangers du système de recommandation qui expose les utilisateurs à des contenus néfastes et les enferme dans des spirales infernaleS : LA NÉGLIGENCE COUPABLE DE TIKTOK
A. les très grandes plateformes doivent évaluer et atténuer les risques liés à leurs systèmes de recommandation
Les dangers tenant aux fonctionnalités et algorithmes de recommandation des réseaux sociaux sont pris en compte par le DSA au titre des obligations d’évaluation et d’atténuation des risques systémiques que doivent respecter les très grandes plateformes en ligne.
L’article 34 du DSA impose aux très grandes plateformes en ligne de « recens[er], analys[er] et évalu[er] de manière diligente tout risque systémique au sein de l’Union européenne découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services ». Cette évaluation des risques doit comprendre, notamment, « la diffusion de contenus illicites » et « tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes ». Elle doit tenir compte de « la conception d[es] systèmes de recommandation et de tout autre système algorithmique pertinent ».
En vertu de l’article 35 du DSA, les très grandes plateformes en ligne sont également tenues de « mettre en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés ». Il est prévu que ces mesures peuvent inclure « l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne » ainsi que « le test et l’adaptation de leurs systèmes algorithmiques, y compris de leurs systèmes de recommandation ».
Enfin, l’article 38 du DSA impose aux très grandes plateformes en ligne de proposer au moins une option, pour chacun de leurs systèmes de recommandation, qui ne repose pas sur du profilage.
B. les systèmes de recommandationS de TikTok entraînent des conséquences négatives sur le bien-être mental des utilisateurs
1. Le système de recommandation de TikTok : des conséquences négatives pour la santé mentale, en violation du règlement DSA ?
a. Le système de recommandation de TikTok : des dangers avérés mais absents des rapports d’analyse des risques systémiques
Si l’effet « terrier de lapin » des systèmes de recommandation de TikTok est largement documenté (voir supra), M. Kerian Berose-Perez, chef du bureau Santé mentale de la Direction générale de la santé, regrette que « les rapports d’analyse de risque produits par les plateformes […], actuellement, ne prennent pas suffisamment en compte ce risque spécifique, se concentrant davantage sur les contenus intrinsèquement problématiques » ([553]). Effectivement, si les rapports d’évaluation des risques produits par TikTok identifient des risques, notamment pour le bien-être mental, liés au temps passé derrière l’écran (screen time) et à la diffusion de contenus inadaptés aux utilisateurs mineurs (age appropriate content), n’est pas relevé de danger tenant à la consommation répétée de contenus neutres lorsque visionnés individuellement mais problématiques lorsque présentés les uns à la suite des autres.
b. Les techniques de diversification des contenus : des mesures d’atténuation des risques toujours insuffisantes
Mme Nicky Soo indique que TikTok met en place, contre les risques liés à l’exposition répétée à certains contenus, « des techniques de dispersion, alimentées par des modèles d’apprentissage automatique, de sorte que le fil “Pour toi” ne recommande pas en série des vidéos similaires qui, sans violer les règles de la communauté, peuvent avoir un impact sur le bien-être si elles sont visionnées de façons répétées » ([554]).
Ces techniques ne sont toutefois manifestement pas suffisantes pour éviter aux utilisateurs de TikTok, et notamment aux mineurs d’être pris dans des spirales de contenus néfastes (voir supra). « Il y a énormément de contenus médicaux sur TikTok, notamment des gens qui racontent leurs expériences sous couvert de sensibilisation mais quand on a soi-même des angoisses sur la maladie, cela peut vite devenir très difficile, avec un enfermement sur des contenus anxiogènes », témoigne en ce sens une femme de 27 ans sur la plateforme de la consultation citoyenne de la commission d’enquête.
c. De potentielles violations du règlement DSA identifiées par la Commission européenne
Le 19 février 2024, la Commission européenne a ouvert une procédure formelle sur le respect du DSA par TikTok, notamment dans les domaines liés à la protection des mineurs et à la gestion des risques liés à la conception addictive et aux contenus préjudiciables.
Ont été identifiées de potentielles violations du DSA du fait du système de recommandation de l’application.
La Commission européenne indique en effet que la procédure porte, entre autres, sur « le respect des obligations qu’impose le [DSA] en matière d’évaluation et d’atténuation des risques systémiques, en ce qui concerne les effets négatifs réels ou prévisibles découlant de la conception du système de Tiktok, y compris ses systèmes algorithmiques, susceptibles de stimuler les dépendances comportementales et/ou de créer des effets de “spirales infernales”. Une telle évaluation est requise pour contrer les risques potentiels pesant sur l’exercice du droit fondamental des individus au bien-être physique et mental, le respect des droits des enfants ainsi que l’impact sur les processus de radicalisation » ([555]).
2. La barre de recherche de TikTok : un outil d’orientation vers des contenus néfastes
Lors de leur audition par la commission d’enquête, la rapporteure a souhaité appeler l’attention des représentants de TikTok France sur la dangerosité de la barre de recherche de l’application.
Il convient de souligner certains mots-clés qui font l’objet d’un traitement particulier par la plateforme : par exemple, les recherches « suicides » – et ses variantes « je veux me suicider », et « se suicider » – ou « scarification » ne donnent lieu à aucun résultat mais déclenchent l’affichage d’une page d’aide qui propose des conseils ainsi que des liens vers des lignes d’écoute, telles que le 3114 ou « Suicide Écoute » ([556]) (annexe 5, figure 1).
En revanche, de nombreuses autres recherches, témoignant pourtant d’un profond mal-être et constituant en elles-mêmes un appel à l’aide, ne donnaient en effet lieu à aucun blocage ni message de prévention. En matière de santé mentale, seuls les mots-clés « suicide » et « scarification » dirigeaient vers des pages d’aide (cf. supra).
L’utilisateur de TikTok qui inscrivait, dans la barre de recherche, « je veux me pendre » et « comment se pendre », pouvait accéder aux résultats correspondant sans difficulté ni avertissement (annexe 5, figures 2 et 3). Après l’audition de Mmes Marlène Masure et Marie Hugon, lors de laquelle a été soulignée cette absurdité, ces deux recherches ont été bloquées sur TikTok ; elles font désormais apparaître un message de prévention (annexe 5, figure 4 et 5).
La rapporteure regrette que la même décision n’ait pas été appliquée aux recherches « j’ai envie de mourir » ou encore « sc4rifi4tion » (annexe 5, figures 6 et 7), pourtant évoquées lors de la même audition.
Alors que l’outil de la barre de recherche pourrait être utilisé pour limiter l’exposition des utilisateurs de TikTok à des contenus néfastes et à orienter ceux ayant visiblement besoin d’aide vers les ressources appropriées, il peut au contraire les aiguiller vers des contenus largement problématiques. Ainsi, l’utilisateur tapant l’émoticône « zèbre » dans la barre de recherche se verra proposer le mot-clé « cicatrice » (annexe 5, figure 8). Les travaux de la commission d’enquête ont aussi montré qu’après quelques recherches sur le thème de la santé mentale, l’utilisateur qui tape « comment » se verra proposer de compléter sa recherche en « comment me scarif » (annexe 5, figure 9).
3. Désactiver le profilage des systèmes de recommandation : l’exemple typique d’une obligation du règlement DSA mise en œuvre de façon fallacieuse par Tiktok.
TikTok propose, conformément au DSA, de désactiver le profilage des recommandations de contenus, des publicités et des recherches. En pratique, cette fonctionnalité qui va à l’encontre du fonctionnement de la plateforme qui repose sur la personnalisation des contenus proposés, est peu utilisée, du moins en ce qui concerne la recommandation des contenus. Sa mobilisation nécessite en outre de savoir que la désactivation du profilage des systèmes de recommandation est ouverte aux utilisateurs, et de trouver comment y recourir dans les paramètres de confidentialité.
C. les lignes directrices de la commission européenne établissent plusieurs méthodes de nature à éviter, pour les utilisateurs mineurs, les effets néfastes des systèmes de recommandation
1. Réduire l’effet « terrier de lapin »
Les lignes directrices sur la protection des mineurs ont vocation à « réduire le risque que les enfants […] restent coincés dans des [terriers] de lapin de contenus spécifiques » ([557]).
Il est en effet conseillé aux plateformes de mettre en œuvre des mesures pour prévenir l’exposition des mineurs à des contenus pouvant constituer un risque pour leur sûreté et leur sécurité, particulièrement quand ce type de contenu est visionné de manière répétée. Sont notamment cités les contenus promouvant des normes de beautés irréalistes ou des régimes, ou glorifiant ou banalisant les problèmes de santé mentale comme l’anxiété ou la dépression ([558]).
En outre, les plateformes sont invitées à adapter leur système de recommandations aux utilisateurs mineurs, pour donner la priorité, non pas aux signaux implicites tels que le temps passé sur chaque vidéo, mais aux signaux explicites – c’est-à-dire aux réactions des utilisateurs, qu’elles soient positives ou négatives, manifestant explicitement leurs préférences : sélection de centres d’intérêts, réponses à des sondages, signalements, … ([559]).
2. Vers un encadrement des fonctionnalités de recherche
Ces risques ont été intégrés aux lignes directrices sur la protection des mineurs. Il est en effet recommandé aux plateformes de s’assurer que les fonctionnalités de recherche, et notamment la saisie semi-automatique dans la barre de recherche ainsi que les mots-clés suggérés, ne recommandent pas des contenus illégaux ou nocifs. Il s’agit par exemple de bloquer les recherches identifiées comme provoquant ce type de résultats, comme des mots-clés, jargons, hashtags ou émoticônes, et de rediriger les mineurs vers des ressources et lignes d’écoute ([560]).
IV. malgrÉ les obligations de transparence accrues prÉvues par le règlement dSA, tiktok peine À lever le voile
A. Les obligations de transparence des plateformes de réseaux sociaux : une avancée en demi-teinte
1. Le règlement DSA prévoit des obligations de transparence pour les plateformes
Le DSA a renforcé les exigences de transparence et les mécanismes de surveillance applicables aux très grandes plateformes comme TikTok, afin de mieux encadrer leur fonctionnement et évaluer les risques systémiques qu’elles peuvent générer.
a. Les algorithmes des plateformes : de la « boîte noire » à la transparence ?
Le DSA impose aux plateformes numériques des exigences accrues de transparence quant aux fonctionnements des algorithmes de leurs services, en particulier les algorithmes de recommandation.
L’article 27 du DSA dispose ainsi que « [l]es fournisseurs de plateformes en ligne qui utilisent des systèmes de recommandation établissent dans leurs conditions générales, dans un langage simple et compréhensible, les principaux paramètres utilisés dans leurs systèmes de recommandation, ainsi que les options dont disposent les destinataires du service pour modifier ou influencer ces principaux paramètres ».
En imposant aux plateformes de décrire de manière claire et accessible les principaux paramètres de leurs systèmes de recommandation, ces dispositions visent à ce que les utilisateurs soient mieux informés des critères qui influencent les contenus qui leur sont proposés. Cette transparence est essentielle pour leur redonner une forme de maîtrise sur leur expérience en ligne, ce qui doit permettre de leur offrir la possibilité de modifier certains réglages ([561]) – par exemple, en privilégiant un affichage chronologique des publications plutôt qu’un classement fondé sur la popularité ou le profilage algorithmique.
Par ailleurs, les pouvoirs élargis d’enquête de la Commission européenne, prévus à l’article 69 du DSA, permettent à celle-ci d’accéder aux algorithmes et aux traitements de données des très grandes plateformes comme TikTok. Ainsi, la Commission peut vérifier concrètement le respect de leurs obligations par les plateformes, détecter des fonctionnements problématiques, comme des biais systémiques ou des mécanismes addictifs, et imposer des correctifs en cas de manquements.
b. L’ouverture des données aux chercheurs
En matière de transparence, un autre volet essentiel du DSA réside dans l’obligation prévue à l’article 40 pour les très grandes plateformes d’accorder aux chercheurs un accès aux données clés de leurs interfaces afin qu’ils puissent comprendre et analyser l’évolution des risques en ligne ([562]).
La rapporteure estime que la mise en œuvre effective de cette obligation constitue un enjeu majeur, dans la mesure où elle conditionne la possibilité de produire des travaux de recherche rigoureux sur les réseaux sociaux, leur fonctionnement et leurs effets, alors que les travaux scientifiques demeurent encore trop peu nombreux à ce jour.
Alors que l’accès des chercheurs aux données des plateformes reste encore limité, et afin de garantir l’effectivité de cette obligation de transparence, la Commission européenne a adopté 1er juillet 2025 un acte délégué ([563]) afin de préciser les règles accordant l’accès aux données des plateformes aux chercheurs qualifiés au titre du DSA, c’est-à-dire les chercheurs validés par les coordinateurs nationaux. L’acte délégué fixe les conditions d’accès aux informations de ces plateformes, y compris les formats de données et les exigences en matière de documentation des données, les règles pour la validation de ces chercheurs (affiliation à un organisme de recherche, indépendance par rapport aux intérêts commerciaux, capacité à gérer les données demandées conformément aux règles de sécurité, de confidentialité et de confidentialité), ainsi que la répartition des rôles entre les autorités.
c. Une obligation renforcée de transparence pour la modération des contenus
Les plateformes sont tenues d’assurer une transparence accrue en matière de modération des contenus.
L’article 15 du DSA prévoit que les fournisseurs de services intermédiaires rendent publics, au moins une fois par an, « des rapports clairs et facilement compréhensibles » sur leurs activités de modération. L’article 24 précise le contenu de ces rapports, qui doivent notamment comporter le nombre de suspensions d’utilisateurs, soit en raison de la diffusion de contenus illicites, soit en raison de signalements abusifs.
L’article 14 du DSA impose que les plateformes précisent dans leurs conditions générales des renseignements « ayant trait aux politiques, procédures, mesures et outils utilisés à des fins de modération des contenus, y compris la prise de décision fondée sur des algorithmes et le réexamen par un être humain ainsi qu’[au] règlement intérieur de leur système interne de traitement des réclamations ».
2. Les obligations de transparence pour les très grandes plateformes : registre de publicités et rapports de transparence
Compte tenu de l’influence considérable qu’elles exercent et des risques systémiques qu’elles peuvent représenter pour la société, les très grandes plateformes en ligne sont soumises à des obligations de transparence renforcées.
Le DSA impose ainsi aux très grandes plateformes dont fait partie TikTok la mise à disposition du public d’un registre des publicités contenant diverses informations permettant de renforcer la transparence du profilage publicitaire effectué par ces plateformes. L’article 39 du DSA précise que ce registre doit notamment contenir les informations suivantes : le contenu et l’objet de la publicité ; la personne physique ou morale qui a payé la publicité ; les groupes particuliers que cible l’annonce, ainsi que les paramètres utilisés pour ce profilage ; le nombre d’utilisateurs atteints.
L’article 42 du DSA précise que le rapport public rendu au moins une fois par an prévu par l’article 15 doit contenir des informations supplémentaires dans le cas des très grandes plateformes en ligne ou des très grands moteurs de recherche en ligne, notamment des informations relatives aux ressources humaines consacrées à la modération des contenus. Les très grandes plateformes comme TikTok doivent également indiquer la nature de la formation que suivent leurs modérateurs.
L’article 42 impose en outre à ces acteurs de transmettre des rapports supplémentaires, à savoir :
– un rapport d’évaluation des risques au titre de l’article 34 ;
– les mesures spécifiques d’atténuation mises en place en vertu de l’article 35 ;
– un rapport d’audit prévu à l’article 37 qui impose une obligation d’audit indépendant annuel ;
– un rapport de mise en œuvre des recommandations d’audit.
3. Les rapports de transparence : une solution imparfaite
La mise en œuvre du DSA pour les très grandes plateformes comme TikTok depuis août 2023 a permis la publication des premiers rapports d’évaluation des risques systémiques et des audits indépendants, ce qui représente un progrès substantiel en matière de transparence et de responsabilité des plateformes, dans un objectif d’atténuation des risques.
Toutefois, ces rapports présentent encore de nombreuses limites :
– absence de définitions standard, de méthodologies, d’indicateurs ou de référentiels communs exigés par la Commission européenne, ce qui rend les rapports difficilement comparables ;
– grande hétérogénéité des rapports liée au fait que chaque plateforme suive son propre modèle d’évaluation ;
– l’évaluation des risques se concentre souvent sur les contenus générés par les utilisateurs, et ne prend pas suffisamment en compte les fonctionnalités du réseau social (algorithmes, fonctionnalités addictives, etc.) qui accentuent les risques. Inversement, les fonctionnalités censées atténuer les risques ne sont pas évaluées, à l’instar de la fonctionnalité de limitation du temps d’écran ;
– les rapports manquent de détails sur les données utilisées : les échantillons et la méthodologie ne sont pas toujours explicités ;
– les audits indépendants ne s’appuient que sur les données que les plateformes fournissent, parfois insuffisantes. Ainsi le rapport d’attestation du DSA réalisé par KPMG en septembre 2024 pour TikTok ([564]) indique qu’il n’est pas en capacité d’évaluer le respect par TikTok de l’obligation inscrite à l’article 34 du DSA, pour les très grandes plateformes en ligne, d’évaluer les risques systémiques engendrés par la plateforme, concernant notamment « la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes ». L’organisme d’audit indique ne pas avoir reçu les informations suffisantes lui permettant d’évaluer le respect par TikTok de ses obligations : « Nous n’avons pas été en mesure d’obtenir toutes les informations pertinentes liées aux procédures » ([565]) ; « Nous n’avons pas obtenu d’éléments probants suffisants pour nous permettre de conclure que TikTok a procédé à une évaluation du risque “avant de déployer des fonctionnalités susceptibles d’avoir un impact critique sur les risques systémiques identifiés”, comme l’exige la période d’évaluation » ([566]) ;
– parmi les très grandes plateformes en ligne, seule Wikipédia a été jugée pleinement conforme ([567]); les autres plateformes ont été jugées conformes avec réserves.
B. Entre obligations et réalité, un gouffre : En matière de transparence, LE CANCRE TikTok
1. Une transparence de façade, écran de fumée de dérives persistantes ?
TikTok présente son algorithme comme un outil destiné à favoriser la diversité des contenus. Selon ses « lignes directrices communautaires » (community guidelines), le flux « Pour Toi » repose sur un « système de recommandations personnalisé », fondé sur plusieurs facteurs, tels que les mentions « j’aime », les partages, les commentaires, les recherches effectuées, les vidéos tendance ou encore la diversité des contenus consultés ([568]).
La plateforme affirme également mettre en place des garde-fous pour limiter les effets de « spirales » de contenus sur certains sujets sensibles. Elle indique par exemple que « les régimes, la remise en forme extrême, la suggestivité sexuelle, la tristesse (comme les déclarations de désespoir ou le partage de citations tristes) et les informations sur la santé mentale trop généralisées (comme un questionnaire qui prétend poser un diagnostic) » sont des sujets éligibles au fil « Pour toi », mais que les modèles de contenus répétitifs sont suspendus afin d’éviter une exposition excessive ([569]).
Cependant, les nombreux témoignages recueillis par la commission d’enquête, d’utilisateurs mineurs de la plateforme comme de professionnels, viennent contredire totalement cette présentation. En dépit des engagements affichés par TikTok, les spirales de contenus néfastes, notamment autour de la dépression, des comportements suicidaires ou des troubles du comportement alimentaire, persistent de manière manifeste sur la plateforme. Ce décalage entre la communication officielle et l’expérience réelle des utilisateurs met en lumière les limites de cet exercice de transparence.
2. La formation des modérateurs, angle mort de la transparence en matière de modération
Dans son dernier rapport de transparence ([570]), TikTok reste particulièrement évasif quant à la formation dispensée à ses modérateurs, ne précisant ni la durée ni le contenu détaillé de celle-ci. Interrogé à ce sujet par écrit, la réponse apportée par TikTok s’avère lacunaire et se borne à des éléments généraux, jugés insuffisants par la rapporteure : « Pour garantir une compréhension et une application cohérentes de nos normes internes de modération, tout le personnel de modération de contenu reçoit une formation sur nos politiques internes de modération pertinentes. Tous les modérateurs de contenu suivent une formation sur les systèmes de modération de contenu de TikTok ainsi que sur le bien-être des modérateurs » ([571]).
Pour obtenir plus de précisions, la commission d’enquête a dû solliciter un ancien modérateur de TikTok qui a travaillé pour un sous-traitant de la plateforme, Teleperformance (voir supra). Celui-ci indique que sa formation pour devenir modérateur a duré « une semaine et trois jours » ([572]).
3. Un accès insuffisant des données aux chercheurs et un registre des publicités inexploitable
M. Nicolas Deffieux, directeur du Pôle d’expertise de la régulation numérique (PEReN) souligne les difficultés que rencontre son administration, qui exerce une mission de recherche publique depuis la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection des œuvres culturelles à l’ère numérique, pour obtenir un accès effectif aux données de TikTok, en dépit des obligations de transparence prévues par le DSA : « nos demandes ont enregistré un succès variable auprès des plateformes. Par exemple […] nous conduisons un projet de recherche sur la détection des discours haineux sur les réseaux sociaux et, à ce titre, nous avons demandé en avril 2024 d’accéder à une API existante, qui est proposée par TikTok aux chercheurs. Mais TikTok nous a demandé de justifier que les accès qui nous seraient fournis ne seraient pas partagés avec d’autres membres du Gouvernement. Nous avons donc dû effectuer des réponses très complètes, pour expliquer le fonctionnement du Peren en termes de sécurité des données et apporter des garanties éthiques, au titre de notre mission de recherche. Depuis un an, nous échangeons à ce titre et la semaine dernière, TikTok nous a adressé une nouvelle salve de questions pour fournir des justifications sur les statuts et soumettre un nouveau projet de recherche. […] En résumé, la démarche est difficile, les projets de recherche sont vérifiés par les plateformes quand nous formulons des demandes d’accès, et nos réponses ne les ont pas satisfaites » ([573]).
Par ailleurs, le 19 février 2024, la Commission européenne a ouvert une enquête dans le cadre du DSA visant TikTok, pour ses entraves à l’accès des chercheurs à ses données, ainsi que des manquements supposés à ses obligations de transparence en matière de publicités ([574]).
Dans ses conclusions préliminaires publiées le 15 mai 2025, la Commission européenne estime que TikTok ne satisfait pas à l’obligation de publier un registre des annonces publicitaires que lui impose le DSA : « la Commission a constaté que TikTok ne fournit pas les informations nécessaires sur le contenu des publicités, sur les utilisateurs ciblés par celles-ci et sur les personnes qui les ont payées. En outre, le registre des annonces publicitaires de TikTok ne permet pas au public d’effectuer des recherches exhaustives sur les annonces publicitaires sur la base des informations fournies, ce qui limite l’utilité de l’outil » ([575]).
V. TIKTOK, HORS-la-LOI S’AGISSANT DE LA PROTECTION DES DONNÉES PERSONNELLES, ET NOTAMMENT DE CELLES DES UTILISATEURS MINEURS
A. LE CADRE JURIDIQUE DE PROTECTION DES DONNÉES PERSONNELLES AUQUEL EST SOUMIS TIKTOK A été DéFINI PAR la règlementation française et européenne
1. Le cadre juridique général de la protection des données personnelles
L’article 4 du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), dit RGPD, entré en application le 25 mai 2018, définit une donnée personnelle comme toute information se rapportant à une personne physique identifiée ou identifiable. Il existe deux types d’identification :
– l’identification directe (prénom, nom, âge, etc.) ;
– l’identification indirecte (identifiant, numéro, etc.).
Le RGPD s’applique « au traitement des données à caractère personnel effectué dans le cadre des activités d’un établissement, d’un responsable du traitement ou d’un sous-traitant sur le territoire de l’Union, que le traitement ait lieu ou non dans l’Union » ([576]). Aussi, le champ d’application territorial du RGPD s’étend « au traitement des données à caractère personnel relatives à des personnes concernées qui se trouvent sur le territoire de l’Union par un responsable du traitement ou un sous-traitant qui n’est pas établi dans l’Union, lorsque les activités de traitement sont liées :
– à l’offre de biens ou de services à ces personnes concernées dans l’Union, qu’un paiement soit exigé ou non desdites personnes ;
– au suivi du comportement de ces personnes, dans la mesure où il s’agit d’un comportement qui a lieu au sein de l’Union » ([577]).
a. La protection des personnes physiques à l’égard du traitement des données à caractère personnel, un droit fondamental
L’article 8, paragraphe 1, de la Charte des droits fondamentaux de l’Union européenne et l’article 16, paragraphe 1, du traité sur le fonctionnement de l’Union européenne disposent que toute personne a droit à la protection des données à caractère personnel la concernant. Ainsi, la protection des personnes physiques à al’égard du traitement des données à caractère personnel est un droit fondamental au sens du droit de l’Union européenne.
Le RGPD s’inscrit dans la continuité de la loi française « Informatique et Libertés » de 1978, modifiée par la loi du 20 juin 2018 relative à la protection des données personnelles, établissant des règles sur la collecte et l’utilisation des données sur le territoire français. Le RGPD s’articule autour de trois objectifs principaux :
– renforcer les droits des personnes ;
– responsabiliser les acteurs traitant des données ;
– crédibiliser la régulation grâce à une coopération renforcée entre les autorités de protection des données.
b. La mise en œuvre du RGPD par une autorité nationale chef de file, la Commission irlandaise de protection des données
En vertu de l’article 56 du RGPD, « l’autorité de contrôle de l’établissement principal ou de l’établissement unique du responsable du traitement ou du sous-traitant est compétente pour agir en tant qu’autorité de contrôle chef de file concernant le traitement transfrontalier effectué par ce responsable du traitement ou ce sous-traitant ». Elle coopère avec les autres autorités de contrôles en s’efforçant de parvenir à un consensus ([578]), notamment dans le cadre du comité européen de la protection des données.
S’agissant de TikTok, établi en Irlande, c’est la Commission irlandaise de protection des données (Data Protection Commission, DPC), qui constitue l’autorité de contrôle chef de file. La rapporteure et le président ont rencontré ses dirigeants, M. Des Hogan et M. Dale Sunderland, et son attaché à Bruxelles, M. Paul McDonagh-Forde, le 4 juin 2025.
c. Les motifs et modalités de collecte et de traitement des données
L’article 5 indique que « les données personnelles doivent être :
a) traitées de manière licite, loyale et transparente au regard de la personne concernée (licéité, loyauté, transparence) ;
b) collectées pour des finalités déterminées, explicites et légitimes, et ne pas être traitées ultérieurement d’une manière incompatible avec ces finalités ; […] (limitation des finalités) ;
c) adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées (minimisation des données) ;
d) exactes et, si nécessaire, tenues à jour […] (exactitude) ;
e) conservées sous une forme permettant l’identification des personnes concernées pendant une durée n’excédant pas celle nécessaire au regard des finalités pour lesquelles elles sont traitées […] (limitation de la conservation) ;
f) traitées de façon à garantir une sécurité appropriée des données à caractère personnel, y compris la protection contre le traitement non autorisé ou illicite et contre la perte, la destruction ou les dégâts d’origine accidentelle, à l’aide de mesures techniques ou organisationnelles appropriées (intégrité et confidentialité) ».
Le RGPD prévoit, en son article 6, six motifs alternatifs de licéité du traitement des données à caractère personnel : le consentement de la personne concernée, la nécessité contractuelle, la nécessité liée au respect d’une obligation légale, la nécessité liée à la sauvegarde des intérêts vitaux de la personne concernée ou d’une autre personne physique, la nécessité liée à exécution d’une mission d’intérêt public ou relevant de l’exercice de l’autorité publique, la nécessité liée à des fins d’intérêts légitimes.
Sauf exceptions, « le traitement des données à caractère personnel » dites sensibles, c’est-à-dire, « qui révèle l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale » ou les « données génétiques, [l]es données biométriques [collectées] aux fins d’identifier une personne physique de manière unique, [l]es données concernant la santé ou des données concernant la vie sexuelle ou l’orientation sexuelle d’une personne physique », est interdit ([579]).
Lorsque des données à caractère personnel sont collectées, le responsable du traitement doit indiquer à la personne concernée l’identité et les coordonnées du responsable du traitement, les finalités et la base juridique du traitement, les destinataires des données à caractère personnel et, le cas échéant, le fait que le responsable du traitement a l’intention d’effectuer un transfert de ces données vers un pays tiers ou à une organisation internationale, la référence aux garanties appropriées et les moyens d’en obtenir une copie ou l’endroit où elles ont été mises à disposition ([580]). En plus de ces informations, le responsable du traitement doit fournir à la personne concernée des informations relatives notamment à la durée de conservation des données personnelles, l’existence du droit de demander l’accès aux données à caractère personnel, le droit d’introduire une réclamation auprès d’une autorité de contrôle et finalement l’existence d’une prise de décision automatisée, y compris un profilage ([581]).
2. Un encadrement juridique renforcé pour la protection des données personnelles des mineurs
a. Un consentement au traitement des données soumis à autorisation parentale avant 15 ans
En application de l’article 8 du RGPD et de l’article 45 de la loi « informatique et libertés » ([582]), le consentement d’un mineur de moins de 15 ans au traitement de ses données à caractère personnel en ce qui concerne l’offre directe de services de la société de l’information n’est licite, pour les mineurs de moins de 15 ans, que si le consentement est donné conjointement par le mineur concerné et le ou les titulaires de l’autorité parentale à l’égard de ce mineur (voir supra).
b. Un niveau d’exigence élevé s’agissant du traitement des données des mineurs
L’article 6 du RGPD dispose que le traitement des données personnelles est licite notamment lorsqu’il est « nécessaire aux fins des intérêts légitimes poursuivis par le responsable du traitement ou par un tiers ». Toutefois, il est précisé que le traitement est licite « à moins que ne prévalent les intérêts ou les libertés et droits fondamentaux de la personne concernée qui exigent une protection des données personnelles, notamment lorsque la personne concernée est une personne mineure » ([583]).
S’agissant de la transparence des informations et des communications et des modalités de l’exercice des droits de la personne concernée, l’article12 du RGPD et l’article 45 de la loi « informatique et libertés » indiquent que le responsable du traitement est tenu de prendre des mesures appropriées afin de transmettre ces informations de façon « concise, transparente, compréhensible et aisément accessible, en des termes clairs et simples, en particulier pour toute information destinée spécifiquement à un enfant » ([584]).
En outre, l’article 28 du DSA intègre des exigences relatives à la protection de la vie privée des mineurs, en disposant que « les fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service ».
c. L’interdiction des publicités ciblées reposant sur le profilage des données personnelles des mineurs
L’article 28 du DSA dispose, en son deuxième point, que « les fournisseurs de plateformes en ligne ne présentent pas sur leur interface de publicité qui repose sur du profilage, […] en utilisant des données à caractère personnel concernant le destinataire du service dès lors qu’ils ont connaissance avec une certitude raisonnable que le destinataire du service est un mineur » ([585]).
Toutefois, l’article 28 du DSA précise que « le respect des obligations énoncées dans le présent article n’impose pas aux fournisseurs de plateformes en ligne de traiter des données à caractère personnel supplémentaires afin de déterminer si le destinataire du service est un mineur ». Dans ce cadre, le caractère seulement déclaratif de leur âge par les utilisateurs interroge toujours quant au respect des obligations susmentionnées pour tous les utilisateurs mineurs de la plateforme.
B. TIKTOK, MULTIRÉCIDIVISTE DANS LA VIOLATION DE LA PROTECTION DES DONNÉES PERSONNELLES
1. TikTok : des données personnelles, parfois sensibles, en masse
a. TikTok, une application qui collecte et traite une quantité très importante de données personnelles
Le fonctionnement de TikTok lui permet d’avoir accès à plusieurs types de données personnelles. La plateforme indique dans sa politique de confidentialité recueillir les informations des utilisateurs de trois manières : « les informations que vous fournissez, les informations recueillies automatiquement et les informations provenant d’autres sources » ([586]).
Les premières concernent les informations fournies lors de la création d’un compte, le contenu créé, importé, publié par l’utilisateur, les messages échangés sur la plateforme, les contacts et autres relations dans le cas où l’utilisateur aurait autorisé la synchronisation ainsi que les informations relatives au paiement et aux produits lors d’achats sur la plateforme.
Les secondes incluent les informations relatives aux appareils et à la connexion réseau, les informations de localisation, sur l’utilisation, notamment la manière dont l’utilisateur interagit avec le contenu et les publicités, la durée et la fréquence de son utilisation, son engagement avec d’autres utilisateurs et son historique de recherche, les caractéristiques et particularité du contenu, les informations déduites, notamment les attributs tels que la tranche d’âge et le genre, et les intérêts déduits.
Enfin, la troisième catégorie d’informations concerne celles provenant des partenaires en matière de publicités, de mesures et de données, notamment au sujet des actions effectuées en dehors de la plateforme. Elle inclut également les informations provenant des vendeurs et prestataires de paiement et d’exécution de transactions, et des plateformes de tiers et partenaires tiers, par exemple lorsque l’utilisateur partage du contenu de TikTok vers une plateforme tierce.
b. Parmi les données personnelles traitées par TikTok, un grand nombre de données « sensibles »
Selon Mme Marie-Laure Denis, présidente de la CNIL : « la particularité de TikTok par rapport aux autres réseaux sociaux tient au flux continu de contenus, couplé à une analyse en temps réel des réactions de l’utilisateur. En combinant les données, qui font l’objet d’une catégorisation par TikTok – temps passé, partage, likes –, le réseau social peut déduire ce à quoi l’utilisateur est sensible, voire son état émotionnel » ([587]).
Le rapport de la commission d’enquête du Sénat sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence, déposé en juillet 2023, alertait déjà sur l’éventail de données personnelles auxquelles TikTok a accès : « les activités de profilage liées au ciblage peuvent permettre de déduire des intérêts ou d’autres caractéristiques que l’individu n’a pas activement révélés, ce qui compromet la capacité de l’individu à exercer un contrôle sur ses données à caractère personnel. Ces informations peuvent même être « sensibles » au sens de l’article 9 du [RGPD], en ce qu’elles révèlent les opinions politiques, philosophiques ou religieuses ou l’appartenance syndicale des personnes, ou […] sont relatives à la santé ou à la vie ou l’orientation sexuelle des personnes » ([588]).
2. Un traitement des données personnelles en violation du RGPD
a. Des motifs de traitements (trop) larges
Reprenant l’ensemble des motifs énumérés par l’article 6 du RGPD, TikTok justifie le traitement des données à caractère personnel par la nécessité contractuelle, les intérêts légitimes (ceux de la plateforme, des utilisateurs ou d’une autre partie), le consentement, le respect d’une obligation légale, l’exécution d’une tâche d’intérêt public et la protection des intérêts vitaux ([589]).
Les intérêts légitimes invoqués par TikTok incluent notamment le fait de « fournir aux utilisateurs des outils pour inspirer la créativité, la collaboration et le plaisir, et créer des possibilités pour les utilisateurs de toucher de nouveaux publics » ([590]). En outre, certains intérêts cités sont vagues et peu précis, tels que le fait d’« améliorer, promouvoir et développer la Plateforme de façon éclairée » ([591]).
b. Le transfert des données à caractère personnel des utilisateurs européens vers la Chine
Le 2 mai 2025, TikTok a été condamné par Commission irlandaise de protection des données (DPC), à une amende de 530 millions d’euros pour ne pas avoir réussi à démontrer que les données personnelles des utilisateurs européens, accessibles à distance par son personnel en Chine, bénéficiaient dans ce pays d’un niveau de protection équivalent à celui de l’Union. En effet, dans sa politique de confidentialité, TikTok indique que certaines entités du groupe de sociétés se voient accorder un accès à distance limité aux informations recueillies, « afin qu’elles puissent assurer certaines fonctions ». Sur les 530 millions d’euros d’amende, 43 millions ont été prononcés pour un manque de transparence reproché à la plateforme entre 2020 et 2022, TikTok n’ayant pas informé ses utilisateurs vers quels pays leurs données étaient transférées, ni le fait qu’elles pouvaient être consultées depuis la Chine.
En outre, le 10 juillet 2025, la DPC a ouvert une enquête sur le stockage de certaines données personnelles d’utilisateurs européens sur des serveurs en Chine par TikTok. La DPC a révélé avoir été informée en avril 2025 par TikTok que des données européennes avaient été stockées puis supprimées en Chine, contrairement aux affirmations de l’entreprise jusque-là. L’objectif de l’investigation est de déterminer si TikTok a respecté ses obligations dans le cadre du RGPD vis-à-vis des transferts de données.
c. Le traitement des données à caractère personnel des mineurs
La DPC avait déjà imposé une amende de 345 millions d’euros à TikTok en 2023 pour avoir violé les exigences du RGPD dans le cadre de la collecte de données d’enfants âgés de 13 à 17 ans entre le 31 juillet et le 31 décembre 2020. Elle reprochait notamment à la plateforme d’avoir rendu les profils de mineurs publics par défaut.
Par ailleurs, bien que TikTok assure ne pas autoriser le ciblage publicitaire des mineurs sur la base du profilage, conformément à l’article 28 du Digital Services Act (DSA), l’absence de contrôle d’identité pour accéder à la plateforme n’assure pas le respect de cette obligation. Ainsi, les utilisateurs mineurs indiquant un âge supérieur à 18 ans sont ciblés sur la base du profilage. Interrogé sur le fait « qu’une part non négligeable, voire massive, de jeunes ont plus de 18 ans selon [la] plateforme alors qu’ils sont mineurs dans le monde réel », impliquant que TikTok allait « les cibler algorithmiquement et capter leurs préférences », M. Arnaud Cabanis affirme : « techniquement, c’est possible » ([592]).
L’Information Commissionner’s Office (ICO), organe britannique chargé de la protection des données personnelles, a ouvert une enquête en mars 2025 sur la manière dont TikTok et deux autres sites (Reddit et Imgur – sur les mesures de garantie de l’âge) utilisent les informations personnelles des 13-17 ans pour leur faire des recommandations de contenus dans leur fil d’actualité. Le lancement de cette enquête fait suite à des préoccupations du régulateur britannique concernant l’utilisation des données des enfants dans les algorithmes de recommandations de ces plateformes de partage de vidéos. Ainsi, l’ICO cherche à déterminer s’il y a eu des infractions à la législation sur la protection des données. À l’heure actuelle, aucune information n’est disponible sur l’état d’avancement de cette enquête, car l’ICO n’a pas encore publié de décision. En 2023, l’ICO avait déjà infligé une amende de 12,7 millions de livres à TikTok pour utilisation abusive de données d’enfants et pour non-respect de l’interdiction des moins de 13 ans d’utiliser l’application. L’enquête a estimé qu’en 2020, les données de 1,4 million d’enfants britanniques de moins de 13 ans avaient pu être utilisées sans le consentement parental ([593]).
3. Les projets « Texas » et « Clover » : beaucoup de scepticisme face aux condamnations
Ces condamnations ont conduit TikTok à tenter d’apporter des garanties aux utilisateurs comme aux pouvoirs publics en ce qui concerne la bonne utilisation des données personnelles dont dispose l’application. Après avoir publiquement reconnu que les données des utilisateurs du monde entier étaient accessibles depuis la Chine, la plateforme s’est vue menacée d’interdiction aux États-Unis. En réponse à ce scandale, ByteDance et TikTok ont annoncé en juillet 2022 le « projet Texas », censé empêcher tout transfert de données d’utilisateurs américains vers la Chine.
Le projet, dont le coût est estimé à 1,5 milliard de dollars, repose sur deux volets : d’une part, la construction de serveurs situés sur le sol américain et gérés par une société américaine pour héberger l’ensemble des données des utilisateurs américains ; d’autre part, la mise en place de mesures de sécurité renforcées, dont un audit externe du code source de TikTok réalisé par un groupe de sept entreprises non-affiliées à la plateforme.
Dans le sillage de ce projet, et face à de mesures de restriction d’utilisation dans plusieurs pays européens – notamment en ce qui concerne les agents publics – TikTok a annoncé en mars 2023 le lancement du projet Clover, dont l’objectif est similaire à celui du projet Texas, mais destiné à protéger les données des utilisateurs européens.
Les projets Texas et Clover reposent sur un principe commun : la localisation régionale des données des utilisateurs, visant à limiter leur exposition à des juridictions étrangères.
Toutefois, cette localisation des infrastructures de stockage et de traitement ne constitue qu’un maillon d’une chaîne de valeur bien plus large et complexe. En effet, même si les données sont physiquement hébergées en Europe, elles peuvent toujours être soumises à des législations extraterritoriales, en fonction des technologies et des prestataires utilisés. Le cas des serveurs interconnectés et accessibles en réseau – le cloud – illustre les difficultés à s’assurer de la protection des données des utilisateurs européens. Une forte dépendance à des entreprises américaines est à observer dans ce domaine.
troisième partie : sortir du piÈge TIKTOK et sÉcuriser l’espace numÉrique pour les mineurs : rÉgulation, prÉvention et prise en charge psychologique
En préambule, la rapporteure souligne que, si la commission d’enquête a mis en lumière les nombreux dangers que présente l’utilisation de TikTok pour les mineurs, le présent rapport n’a pas comme conclusion et préconisation le blocage pur et simple de la plateforme. Loin d’être une solution miracle, une telle mesure souffre d’importantes limites.
D’une part, elle serait sans doute inefficace. Le modèle du défilement continu de vidéos courtes ayant été adopté par l’ensemble des plateformes (shorts sur YouTube, reels sur Instagram), l’on constate de nombreuses similitudes et une réelle porosité entre les principaux réseaux sociaux. Les auditions menées par la commission d’enquête ont d’ailleurs montré que de nombreux contenus publiés sur TikTok étaient republiés par les utilisateurs et diffusés sur les plateformes concurrentes. En outre, l’interdiction de TikTok ne ferait sans doute office que de pansement avant l’arrivée sur le marché d’un « nouveau TikTok », qu’il faudrait ensuite interdire – et ainsi de suite.
D’autre part, l’interdiction de TikTok serait – pour le moins – fragile du point de vue juridique. En vertu de l’article 1 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication, « la communication au public par voie électronique est libre », et « l’exercice de cette liberté ne peut être limité que dans la mesure requise, d’une part, par le respect de la dignité de la personne humaine, de la liberté et de la propriété d’autrui, du caractère pluraliste de l’expression des courants de pensée et d’opinion et, d’autre part, par la protection de l’enfance et de l’adolescence, par la sauvegarde de l’ordre public, par les besoins de la défense nationale, par les exigences de service public, par les contraintes techniques inhérentes aux moyens de communication, ainsi que par la nécessité, pour les services audiovisuels, de développer la production audiovisuelle ». Si le blocage de TikTok pourrait être justifié tant par la protection de l’enfance et de l’adolescence que par la sauvegarde de l’ordre public dans sa dimension sanitaire, il faudrait encore que la mesure ne porte pas une atteinte disproportionnée aux droits et libertés. En avril 2025, le Conseil d’État a jugé que l’interruption provisoire de l’accès à TikTok, décidée par la Gouvernement dans le cadre des émeutes en Nouvelle Calédonie en mai 2024, portait atteinte à la libre communication des pensées et des opinions, à la liberté d’expression et à tous les autres droits et libertés dont un service de communication au public en ligne permet l’exercice, notamment le droit à la vie privée et familiale et la liberté du commerce et de l’industrie ([594]). L’interdiction générale et absolue de TikTok pourrait porter une atteinte disproportionnée à ces droits et libertés, alors que d’autres mesures moins restrictives pourraient être prises. En tout état de cause, il paraît difficilement justifiable, eu égard au principe d’égalité et au droit de la concurrence, de ne prononcer l’interdiction que de TikTok, quand d’autres applications comme Instagram peuvent également avoir des effets délétères pour la santé mentale des mineurs.
L’illégalité du blocage de TikTok en Nouvelle Calédonie
En mai 2024, le Premier ministre a, en raison de troubles à l’ordre public d’une particulière gravité en Nouvelle Calédonie, décidé de bloquer l’accès au réseau social TikTok sur ce territoire.
Saisi par deux associations et des particuliers, le Conseil d’État ([595]) a estimé que, même en dehors des cas prévus par la loi, l’autorité administrative pouvait décider de l’interruption de l’accès à un service de communication en ligne en cas de circonstances exceptionnelles, à la condition d’une part, qu’aucun moyen technique ne permette, dans l’immédiat, de prendre des mesures alternatives moins attentatoires aux droits et libertés en cause, et, d’autre part, que l’interdiction soit prise pour une durée n’excédant pas celle requise pour rechercher et mettre en œuvre de telles mesures.
En l’espèce, la haute juridiction a jugé que la mesure attaquée, procédant à une interruption totale du service pour une durée indéterminée, liée seulement à la persistance des troubles à l’ordre public, sans subordonner son maintien à l’impossibilité de mettre en œuvre des mesures alternatives, portait une atteinte disproportionnée à la liberté d’expression, à la liberté de communication des idées et opinions et à la liberté d’accès à l’information.
Dans ce cadre, la rapporteure préfère préconiser un renforcement général de la régulation des réseaux sociaux, à commencer par leur utilisation par les mineurs.
A. Mener nos combats aux deux échelons
1. Continuer à œuvrer pour imposer une interdiction des réseaux sociaux avant 15 ans à l’échelle européenne
En matière de régulation des réseaux sociaux, notamment en ce qui concerne la protection des mineurs, le choix de l’échelle d’intervention est déterminant afin de garantir l’efficacité et la cohérence des mesures adoptées. De manière générale, les nombreux représentants des institutions et organes de l’Union européenne rencontrés par la rapporteure et le président à Bruxelles le 4 juin 2025 ([596]), ont souligné les multiples initiatives en cours de réalisation à l’échelle européenne.
En particulier, l’édiction d’une interdiction des réseaux sociaux avant 15 ans à l’échelle de l’Union européenne semble préférable :
– pour renforcer la protection de l’ensemble des mineurs européens ;
– pour ne pas fragmenter davantage le marché européen, dans la logique d’harmonisation promue par le DSA : selon M. Thierry Breton, le choix du vecteur normatif du règlement, directement applicable, avait vocation, non pas à « empêcher les législateurs nationaux de travailler, mais [à] éviter de reproduire des phénomènes de fragmentation » ([597]) ;
– pour profiter de la puissance économique européenne : selon M. Marc Faddoul, directeur et cofondateur d’AI Forensics, « seule la force du marché unique européen permettrait de faire plier les plateformes », comme l’a illustré le « bras de fer [… ] remporté à propos des connecteurs USB-C » ([598]).
L’interdiction aux mineurs et le contrôle de l’âge sur les sites pornographiques
à l’épreuve du droit de l’Union européenne
Pour rendre effectif l’article 227-24 du code pénal, qui interdit à toute personne de diffuser un message à caractère pornographique qui soit susceptible d’être vu par un mineur, la loi du 30 juillet 2020 visant à protéger les victimes de violences conjugales avait confié au président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) un pouvoir de mise en demeure et de saisine du juge judiciaire pour faire respecter cette interdiction.
Saisi du décret d’application de cette disposition par deux éditeurs tchèques de sites internet, le Conseil d’État a transmis à la Cour de justice de l’Union européenne (CJUE) trois questions préjudicielles sur la conformité du dispositif français au droit de l’Union ([599]). Était en effet soulevée la question de l’application de la directive 2000/31/CE du 8 juin 2000 dite directive commerce électronique. Par un arrêt du 9 novembre 2023 dit « Google Ireland » (n° C-376/22) la CJUE a jugé que cette directive, en posant le principe dit « du pays d’origine » en vertu duquel les services de la société de l’information sont régis par le droit de l’État membre où ils sont établis, empêche les autres États membres de leur imposer des règles générales pour ce qui relève du « domaine coordonné » par la directive en matière d’accès à l’activité de services numériques ou d’exercice d’une telle activité.
La loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (SREN) a ensuite imposé à certains services diffusant des contenus pornographiques de mettre en place des systèmes de vérification de l’âge des utilisateurs, conformes à un référentiel établi par l’Arcom. Par un arrêté du 26 février 2025, la ministre de la Culture et la ministre déléguée chargée du numérique ont rendu cette obligation applicable à 17 sites pornographiques établis dans d’autres États membres de l’Union européenne.
Alors que cet arrêté avait été suspendu par le juge des référés du tribunal administratif de Paris ([600]), le Conseil d’État, prenant en compte l’intérêt public qui s’attache à la protection des mineurs contre l’exposition à des contenus à caractère pornographique, a annulé, le 15 juillet 2025, l’ordonnance de première instance et rejeté, pour défaut d’urgence, la demande de suspension ([601]).
Le gouvernement français, ainsi que cinq de ses partenaires européens – la Grèce, l’Espagne, l’Irlande, le Danemark et la Belgique – ont appuyé la proposition d’une interdiction des réseaux sociaux aux mineurs de moins de 15 ans à l’échelle européenne. C’est également la solution envisagée devant la commission d’enquête par M. Martin Ajdari, président de l’ARCOM : « si nous voulions imposer une limite d’âge à 15 ans […], ce pourrait être une démarche politique conduite avec d’autres États membres en vertu du principe de précaution. Il y a de bonnes raisons de penser qu’en matière de santé publique, ne pas accéder aux réseaux sociaux avant 15 ans ne serait pas une très mauvaise idée. Tel que le règlement est conçu, cela nécessiterait une décision des États membres de réviser le DSA ou une décision politique de l’Union européenne, respectant les règles de majorité du Conseil et du Parlement, d’interdire les réseaux sociaux avant 15 ans. À mon avis, cette démarche n’est pas hors de portée car tous les États partagent cette préoccupation » ([602]).
À l’heure actuelle, une interdiction de l’utilisation des réseaux sociaux avant 15 ans à l’échelle nationale semble plus facilement envisageable. Elle permettrait d’éviter les difficultés de la procédure législative européenne, notamment eu égard à l’absence de majorité ou de consensus sur la définition d’un âge limite. En outre, la Commission européenne semble désormais prête à accompagner les États membres souhaitant imposer un âge minimal à le faire dans le respect du droit de l’Union européenne. « Une interdiction au niveau européen n’est pas ce vers quoi nous nous dirigeons », a déjà expliqué un porte-parole de l’institution, rappelant qu’en vertu du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) il « est de la compétence des États membres de fixer une majorité numérique, s’ils le souhaitent » ([603]).
C’est également le sens d’une formule retenue, à l’initiative de la France, dans les lignes directrices de la Commission européenne relatives à la protection des mineurs dans le cadre de la législation sur les services numériques et publiées le 14 juillet 2025 ([604]) : celles-ci recommandent le recours aux méthodes de vérification de l’âge, notamment, quand une loi nationale, en conformité avec le droit de l’Union européenne, prévoit un âge minimum pour accéder à certains produits ou services, tels que des catégories définies de réseaux sociaux. Les lignes directrices « ouvrent la voie à l’interdiction des réseaux sociaux aux moins de 15 ans en droit national », s’est félicitée Mme Chappaz le 14 juillet ([605]).
Recommandation n° 1 : Proposer d’inscrire l’interdiction de l’accès aux services de réseaux sociaux en ligne, dont l’objet principal n’est pas l’échange de messages, aux mineurs de moins de 15 ans dans le droit de l’Union européenne.
Recommandation n° 2 : En attendant ou à défaut d’une interdiction de l’accès aux services de réseaux sociaux en ligne, dont l’objet principal n’est pas l’échange de messages, aux mineurs de moins de 15 ans à l’échelle de l’Union européenne, inscrire cette mesure dans la législation nationale.
2. Au niveau européen, imposer des restrictions d’âge à certains services et fonctionnalités des réseaux sociaux
Les plateformes ont développé des règles restreignant l’accès à certains services et fonctionnalités à leurs utilisateurs en fonction de leur âge, proposant ainsi une version « bridée » de leur réseau (voir supra).
L’utilité réelle de ces restrictions est toutefois limitée : en plus des difficultés déjà évoquées relatives au contrôle de l’âge des utilisateurs, les versions « bridées » des réseaux sociaux relèvent souvent du volontariat, qu’elles soient désactivables par les utilisateurs ou qu’elles ne soient pas installées par défaut.
La rapporteure se réjouit de l’inclusion, dans les lignes directrices sur la protection des mineurs présentées par la Commission européenne, d’exigences d’adaptation des services et fonctionnalités des plateformes à l’âge des utilisateurs, via des restrictions d’accès en fonction de l’âge (voir supra). Elle regrette toutefois que ces paramètres adaptés à l’âge des utilisateurs mineurs ne soient envisagés que comme des paramètres par défaut, et non comme des paramètres que les utilisateurs mineurs ne pourront pas désactiver.
Recommandation n° 3 : Appuyer, dans le cadre de la révision des lignes directrices sur la protection des mineurs, prévue pour 2026, une modification prévoyant que les paramètres adaptés à l’âge des utilisateurs mineurs ne puissent pas être désactivés.
3. Mettre en place des solutions efficaces de contrôle de l’âge : on touche au but ?
Forte de charge symbolique indéniable et d’une vertu éducative certaine, l’interdiction de l’accès aux réseaux sociaux aux mineurs de moins de 15 ans ne sera tout à fait utile que si elle est accompagnée de l’implémentation de solutions technologiques efficaces de contrôle de l’âge. « Nous le savons ici toutes et tous, cette avancée importante restera théorique si elle ne s’accompagne pas d’une véritable vérification de l’âge sur les réseaux sociaux […]. Il ne peut y avoir d’interdiction des réseaux sociaux sans vérification de l’âge », déclare en ce sens Mme Chappaz devant la commission d’enquête.
Il en va de même des restrictions de l’accès à certaines fonctionnalités selon l’âge des utilisateurs – selon Mme Chappaz, « on peut créer toutes les fonctionnalités, par exemple, les comptes adolescents, […] mais tant qu’on ne connaît pas l’âge de la personne, elles sont inopérantes » ([606]).
a. Des solutions très attendues, et peut-être trop attendues
La rapporteure tient toutefois à insister sur un principe simple : le politique et le législateur n’ont pas à attendre l’évolution des technologies, elles doivent les provoquer. Les plateformes et acteurs du numérique n’ont pas, économiquement, intérêt à proposer des solutions technologiques susceptibles de garantir la protection des mineurs en ligne. Ils peuvent même y être hostiles : M. Breton relate ainsi : « en tant que commissaire, j’ai milité pour l’instauration de la e-identité […]. Les Gafam se sont opposées à notre action. Vous n’imaginez pas le nombre de réunions que j’ai conduites à ce titre, y compris avec les autorités des États-Unis. […] Il est dans l’intérêt des Gafam que la fragmentation actuelle perdure, car elle évite l’émergence de champions européens. Certaines d’entre elles se sont considérées à un moment, ou se considèrent peut-être encore aujourd’hui, comme des entités supranationales » ([607]).
Dans ce cadre, il n’est pas satisfaisant, ni raisonnable, d’attendre l’arrivée de solutions technologiques « miracles » sans incitation économique ou politique. C’est la conception que M. Laurent Marcangeli a exposé à la commission d’enquête : « j’ai rencontré les grandes plateformes numériques […]. Toutes ont dit la même chose : il leur était techniquement impossible d’appliquer la loi. Or c’est précisément parce que les géants du numérique sont passifs face aux alertes qui se multiplient que le législateur doit les réguler, même quand ils ne proposent pas de solutions techniques. […] Le député n’est pas là pour mener des études techniques ni pour déterminer par quels moyens mettre en œuvre les lois, mais pour fixer les limites nécessaires à la vie en démocratie libérale […] La technique doit emboîter le pas au politique. Nous ne devons pas cesser d’agir pour des raisons techniques évoquées par les plateformes. Notre rôle est de fixer les évolutions vers laquelle la technique doit tendre. Il n’est pas d’écrire des lignes de code ou des algorithmes, mais d’énoncer ce qui est juste et nécessaire. Si l’on attend que la technologie soit parfaite pour agir, nous ne le ferons jamais » ([608]).
La rapporteure est donc de l’avis que, s’il est plus que nécessaire d’encourager le développement de solutions technologiques de contrôle de l’âge en ligne, leur existence et leur perfection, déterminant certes l’effectivité d’une mesure d’interdiction de l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, ne doit pas pour autant constituer la condition préalable à l’adoption d’une telle mesure.
b. Des solutions imparfaites mais tangibles
En l’occurrence, les travaux de la commission d’enquête ont fait ressortir que, malgré des difficultés et des imperfections, il existe des solutions pour vérifier l’âge des utilisateurs en ligne.
« Les technologies existent, les solutions sont là : nous en avons recensé une quinzaine, développées par des entreprises françaises ou européennes. Elles permettent de vérifier l’âge de l’utilisateur sans identifier une personne, sans compromettre les données personnelles », affirme à ce titre Mme Chappaz ([609]). S’il n’existe « pas de consensus sur les solutions pour contrôler l’âge sur les plateformes », « plusieurs moyens techniques sont disponibles », confirme Mme Marie-Laure Denis, présidente de la CNIL ([610]).
En mai 2022, le Pôle d’Expertise de la Régulation Numérique (PEReN) identifiait plusieurs solutions, aux résultats variables : contrôle de carte bancaire, contrôle par un bureau de tabac, utilisation d’une base de données nationale, contrôle d’une pièce d’identité et d’une photo, service de garantie de l’identité numérique (France Identité), contrôle parental ([611]).
TABLEAU COMPARATIF DES SOLUTIONS DE VÉRIFICATION DE L’ÂGE
(Source : PEReN)
La rapporteure souligne que les solutions choisies devront trouver un équilibre entre différents objectifs :
– la fiabilité : pour garantir une protection optimale des mineurs en ligne, les technologies de contrôle de l’âge devront présenter des gages d’efficacité. À ce titre, la rapporteure se félicite de la mention, dans les lignes directrices de la Commission européenne, et conformément à la position française, de la vérification de l’âge et non de la seule estimation de l’âge. Certaines technologies d’estimation de l’âge présentent en effet une marge d’erreur qui peut être proche de deux ans ([612]) ;
– l’accessibilité : la rapporteure invite à prendre en compte l’ensemble des utilisateurs, notamment les utilisateurs mineurs, et leurs potentielles difficultés pour répondre aux exigences des techniques de vérification de l’âge – par exemple, celles des mineurs ne détenant pas de pièce d’identité ;
– le respect des données personnelles et de la vie privée : c’est le but du standard du « double anonymat » promu par l’Arcom.
Le référentiel de l’Arcom
En octobre 2024, l’Arcom a publié un référentiel déterminant les exigences techniques minimales applicables aux systèmes de vérification de l’âge mis en place pour l’accès à certains services de communication au public en ligne et aux plateformes de partage de vidéos qui mettent à disposition du public des contenus pornographiques.
Il repose sur deux exigences :
– la fiabilité ;
– la protection de la vie privée : le mécanisme de « double anonymat » doit permettre que les données à caractère personnel permettant la vérification de l’âge ne soient pas traitées par les services et plateformes de contenus pornographiques, et que les données fournies par l’utilisateur ne soient pas conservées par le prestataire de génération de preuve d’âge.
Il est prévu que les solutions mises en place soient évaluées en conditions réelles, chaque année, par un prestataire d’audit indépendant.
c. Des solutions en cours d’expérimentation
Le 14 juillet 2025, en parallèle des lignes directrices sur la protection des mineurs, la Commission européenne a mis à disposition un schéma directeur pour une solution de vérification de l’âge. Il permet aux utilisateurs de prouver qu’ils ont plus de 18 ans sans partager d’autres informations personnelles. La solution peut également être facilement adaptée pour vérifier d’autres tranches d’âge. Également appelée « mini wallet » (« mini-portefeuille »), la solution repose sur les mêmes spécifications techniques que les portefeuilles européens d’identité numérique qui doivent être déployés d’ici la fin de l’année 2026 (voir supra), et sera pleinement interopérables avec eux – elle en constitue une première version transitoire. Cette solution se présente sous la forme d’une solution logicielle qui entrera désormais dans une phase pilote de test avec certains États membres : le Danemark, la France, la Grèce, l’Italie et l’Espagne. Elle pourrait être disponible au printemps 2026.
B. SAns sanction, les algorithmes imposent leur rythme : pour une meilleure application du règlement DSA
1. Une nécessaire montée en puissance des enquêtes de la Commission européenne
a. Augmenter les capacités d’action au niveau européen…
Dans le cadre de la mise en œuvre effective du règlement DSA, la réactivité de la Commission européenne constitue un enjeu central.
Toutefois, la temporalité actuelle des procédures engagées par la Commission ne permet pas encore une réponse pleinement adaptée à la vitesse d’évolution des environnements numériques, comme le déplore M. Claude Malhuret, sénateur, rapporteur de la commission d’enquête du Sénat sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence, qui évoque « [l]a lenteur des décisions, qui doivent respecter toutes les normes juridiques européennes et peuvent faire l’objet d’un appel » ([613]). Le sénateur Malhuret souligne le décalage manifeste entre la lourdeur des procédures européennes et l’agilité des acteurs du numérique : les procédures « s’étalent sur des années alors qu’un algorithme change plusieurs fois par jour, en fonction de l’évolution des pratiques des internautes ou des desiderata des dirigeants de TikTok et des autres plateformes » ([614]).
Il ne s’agit pas ici de remettre en cause la légitimité de la Commission dans la supervision des très grandes plateformes, telles que TikTok. L’échelon l’européen constitue en effet le niveau pertinent – et sans doute le seul véritablement efficace – pour encadrer ces acteurs d’envergure mondiale. En citant à nouveau M. Marc Faddoul, « seule la force du marché unique européen permettrait de faire plier les plateformes » ([615]). En comparaison, dans l’imposition de nouvelles obligations aux plateformes, l’échelon national ne peut jouer qu’un rôle complémentaire, voire palliatif – mais auquel il est possible de recourir en cas de carence ou d’inaction à l’échelon européen.
L’article 28 du DSA instaure une obligation pour les plateformes de protéger leurs utilisateurs mineurs. Celles-ci doivent « mett[re] en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service ». Si ces dispositions du DSA établissent une responsabilité claire des plateformes à l’égard des risques auxquels sont exposés les mineurs utilisant leurs services, la formulation laconique et peu opérationnelle de l’article en limitait l’applicabilité immédiate, ce qui a conduit la Commission européenne à publier, le 14 juillet 2025, des lignes directrices sur la protection des mineurs ([616]).
L’arsenal juridique est donc désormais en place, et a vocation à être complété par la publication progressive de lignes directrices. Toutefois, son efficacité dépend en grande partie de la capacité de la Commission à instruire ses enquêtes dans des délais compatibles avec la temporalité des réseaux sociaux, qui évoluent rapidement. Des procédures trop longues risquent en effet de réduire considérablement la portée de la régulation, en laissant aux grandes plateformes le temps d’adapter leurs pratiques déviantes et de contourner la réglementation. Pour que le DSA soit pleinement efficace et réellement appliqué, il est donc indispensable d’accélérer le rythme des enquêtes : la régulation doit impérativement suivre le rythme du numérique, faute de quoi elle aura toujours un train de retard.
Cela suppose nécessairement un renforcement des effectifs de la direction générale responsable des enjeux numériques et médiatiques (Directorate-General for Communications Networks, Content and Technology), ou DG Connect, au sein de la Commission. Rencontrée par la rapporteure et le président à Bruxelles le 4 juin 2025, la directrice de direction D de la DG Connect (Plateformes en ligne : économie), Mme Rita Wezenbeek, a indiqué que son service comptait 150 agents et allait bientôt être renforcé du tiers voire du double de ce chiffre.
La rapporteure salue à ce titre la réorganisation de la DG Connect ([617]) qui a débuté le 1er juillet 2025 et qui prévoit de diviser la direction « plateformes » chargée de l’application du règlement (UE) 2022/1925 du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828, ou Digital markets act (DMA) et du DSA, en deux sous-directions, l’une consacrée aux aspects économiques de la régulation des plateformes, l’autre aux impacts sociétaux des plateformes, avec trois unités chargées du DSA (« Surveillance et coopération », « Évaluation des risques » et « Protection des mineurs et risques sociétaux »), marquant ainsi le renforcement des moyens accordés à la protection des mineurs.
La rapporteure recommande ainsi que la France soutienne, au sein du Conseil de l’Union européenne, le renforcement des moyens humains et financiers alloués à la régulation des grandes plateformes, afin de permettre à la Commission européenne de renforcer sa capacité d’action au sein de la DG Connect et d’assurer une supervision effective du respect des obligations des plateformes en matière de protection des mineurs.
Recommandation n° 4 : Soutenir, au sein du Conseil de l’Union européenne, le renforcement des moyens financiers et humains alloués à la régulation des grandes plateformes numériques, afin de permettre à la Commission européenne d’augmenter ses effectifs dans le but d’assurer une supervision effective du respect des obligations des plateformes en matière de protection des mineurs prévues par le DSA.
Le plein déploiement du DSA suppose également un renforcement substantiel des ressources des autorités compétentes au niveau national, et plus particulièrement des coordinateurs pour les services numériques, qui assistent la Commission dans la conduite de ses enquêtes et dans la supervision des plateformes.
M. Ajdari, président de l’Arcom, relève que les effectifs consacrés à l’application du DSA demeurent limités à ce stade : « actuellement, 23 équivalents temps plein (ETP) se consacrent au règlement sur les services numériques, sur un effectif total de 350 personnes […] nous connaissons les contraintes budgétaires, mais l’Arcom devra vraisemblablement monter en puissance si elle veut conduire elle-même des études et démultiplier son action – nos collègues allemands comptent une soixantaine de personnes à leur disposition pour un périmètre de compétences comparable » ([618]).
La rapporteure recommande ainsi de prévoir, dans le cadre de la prochaine loi de finances, une augmentation ciblée des crédits et des emplois alloués à l’Arcom afin de lui permettre d’exercer pleinement son rôle de coordinateur pour les services numériques au titre du DSA, en complémentarité avec la Commission européenne. Ce renforcement des moyens doit permettre à l’Arcom d’assurer la supervision effective des plateformes sur le territoire français, de veiller au respect de leurs obligations, notamment en matière de protection des mineurs, et de soutenir la production de données et d’études relatives aux risques systémiques liés aux contenus, algorithmes et fonctionnalités des plateformes.
Recommandation n° 5 : Renforcer les moyens humains, techniques et financiers de l’Arcom afin de lui permettre d’assurer pleinement ses missions de supervision des plateformes numérique dans le cadre du DSA, en particulier en matière de protection des mineurs, de suivi du respect des obligations des plateformes, et de soutien à la production de données et de travaux de recherche relatifs aux risques systémiques inhérents à ces plateformes.
c. … et renforcer l’effet dissuasif des sanctions.
Pour que les plateformes prennent conscience de leurs responsabilités face aux risques importants qu’elles contribuent à faire peser sur leurs utilisateurs, en particulier les plus jeunes, il faut pouvoir frapper fort, et frapper vite. Autrement dit, sanctionner leurs manquements de manière plus rapide, plus systématique et plus sévère, comme le préconise Mme Atlan, directrice générale de l’association e‑Enfance : « l’Europe doit appliquer systématiquement, mais aussi répétitivement les amendes, lorsque les plateformes contreviennent aux obligations » ([619]).
À défaut, la régulation s’apparente à un éternel « jeu du chat et de la souris », selon l’expression du sénateur Mickaël Vallet ([620]), dans lequel les réseaux sociaux comme TikTok conservent toujours une longueur d’avance par l’allongement des procédures et leur capacité d’adaptation.
À ce stade, l’effet dissuasif du DSA reste donc incertain. Tant que les sanctions ne sont ni visibles, ni immédiates, elles peinent à faire contrepoids à la dynamique des acteurs numériques, comme l’indique le sénateur Malhuret : « le combat est complètement déséquilibré en raison du rapport des forces en présence – les agents des plateformes d’un côté et ceux de la Commission européenne de l’autre – et de la façon dont fonctionnent les procédures » ([621]).
Toutefois, ce constat ne saurait être considéré comme une fatalité, et l’outil juridique est adapté, comme l’ont démontré l’affaire « TikTok Lite » et son programme de récompense des utilisateurs : la fonctionnalité litigieuse a été retirée par TikTok après l’ouverture, par la Commission européenne, d’une enquête fondée sur de soupçons sérieux de manquements : au titre de l’article 28 du DSA, relatif aux obligations de protection des mineurs, en raison du caractère potentiellement addictif de cette fonctionnalité et de l’absence d’un contrôle effectif de l’âge des utilisateurs sur TikTok ; et au titre de l’article 34 du DSA, en raison de l’absence d’évaluation des risques que le programme de récompense de TikTok Lite pouvait représenter pour les mineurs et pour la santé publique.
Il convient de rappeler qu’en application des articles 74 et 76 du DSA, la Commission peut infliger aux réseaux sociaux tels que TikTok des amendes pouvant atteindre jusqu’à 6 % de leur chiffre d’affaires mondial annuel, ainsi que des astreintes journalières pouvant représenter jusqu’à 5 % de leurs revenus ou chiffre d’affaires mondial moyen, en cas de manquements avérés. Par ailleurs, les sanctions récemment prononcées à l’encontre de Meta et Apple dans le cadre du DMA, à hauteur de 200 millions et 500 millions d’euros respectivement ([622]), sont des précédents encourageants, démontrant la capacité croissante de la Commission à renforcer ses moyens d’action et à assurer une application rigoureuse et effective des règlements encadrant l’activité des plateformes.
Le sénateur Vallet observe également un tournant, marquant la fin d’une forme d’impunité dont jouissaient jusqu’ici les grandes plateformes : « le débat qui s’est instauré entre la Commission européenne et certains propriétaires de plateformes montre que ces dernières commencent à sentir le vent du boulet, depuis que Thierry Breton a doctement expliqué, à raison, qu’une plateforme qui ne respecte pas les règlements européens s’expose au risque juridique de voir ses accès coupés – sous réserve, bien entendu, que soient respectés les grands principes du droit ainsi que de nombreuses conditions cumulatives. Il faut rendre cette possibilité effective, car c’est seulement ainsi qu’on pourra inciter une plateforme à amender son fonctionnement » ([623]).
La rapporteure appelle donc à poursuivre la dynamique enclenchée, en veillant à ce que les sanctions prononcées contre les manquements au DSA soient non seulement systématiques, mais suffisamment dissuasives pour modifier les comportements des plateformes.
Pour répondre à l’enjeu de la durée des procédures, elle appelle en outre la Commission à se saisir de l’ensemble de ses prérogatives, comme l’adoption de mesures provisoires en cas d’urgence ([624]). La rapporteure est également favorable à, par exemple exiger des très grandes plateformes en ligne et très grands moteurs de recherche de répondre aux demandes d’informations de la Commission dans les meilleurs délais ([625]).
2. Renforcer les leviers d’action du règlement DSA
a. Davantage de signaleurs de confiance, mieux soutenus financièrement
La commission a pu constater que les premiers retours sur la mise en œuvre du dispositif des signaleurs de confiance sont encourageants. En pratique, leurs signalements bénéficient d’un traitement prioritaire par les plateformes, ce qui permet une modération plus rapide et plus efficace des contenus néfastes. Ce mécanisme contribue ainsi à renforcer la réactivité des plateformes face aux contenus illicites, tout en appuyant l’efficacité globale du DSA.
Toutefois, à ce jour, aucun signaleur de confiance désigné n’est spécialisé dans le domaine de la santé, et à plus forte raison, de la santé mentale. C’est pourquoi Mme Sauneron, directrice générale par intérim à la Direction générale de la santé, propose « la mise en place de signaleurs de confiance spécialisés en santé, à l’instar de ce qui existe avec Point de contact et e-Enfance » ([626]).
Ces signaleurs de confiance spécialisés pourraient également collaborer avec l’observatoire national de la désinformation en santé, qui doit être créé prochainement, comme annoncé par le ministre chargé de la santé et de l’accès aux soins M. Yannick Neuder en avril 2025 ([627]), d’autant plus que cet observatoire national doit « réuni[r] tous les acteurs concernés et favorise[r] une modération plus rigoureuse des contenus en santé sur les plateformes » ([628]), comme l’explique Mme Sauneron.
La rapporteure partage pleinement ce souhait et appelle à la désignation de signaleurs de confiance spécialisés dans la santé mentale, afin de renforcer la détection et le traitement prioritaire des contenus susceptibles de nuire à la santé mentale des utilisateurs, en particulier des mineurs. Ces acteurs, dotés d’une expertise reconnue, pourraient alors jouer un rôle essentiel dans la lutte contre les contenus incitant à des comportements dangereux ou pouvant causer ou aggraver des troubles psychiques, ainsi que dans la lutte contre la désinformation en matière de santé mentale.
Comme évoqué dans la seconde partie du rapport, le financement des signaleurs de confiance n’est pas aujourd’hui entièrement assuré sur le long terme, et les ressources dont ils disposent demeurent limitées. Par ailleurs, certaines entités susceptibles de jouer ce rôle et souhaitant déposer leur candidature auprès de l’Arcom se heurtent à un manque de moyens. La rapporteure appelle donc à garantir un financement pérenne des signaleurs de confiance déjà reconnus, et à mettre en place un soutien financier incitatif pour encourager de nouveaux acteurs à devenir signaleur de confiance, en particulier dans des domaines encore peu couverts, comme la santé.
Pour appuyer et compléter l’action de ces signaleurs de confiance, la rapporteure considère qu’il est nécessaire de mettre en place au sein de l’administration, et de doter des moyens nécessaires, un dispositif structuré de veille des réseaux sociaux, par exemple au sein de la Direction générale de la santé, portant sur les contenus relatifs à la santé mentale et susceptibles de l’affecter. Ce dispositif pourrait s’inspirer du modèle existant s’agissant de la désinformation en santé, qui gagnerait à être renforcé et étendu, et devrait s’appuyer sur des outils d’analyses robustes et structurés permettant une détection fine des contenus à risque.
En effet, à ce jour, « un système de veille est assuré par la délégation à l’information et à la communication (Dicom), qui surveille les réseaux sociaux pour détecter notamment les problématiques liées aux fausses informations » ([629]), comme l’explique Mme Sauneron. Ce système a « notamment permis d’identifier le “Paracétamol challenge” avant sa médiatisation dans la presse » ([630]), ainsi que le phénomène SkinnyTok grâce à des comptes enfants et adolescents. M. Berose-Perez précise cependant qu’il ne s’agit pas d’un « dispositif de veille structuré », la DGS procédant « par nécessité pour évaluer certaines fonctionnalités ou pour demander la suppression de certaines options auprès de la Commission européenne » ([631]) lorsque des risques sont identifiés.
Et il existe une véritable marge de progression en matière de surveillance des contenus néfastes liés à la santé mentale. La lutte contre le terrorisme fait figure de « modèle de référence » ([632]) en la matière, comme le souligne Mme Sauneron : « c’est précisément dans ce domaine que nous avons développé les actions les plus avancées, justifiées par un impératif évident de sécurité publique (...) les discours liés à la santé mentale sont plus difficiles à analyser que ceux liés au terrorisme. Dans ce dernier domaine, nous avons considérablement progressé en termes de signalement et de collaboration avec les plateformes. Ce modèle, également appliqué dans la lutte contre la pédopornographie, constitue notre référence à suivre » ([633]).
En matière de modération et de surveillance des réseaux sociaux, l’objectif est donc d’atteindre pour les contenus liés à la santé mentale un niveau d’efficacité comparable à celui aujourd’hui exigé pour les contenus à caractère terroriste.
Recommandation n° 6 : Renforcer le dispositif des signaleurs de confiance, en garantissant un financement pérenne des entités déjà reconnues, en encourageant financièrement de nouveaux acteurs à déposer leur candidature auprès de l’Arcom, et en désignant un ou plusieurs signaleurs de confiance spécialisés dans les contenus liés à la santé mentale.
Recommandation n° 7 : Mettre en place, au sein de l’administration, un dispositif structuré de veille des réseaux sociaux, à moyens humains et financiers constants, consacré aux contenus relatifs à la santé mentale et susceptibles d’avoir des effets sur celle-ci.
b. Des modérateurs mieux formés et mieux accompagnés sur le plan psychologique
Les plateformes doivent être soumises à des exigences plus rigoureuses en matière de formation de leurs modérateurs. Comme évoqué dans la seconde partie du rapport, il est nécessaire de garantir une transparence accrue, non seulement sur la durée de ces formations, mais également sur leur contenu. Une formation de qualité est essentielle pour permettre aux modérateurs de reconnaître les contenus nocifs, traiter de manière appropriée les signalements complexes et prendre des décisions éclairées, notamment en ce qui concerne les contenus relatifs à la santé mentale. La rapporteure appelle ainsi à ce que les futures lignes directrices de la Commission européenne précisent les standards minimaux de contenu et de durée de ces formations, et que les plateformes soient tenues d’en rendre compte dans leurs rapports de transparence.
Au-delà de la formation, les conditions de travail des modérateurs doivent faire l’objet d’une attention particulière. Exposés en continu à des contenus parfois extrêmement violents, les modérateurs sont eux-mêmes vulnérables, et leur santé mentale peut être fortement affectée, comme M. X, ancien modérateur sur les réseaux sociaux, en a témoigné devant la commission d’enquête ([634]). L’ampleur des effets psychologiques et physiques de cette activité sur ceux qui l’exercent, décrits par M. X, après seulement quelques semaines en tant que modérateur pour Teleperformance, un sous-traitant de TikTok, est alarmante.
Il est donc impératif que les plateformes mettent en place un accompagnement psychologique adapté, incluant notamment un accès à des psychologues spécialisés dans le traitement du stress post-traumatique, et garantissent des conditions de travail décentes et soutenables. Cela pourrait se traduire par une limitation du nombre de vidéos à traiter par heure ou par une rotation régulière des tâches afin de réduire l’exposition prolongée aux contenus les plus violents.
La rapporteure recommande ainsi que des indicateurs spécifiques soient intégrés aux rapports de transparence prévus par le DSA, afin d’assurer un suivi effectif de la mise en place de ces dispositifs d’accompagnement, ainsi que de la qualité des conditions de travail des modérateurs. Ce suivi permettrait également aux autorités de régulation de s’assurer que les plateformes ne se contentent pas d’actions ponctuelles ou symboliques, mais déploient des mesures continues et adaptées à l’ampleur des risques psychosociaux pour les modérateurs.
Recommandation n° 8 : Soutenir, au sein du Conseil de l’Union européenne, l’adoption par la Commission européenne de lignes directrices au titre du règlement DSA précisant les standards minimaux en matière de contenu et de durée des formations des modérateurs, ainsi que des indicateurs spécifiques relatifs à leurs conditions de travail, et plus particulièrement à leur suivi psychologique, devant être intégrés aux rapports de transparence, afin que les plateformes soient tenues de rendre compte dans ces rapports, de manière détaillée, des dispositifs de formation et d’accompagnement psychologique mis en place, ainsi que des conditions concrètes d’exercice de cette activité.
c. Étendre la responsabilité de modération des plateformes aux contenus glorifiant le suicide
En vertu de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), « les personnes dont l’activité consiste à fournir des services d’hébergement concourent à la lutte contre la diffusion de contenus » constituant une infraction appartenant à une liste limitative. Si le fait de provoquer au suicide d’autrui, mentionné à l’article 223-13 du code pénal, fait partie de cette liste, ce n’est pas le cas de « la propagande ou la publicité, quel qu’en soit le mode, en faveur de produits, d’objets ou de méthodes préconisés comme moyens de se donner la mort », punie par l’article 223-14 du code pénal.
La rapporteure recommande de pallier cette absence regrettable. Il apparaît en effet nécessaire d’élargir le champ des obligations pesant sur les plateformes en matière de lutte contre les contenus illicites, en y intégrant explicitement la propagande ou la publicité en faveur de moyens de se donner la mort. Ce type de contenu, aux effets potentiellement dévastateurs, n’est pas toujours traité avec la diligence requise, alors même qu’il expose les utilisateurs les plus vulnérables, et en particulier les mineurs, à des risques majeurs.
Recommandation n° 9 : Modifier la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) pour prévoir que les personnes dont l’activité consiste à fournir des services d’hébergement concourent à la lutte contre la diffusion des contenus constituant l’infraction mentionnée à l’article 223-14 du code pénal, à savoir la propagande ou la publicité en faveur de moyens de se donner la mort.
Responsabilité des plateformes et liberté d’expression : surfer sur la ligne de crête
Eu égard au rôle que les plateformes jouent dans la mise en avant de contenus illicites ou nocifs pour leurs utilisateurs, il est légitime de vouloir renforcer la responsabilité de celles-ci pour les contenus qu’elles hébergent et diffusent, afin de les inciter à renforcer l’efficacité de la modération des contenus. Toutefois, les initiatives visant à renforcer la responsabilité des plateformes se heurtent à une limite claire, celle de la liberté d’expression et d’information en ligne.
Le Conseil constitutionnel veille en effet à ce que les restrictions apportées à cette liberté répondent aux exigences de nécessité, d’adaptation et de proportionnalité. Dans sa décision du 18 juin 2020 relative à la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, dite loi « Avia » ([635]), le Conseil avait par exemple censuré un dispositif visant à imposer à certaines plateformes en ligne de retirer ou de rendre inaccessibles dans un délai de vingt-quatre heures, sous peine de sanction pénale, des contenus illicites en raison de leur caractère haineux ou sexuel.
Le Conseil avait estimé que le triple test de proportionnalité avait échoué « compte tenu des difficultés d’appréciation du caractère manifestement illicite des contenus signalés dans le délai imparti, de la peine encourue dès le premier manquement et de l’absence de cause spécifique d’exonération de responsabilité », les dispositions contestées ne pouvant « qu’inciter les opérateurs de plateforme en ligne à retirer les contenus qui leur sont signalés, qu’ils soient ou non manifestement illicites ».
Ainsi, plus la qualification juridique des contenus visés est susceptible de donner lieu à débat, appréciation ou controverse, plus le risque est grand que l’atteinte à la liberté d’expression soit jugée disproportionnée : la volonté d’élargir la responsabilité des plateformes trouve là sa limite.
3. Vers un numérique plus éthique et responsable : repenser les réseaux sociaux
a. Oser poser la question de la responsabilité des plateformes
Alors que les réseaux sociaux sont aujourd’hui considérés comme hébergeurs de contenus – avec des obligations supplémentaires pour les très grandes plateformes en ligne – (cf. supra), certains estiment que les réseaux exercent en pratique des fonctions d’éditeur. M. Claude Malhuret, sénateur, rapporteur de la commission d’enquête du Sénat sur TikTok, affirme en ce sens : « une plateforme qui met en exergue des contenus violents est un éditeur de contenus violents et non un hébergeur neutre. Aucun État n’autoriserait la commercialisation d’une voiture sans frein. Or les créateurs de plateformes, dont les algorithmes permettent de sélectionner les contenus qui font du buzz, donc du fric, ont bénéficié d’une impunité totale » ([636]). M. Jean-Marie Cavada, président de iDFrights, s’interroge également : « pourquoi un journal local, tel que Le Petit Bleu des Côtes d’Armor ou Le Quotidien du Calvados, se voit-il tenu juridiquement responsable s’il publie un contenu diffamatoire, infamant ou contraire à la loi, même avec un tirage limité à 10 000 exemplaires, alors que les plateformes numériques, qui touchent 1,5 à 1,6 milliard de consommateurs dans le monde, échappent à toute responsabilité juridique ? Ce déséquilibre est profondément problématique et il sera très difficile d’en corriger les effets. Tant que nous n’aurons pas appliqué aux instruments de communication numériques les mêmes règles de responsabilité que celles qui régissent les médias classiques, nous resterons condamnés à courir après les méfaits, les uns après les autres, sans jamais pouvoir les prévenir durablement » ([637]).
La rapporteure estime que la question de l’évolution de la responsabilité des plateformes de réseaux sociaux vers un statut d’éditeur, complexe et débattue, mérite d’être réexaminée.
Recommandation n° 10 : Missionner des experts juridiques pour évaluer la pertinence de l’évolution de la responsabilité des services de réseaux sociaux en ligne vers un statut d’éditeur.
b. Pouvoir paramétrer son utilisation des réseaux sociaux : une reprise de contrôle indispensable
En matière de paramétrage des réseaux sociaux par les utilisateurs, le DSA prévoit la possibilité pour ceux-ci de désactiver le profilage : l’article 38 impose aux fournisseurs de très grandes plateformes en ligne, telles que TikTok, qui utilisent des systèmes de recommandation, de proposer « au moins une option […] qui ne repose pas sur du profilage ». En pratique, il est donc possible d’utiliser une version de TikTok sans profilage des contenus sur le fil « Pour Toi ». Cependant, le profilage publicitaire ne peut quant à lui pas être désactivé.
Cette option semble néanmoins réduire considérablement la qualité de l’expérience utilisateur, car les contenus présentés ne sont plus personnalisés, ce qui laisse supposer que peu d’utilisateurs optent pour cette version. Par ailleurs, interrogé à ce sujet, TikTok n’a pas communiqué à la commission le nombre d’utilisateurs ayant choisi de désactiver le profilage.
Il s’agit ainsi d’une limite du DSA, qui n’oblige pas les plateformes à proposer aux utilisateurs des paramètres précis leur permettant de personnaliser leur expérience sur le réseau social. Le règlement se contente d’imposer que soient présentés « dans un langage simple et compréhensible, les principaux paramètres utilisés dans leurs systèmes de recommandation, ainsi que les options dont disposent les destinataires du service pour modifier ou influencer ces principaux paramètres » (article 27 du DSA). Si le DSA suppose l’existence de tels paramètres, il ne définit en revanche pas leur nature ni leur contenu.
Or, cette absence de choix de l’utilisateur en matière de modération et de recommandation représente « un problème majeur », selon M. Serge Abiteboul. Ce dernier décrit le pouvoir immense qu’ont pris ces algorithmes, conçus aux États‑Unis ou en Chine, qui influencent nos manières de penser et nos opinions, déterminent les informations mises en avant, et affectent notre santé mentale : l’utilisateur « est peu ou prou considéré comme une marchandise. Cette situation, qui résulte de la volonté des plateformes, pourrait très bien être évitée. Il est essentiel de redonner aux utilisateurs, au moins partiellement, le contrôle de leur destin, autrement dit de leur proposer un choix s’agissant de la modération et de la recommandation » ([638]).
Pour limiter l’emprise des algorithmes de recommandation, M. Berose‑Perez propose également d’imposer une diversification des contenus et d’introduire une part obligatoire d’aléatoire dans les algorithmes de recommandation « pour contrer les mécanismes de personnalisation algorithmique et limiter la formation systématique de ces “bulles de filtres”, particulièrement face aux algorithmes les plus performants » ([639]).
La rapporteure recommande donc, dans le cadre des négociations autour de la prochaine réglementation européenne relative aux plateformes en ligne, le Digital fairness act ([640]), de soutenir le renforcement des obligations des plateformes en leur imposant de proposer des paramètres spécifiques permettant à chaque utilisateur de personnaliser son expérience sur les réseaux sociaux. La rapporteure préconise également d’instaurer une obligation de diversification des contenus recommandés, afin d’éviter les phénomènes de « bulles de filtres » et de « spirales » de contenus néfastes, ainsi que l’introduction d’une part minimale d’aléatoire dans les algorithmes de recommandation, afin de garantir une exposition des utilisateurs à différents types de contenus.
Recommandation n° 11 : Dans le cadre de la préparation de la prochaine réglementation européenne relative aux plateformes en ligne, le Digital fairness act, soutenir l’inclusion de dispositions renforçant les obligations pour les plateformes d’offrir aux utilisateurs des paramètres spécifiques de personnalisation de leur expérience et imposant la diversification des contenus recommandés ainsi qu’une part obligatoire d’aléatoire dans les algorithmes de recommandation.
c. Le pluralisme algorithmique, un enjeu démocratique et sociétal majeur
Au-delà de la simple possibilité de paramétrer les réseaux sociaux, un véritable progrès consisterait à offrir aux utilisateurs le choix entre plusieurs algorithmes de recommandation, comme le proposait le comité de pilotage des états généraux de l’information (EGI) dans sa proposition n° 11 en septembre 2024 ([641]).
M. Patino explique la proposition issue des EGI : « ce que nous avions en tête dans le groupe de travail des EGI […], c’était de permettre au Monde, au Figaro, à Libération ou à L’Humanité de proposer leur propre algorithme d’organisation du fil de X. Différents types de messages auraient ainsi été mis en avant et ils auraient pu être contextualisés » ([642]). M. Faddoul donne un autre exemple de ce pluralisme algorithmique : « TikTok pourrait proposer un algorithme de recommandation géré par la chaîne de télévision Arte » ([643]).
Les algorithmes de recommandation des plateformes ont en effet une importance déterminante sur notre perception du monde : selon M. Faddoul, ils « sont devenus les principaux canaux d’accès à l’information. Ils jouent même un rôle plus important encore que les médias dans la distribution de l’information » ([644]).
Le pluralisme algorithmique viserait ainsi à redonner le choix aux utilisateurs, un choix démocratique de déterminer les contenus qu’ils souhaitent voir. M. Faddoul propose ainsi la mise en place de protocoles interopérables, « sur le modèle de Bluesky, qui permet à ses utilisateurs de choisir leur propre algorithme et à des tiers de proposer des algorithmes ensuite intégrés à cette application » ([645]).
La mise en place d’un pluralisme algorithmique impliquerait une série d’ajustements techniques et juridiques. Il faudrait notamment « accompagner les algorithmes d’une explication accessible à tous […] des exemples de fonctionnement des algorithmes seraient nécessaires » ([646]), comme le précise Mme Sihem Amer-Yahia, directrice de recherche au CNRS.
Sa mise en œuvre ne serait pas non plus exempte de contraintes techniques substantielles, comme le constate le Pôle d’expertise de la régulation numérique (PEReN) dans une publication de décembre 2024 ([647]) : l’interopérabilité des systèmes de recommandation des plateformes aurait pour conséquence que ces dernières « devraient potentiellement partager, avec les systèmes tiers, l’ensemble des données à leur disposition, sans quoi les tiers ne pourraient proposer de recommandation aussi performante ». Par ailleurs, les plateformes devraient également mettre à disposition l’ensemble de leurs contenus, ce qui ne manquera pas de susciter de vives oppositions de leur part.
Il convient en effet de souligner qu’un tel changement représenterait une évolution majeure, sinon radicale, comme l’indique M. Faddoul : « l’interopérabilité apparaît contraire au modèle économique de ces plateformes, qui repose sur les bénéfices qu’elles tirent de leur monopole sur l’information dans certains secteurs » ([648]).
Toutefois, le précédent du règlement Digital markets act (DMA) illustre que de telles avancées sont envisageables lorsqu’une volonté politique claire se manifeste. Le DMA a en effet imposé l’interopérabilité des applications de messagerie.
Certes, l’interopérabilité n’est pas encore effective pour les grandes plateformes, les standards techniques étant toujours en cours d’élaboration, dans un contexte de complexité technique importante et de réticence marquée de certaines plateformes à ouvrir leurs systèmes. Néanmoins, le DMA a fixé un objectif ambitieux et démontre ainsi qu’il est possible d’imposer des exigences techniques élevées aux plateformes. À ce titre, transposer une logique comparable d’interopérabilité aux algorithmes apparaît envisageable, malgré la redéfinition partielle du modèle économique des plateformes que cela implique.
La rapporteure recommande donc d’introduire dans le droit européen une obligation de pluralisme algorithmique, inspirée du principe de pluralisme des médias inscrit à l’article 34 de la Constitution, afin de garantir aux utilisateurs des plateformes, à travers la mise en place d’une interopérabilité des systèmes de recommandation et la possibilité de choisir entre plusieurs algorithmes, un réel pouvoir de décision sur leur expérience numérique – et en ce qui concerne les parents, sur celle de leurs enfants.
Concrètement, cela signifierait que les grandes plateformes numériques, notamment les réseaux sociaux, permettent à des tiers – médias, institutions publiques, acteurs associatifs, développeurs indépendants – de proposer leurs propres algorithmes de recommandation, que les utilisateurs pourraient librement sélectionner.
Ce mécanisme permettrait de redonner un pouvoir de choisir aux utilisateurs et de favoriser l’émergence d’un écosystème algorithmique diversifié. Ce pluralisme technique et fonctionnel contribuerait à corriger l’asymétrie actuelle entre les utilisateurs et les grandes plateformes, et à réaligner l’infrastructure numérique sur les principes démocratiques.
Une telle réforme contribuerait également à une meilleure protection des mineurs en ligne. En rendant interopérables les systèmes de recommandation et en permettant l’émergence d’algorithmes alternatifs, cette approche offrirait aux parents, aux éducateurs et aux institutions la possibilité de proposer des environnements numériques adaptés aux enfants. Comme les travaux de la commission ont permis de le démontrer, aujourd’hui, les mineurs sont exposés à des flux de contenus façonnés par des logiques d’optimisation de l’engagement, sans réelle possibilité de paramétrer la nature des recommandations. En introduisant une forme de pluralisme algorithmique, il deviendrait possible de proposer des fils d’actualité éducatifs ou culturels, développés par des acteurs de confiance. Ce choix algorithmique redonnerait une forme de contrôle aux parents et pourrait contribuer à créer les conditions d’un espace numérique plus sûr, plus éthique et plus conforme à l’intérêt supérieur de l’enfant.
Recommandation n° 12 : Introduire dans le droit européen une obligation de pluralisme algorithmique, inspirée du principe de pluralisme des médias inscrit à l’article 34 de la Constitution, afin de garantir aux utilisateurs des plateformes, à travers la mise en place d’une interopérabilité des systèmes de recommandation et la possibilité de choisir entre plusieurs algorithmes, un réel pouvoir de décision sur leur expérience numérique – et en ce qui concerne les parents, sur celle de leurs enfants.
d. Vers un internet plus souverain : un défi utopique ?
Dans un contexte où les grandes plateformes numériques étrangères dominent largement l’espace en ligne, la rapporteure considère qu’il est essentiel de continuer de promouvoir un internet plus souverain, afin de garantir un meilleur contrôle des données, de la protection des utilisateurs, en particulier mineurs, ainsi que la préservation des valeurs démocratiques.
L’État peut intervenir en concevant lui-même des briques technologiques et des fonctionnalités numériques, comme ce qui se fait déjà en Allemagne avec la Sovereign Tech Agency ou en France, avec la Suite numérique ([649]). Cette dernière, développée sur la base de logiciels libres, « démontre notre capacité à proposer des services et des fonctionnalités qui surpassent souvent ceux des grandes entreprises du numérique », comme le souligne M. Jean Cattan ([650]).
La rapporteure salue en ce sens les efforts du Gouvernement pour déployer Tchap, messagerie instantanée souveraine, entièrement hébergée par des serveurs français, développée et opérée par la direction interministérielle du numérique (DINUM) et approuvée par l’Agence nationale de la sécurité des systèmes d’information (ANSSI). Une récente circulaire du Premier ministre enjoint aux agents publics d’adopter cette messagerie « afin d’assurer la sécurité des conversations et des informations partagées au travers de messageries instantanées » ([651]).
À ce stade, il s’agit d’un service de messagerie réservé aux usages professionnels. Néanmoins, son déploiement effectif constituerait une avance significative, non seulement en matière de sécurité et de souveraineté numérique, mais aussi en ce qu’il témoigne de la capacité de l’État à concevoir des alternatives numériques efficaces, performantes et susceptibles d’être généralisés.
La rapporteure appelle ainsi à intensifier le déploiement des outils numériques souverains développés par l’État, y compris auprès du grand public, et de manière plus générale à soutenir les alternatives européennes aux grandes plateformes dominantes, aujourd’hui majoritairement conçues et hébergées en dehors de l’Union européenne, afin de promouvoir des réseaux sociaux alignés sur les valeurs européennes et garantissant une protection renforcée des utilisateurs vulnérables, en particulier des mineurs.
Recommandation n° 13 : Accélérer le déploiement des outils numériques souverains développés par l’État, y compris auprès du grand public, et soutenir les alternatives européennes aux plateformes aujourd’hui dominantes.
II. Deuxième urgence : En France, retrouver la maîtrise de l’avenir de nos enfants
A. Face À l’assaut des plateformes sur nos vies, la nÉcessitÉ de faire connaître massivement l’État de la menace
1. Faire des préconisations de la commission « enfants et écrans » la « bible » de nos administrations
a. Des mesures simples, étayées et saluées
Alors que les travaux de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans (ci-après commission « enfants et écrans ») ont été salués par tous, qu’elle a rendu des conclusions équilibrées et, surtout, fondées sur l’expertise scientifique de ses membres, celles-ci doivent aujourd’hui être martelées de manière à imprégner tous les pans de la société. Une grande partie des 29 propositions de la commission peuvent faire l’objet d’une mise en application rapide, sans contraintes excessives. Or, même les mesures les plus accessibles ne sont aujourd’hui pas encore mises en œuvre systématiquement. Il est ainsi alarmant de se dire que les quatre âges clés mentionnés dans ses recommandations ne sont pas encore ancrés, à la fois dans la doxa de nos administrations, et, encore moins dans l’opinion publique et singulièrement les parents.
Il semble pourtant essentiel de retenir qu’il ne faut pas d’expositions aux écrans pour les moins de 3 ans, qu’il est déconseillé d’exposer les enfants jusqu’à 6 ans, que l’exposition doit ensuite rester modérée et contrôlée.
La commission recommandait l’interdiction des smartphones avant 13 ans, l’interdiction d’accès aux réseaux sociaux avant 15 ans et l’accès uniquement aux réseaux sociaux dits « éthiques » après 15 ans.
Comme en témoignait M. Gaspard Koenig dans un article des Échos ([652]), la tension entre les parents et les enfants, vient souvent de la négociation qui peut exister entre eux, sur l’âge du téléphone, l’âge de l’accès aux réseaux sociaux ainsi que la durée d’accès par jour à ces réseaux sociaux. Fixer une règle claire, incontestable, largement partagée pourra éviter les négociations sans fin et les tensions entre parents et enfants.
b. Des mesures qui doivent irriguer toutes les administrations et arriver aux oreilles de chaque Français par de la sensibilisation massive
Malgré le soutien quasi unanime, tant au niveau scientifique que social, des conclusions de la commission « enfants et écrans », celles-ci n’ont pas encore été diffusées au sein de toutes nos administrations, y compris parfois celles qui sont au cœur du sujet. À ce titre, l’absence de mise à jour du site jeprotegemonenfant.gouv.fr est révélateur des efforts qui restent à accomplir (voir infra et la recommandation n° 24).
Une pleine appropriation par les Français des conclusions de la commission « enfants et écrans » ne pourra être effective que si celles-ci leur sont rappelées de manière systématique dans les contacts qu’ils ont avec les administrations, notamment les premières concernées que sont l’éducation nationale et la santé. La rapporteure considère donc qu’il est indispensable que l’intégralité des outils de communication des pouvoirs publics, et particulièrement ceux émanant de ces deux ministères, fassent l’objet, lorsque cela est nécessaire, d’une mise à jour rapide afin de le mettre en conformité avec les conclusions de la commission « enfants et écrans », et, plus globalement, que ces dernières soient systématiquement rappelées et mises en évidence dans les outils de communication à venir des administrations concernées.
Recommandation n° 14 : Mettre à jour les outils de communication des administrations pour les mettre en conformité avec les conclusions de la commission « enfants et écrans » et s’assurer que celles-ci soient systématiquement rappelées dans les communications à venir.
2. Prévention et éducation doivent guider la promotion d’un usage raisonné des réseaux sociaux
a. Le grand public : inquiet, mais mal informé
Les travaux de la rapporteure et les auditions menées par la commission d’enquête ont permis de faire émerger un double constat.
● D’une part, le grand public est relativement ignorant quant aux contenus publiés sur les réseaux sociaux, aux risques qu’ils peuvent représenter pour les mineurs et aux pratiques numériques des enfants et des adolescents. En outre, si certains dangers sont plutôt bien identifiés par la population, comme ceux relatifs à la dépendance, à la protection des données personnelles ou à la pédocriminalité en ligne et plus généralement à la sécurité et à la sûreté, le grand public méconnaît généralement les risques quant à la santé mentale, et notamment celui que représente l’exposition répétée à des contenus tristes ou relatifs au suicide et à l’automutilation. Une étude réalisée pour l’Union Nationale des Associations Familiales (Unaf) montre ainsi que les parents sont principalement inquiets des risques de dépendance (51 %), de cyberharcèlement (49 %) et de mise en contact avec des inconnus (43 %), et ont tendance à sous‑estimer les risques auxquels les enfants ont déjà été exposés : alors que 31 % des parents déclarent que leurs enfants ont été exposés à des contenus choquants ou violents, ils sont 40 % des enfants à déclarer avoir été confrontés à ces contenus ([653]).
La découverte de TikTok par les familles de victimes : la sidération
face à un univers sinistre insoupçonné
Lors de leur audition par la commission d’enquête, les familles de victimes ont fait part de leur grande ignorance des contenus auxquels s’exposait et que publiait leur enfant sur TikTok. Elles ont exprimé la stupeur et le désespoir ressentis en découvrant l’application et l’utilisation qui en était faite par leur enfant.
Mme Delphine Dapui, dont la fille s’est donné la mort par pendaison, témoigne ainsi : « C’est lors de la réunion, le lendemain de sa mort, avec ses meilleures copines et leurs parents qu’on nous a annoncé qu’elle avait republié, la veille, un post montrant une jeune fille toute souriante, avec des mots écrits qui disaient ceci : “La nuit porte conseil. Moi, elle m’a conseillé de prendre un tabouret et une corde.” Nous étions sidérés. Nous n’avons pas compris ce qui se passait, en fait. On s’est dit : “C’est quoi, TikTok, en fait ? C’est ça qu’elle regardait ?” Son téléphone a été récupéré par la police pour l’enquête, et c’est par l’intermédiaire de ses copines ainsi que des parents de celles-ci, qui nous ont envoyé les captures d’écran qu’ils avaient faites de ce qu’elle postait, que nous avons compris. Que dire ? C’étaient des contenus dans lesquels on lui proposait, pour se faire du mal sans que cela se voie, de prendre des douches bouillantes, ou encore des moyens pour démonter les taille-crayons. Les enfants, avec nous en tout cas, ne parlent pas de TikTok » ([654]).
Mme Morgane Jaehn, dont la fille s’est longtemps scarifiée et a fait plusieurs tentatives de suicide, a vécu une expérience similaire : « en septembre 2022, première hospitalisation. [Ma fille] vient d’entrer au lycée. Très vite, elle est mise dehors par l’hôpital, où on lui dit que c’est un mal-être fluctuant. Elle enchaîne ensuite les hospitalisations. En un peu plus de deux ans, elle sera hospitalisée à six reprises, pour un total de vingt-six semaines, soit une demi-année. Quand on a 17 ans, c’est énorme. Je lui ai même dit un jour : “Ça suffit, maintenant ! Tu vas me faire tout le catalogue du mal-être adolescent ?” Elle l’a mal pris, mais, quand on est parent, on veut parfois faire réagir notre enfant. Je me demandais comment elle apprenait tout cela, et je pensais qu’elle devait aller sur des forums. Mais, les forums, c’est le temps jadis ! J’étais complètement à côté de la plaque. J’aurais dû me douter qu’elle allait trouver des contenus sur les réseaux sociaux, mais mon esprit, plutôt bienveillant et Bisounours, ne pouvait pas imaginer que, sur des réseaux auxquels nos enfants ont accès si facilement, il puisse y avoir de tels contenus. L’année dernière, quand j’ai entendu maître Boutron-Marmion déclarer à la radio qu’elle allait monter un collectif de parents, ma fille était par hasard à côté de moi. Je lui ai dit :“ Mais toi, quand même, tu n’as jamais vu ça !”. J’ai son visage se décomposer et elle m’a dit que si. Là, c’est votre vie qui s’effondre. » ([655]).
● D’autre part, aucune campagne de prévention n’a été menée au niveau national pour sensibiliser, à une large échelle, aux risques de l’utilisation des réseaux sociaux pour la santé mentale. M. Olivier Ertzscheid, chercheur en sciences de l’information et de la communication, s’étonne ainsi devant la commission d’enquête : « nous voyons rarement des campagnes de prévention dans l’espace public touchant aux liens entre l’utilisation des réseaux sociaux et la santé mentale, alors même que les jeunes n’ont jamais autant insisté sur l’importance de la santé mentale. Un éminent enjeu touche dès lors au renforcement de la communication publique autour de ces sujets ; cette communication pouvant être doublée par des dispositifs d’alerte au sein des plateformes elles-mêmes » ([656]).
Une campagne estivale pour sensibiliser aux dangers de l’exposition des enfants sur les réseaux sociaux
À l’été 2025, période propice au partage de photos et vidéos d’enfants s’amusant en vacances, le Gouvernement s’est mobilisé pour rappeler aux parents les risques liés à la publication en ligne d’images d’enfants.
Mme Clara Chappaz, ministre déléguée chargée de l’intelligence artificielle et du numérique a co-signé, avec Mme Véronique Béchu, directrice de l’Observatoire de lutte contre les violences numériques e-Enfance, et Mme Gabrielle Hazan, ancienne cheffe de l’Office mineurs, une tribune intitulée « Attention aux photos de vos enfants sur les réseaux sociaux » ([657]). Elle y rappelle que « près d’une image sur deux retrouvée sur les forums pédocriminels provient de photos postées librement sur les réseaux sociaux par des proches » et exhorte les parents à la retenue : « avant de publier une photo, posons-nous la question : “En a-t‑il envie ? En a-t‑il besoin ? En aura-t‑il honte dans dix ans ? Est-ce que je le protège en l’exposant ? Qu'est-ce que je révèle sur ses goûts, ses loisirs, les lieux qu’il fréquente ? Comment cette photo peut-elle être réutilisée ?” ».
Cette responsabilité des parents est d’ailleurs inscrit dans la loi. Depuis l’entrée en vigueur de la loi n° 2024-120 du 19 février 2024 visant à garantir le respect du droit à l’image des enfants, la définition de l’autorité parentale comprend la notion de vie privée ([658]) et les parents doivent « protég[er] en commun le droit à l’image de leur enfant mineur », qui est associé à l’exercice de ce droit selon son âge et son degré de maturité ([659]).
b. Sensibiliser le grand public à l’enjeu d’une utilisation raisonnée des réseaux sociaux
Alors que la santé mentale a été désignée Grande Cause nationale en 2025, sont prévues des actions de communication recouvrant l’enjeu de l’exposition aux écrans. La rapporteure appelle à intégrer la thématique spécifique de l’utilisation des réseaux sociaux aux supports de communication diffusés par la direction générale de la santé. Pourront y être précisés les risques auxquels expose l’usage des réseaux sociaux notamment en matière de dépendance, d’estime de soi et de troubles anxiodépressifs.
Les Grandes Causes nationales
En vertu de la circulaire du 20 septembre 2010 relative aux concours des sociétés du secteur public de la communication audiovisuelle aux campagnes d’intérêt général faisant appel à la générosité publique, « chaque année, une campagne est agréée en tant que “grande cause nationale”, ce qui ouvre droit à la diffusion gratuite de messages par les sociétés publiques de radio et de télévision ».
Recommandation n° 15 : Dans le cadre de la promotion de la santé mentale comme Grande cause nationale en 2025, diffuser des supports de communication sur l’utilisation des réseaux sociaux et ses risques.
Considérant que les impératifs de prévention doivent également s’appliquer aux stratégies de promotion publicitaire des réseaux sociaux, et que le motif d’intérêt général attaché à la protection de la santé mentale justifie que soit portée une atteinte proportionnée à la liberté du commerce et de l’industrie, la rapporteure est favorable à imposer à ces dernières une obligation d’afficher des messages de prévention, sur le modèle de ceux accompagnant la publicité de certains aliments ou boissons.
Les enseignements de la campagne « Pour votre santé, évitez de manger trop gras, trop sucré, trop salé »
En vertu de l’article L. 2133-1 du code de la santé publique, « les messages publicitaires en faveur de boissons avec ajouts de sucres, de sel ou d’édulcorants de synthèse ou de produits alimentaires manufacturés doivent contenir une information à caractère sanitaire ». L’arrêté du 27 février 2007 fixant les conditions relatives aux informations à caractère sanitaire devant accompagner les messages publicitaires ou promotionnels en faveur de certains aliments et boissons précise que ces informations sont les suivantes : « Pour votre santé, mangez au moins cinq fruits et légumes par jour », « Pour votre santé, pratiquez une activité physique régulière », « Pour votre santé, évitez de manger trop gras, trop sucré, trop salé » et « Pour votre santé, évitez de grignoter entre les repas ».
Mme Sarah Sauneron, directrice générale de la santé par intérim, indique à la commission d’enquête : « ces messages publicitaires font l’objet d’évaluations rigoureuses menées par l’Institut national de la santé et de la recherche médicale (Inserm) et par Santé publique France (SPF). Les études démontrent que ces messages, mis en place depuis 2007, ont significativement contribué à une meilleure connaissance des repères nutritionnels, désormais bien intégrés par la population. Nous constatons toutefois un phénomène d’habituation croissant. Ces messages, statiques et positionnés en bas de l’écran, sont progressivement moins remarqués par les téléspectateurs. Les deux études précitées recommandent désormais de les présenter sur un écran distinct après le spot publicitaire, ce qui soulève naturellement la question du financement, puisqu’il s’agirait d’un temps publicitaire supplémentaire à la charge des industriels. Ces analyses confirment néanmoins que des messages visibles, répétés et régulièrement renouvelés, à l’instar de ceux figurant sur les paquets de cigarettes, s’avèrent efficaces pour élever le niveau d’information du public et contrecarrer les stratégies marketing, comme le démontrent clairement les études en sciences comportementales. Il n’existe aucune raison de réserver le marketing social aux seuls industriels et les pouvoirs publics possèdent toute légitimité pour diffuser leurs informations sanitaires » ([660]).
En vertu de la directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 prévoyant une procédure d’information dans le domaine des réglementations techniques et des règles relatives aux services de la société de l’information, cette mesure devra être notifiée à la Commission européenne.
Recommandation n° 16 : Modifier le code de la santé publique pour imposer la présence d’une information à caractère sanitaire lors des messages publicitaires en faveur des services de réseaux sociaux en ligne.
Toute politique de sensibilisation et d’information du grand public doit pouvoir s’appuyer sur des études scientifiques fiables.
L’évaluation des conséquences psychologiques de l’utilisation des réseaux sociaux par les mineurs mérite le déploiement, en France, de nouvelles études longitudinales. Première cohorte longitudinale française d’envergure nationale consacrée au suivi des enfants, la cohorte Elfe, lancée en 2011, est déjà trop ancienne pour comprendre l’entièreté des usages numériques actuels.
La commission « enfants et écrans » insistait en outre sur la nécessité de « soutenir par le public les programmes de recherche », pour lutter contre la porosité « entre le financement des acteurs de la protection de l’enfance, les programmes de recherche, les initiatives des pouvoirs publics, notamment de communication, et les contributions des acteurs économiques eux-mêmes » ([661]).
Recommandation n° 17 : Financer, par des fonds publics, la réalisation d’études longitudinales consacrées au suivi d’une cohorte d’enfants et visant notamment à évaluer les conséquences psychologiques de l’utilisation des réseaux sociaux par les mineurs.
a. Intensifier l’éducation au numérique
L’éducation au numérique commence dès l’école élémentaire : l’article L. 321-3 du code de l’éducation dispose que « la formation dispensée dans les écoles élémentaires […] contribue […] à la compréhension et à un usage autonome et responsable des médias, notamment numériques ».
Cependant, les programmes actuellement en vigueur, bien que récemment renforcés pour prendre en compte les enjeux liés à l’utilisation des réseaux sociaux, ne permettent pas de sensibiliser suffisamment les enfants à l’usage raisonné des outils numériques dès l’entrée à l’école élémentaire. Dans les nouveaux programmes d’éducation morale et civique (EMC) ([662]), où est inscrite l’éducation aux médias et à l’information (EMI), c’est surtout à partir de la classe de CM1 que sont abordées ces thématiques, via les notions de civisme numérique et de sobriété numérique.
Or, selon une étude réalisée par l’association e-Enfance/3018, les enfants commencent à naviguer seuls sur Internet en moyenne à 6 ans et 10 mois ; parmi les 6-10 ans, 46 % sont déjà équipés d’un smartphone ([663]). La rapporteure insiste sur le décalage entre cette réalité et le début de l’éducation au numérique en CM1, classe dans laquelle entrent les enfants en moyenne à l’âge de 9 ans. Ce décalage est d’ailleurs pointé du doigt par les enfants eux-mêmes. M. Arthur Melon, délégué général du Conseil français des associations pour les droits de l’enfant (COFRADE), rapporte ainsi la parole d’une élève de Nanterre, qui affirme : « la sensibilisation aux réseaux sociaux est beaucoup trop tardive. Elle intervient alors que l’on a déjà des téléphones et que l’on est déjà sur les réseaux ». « Les enfants consultés soulignent la nécessité d’une prévention plus précoce et plus intensive, non seulement pour les protéger de situations où ils pourraient être victimes, mais aussi pour prévenir des actes où ils pourraient être auteurs, notamment de violences ou de harcèlement », poursuit M. Melon ([664]).
La rapporteure est donc favorable à sensibiliser les élèves à l’usage raisonné des outils numériques dès la classe de CP : l’objectif est que les messages de prévention soient intégrés par les générations à venir avant même qu’elles commencent à utiliser les réseaux sociaux. Dans ce cadre, il paraît judicieux de présenter aux élèves entrant à l’école élémentaire le fonctionnement de leur cerveau et les apports du sommeil et des jeux en termes de développement cognitif, et d’insister dans ce cadre sur la nécessité d’éviter l’exposition aux écrans.
Recommandation n° 18 : Modifier les programmes d’enseignement moral et civique pour inclure une sensibilisation à l’usage raisonné des outils numériques dès la classe de CP, en insistant sur la nécessité d’éviter l’exposition aux écrans.
b. Renouveler l’éducation au numérique
Enjeu crucial de l’utilisation des outils numériques et des réseaux sociaux, la protection de la santé mentale en ligne n’est pas encore suffisamment prise en compte dans l’éducation au numérique.
Elle n’est ainsi pas mentionnée par l’article L. 312-9 du code de l’éducation, qui prévoit que « la formation à l’utilisation responsable des outils et des ressources numériques […] comporte une éducation aux droits et aux devoirs liés à l’usage de l’internet et des réseaux, dont la protection de la vie privée et le respect de la propriété intellectuelle, de la liberté d’opinion et de la dignité de la personne humaine et à l’image des femmes, ainsi qu’aux règles applicables aux traitements de données à caractère personnel. Elle contribue au développement de l’esprit critique, à la lutte contre la diffusion des contenus haineux en ligne, à la sensibilisation contre la manipulation d’ordre commercial et les risques d’escroquerie en ligne et à l’apprentissage de la citoyenneté numérique. Elle comporte une sensibilisation à l’usage des dispositifs de signalement des contenus illicites mis à disposition par les plateformes » ([665]).
Dans les programmes d’EMC, l’EMI se concentre sur les thématiques de la déconnexion, de la liberté d’expression, de la désinformation, de la haine en ligne et du respect de la vie privée qui, tout en contribuant significativement à la protection de la santé mentale en ligne, n’embrassent pas tous les enjeux qui y sont relatifs ([666]).
L’utilisation des outils numériques et des réseaux sociaux dans les programmes d’EMC
En CM1 :
– aborder la question du droit à la déconnexion numérique et de son importance pour la santé mentale et physique ;
– aborder le phénomène des cyberviolences ; démontrer que ces actes peuvent entraîner du harcèlement en ligne ; rappeler la règle et le droit.
En CM2 :
– conduire une réflexion avec les élèves sur le respect dans un contexte numérique et, notamment, celui des réseaux sociaux : étudier le rôle des médias dans la construction et le renforcement des stéréotypes et des préjugés ; aborder la notion de « haine » ; questionner le rôle des réseaux sociaux et leur mécanique de diffusion de contenus irrespectueux ; faire comprendre que la diffusion et la rediffusion de ces contenus constituent des manières de porter atteinte à la dignité et à la sécurité des personnes ; expliquer pourquoi ils sont punis par la loi.
En sixième :
– à partir de situations concrètes, faire identifier aux élèves les risques liés aux usages numériques (cyberharcèlement, désinformation, risques pour la santé) pour faire comprendre pourquoi l’âge de la majorité numérique a été fixé à quinze ans par le législateur (loi du 7 juillet 2023) ;
– faire réfléchir à ce que sont des traces numériques, à la nécessité de les protéger (contre des usages commerciaux, mais aussi à des fins politiques) et à leur incidence sur la réputation d’une personne (tension entre droit à l’oubli et difficulté à le faire effectivement valoir).
En cinquième :
– en abordant des discours haineux en ligne, qu’ils soient oraux ou écrits, faire émerger les mécanismes d’exclusion et de harcèlement qui s’appuient sur des stéréotypes et des préjugés posés sur une identité puis s’appuyer sur des points de droit spécifiques à la discrimination choisie comme support d’étude ;
– étudier comment le droit s’adapte pour mieux lutter contre les discours de haine (création de l’Observatoire de la haine en ligne rattaché à l’ARCOM créé par l’article 16 de la loi contre les discours haineux en ligne du 24 juin 2020 ; règlement européen sur les services numériques en ligne - Digital services act).
En quatrième :
– travailler sur la liberté d’expression en ligne.
En troisième :
– analyser des exemples d’alerte ou de mobilisation dans les réseaux sociaux (le mouvement #MeToo, les affaires financières) ; le cas de Chelsea Manning ou celui d’Irène Frachon (lanceurs d’alerte), en s’appuyant sur la loi du 21 mars 2022 visant à améliorer la protection des lanceurs d’alerte.
En seconde :
– la nouvelle donne que constituent Internet et les réseaux sociaux. Engager une réflexion sur l’évaluation des sources d’information et sur les critères de leur fiabilité ; les problèmes soulevés par l’intelligence artificielle (IA), les algorithmes de recommandation ; les désordres informationnels (mésinformation, malinformation, désinformation, réinformation, « chambres d’écho ») ;
– aborder la question de la régulation des médias sociaux au niveau national, européen (lois françaises, directives européennes) et mondial. Quelles réponses législatives ? Quelle est la responsabilité des utilisateurs ? Quelle est celle des fournisseurs d’accès ? (règlement européen sur les services numériques, Code européen des bonnes pratiques contre la désinformation (2018), Pharos).
En terminale :
– à partir de l’étude de sondages (commanditaire, méthodologie, multiplicité des interprétations possibles, diffusion dans les médias, y compris numériques), interroger la façon dont ils mesurent l’opinion publique et la rendent visible dans les médias traditionnels ou sur les réseaux sociaux : est-elle seulement exprimée par eux ou est-elle aussi produite par eux ?
– à partir d’exemples ou de l’expérience des élèves, chercher à rendre compte de ce que peut être un débat sur les médias sociaux (par exemple sur la vaccination). Poser la question des critères pour la fiabilité d’une source à partir des méthodes du travail journalistique.
Aussi la rapporteure est-elle favorable à développer, dans la définition législative de l’éducation au numérique et dans les programmes, la prise en compte des enjeux liés à la santé mentale en ligne, et notamment les conséquences psychologiques de l’exposition à des contenus illicites ou choquants ou de l’exposition répétée à des contenus similaires, pouvant enfermer les utilisateurs dans des « terriers de lapin ».
Recommandation n° 19 : Modifier le code de l’éducation pour prévoir que la formation à l’utilisation responsable des outils et des ressources numériques contribue à la protection de la santé mentale en ligne. Modifier les programmes d’éducation morale et civique pour aborder les conséquences psychologiques de l’exposition à des contenus illicites ou choquants ou de l’exposition répétée à des contenus similaires.
● Institutionnaliser et favoriser le recours à des intervenants extérieurs pour libérer la parole des élèves
Dans le cadre des auditions menées par la commission d’enquête, la rapporteure a relevé les difficultés des enfants à partager avec des adultes, voire avec leurs pairs, ce qu’ils ressentent en utilisant les réseaux sociaux et particulièrement en visionnant des contenus choquants. Mme Elbaz, chargée de mission éducation au numérique à la CNIL, regrette ainsi que, bien que l’immense majorité des enfants consultant seuls des plateformes en ligne soit exposée à des contenus choquants, « très peu d’entre eux ont l’occasion d’en parler à quelqu’un, car ils n’ont pas la notion de l’adulte de confiance. Ils n’ont pas conscience qu’en tant qu’enfants, ils ont des droits, dont celui de grandir dans un environnement bienveillant et d’être exemptés de visionner ce genre d’images. De ce fait, ils n’ont pas la possibilité de réguler leurs émotions et gardent pour eux toute la colère ou toute la tristesse ressenties face à ces contenus, sans pouvoir les partager avec personne, ni avec des amis, ni avec la famille, ni avec le corps enseignant qui fait pourtant partie des adultes de confiance possibles » ([667]). Ce besoin de se livrer en confiance et en liberté est partagé par les enfants eux-mêmes. M. Melon rapporte ainsi que les élèves « préconisent que des témoignages encouragent la parole des victimes et jugulent le sentiment de honte ou de culpabilité » ([668]).
Il apparaît donc nécessaire d’offrir aux enfants et adolescents un espace et un temps pour s’exprimer librement, sans crainte ni tabou, sur ce qui constitue une part essentielle de leur vie quotidienne : l’utilisation des réseaux sociaux.
S’il est primordial que la prise en charge de l’éducation au numérique soit assurée au premier chef par l’équipe enseignante, la rapporteure estime que des partenaires extérieurs peuvent utilement compléter cette prise en charge, pour encourager la libération de la parole des élèves. Le témoignage de Mme Elbaz montre en effet que son statut d’intervenante extérieure lui permet de gagner plus facilement la confiance et les confidences des élèves : « lorsque nous nous rendons dans une classe pour informer et sensibiliser les élèves, nous avançons une sorte de carte joker, puisque nous sommes des intervenants extérieurs ne connaissant pas directement les enfants ; nous ne sommes ni l’enseignant qu’ils côtoient tous les jours ni un membre de la famille. Cette carte nous permet d’installer très rapidement un climat de confiance, de poser des questions et d’interagir avec les enfants, qui nous répondent librement, même si l’enseignant est dans la pièce » ([669]).
Les séances d’éducation à la vie affective et relationnelle et à la sexualité (EVARS) assurées par des intervenants extérieurs
La circulaire n° MENE2503565C du 4 février 2025 relative à la mise en œuvre de l’éducation à la vie affective et relationnelle (dans les écoles) et de l’éducation à la vie affective et relationnelle, et à la sexualité (dans les collèges et les lycées), prévoit que « des partenaires extérieurs, ainsi que des associations spécialisées dont les compétences sont dûment reconnues et agréées, peuvent être associés aux personnels de l’éducation nationale responsables de ces séances, dans les conditions prévues par l’article D. 551-6 du Code de l’éducation ». En pratique, le recours à des partenaires extérieurs et associations agrées est fréquent, et couramment justifié par le motif que la parole des jeunes se libère davantage en l’absence du professeur. Pendant l’année scolaire 2018‑2019, la distribution des intervenants pendant les séances d’éducation à la vie sexuelle comptait ainsi près de 30 % d’intervenants extérieurs ([670]).
Recommandation n° 20 : Institutionnaliser et encourager, par voie de circulaire, à l’association d’intervenants extérieurs aux séances d’éducation aux médias et à l’information, afin d’offrir aux élèves un espace de parole libre.
c. Restructurer l’éducation au numérique
Les auditions menées par la commission d’enquête ont contribué à mettre en lumière le relatif morcellement des actions d’éducation au numérique. M. Cyril di Palma, délégué général de Génération numérique, regrette ainsi un « manque de coordination », et une mise en œuvre « très fragmentée et dépendante de facteurs, tels que l’établissement scolaire, le maire, la préfecture, les enjeux ou les priorités immédiates. […] Il existe une multitude d’associations et d’acteurs, mais nous ne disposons pas d’une cartographie de leurs zones d’intervention géographique, des thèmes qu’ils abordent ou des populations qu’ils touchent. Cette absence de vue d’ensemble empêche d’assurer que tous les enfants, de Foix à Strasbourg, de Calais à Brest, en passant par Marseille, dans les villes comme dans les campagnes, aient les mêmes chances d’accéder à une éducation au numérique de qualité, au-delà de ce qui est prévu dans les programmes de l’éducation nationale ».
Au niveau du ministère de l’éducation nationale, c’est le centre pour l’éducation aux médias et à l’information (CLEMI) qui est chargé, en association avec la DGSCO, de piloter l’EMI. Il se déploie sur tout le territoire grâce aux référents académiques et aux cellules académiques EMI, qui mettent en œuvre la formation, en lien avec le rectorat pour prendre en compte les priorités institutionnelles et les spécificités territoriales.
Ce pilotage peut encore être renforcé, dans le but d’homogénéiser les pratiques en matière d’éducation au numérique en s’alignant celles les plus vertueuses. Il parait également utile de recenser, dans la mesure du possible, l’ensemble des actions déployées en faveur de l’éducation au numérique sur le territoire national.
Recommandation n° 21 : Renforcer le pilotage académique et national de l’éducation aux médias et à l’information et du réseau des référents académiques EMI. Proposer, sur le site du centre pour l’éducation aux médias et à l’information, une cartographie digitale recensant les intervenants et les actions proposées sur l’ensemble du territoire.
a. Des parents mal informés et mal accompagnés
Une observation soulevée de façon constante tout au long des auditions menées par la commission d’enquête est le manque d’accompagnement des parents dans la démarche à adopter pour protéger leurs enfants des risques de l’utilisation des réseaux sociaux en matière de santé mentale.
Les parents ont été les premiers, voir les seuls, à assumer la charge de l’éducation au numérique et de la régulation de l’utilisation des outils numériques. « [Ils] portent seuls depuis vingt ans cette arrivée des usages numériques dans la vie de tous, y compris de leurs enfants et adolescents », note en ce sens Mme Justine Atlan, directrice générale de l’association e-Enfance ([671]).
Les parents souffrent pourtant d’un manque criant de formation et d’accompagnement en matière de parentalité numérique. Selon l’Unaf, près d’un parent sur deux ne se sent pas ou pas suffisamment accompagné pour réguler la consommation des écrans par ses enfants ([672]). Ils peuvent se sentir dépassés par des usages numériques qu’ils ne partagent pas et donc ne comprennent pas. Les enfants discernent cet embarras chez leurs parents et le subissent. M. Arthur Melon indique en effet que « les enfants estiment que leurs parents sont souvent désemparés face aux enjeux du numérique, ce qui les empêche de se sentir vraiment protégés » ([673]).
Différentes approches de l’accompagnement des usages numériques
Selon M. Arfaoui et Mme Elbaz, « l’accompagnement parental de l’utilisation du numérique par les adolescents est un sujet complexe », marqué par des injonctions contradictoires, des inégalités socio-économiques et culturelles, avec notamment d’importantes variations en matière de compétences numériques.
M. Arfaoui et Mme Elbaz identifient « différents types d’accompagnement parental :
– l’intrusion : contrôle direct du téléphone de l’enfant (contenus, historique, ...) ;
– la délégation : surveillance confiée à une tierce personne (souvent un aîné) ;
– le laisser-faire : absence ou quasi-absence d’intervention parentale ;
– le compagnonnage : introduction active aux outils numériques et accompagnement dans leur utilisation ;
– la supervision : utilisation sélective des outils de contrôle parental, basée sur la confiance ;
– l’ascèse : approche restrictive et valorisation des activités non numériques. »
b. Faire de la prévention face aux dangers des réseaux sociaux un axe à part entière de l’accompagnement de la parentalité
Le 1er janvier 2025, une nouvelle version du carnet de santé est entrée en vigueur, pour prendre en compte les nouvelles recommandations sanitaires et les évolutions sociétales. Les messages destinés aux parents ont été mis à jour notamment sur la question de l’utilisation des écrans : les parents sont invités à ne pas exposer leurs enfants de moins de 3 ans aux écrans, et à limiter l’exposition des écrans entre 3 et 6 ans à un usage occasionnel, limité à des contenus à qualité éducative et accompagné par un adulte. En outre, à partir de l’âge de 3 mois et jusqu’à l’adolescence, des questions sur l’exposition puis sur l’utilisation des écrans ont été introduites dans une démarche de repérage par le professionnel de santé du mésusage des écrans.
La rapporteure salue cette avancée notable, qui acte l’intégration des enjeux liés à l’exposition aux écrans dans les politiques sanitaires et sociales. Elle appelle toutefois à compléter le message destiné aux parents concernant l’exposition aux écrans d’un message de prévention spécifiquement relatif à l’utilisation des réseaux sociaux. Ce message pourrait inclure :
– les risques auxquels s’exposent les enfants et adolescents sur les réseaux sociaux, particulièrement en matière de troubles anxiodépressifs et d’estime de soi ;
– la reprise des recommandations de la commission « enfants et écrans » ([674]) en matière d’accès aux réseaux sociaux : « à partir de 13 ans : téléphone connecté sans accès aux réseaux sociaux ni aux contenus illégaux », et « à partir de 15 ans : accès complémentaire aux réseaux sociaux éthiques » ([675]). Si une limite d’âge pour l’accès aux plateformes est fixée par le législateur national ou européen, comme l’appelle de ses vœux la rapporteure, elle aura vocation à être rappelée dans le carnet de santé et à constituer la recommandation principale aux parents quant à l’utilisation des réseaux sociaux par leurs enfants.
Recommandation n° 22 : Intégrer au carnet de santé un message destiné aux parents relatif à l’utilisation des réseaux sociaux, reprenant les repères d’âges préconisés par la commission « enfants et écrans », ou, le cas échéant, la limite d’âge fixée par le législateur national ou européen.
Les services départementaux de protection maternelle et infantile (PMI) organisent des consultations et des actions médico-sociales de prévention et de suivi en faveur des femmes enceintes, des parents et des enfants de moins de 6 ans, ainsi que des activités de planification familiale et d’éducation familiale.
Ils gèrent notamment les centres de PMI : lieux gratuits, ouverts à tous, ces centres accueillent les parents et les enfants de moins de 6 ans. Ceux-ci peuvent bénéficier de consultations, participer à des ateliers en groupe, y rencontrer d’autres parents et divers professionnels de santé – auxiliaires de puériculture, infirmières puéricultrices, sages-femmes, médecins, infirmières, etc. – auxquels partager leurs préoccupations.
La rapporteure estime que les services et centres de PMI sont un vecteur idéal d’information pour les parents. Elle recommande à ce titre de les mobiliser afin de former les parents sur le développement cognitif et socio-émotionnel de leurs enfants, et les conséquences de l’exposition aux écrans en termes d’attention, de sommeil et de capacité d’apprentissage.
Recommandation n° 23 : Utiliser les consultations et les actions de prévention organisées par les services et centres de PMI pour former les parents sur le développement cognitif et socio-émotionnel des enfants et les conséquences de l’exposition aux écrans.
Créé en 2021, le site jeprotegemonenfant.gouv.fr est un portail unique d’information permettant aux parents de trouver des réponses fiables aux questions qu’ils se posent sur les enjeux de l’exposition de leurs enfants aux écrans, en fournissant des repères d’utilisation des écrans selon l’âge, des outils et ressources permettant de s’informer sur les enjeux et les risques de la surexposition des enfants et des jeunes aux écrans. Il est divisé en deux rubriques : « je protège mon enfant dans son usage des écrans » et « je protège mon enfant de la pornographie ».
La rubrique « je protège mon enfant dans son usage des écrans » traite, notamment, des risques psychologiques liés à l’utilisation des outils numériques. Sont par exemple indiqués les enjeux sanitaires : « sur le plan psychologique, les risques sont également majeurs. L’exposition à des contenus inadaptés – violents, haineux ou pornographiques – ainsi que la captation prolongée de l’attention par des plateformes conçues pour maximiser l’engagement peuvent affecter l’estime de soi, accentuer des troubles anxiodépressifs ou favoriser des troubles du comportement » ([676]). En outre, la question spécifique de l’usage des réseaux sociaux est prise en compte. Sont ainsi rappelées les préconisations de la commission « enfants et écrans » en termes de repères d’âge. Enfin, les parents peuvent recourir à de nombreuses ressources, dont une vidéo de deux minutes intitulée « comment expliquer à mon enfant qu’il n’a pas l’âge d’être sur un réseau social ? ».
La rapporteure propose d’améliorer le site jeprotegemonenfant.gouv.fr de deux manières.
En premier lieu, ce site mérite d’être mis à jour au plus vite. La rapporteure a en effet relevé, par exemple, que le quizz disponible sur la plateforme proposait aux parents d’enfants de moins de 3 ans ou d’enfants de 4 à 7 ans des outils de contrôle parental, sans rappeler les préconisations de la commission « enfants et écrans » qui étaient de ne pas exposer les enfants de moins de 3 ans aux écrans et de déconseiller leur usage avant 6 ans.
En second lieu, si la rapporteure reconnaît que l’accès aux réseaux sociaux et leur utilisation font partie de l’enjeu plus général des usages numériques des mineurs, elle estime que l’ampleur du phénomène et des risques afférents justifient que le sujet soit traité à titre spécifique, comme cela est le cas s’agissant de l’accès à la pornographie en ligne. Elle propose donc de créer, sur le site jeprotegemonenfant.gouv.fr, une rubrique distincte dédiée à l’utilisation des réseaux sociaux par les mineurs, rassemblant les outils, réponses et ressources qui y sont relatives.
Recommandation n° 24 : Mettre à jour le site jeprotegemonenfant.gouv.fr, en accordant les recommandations à celles de la commission « enfants et écrans ». Créer, sur le site jeprotegemonenfant.gouv.fr, une rubrique « je protège mon enfant dans son utilisation des réseaux sociaux ».
En 2021, le portail jeprotegemonenfant.gouv.fr a été lancé par une campagne de communication visant à interpeller les parents d’enfants et d’adolescents sur l’exposition à la pornographie. Afin de promouvoir la plateforme, une deuxième campagne nationale de communication a été lancée en février 2023, sur le sujet de l’usage raisonné des écrans.
La rapporteure considère que la création d’une troisième rubrique dédiée à la protection des mineurs sur les réseaux sociaux mérite d’être accompagnée par une nouvelle campagne nationale de communication.
Recommandation n° 25 : Lancer une campagne nationale de communication sur le thème de l’utilisation des réseaux sociaux par les mineurs, pour faire connaître le site jeprotegemonefant.gouv.fr.
5. Former les équipes éducatives
De manière générale, la connaissance des enjeux liés à l’utilisation des réseaux sociaux, et particulièrement à ses conséquences psychologiques pour les mineurs, semble incomplète, ou tout du moins inégale, dans la communauté éducative. Mme Morgane Jaehn, mère d’une adolescente qui a été victime de nombreux contenus prônant le suicide et l’automutilation, déplore ainsi : « à l’école, personne – ni les profs ni les enseignants d’élémentaire – n’est au courant. Personne ne sait à quoi sont exposés les élèves » ([677]).
De fait, pour mettre en œuvre de façon satisfaisante l’EMI, et appréhender avec succès la thématique de l’utilisation des réseaux sociaux par les enfants et les adolescents, l’équipe éducative doit être formée :
– sur le fond : les règles et mécanismes de régulation des réseaux sociaux sont particulièrement techniques et ne relèvent pas des enseignements classiques. Selon Mme Jehel, professeure en sciences de l’information et de la communication à l’Université Paris 8 Vincennes – Saint-Denis, « il y a […] un grand besoin de formation des enseignants au droit du numérique » ([678]). Au-delà des aspects juridiques, l’équipe éducative doit, pour agir de la façon la plus efficace possible, comprendre la réalité des usages numériques des enfants et adolescents.
– sur la forme : il convient en premier lieu de diffuser les pratiques éducatives et pédagogiques les plus vertueuses. Il s’agit également de savoir répondre aux nombreuses tensions que peut générer l’éducation à l’utilisation raisonnée des outils numériques et des réseaux sociaux et sa régulation au sein de l’établissement scolaire, vis-à-vis des élèves mais également de leur famille. À ce titre, Mme Missir rapporte que « certains enseignants témoignent […] d’une véritable lassitude face à la formation numérique et à l’éducation aux outils digitaux. Ils font également état d’incompréhensions parentales concernant l’utilisation d’outils numériques comme supports pédagogiques. […] Nous traversons donc une période particulièrement complexe, caractérisée par une focalisation sur les réseaux sociaux et les pratiques numériques des jeunes. Paradoxalement, alors que l’éducation numérique s’avère plus nécessaire que jamais, les enseignants se trouvent dans une position de tension, notamment vis-à-vis des parents d’élèves » ([679]).
L’éducation au numérique est déjà intégrée à la formation de la communauté éducative, et notamment des enseignants. Mme Florence Biot, sous‑directrice de la transformation numérique de la Direction du numérique pour l’éducation (DNE), indique : « la formation initiale des enseignants comprend d’ores et déjà un volet dédié aux compétences numériques. Dès leur entrée dans le métier, les professeurs doivent en effet attester de ces compétences à travers une certification. […] Ainsi, au sein des instituts nationaux supérieurs du professorat et de l’éducation (Inspe), des modules de formation au numérique sont prévus, et ils seront renforcés, comme l’a annoncé la ministre, notamment sur les volets du numérique en général et de l’intelligence artificielle en particulier. Il est fondamental, lorsqu’on parle de réseaux sociaux, de ne pas dissocier l’approche citoyenne de l’approche scientifique et technologique, car les deux dimensions sont étroitement liées. C’est précisément dans cet esprit que les nouvelles maquettes de formation initiale sont en cours de refonte. La réforme globale en cours prévoit une intégration renforcée de ces compétences dans la licence de professorat comme dans le master Métiers de l’enseignement, de l’éducation et de la formation (MEEF) » ([680]).
Mme Missir ajoute que le CLEMI propose des « formations relatives à l’usage des réseaux sociaux et à leur encadrement dans l’espace éducatif », qui s’adressent à « l’ensemble de la communauté éducative » et ont « enregistré au total 11 127 participants » ([681]).
La rapporteure soulève toutefois trois pistes d’amélioration. Premièrement, la thématique de l’utilisation des réseaux sociaux et de ses conséquences psychologiques pour les mineurs doit être intégrée à titre spécifique. Deuxièmement, cet axe de formation doit être systématisé pour l’ensemble de la communauté éducative. Troisièmement, cette dernière doit pouvoir se former régulièrement, pour se tenir à jour des évolutions des usages et des technologies.
Recommandation n° 26 : Systématiser, dans le cadre de la formation initiale et régulière de l’ensemble de la communauté éducative, des séances régulières et obligatoires relatives à l’utilisation des réseaux sociaux et ses conséquences psychologiques pour les mineurs.
6. Adapter l’offre de soins psychologiques et psychiatriques aux défis posés par les réseaux sociaux : une urgente nécessité
a. Renforcer la détection précoce des troubles psychiatriques chez les mineurs : un enjeu majeur de santé publique face à un manque de moyens alarmant
La détection précoce des troubles psychiatriques chez les mineurs revêt une importance majeure : une intervention rapide permet non seulement de limiter l’aggravation des symptômes, d’éviter les conséquences les plus dramatiques, et de prévenir les ruptures scolaires, sociales et familiales fréquemment associées à ces troubles, dont l’ampleur a été confirmée par les nombreux témoignages reçus par la commission.
La nécessité d’un repérage précoce de ces troubles apparaît d’autant plus impérieuse dans le contexte actuel, au regard des effets délétères de l’usage des réseaux, et en particulier de TikTok, sur l’émergence ou l’aggravation de certains troubles psychiques chez les mineurs, comme les travaux de la commission ont pu le mettre en évidence : l’incitation à des comportements à risque, l’exposition répétée à des contenus nocifs et anxiogènes ou la survalorisation de normes corporelles irréalistes sont autant de facteurs qui peuvent accentuer la vulnérabilité psychique des enfants. Or, les risques liés à l’usage des réseaux sociaux pour la santé mentale des mineurs, ainsi que les manifestations cliniques liées à cet usage, sont encore trop rarement reconnus ou pris en compte dans les dispositifs de repérage, et restent parfois négligés, y compris au cours d’un suivi psychologique ou psychiatrique.
Mme Morgane Jaehn, mère d’une jeune fille de 17 ans, qui a été hospitalisée à plusieurs reprises au cours des deux dernières années à la suite de tentatives de suicide et de scarifications répétées liées à une utilisation intensive de TikTok, souligne ainsi le manque d’interlocuteurs et les importantes lacunes, parmi les professionnels de santé, en matière de compréhension des enjeux liés aux réseaux sociaux et de leurs effets sur la santé mentale : « Il s’agit aussi d’un problème de société beaucoup plus large : celui de la prise en charge de la santé mentale. Si nos enfants, quand ils ont mal, pouvaient trouver plus facilement des interlocuteurs, s’il y avait plus de pédopsychiatres et de structures, peut-être éviterait-on à certains de sombrer dans les algorithmes. Nous avons besoin de places en hospitalisation et de médecins qui soient au courant de ce que vivent nos enfants, de ce qu’ils voient sur les réseaux. Comme je l’ai dit, ma fille a connu vingt-six semaines d’hospitalisation. Lorsqu’elle n’était pas hospitalisée, elle était suivie par des psychologues et des psychiatres, mais jamais personne ne lui a demandé ce qui se passait sur les réseaux. Il ne s’agissait pas du harcèlement, mais de lui demander si elle avait été exposée à des contenus qui lui auraient fait peur ou qui lui auraient donné des idées. Jamais personne ne lui a demandé » ([682]).
M. Laurent Zameckwovski, porte-parole de la Fédération des parents d’élèves de l’enseignement public (PEEP), fait état de ce manque de moyen dans l’accompagnement des élèves, notamment en matière de santé mentale : « concernant la santé scolaire, lorsqu’une cité scolaire de 2 500 élèves ne dispose pas d’une infirmière, l’efficacité du système est compromise. De nombreux élèves éprouvent des difficultés à s’adresser au conseiller principal d’éducation (CPE) ou au principal, rendant la situation complexe » ([683]). En ce qui concerne les assistants d’éducation, « leur présence actuelle, environ 1 pour 120 élèves au collège et 1 pour 250 au lycée, est insuffisante pour détecter précocement les situations problématiques, telles que le harcèlement ou ce qu’il se passe dans les toilettes, qui constituent des zones de non-droit » ([684]).
M. Zameckwovski souhaite ainsi une augmentation substantielle du nombre d’assistants d’éducation pour mieux repérer les situations à risque et les fragilités chez les adolescents, souvent liés à l’utilisation des réseaux sociaux comme TikTok : « il est crucial d’augmenter la présence d’adultes pour mieux détecter les situations à risque, comme l’a tristement illustré le drame de Nantes. Bien que ces personnels nécessitent une formation plus approfondie, leur présence accrue serait déjà bénéfique. Nous proposons donc […] le renforcement significatif du nombre d’assistants d’éducation dès le collège, pour permettre une détection précoce des situations problématiques, y compris les défis dangereux sur les réseaux sociaux comme TikTok. Ces mesures sont essentielles pour lutter contre le harcèlement, le cyberharcèlement et d’autres situations préoccupantes liées à l’usage des réseaux sociaux » ([685]).
Le manque de moyens affectés à la prise en charge des troubles psychiatriques des enfants et adolescents a récemment été relevé par Mme Sarah Legrain et Mme Delphine Lingemann, députées, dans le rapport d'information déposé par la délégation de l'Assemblée nationale aux droits des femmes et à l'égalité des chances entre les hommes et les femmes sur les politiques d'accompagnement à la parentalité ([686]). Ce rapport préconisait notamment :
– de renforcer l’offre en pédopsychiatrie, d’une part, en incitant les internes à choisir cette spécialité et d’autre part, en renforçant les moyens des structures de pédopsychiatrie ;
– de renforcer la médecine scolaire en augmentant le nombre de professionnels et en les formant davantage aux enjeux de la santé mentale.
Recommandation n° 27 : Renforcer les moyens consacrés au repérage des troubles psychiques chez les mineurs, notamment par l’augmentation des effectifs de professionnels de santé et du secteur médico-social intervenant en milieu scolaire.
En ce qui concerne le suivi psychologique des mineurs, on constate une volonté de démocratisation de la prise en charge psychologique depuis plusieurs années, comme le relève le Haut Conseil de la famille, de l’enfance et de l’âge (HCFEA) ([687]), notamment à travers le forfait 100 % psy enfant Ado lancé en 2021 dans le cadre de la crise sanitaire, ouvrant l’accès à dix séances de consultations en psychologie gratuites pour les moins de 17 ans, remplacé à partir du printemps 2022 par un dispositif généralisé et pérenne, Mon soutien psy, qui propose le remboursement partiel – à hauteur de 60 % par l’Assurance Maladie – de 12 séances d’accompagnement psychologique dès 3 ans.
Le HCFEA relativise néanmoins l’ampleur des avancées constatées : les capacités de prise en charge des adolescents restent limitées par le nombre de professionnels de santé et une mauvaise orientation dans les soins.
La rapporteure constate qu’aucun dispositif spécifique n’est aujourd’hui prévu pour les enfants, malgré leur grande vulnérabilité en matière de santé mentale. À titre de comparaison, les étudiants peuvent bénéficier du dispositif Santé Psy Étudiants, qui permet l’accès à 12 séances de suivi psychologique gratuites, sans avance de frais, par année universitaire.
La rapporteure recommande ainsi l’extension du dispositif Santé Psy Étudiants aux mineurs, afin de garantir un accès équitable à un suivi psychologique et mieux répondre à la hausse préoccupante des besoins en matière de santé mentale chez les plus jeunes.
Recommandation n° 28 : Étendre les mesures du dispositif Santé Psy Étudiants aux mineurs et accroître de manière significative le nombre de psychologues conventionnés afin de garantir un accès effectif au suivi psychologique.
Un plan « santé mentale et psychiatrie » a été lancé en juin 2025 par le ministre chargé de la santé et de l’accès aux soins, M. Yannick Neuder ([688]). Son premier axe est la mise en place d’un « plan national de repérage et d’intervention précoce ». Plusieurs mesures significatives ont été annoncées, comme :
– la formation de deux personnels-repères, accessibles aux équipes et élèves, dans chaque circonscription du premier degré et chaque établissement du second degré ;
– le déploiement d’un modèle national de repérage et d’intervention précoce, d’ici 2027 ;
– la formation de 100 % des professionnels de santé scolaire (infirmiers, médecins, psychologues, assistants des services sociaux) au repérage des troubles psychiques avant la fin de l’année 2025 ;
– la diffusion d’un kit de repérage et d’intervention auprès de l’ensemble de la communauté éducative dès 2026 ;
– l’intervention dans les établissements scolaires des étudiants en santé en service sanitaire, afin de développer les compétences psychosociales (gestion des émotions, du stress, respect de soi et des autres) ;
– la massification de la formation au secourisme en santé mentale, un « élément essentiel pour le repérage précoce des troubles chez les jeunes » selon Mme Sauneron ([689]), avec la formation de 300 000 secouristes en santé mentale d’ici 2027.
Dans le cadre du second axe « soigner : mieux répondre en amont » de ce plan, le Gouvernement prévoit par ailleurs de doubler le nombre de psychologues conventionnés dans le cadre du dispositif Mon soutien psy d’ici 2027 (de 6 000 à 12 000).
La rapporteure salue l’annonce de ce plan et appelle à sa mise en œuvre dans les meilleurs délais, au regard de l’urgence que constitue la prise en charge des troubles psychiques chez les mineurs.
Comme l’a souligné Mme Jaehn dans son témoignage, les professionnels de santé sont insuffisamment formés aux enjeux liés aux réseaux sociaux et aux risques spécifiques qu’ils présentent pour les mineurs.
Mme Jadot, journaliste et documentariste, partage ce constat et pointe un déficit généralisé de prise en charge des mineurs ainsi que l’insuffisance de formation des professionnels de santé concernant les risques liés à l’usage des réseaux sociaux : « il existe aussi un problème dans la prise en charge de la santé mentale des adolescents. Aux États-Unis, en Espagne, en Angleterre ou en France, toutes les familles que j’ai rencontrées m’ont raconté la même chose : lorsqu’un enfant a tenté de se suicider ou se scarifie, le lien avec l’usage des réseaux sociaux est rarement fait ; on propose aux parents de placer l’enfant sous antidépresseurs ou de lui prescrire un traitement contre la bipolarité ou la schizophrénie » ([690]).
Dr Servane Mouton, neurologue et neurophysiologiste, coprésidente de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, insiste sur « le besoin de formation des soignants » et souligne l’absence de dispositifs de formation organisés et largement diffusés auprès des professionnels de santé et du secteur médico-social : « actuellement, la formation relative à l’usage des écrans, quel que soit l’âge de l’enfant ou de l’adolescent, n’est pas structurée. Elle dépend entièrement de l’initiative personnelle du praticien, qui doit trouver ses propres ressources en l’absence d’un cadre officiel, tant en termes de formation que de documentation. Un besoin massif de formation se fait donc sentir, qui concerne les médecins généralistes, les psychiatres et les psychologues. Si l’on considère également la petite enfance, il convient d’y ajouter les pédiatres et l’ensemble du personnel en lien avec les jeunes enfants, notamment les éducateurs. […] En somme, une formation approfondie et homogène de toutes les professions liées à l’enfance s’avère nécessaire, car la situation actuelle est très hétérogène, avec des messages et des ressources qui varient considérablement selon la personne qui les dispense, faute de lignes directrices clairement définies » ([691]).
Pourtant, il existe une demande forte et clairement exprimée de formation de la part des professionnels, comme en témoigne M. Samuel Comblez, directeur général adjoint de l’association e-Enfance : « nous remarquons depuis plusieurs années une augmentation très importante du nombre de demandes d’intervention auprès des enseignants, mais aussi en dehors du monde scolaire, c’est-à-dire les coachs sportifs, le monde sanitaire et social, les psychologues, les psychiatres qui travaillent au contact des jeunes. À ce titre, nous intervenons auprès des professionnels qui travaillent dans les maisons des adolescents et portons un programme de sensibilisation de ces professionnels à la sphère numérique. Les professionnels ont besoin de recevoir, dès leur formation initiale, des formations concrètes, qui doivent également être réactualisées au fil du temps, tant l’univers numérique est très mouvant » ([692]).
Pour la rapporteure, le renforcement des compétences des professionnels de première ligne (enseignants, médecins généralistes, infirmiers scolaires, éducateurs, assistants d’éducation, etc.) dans le repérage précoce des signaux d’alerte est donc indispensable pour améliorer la prévention et garantir un accès rapide à des soins adaptés.
La rapporteure souligne également que les professionnels de première ligne doivent être formés à accompagner les parents, pour ne pas laisser ces derniers démunis et sans réponse. M. Parkiet, dont l’adolescente a mis fin à sa vie, témoigne en ce sens : « nous avons demandé de l’aide, à plusieurs reprises, au psychiatre, parce que nous avons vu qu’elle passait du temps sur son téléphone et qu’elle était moins ouverte à la discussion avec nous. Nous lui avons expliqué clairement que, dans cette situation, il nous était difficile de remplir notre rôle de parents : comment faire pour être strict si on a peur de retrouver sa fille morte ? Parce que, une fois qu’il y a eu une première tentative de suicide, ça laisse la place à une possibilité que nous n’avions absolument pas envisagée auparavant. La seule réponse que nous avons obtenue, c’est : « Je comprends, mais… » ([693]).
Recommandation n° 29 : Mettre en place des formations régulières à destination des professionnels liés à l’enfance, en particulier des secteurs médical et médico-social, afin de les sensibiliser et de les outiller sur les usages numériques des mineurs et leurs effets sur la santé mentale.
Dans le cadre du second axe « soigner : mieux répondre en amont », du plan « santé mentale et psychiatrie », le Gouvernement a annoncé sa volonté de déployer un socle national d’outils pratiques pour les médecins généralistes, incluant des guides cliniques de repérage rapide, afin de mieux prendre en charge la santé mentale.
Pour la rapporteure, cette dernière mesure constitue une avancée positive et devrait impérativement intégrer un volet spécifique consacré aux enjeux de santé mentale liés aux usages numériques, en particulier à l’impact des réseaux sociaux tels que TikTok.
b. Soigner le mal tout en laissant le poison en main : la délicate question des smartphones en milieu hospitalier
Détecter et traiter les troubles mentaux liés aux réseaux sociaux chez les mineurs, en particulier à TikTok, est une étape essentielle. Mais une question importante – et qui a été soulevée à plusieurs reprises dans le cadre des auditions de la commission – demeure : que faire des smartphones et plus généralement des écrans pendant les périodes de traitement lorsque des enfants souffrant de troubles psychiques causés ou amplifiés par l’usage des réseaux sociaux comme TikTok, séparés de leur entourage proche, se retrouvent seuls dans des établissements de santé ? N’est-il pas contradictoire de vouloir soigner une souffrance psychique tout en laissant à disposition l’instrument qui la nourrit ?
M. Arnaud Ducoin, père de Pénélope, qui s’est suicidée le 28 février 2024 après avoir passé des mois à « consulter des contenus de scarification, d’anorexie ou suicide » sur TikTok, avait décrit devant la commission l’absurdité de la situation qu’avait connue sa fille lorsqu’elle était à l’hôpital, où l’usage du téléphone n’est pas toujours encadré, alors même que ce dernier, par l’accès aux réseaux sociaux qu’il permet, est l’origine des troubles dont souffrent certains patients mineurs : « [d]urant son séjour dans cet hôpital, on lui a même permis d’utiliser le téléphone. Jamais la question des effets néfastes du téléphone dans sa thérapie n’a été abordée. Si cela se trouve, elle continuait, lorsqu’elle était à l’hôpital, à visionner ce genre de contenus » ([694]).
M. Berose-Perez, chef du bureau Santé mentale au ministère du travail, de la santé, des solidarités et des familles, souligne les difficultés que pose l’utilisation des smartphones chez les mineurs hospitalisés. Actuellement, la règle n’est pas l’interdiction systématique du smartphone, y compris pour les mineurs souffrant de troubles psychiques en lien avec l’usage des réseaux sociaux, mais bien l’inverse : « le principe général veut que tout patient conserve l’accès à ses effets personnels, téléphone et tablettes inclus ». La restriction d’accès au smartphone est possible, mais strictement limitée et encadrée : « en cas d’indication médicale spécifique, cet accès peut être restreint dans le strict respect des libertés individuelles du patient. Certaines situations particulières, comme une crise grave nécessitant une intervention, peuvent justifier la confiscation temporaire des effets personnels, particulièrement lorsque le patient est mineur. Ces mesures restent cependant strictement encadrées juridiquement, car elles touchent aux libertés fondamentales » ([695]).
Mme Sarah Sauneron, directrice générale par intérim à la Direction générale de la santé, donne toutefois l’exemple d’une soignante qui a pris la décision d’interdire l’usage des écrans dans le service du professeur Richard Delorme à l’hôpital Robert Debré. Contrairement à ce à quoi on pouvait s’attendre, les principales réticences ne sont pas venues des mineurs, mais bien des professionnels eux-mêmes, « certains craignant que retirer ces appareils, considérés presque comme des objets transitionnels, ne déstabilise davantage les jeunes patients ». Mme Sauneron souligne que les jeunes ont au contraire « immédiatement compris la nécessité de se séparer de ces outils qui sont tout sauf réconfortants », cette privation devenant « un sujet de discussion thérapeutique », ce qui a permis d’aboutir à la pleine acceptation de cette pratique au sein du service ([696]).
Afin de répondre aux difficultés posées par l’usage des écrans en milieu psychiatrique accueillant des mineurs, M. Berose-Perez propose de « renforcer substantiellement les liens entre les acteurs du numérique et les professionnels de santé. Cette démarche englobe tant l’acquisition de connaissances par les soignants sur les ressources disponibles, notamment pour accompagner les parents sur les questions de parentalité numérique, que la diffusion des constats sanitaires auprès des associations et professionnels du secteur de la cohésion sociale. La recherche doit favoriser la collaboration entre psychiatres et spécialistes du numérique, tout comme le champ de la prévention et l’administration doivent développer ces synergies » ([697]).
Cette proposition s’inscrit dans la continuité des recommandations déjà formulées concernant la nécessité de renforcer la formation et la sensibilisation des professionnels de santé aux enjeux du numérique, en particulier aux risques que l’usage des réseaux sociaux, et au premier chef Tiktok, fait peser sur la santé mentale des mineurs.
La rapporteure recommande l’élaboration d’un cadre national clair régissant l’usage des écrans par les mineurs hospitalisés. Ce cadre doit permettre de limiter leur exposition à des contenus et des usages susceptibles d’aggraver leur état psychique et les troubles dont ils souffrent au cours de la prise en charge, afin de mettre fin à des situations paradoxales dans lesquelles des outils nocifs restent, sans supervision, entre les mains de jeunes patients en grande vulnérabilité.
Recommandation n° 30 : Définir un cadre national clair régissant l’usage des écrans par les mineurs hospitalisés, afin de limiter l’exposition à des contenus et des usages susceptibles d’aggraver leur état psychique au cours de la prise en charge, en cohérence avec les objectifs thérapeutiques.
B. FACE À l’inertie assumÉe des plateformes, la nÉcessitÉ de poser une rÈgle de protection collective : Vers une interdiction, ou à tout le moins une limitation de l’accès aux réseaux sociaux avant l’âge de 18 ans
1. Interdire l’accès aux réseaux sociaux avant 15 ans : une règle qui s’impose dans le débat public
a. En choisissant la limite d’âge de 15 ans, établir une règle de société claire et compréhensible
La rapporteure tient à souligner que plusieurs pays se sont d’ores et déjà engagés dans la voie d’une interdiction des réseaux sociaux aux mineurs avant un certain âge, témoignant d’une prise de conscience croissante au niveau international des risques liés à leur usage.
Fin novembre 2024, l’Australie a créé un précédent en adoptant une loi interdisant totalement l’accès aux réseaux sociaux aux moins de 16 ans ([698]), qui doit entrer en vigueur d’ici la fin de l’année 2025.
En Nouvelle-Zélande, le premier ministre M. Christopher Luxon s’est prononcé en faveur de l’adoption d’une proposition de loi, inspirée de la loi australienne précédemment mentionnée, qui prévoit d’interdire l’accès aux réseaux sociaux aux moins de 16 ans et imposerait aux plateformes de prendre des mesures pour empêcher les mineurs concernés d’y accéder ([699]).
En Espagne, un projet de loi organique sur la protection des mineurs dans les environnements numériques prévoit de rendre obligatoire la vérification de l’âge sur les réseaux sociaux et de relever de 14 à 16 ans l’âge minimum pour donner son consentement au traitement de ses données personnelles, ce qui signifierait concrètement l’impossibilité d’ouvrir un compte sur un réseau social avant 16 ans ([700]).
Aux Pays-Bas, le Gouvernement a recommandé dans une lettre adressée au Parlement en juin 2025 – qui n’est toutefois pas contraignante juridiquement – aux parents d’interdire à leurs enfants l’accès aux réseaux sociaux avant 15 ans. Le pays avait interdit en janvier 2024 l’utilisation des tablettes et smartphones au sein des établissements scolaires ([701]), avec des résultats positifs sur l’apprentissage ([702]).
L’Australie, en route vers l’interdiction des réseaux sociaux aux mineurs de moins de 16 ans
En Australie, une loi interdisant l’accès aux réseaux sociaux aux moins de 16 ans a été votée le 29 novembre 2024 ([703]). Un délai d’un an est prévu afin de permettre aux autorités, via l’agence indépendante eSafetyCommissioner, et aux réseaux sociaux de se coordonner sur les modalités de contrôle de l’identité et la liste des réseaux concernés. Les services de messagerie en ligne (Whatsapp) ou les plateformes proposant un contenu éducatif bénéficieraient de dérogations. Snapchat, Tiktok, Facebook, Instagram et X sont les principaux visés, malgré l’absence de définition claire d’un réseau social ([704]). Le gouvernement australien a par ailleurs annoncé récemment vouloir étendre cette interdiction à YouTube, plateforme de partage de vidéos qui n’était pas concernée par cette loi, en raison de ses « algorithmes prédateurs » et de la diffusion de contenus inappropriés auprès des utilisateurs mineurs ([705]).
La rapporteure est consciente du caractère inévitablement discrétionnaire de la fixation d’une limite d’âge. La Docteure Servane Mouton, neurologue et neurophysiologiste, co-présidente de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, reconnaît ainsi que « tout seuil d’âge revêt un caractère artificiel, arbitraire, à commencer par la majorité, fixée à 18 ans alors qu’elle était à 21 ans auparavant. Le cerveau mature jusqu’à 25 ans, mais cela n’empêche pas que l’on puisse détenir un permis de chasse à 16 ans » ([706]).
Un arbitrage est toutefois indispensable : sans considérer que l’âge de 15 ans est l’âge auquel tous les adolescents, filles et garçons, deviennent, du jour au lendemain, suffisamment matures pour faire usage des réseaux sociaux sans danger, cette borne d’âge présente l’intérêt de la clarté, de la cohérence et de l’équilibre :
– elle correspond à un niveau de maturité encore incomplet mais déjà relativement avancé : selon la Dr Mouton, « le processus de maturation cérébrale est loin d’être achevé à 15 ans, puisqu’il se poursuit jusqu’à 25 ans. Toutefois, le degré de maturité avéré d’un adolescent de 15 ans n’est pas le même que celui d’un enfant de 13 ans. Plus on avance en âge, plus on est à même d’acquérir les capacités et les compétences nécessaires pour prendre la mesure des enjeux en lien avec le partage de contenus, y compris ceux qui peuvent exposer sa vie privée et son intimité, et la frontière publique-privée » ([707]) ;
– elle coïncide avec plusieurs seuils, dont celui de l’entrée au lycée et de ce qu’il est coutume d’appeler la « majorité sexuelle ».
La rapporteure précise qu’elle est favorable à une interdiction absolue de l’accès aux réseaux sociaux avant l’âge de 15 ans, contrairement à ce que prévoit la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne dite loi Marcangeli. Elle estime en effet que les mineurs de 13 à 15 ans sont encore trop vulnérables pour être exposés aux réseaux sociaux, même avec autorisation parentale.
L’introduction d’une « majorité numérique » par la loi – la mise en place d’un accord parental pour l’inscription sur les réseaux sociaux des mineurs de moins de 15 ans
La loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne ([708]) a instauré une « majorité numérique » fixée à 15 ans, c’est-à-dire l’impossibilité pour le mineur de s’inscrire sur un réseau social avant ses 15 ans, sauf en cas d’accord donné par l’un des titulaires de l’autorité parentale.
La loi ne prévoit donc ni l’interdiction totale des réseaux sociaux aux mineurs de moins de 15 ans, ni la restriction des réseaux sociaux et des fonctionnalités auxquels ceux-ci ont accès avant 15 ans. À titre de comparaison, le texte adopté en première lecture à l’Assemblée nationale comportait une disposition issue d’un amendement de Mme Sarah Tanzili ([709]), qui prévoyait l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans, sauf pour les réseaux sociaux dits « labellisés », pour lesquels une inscription était possible à condition de recueillir le consentement exprès de l’un des titulaires de l’autorité parentale.
Pour s’assurer du respect de cette « majorité numérique », la loi fait porter la responsabilité de sa mise en œuvre effective sur les plateformes de réseaux sociaux, qui doivent « refuser l’inscription à leurs services des mineurs de quinze ans […] » et mettre en place un système de contrôle de l’âge efficace, conforme à un référentiel technique élaboré par l’Arcom, à l’instar de celui adopté pour les sites pornographiques le 9 octobre 2024 ([710]).
Par ailleurs, la loi prévoit un contrôle par l’Arcom de la mise en place par les plateformes de réseaux sociaux de ces solutions techniques de contrôle de l’âge, son président pouvant adresser une mise en demeure aux plateformes récalcitrantes. En l’absence de coopération de l’une d’entre elles, le président peut saisir le président du tribunal judiciaire de Paris pour contraindre la plateforme. Une amende peut alors être infligée au réseau social, pour un montant qui ne peut excéder 1 % du chiffre d’affaires mondial de l’exercice précédent.
Jusqu’à l’été 2025, cette loi était restée lettre morte , aucun décret d’application n’ayant été publié faute d’un feu vert de la Commission européenne garantissant la conformité des dispositions de la loi au droit européen. Toutefois, depuis la publication des lignes directrices sur la protection des mineurs le 14 juillet 2025, la situation a évoluée, ouvrant ainsi la voie à la mise en œuvre effective de la loi.
Auditionnée par la commission d’enquête, Mme Clara Chappaz, ministre déléguée auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargée de l’intelligence artificielle et du numérique, a insisté sur l’importance d’une communication constante et catégorique : « je porte un message qui ne varie pas : avant 15 ans, les réseaux sociaux, c’est non » ([711]).
La rapporteure partage cet objectif, et estime que l’interdiction de l’accès aux réseaux sociaux pour les mineurs de moins de 15 ans doit, avant d’être une norme juridique, constituer une règle de vie et de société. Il s’agit, par l’édiction d’une prescription claire et sans équivoque, de provoquer un changement des comportements, et d’accompagner les parents qui pourront s’appuyer sur un texte juridique pour assumer les décisions familiales en découlant.
Au cours des auditions menées par la commission d’enquête, la comparaison avec la vente d’alcool et de tabac a été établie à de nombreuses reprises. Mme Justine Atlan, directrice générale de l’association e-Enfance, regrette que les parents soient laissés seuls pour fixer un cadre pour leurs enfants, alors qu’ « à l’inverse, il existe une interdiction très claire de vendre de l’alcool ou du tabac aux mineurs » ([712]). Cette démarche doit être transposée aux réseaux sociaux, avec le même objectif de protection de la santé des mineurs par une évolution des mentalités. C’est ce que déclare Mme Chappaz : « nous avons interdit l’alcool avant 18 ans, nous avons encadré sa publicité, nous avons informé sur ses dangers à travers des campagnes de prévention. Il nous faut faire la même chose pour les réseaux sociaux, non par méfiance à l’égard du progrès, mais par nécessité de donner des repères et de poser des limites pour accompagner les parents et les jeunes » ([713]).
b. Une interdiction limitée, pour permettre aux enfants de conserver des moyens de communication
Consciente que les réseaux sociaux constituent un moyen privilégié d’échange et de socialisation, la rapporteure est sensible à l’impératif tenant à permettre aux enfants et adolescents de communiquer entre eux, par exemple sur Whatsapp.
Elle est donc favorable à limiter l’interdiction d’accès avant 15 ans aux services de réseaux sociaux dont l’objet principal n’est pas l’échange de messages.
2. Vers une interdiction de l’accès aux réseaux sociaux avant 18 ans ?
La rapporteure tient à souligner que la décision d’interdire l’accès aux réseaux sociaux aux seuls mineurs de moins de 15 ans ne signifie pas et ne doit pas laisser croire que les plateformes ne présentent aucun risque pour les adolescents de 15 à 18 ans. M. Gilles Babinet, coprésident du Conseil national du numérique, considère en ce sens que « l’interdiction jusqu’à quinze ans pose toutefois un problème, car elle laisse entendre qu’au-delà de cet âge, l’utilisation des réseaux sociaux ne présenterait aucun risque et que les adolescents possèderaient toute la maturité nécessaire » ([714]).
La commission « enfants et écrans » préconisait d’autoriser, à compter de 15 ans, l’accès aux seuls réseaux sociaux éthiques. Considérant ne pas être « en mesure matériellement de dresser elle-même une “liste blanche” des “réseaux éthiques” », la commission proposait de confier à l’ARCOM la charge d’élaborer « la liste des dispositifs non conformes et délétères » et de « l’actualiser annuellement, à partir de critères définis en conformité avec le cadre européen et les principes arrêtés par le législateur et le pouvoir réglementaire » ([715]).
Le risque est que les plateformes se reposent sur la limite d’âge pour ne fournir que des efforts limités pour garantir un haut niveau de protection des mineurs. Selon M. Babinet, interdire l’accès aux réseaux sociaux avant l’âge de 15 ans « tend à cautionner les pratiques délétères de ces plateformes, nocives pour notre démocratie et notre cohésion sociale. [Sa] principale critique est que les plateformes s’engouffrent dans ce débat. Cela revient à affirmer que la cigarette n’est dangereuse qu’avant [dix-huit ans], alors qu’elle reste mortelle bien au-delà. Or nous avons su mettre en place de nombreuses politiques publiques visant à réduire la consommation de tabac » ([716]).
Dans ce contexte, la rapporteure est favorable à ne pas fermer la porte à une élévation de la limite d’âge d’accès aux réseaux sociaux : cette limite pourrait être fixée à 18 ans si, dans trois ans, les réseaux sociaux ne respectent pas de façon satisfaisante leurs obligations juridiques et/ou s’avèrent représenter pour les mineurs des risques importants et persistants. La rapporteure pense qu’une telle perspective, assortie d’une borne temporelle, est de nature à responsabiliser collectivement les plateformes.
Recommandation n° 31 : En 2028, évaluer si, au regard du respect par les plateformes de réseaux sociaux de leurs obligations résultant notamment du règlement DSA et de la persistance éventuelle de risques importants pour les mineurs, l’accès aux réseaux sociaux ou à certains réseaux sociaux doit être interdit avant l’âge de 18 ans.
3. Après 15 ans, encadrer l’usage plus strictement
a. Le couvre-feu numérique pour mieux encadrer l’usage des réseaux sociaux chez les 15-18 ans
Le sommeil est une fonction vitale pour tous les êtres humains et constitue un déterminant essentiel pour la santé. Sa durée et sa qualité influent sur le développement et la préservation de la santé de l’individu. Ainsi, il revêt une importance particulière chez les adolescents, période où le cerveau et le corps connaissent des transformations majeures.
Or, le professeur M. Grégoire Borst indique qu’il est communément admis que « l’exposition aux écrans altère significativement la qualité du sommeil, ce qui peut avoir des répercussions sur la santé physique et mentale » ([717]). Aussi, les réseaux sociaux, tels que TikTok, capitalisent sur des ressorts psychologiques ([718]) et utilisent des dispositifs visant à capter l’attention si prédateurs qu’ils parviennent aisément à repousser l’heure d’endormissement de leurs utilisateurs, sans pour autant leur donner le sentiment d’exercer moins librement leur libre arbitre. Dans le même temps, l’heure de réveil ne s’en trouve pas repoussée en raison de l’existence de temps sociaux institués, tels que le temps scolaire.
La docteure Sylvie Dieu-Osika s’inquiète ainsi des effets d’une utilisation nocturne croissante des réseaux sociaux par les mineurs : « l’analyse des habitudes nocturnes est particulièrement alarmante, avec une activité significative durant la nuit, s’intensifiant avec l’âge des utilisateurs » ([719]). Mme Marie-Christine Cazaux, membre du collectif Meer, relève également une connexion permanente aux réseaux sociaux, y compris la nuit : « du côté des mineurs, nous avons relevé une hyperconnexion, des jeunes à l’affût de chaque publication, y compris en cours ou durant la nuit » ([720]).
Aussi, une utilisation nocturne va de pair avec une vulnérabilité renforcée chez les utilisateurs, comme le fait remarquer M. Antonin Atger : « ceux qui sont sur des réseaux au milieu de la nuit ont peut-être déjà des troubles anxieux parce qu’il y a une corrélation avec la mauvaise qualité du sommeil. À cette heure de la nuit, ceux qui sont sur les réseaux sont peut-être des victimes plus faciles » ([721]).
Face au constat d’une diminution substantielle du temps et de la qualité du sommeil chez les adolescents, les entreprises éditrices de réseaux sociaux se sont emparées de la question. Seulement, en pratique, les mesures prises se trouvent être uniquement superficielles, au regard de l’absence d’infléchissement des comportements. Elles ont toutefois pour effet de neutraliser l’action du régulateur, ce dernier considérant, à tort, que les plateformes œuvrent en faveur de la protection de leurs utilisateurs mineurs en suivant les règles qu’elles se fixent elles-mêmes.
En d’autres termes, les stratégies de communication des entreprises éditant les réseaux sociaux, toutes confondues, consistent à induire en erreur les utilisateurs et les régulateurs en leur suggérant que les services sont sûrs et que la sécurité est une priorité majeure pour les entreprises, alors que ce n’est pas le cas. Les réseaux sociaux, au travers de leur design et de leur modèle économique mêmes, sont conçus pour maximiser la rétention des utilisateurs (défilement infini, vidéos courtes, recommandations ultra-optimisées, gratification aléatoire) et les fonctionnalités de « bien-être » supplémentaires ne viennent aucunement corriger la conception même de l’application mais viennent s’ajouter sans s’attaquer au fond des aspects rendant les utilisateurs intrinsèquement dépendants du produit. De plus, ces fonctionnalités additionnelles sont optionnelles, contournables et superficielles.
De fait, les limites d’utilisation ne sont pas obligatoires ou aisément contournables et ne s’attaquent pas à l’aspect addictif intrinsèque de l’application. À titre d’exemple, la désactivation des notifications la nuit ne répond que de façon marginale à l’objectif de limiter l’usage nocturne. Sur TikTok, le rappel au bout de soixante minutes, augmentant la conscience du temps passé sur l’application, ne résout pas le fond du problème. Toujours sur TikTok, l’existence d’une méditation guidée après 22 heures pour les mineurs, aussi positive soit-elle, ne résout pas non plus les questions de fond. Toutefois, l’ensemble de ces dispositifs permet aux entreprises de se fixer elles-mêmes leurs propres règles, tout en donnant le sentiment qu’elles agissent pour le bien-être des mineurs.
Malgré les campagnes de communication autour de ces outils, les réseaux sociaux ne communiquent pas le nombre d’utilisateurs recourant effectivement à ces outils de protection et quant à leur réelle efficacité. La rapporteure regrette que TikTok n’ait, malgré l’apparente volonté de ses salariés de faire preuve de transparence, pas été en mesure de lui indiquer le pourcentage de comptes de mineurs pour lesquels les outils de contrôle parental sont effectivement utilisés ni les études internes et indépendantes relatives à leur efficacité en matière de réduction du temps d’utilisation chez les mineurs.
Aussi, lorsque l’inefficacité d’une fonctionnalité visant à gérer le temps d’écran pour les adolescents est démontrée, les entreprises ont désormais pour habitude d’indiquer que la fonctionnalité a évolué depuis l’évaluation ou que de nouvelles fonctionnalités sont disponibles depuis, dont les effets ne pourront être évalués que plus tard, retardant inexorablement l’intervention du régulateur.
Toutefois, l’absence d’efficacité des outils de gestion du temps d’utilisation de TikTok, démontrée par le peu d’effet sur le temps réel d’utilisation des adolescents, suggère que les entreprises comme TikTok prennent des mesures intentionnellement limitées, de sorte à se donner une bonne image sans réduire le problème de fond. Cette hypothèse aurait été validée par l’existence de documents internes révélés en octobre 2024 par deux médias américains, la Kentucky Public Radio (KPR) en collaboration avec la National Public Radio (NPR), selon lesquels un outil permettant de limiter le temps passé devant les écrans sur TikTok ne parvient pas à limiter l’utilisation de l’application par les adolescents. Toujours selon ces documents, les dirigeants de TikTok évaluent l’utilité de l’outil en fonction de sa capacité à améliorer « la confiance du public dans la plateforme TikTok via la couverture médiatique » (traduction de l’auteure), quand un chef de projet TikTok indique que « l’objectif n’est pas de réduire le temps passé » (traduction de l’auteure). Cependant, dans un communiqué adressé au média CNN, un porte-parole de TikTok déclare que ces citations sont trompeuses et tirées de documents anciens sortis de leur contexte. En réponse au questionnaire écrit adressé par la rapporteure, TikTok indique, sans transmettre de document, que « les affirmations avancées étaient inexactes, car il ne s’agissait pas d’une étude interne de TikTok, mais d’un résumé d’une étude Pew datant d’avril 2018, qui porte de manière générale sur l’“usage intensif du téléphone et d’internet” et non spécifiquement sur TikTok ou même l’usage des réseaux sociaux ».
Des applications et outils disponibles sur les systèmes d’exploitation des appareils indépendants de ceux créés par les entreprises éditrices de réseaux sociaux permettent de limiter l’accès aux réseaux sociaux et réduire effectivement l’usage. Toutefois, cela suppose que l’utilisateur, d’une part, ait conscience du problème, et d’autre part, s’auto-contraigne par l’activation et le respect des outils limitant son utilisation.
Ces outils peuvent être très utiles pour les adultes. Cependant, comme cela a été démontré précédemment, les adolescents n’ont d’abord pas toujours conscience du problème. Et, lorsqu’ils en ont conscience, ils éprouvent des difficultés importantes pour s’auto-limiter, car leur cortex préfrontal, impliqué dans l’autorégulation, la planification et la prise de décision, n’est pas encore complètement mature à l’adolescence, quand, dans le même temps, les circuits liés à la recherche de récompense (dopamine) sont particulièrement actifs. Ainsi, la forte attirance pour les gratifications immédiates et le contrôle de soi encore limité créent un fort décalage. Les adolescents peuvent avoir une plus grande difficulté à se fixer des limites et à respecter les règles qu’ils s’imposent à eux-mêmes.
Dès lors, en l’absence de mesures suffisantes prises par les entreprises éditrices de réseaux sociaux – car ce n’est en tout état de cause pas dans leur intérêt –, de l’impossibilité pour les parents et tuteurs d’agir systématiquement et uniformément et pour les adolescents de prendre la pleine mesure des conséquences de cet usage et de s’auto-limiter en raison de leur jeune âge, il revient à la puissance publique de s’en emparer et de réguler.
La possibilité même de l’hyperconnexion doit être interrogée, en effet, « pourquoi TikTok est-il accessible vingt-quatre heures sur vingt-quatre ? » se demande Mme Karine de Leusse, psychologue. « Est-ce normal qu’un lieu massivement fréquenté par des mineurs soit ouvert tout le temps, nuit et jour, sans aucune régulation ? On ne laisse pas un bar ouvert vingt‑quatre heures sur vingt-quatre, ni un casino. Alors pourquoi TikTok échapperait-il à cette règle de bon sens ? Je propose donc que l’on impose des horaires collectifs à TikTok, je propose de réintroduire le rythme du jour, de la nuit, des pauses, du souffle, du réel » ([722]).
C’est ainsi qu’en Chine la législation prévoit que les terminaux mobiles cessent par défaut de fournir des services aux mineurs entre 22 h 00 et 6 h 00 le lendemain ([723]). Cependant, les parents ou tuteurs de ces terminaux qui appartiennent à des mineurs peuvent effectuer une opération de dérogation après vérification. Cette règle s’applique à tous les terminaux connectés à internet mobile (téléphones, tablettes, etc.) et à toutes les applications (y compris les jeux, les réseaux sociaux, les plateformes vidéo). Ce dispositif est doublé d’un mécanisme anti-contournement : toute désactivation du mode mineur ou réinitialisation des paramètres d’usine nécessite une vérification parentale, empêchant les mineurs de le désactiver seuls. Cette législation est conforme à l’interdiction plus générale des jeux en ligne en Chine entre 22 heures et 8 h 00 ([724]).
Aux États-Unis, l’Utah a également imposé un couvre-feu numérique de 22 h 30 à 6 h 30 sur les réseaux sociaux depuis 2024, sous la supervision des parents ([725]). Ce dispositif est couplé à un contrôle accru des parents sur la vie numérique de leurs enfants : création de comptes sur les réseaux sociaux, accès aux messageries privées, etc.
La rapporteure constate qu’il est, en pratique, parfaitement inopérant de laisser les sociétés éditrices de réseaux sociaux élaborer seules, sans cadre, des mesures et dispositifs visant à protéger les mineurs, qu’il est impossible que chaque parent ou tuteur ait connaissance de cette question et qu’il est déraisonnable de considérer que l’ensemble des adolescents soient en mesure de fixer leurs propres règles et de s’y tenir.
Fort de ce constat et dans la perspective de protéger le temps de sommeil des adolescents, la rapporteure propose la mise en place d’horaires limitatifs pour les utilisateurs des réseaux sociaux âgés de 15 à 18 ans, excluant une utilisation nocturne. Ces horaires seraient fixés de telle sorte que les réseaux sociaux soient inaccessibles quelque temps avant l’endormissement, afin de limiter le temps d’exposition à la lumière bleue émanant des écrans ([726]), et la nuit, c’est-à-dire de 22 heures à 8 heures. Durant cette période, les accès sur le site internet et sur l’application seront désactivés pour les utilisateurs mineurs. Ne seraient toutefois pas concernées les messageries instantanées non sujettes au déploiement de dispositifs favorisant une dépendance, afin que les mineurs puissent toujours communiquer à toute heure.
Ce couvre-feu numérique constituera non seulement un moyen efficace de limiter l’utilisation des écrans pendant les heures de repos et de préserver le sommeil des adolescents, mais il permettra également de créer un repère clair et uniforme pour tous les parents, facilitant ainsi l’encadrement des usages numériques de leurs enfants.
Dans une perspective pédagogique et préventive, cette interdiction devra être accompagnée de campagnes de sensibilisation sur les effets potentiellement néfastes de l’utilisation des réseaux sociaux, et plus généralement des écrans, sur le sommeil.
Cette mesure présente également l’intérêt d’être très peu onéreuse à mettre en place pour les entreprises éditrices de réseaux sociaux, d’être contraignante pour celles-ci et d’être facilement vérifiable par le régulateur. Il s’agit également d’une mesure favorisant une plus grande égalité entre les mineurs ayant des parents pleinement conscients du problème et agissant déjà en utilisant des outils de contrôle parental limitant les heures de connexion aux réseaux sociaux et les mineurs dont les parents n’ont pas connaissance de ces questions pour la santé de l’enfant.
Si ce type de limitation est contournable par l’utilisateur, notamment par l’utilisation d’outils tels qu’un réseau privé virtuel (plus connus sous le nom anglais virtual private network [VPN]), leur usage demeure suffisamment peu intuitif pour qu’une grande majorité d’utilisateurs mineurs renonce à utiliser l’application jusqu’au lendemain, offrant ainsi de meilleures perspectives en matière de santé physique et mentale des mineurs que ce que permet l’absence de règlementation actuelle en la matière.
Recommandation n° 32 : Établir, pour les 15-18 ans, un couvre-feu numérique de 22 heures à 8 heures pour les réseaux sociaux dotés de systèmes de recommandation de contenus ou de dispositifs visant à capter l’attention de l’utilisateur, et accompagner la mise en place de cette mesure par une campagne de sensibilisation sur les effets néfastes des réseaux sociaux, et plus généralement des écrans, sur le sommeil.
b. Renforcer le recours aux solutions de contrôle parental et leur efficacité
Depuis le 13 juillet 2023 ([727]), en vertu de la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet, le code des postes et des communications électroniques, « les équipements terminaux destinés à l’utilisation de services de communication au public en ligne donnant accès à des services et des contenus susceptibles de nuire à l’épanouissement physique, mental ou moral des mineurs sont équipés d’un dispositif aisément accessible et compréhensible permettant à leurs utilisateurs de restreindre ou de contrôler l’accès de telles personnes à ces services et contenus » – autrement dit, d’un dispositif de contrôle parental.
Kids Wallet : l’application de vérification de l’âge et de contrôle parental développé par le gouvernement grec
L’application Kids Wallet mise en place par le gouvernement grec en mai 2025 permet de vérifier l’âge des utilisateurs (cf. ci-dessous) et de lutter contre la dépendance en ligne chez les mineurs. L’outil s’appuie sur l’identité numérique grecque d’un parent ou d’un tuteur, validée par TaxisNet, le service national en ligne régissant les procédures et démarches fiscales via un numéro individuel (AFM) : les mineurs à partir de 12 ans disposent désormais, depuis novembre 2024, d’un numéro personnel, utilisé pour l’authentification d’accès aux comptes de réseaux sociaux. L’application s’accompagnera aussi de conseils parentaux. Un parent pourra par exemple sélectionner les applications que son enfant sera autorisé à utiliser, fixer des limites de temps d’utilisation et bloquer des applications ou sites spécifiques, selon la stratégie du gouvernement ([728]).
En pratique, les utilisateurs font état d’importantes difficultés pour manier les applications de contrôle parental et pour éviter leur contournement par les enfants. Mme Stéphanie Mistre raconte ainsi son expérience : « [Ma dernière fille] a eu son téléphone à 14 ans […]. Je me suis rendu compte qu’elle ne me réclamait plus de temps d’écran supplémentaire […]. Elle a en fait trouvé sur les réseaux – YouTube, TikTok – comment supprimer le contrôle parental. Il nous est donc difficile de les protéger, car ils sont plus au courant que nous. Je n’ai plus de ressources : j’ai voulu télécharger une autre application mais je n’y arrive pas, et il semble qu’il soit facile de la débloquer également. De quels moyens disposons-nous, en tant que parents, pour protéger nos enfants ? » ([729]).
Dans ce contexte, la rapporteure pense qu’il appartient aux autorités d’accompagner les familles en travaillant avec les plateformes et l’Agence nationale des fréquences, chargée du respect des exigences de la loi précitée du 2 mars 2022, pour mettre en place une procédure de labellisation des dispositifs de contrôle parental.
Recommandation n° 33 : Mettre en place une procédure de labellisation des applications et systèmes de contrôle parental en fonction d’un référentiel établi par l’Agence nationale des fréquences.
4. Opérer un véritable changement de paradigme au sein de l’éducation nationale
En vertu de l’article L. 511-5 du code de l’éducation, « l’utilisation d’un téléphone mobile ou de tout autre équipement terminal de communications électroniques par un élève est interdite dans les écoles maternelles, les écoles élémentaires et les collèges et pendant toute activité liée à l’enseignement qui se déroule à l’extérieur de leur enceinte, à l’exception des circonstances, notamment les usages pédagogiques, et des lieux dans lesquels le règlement intérieur l’autorise expressément ». Le même article ajoute que, dans les lycées, une telle interdiction peut être édictée par le règlement intérieur.
À partir de la rentrée 2024, « une “pause numérique” [a été] expérimentée au sein de collèges volontaires dans chaque département, de telle sorte que l’interdiction de l’usage du portable prévue par la loi soit effective et totale sur l’intégralité du temps scolaire, y compris les espaces interstitiels à risques que sont les changements de classe, les récréations et la pause méridienne » ([730]). « Nous sommes allés au-delà de l’article L. 515 du code de l’éducation, […] puisque nous avons mené une expérimentation visant à interdire totalement le portable, qu’il s’agisse de son port ou de son usage par les élèves », explique Mme Stéphanie Gutierrez, adjointe au chef de la sous-direction de l’action éducative de la direction générale de l’enseignement scolaire (DGESCO) : « dans le cadre de cette expérimentation, les établissements ont pu choisir le mode d’interdiction, qu’il s’agisse de ranger les portables dans des casiers ou de recourir à des pochettes bloquant l’usage effectif des téléphones, tout cela devant naturellement se faire en lien avec les collectivités territoriales. Il s’agissait en l’occurrence des collèges, donc en lien avec les départements, responsables des dotations de fonctionnement, car tout aménagement envisagé suppose l’accord du département. Les effets attendus touchent à la fois à la santé directe des élèves et au climat scolaire dans son ensemble et [l’on a] d’ores et déjà pu observer une amélioration sensible de l’ambiance au sein des établissements » ([731]). « On se parle plus dans la cour », indique ainsi au Parisien une élève de troisième dont le lycée a expérimenté la « pause numérique », tandis qu’un de ses camarades ajoute : « il y a certains problèmes qui ont disparu. On ne risque plus de voir des photos prises à notre insu en classe qui apparaissent sur les réseaux sociaux » ([732]).
Rebaptisée « portable en pause » pour « met[tre] davantage l’accent sur le téléphone lui-même, car ce sont bien les usages du smartphone qui sont visés » ([733]), cette expérimentation a été étendue à l’ensemble des collèges publics à partir de la rentrée 2025, pour une mise en œuvre effective avant la fin de l’année civile 2025 ([734]).
Aujourd’hui, nos jeunes peuvent consulter leur téléphone en classe comme lors des pauses. Concrètement, il est évident que cette distraction numérique a des effets négatifs sur certaines habiletés cognitives qui peuvent conduire à une baisse de l’apprentissage.
Par ailleurs, n’oublions pas que l’école doit être un lieu de socialisation pour les jeunes. Or, les témoignages des jeunes comme des encadrants nous montrent que les portables constituent un frein puissant aux interactions entre élèves.
Saluant la promotion de la déconnexion dans le cadre scolaire, la rapporteure invite à en renforcer les modalités, par :
– la pérennisation du dispositif « portable en pause » dans les collèges et son extension aux écoles élémentaires ;
– l’interdiction d’utilisation du téléphone portable dans les lycées, qui pourrait être renforcée par la mise en œuvre du dispositif « portable en pause ».
Recommandation n° 34 : Pérenniser et généraliser le dispositif « portable en pause » dans l’ensemble des établissements scolaires, - écoles, collèges et lycées, dès janvier 2026. Modifier le code de l’éducation pour prévoir que l’utilisation d’un téléphone mobile ou de tout autre équipement terminal de communications électroniques par un élève est interdite dans les lycées, dans les mêmes conditions que dans les écoles maternelles, les écoles élémentaires et les collèges.
Les auditions menées par la commission d’enquêtes ainsi que les rencontres de terrain avec des élèves et parents d’élèves ont fait naître chez la rapporteure des interrogations quant à la place du numérique dans les établissements scolaires.
D’une part, les outils et ressources numériques sont couramment mobilisés dans le cadre des enseignements : répondant à l’objectif pédagogique du développement des compétences numériques des élèves, cette mobilisation peut parfois être source d’incompréhension d’injonctions d’apparence contradictoire – la même communauté éducative qui interdit l’utilisation des téléphones portables a recours aux écrans pour travailler. D’autre part, le recours croissant aux environnements numériques de travail (ENT) a pour conséquence une utilisation continue des outils numériques par les élèves, en dehors de l’établissement, y compris en soirée, le samedi et le dimanche et durant les vacances.
À ce titre, la rapporteure salue la décision du ministère de l’éducation nationale de suspendre la mise à jour dans les ENT et les logiciels de vie scolaire le soir et en fin de semaine : au cours de l’année scolaire 2025-2026, et au plus tard pour la rentrée scolaire 2026, la suspension de la diffusion de nouvelles informations entre les personnels d’enseignement et d’éducation, les élèves et leur famille, dans les ENT et les logiciels de vie scolaire, devra être instaurée le soir (par défaut de 20 heures à 7 heures le lendemain) et en fin de semaine (par défaut du vendredi 20 heures au lundi 7 heures) ([735]).
Il faut aussi envisager sérieusement le retour au bon vieux « cahier de texte ». En effet, comment sérieusement essayer de tenir nos enfants le plus possible éloignés des écrans, quand on leur demande de se connecter, sitôt rentrés de l’école, à Pronote ou tout autre logiciel, pour récupérer leurs devoirs ?
Elle invite, plus largement, à repenser l’utilisation des outils et ressources numériques dans le cadre scolaire. Elle partage en ce sens la recommandation de la commission « enfants et écrans », qui invitait à « associer systématiquement le déploiement des programmes et des ressources numériques éducatifs dans un cadre scolaire à une expérimentation, une étude d’impacts préalables avant diffusion plus large et à une formation des enseignants à leurs usages pédagogiques ».
La rapporteure recommande la mise en œuvre d’une mission au sein de l’Éducation nationale, qui viserait à restreindre l’utilisation des outils numériques en classe et à la maison, à des fins pédagogiques strictes. Il faut revoir l’équilibre entre les méthodes pédagogiques traditionnelles et numériques.
Recommandation n° 35 : Évaluer l’apport pédagogique et éducatif réel de l’utilisation des outils et ressources numériques dans le cadre scolaire et réduire l’usage du numérique au strict nécessaire.
5. Action, réaction : pour une meilleure réponse judiciaire à la diffusion de contenus néfastes
a. Étendre la compétence du pôle national de lutte contre la haine en ligne à la provocation au suicide
L’article 15-3-3 du code de procédure pénale, créé par la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, prévoit qu’un tribunal judiciaire exerce une compétence nationale, concurrente à celle résultant du droit commun, pour les délits de harcèlement sexuel ou moral aggravé par le caractère discriminatoire, dès lors que les faits sont commis par l’utilisation d’un service de communication au public en ligne ou par le biais d’un support numérique ou électronique. Le décret n° 2020-1444 du 24 novembre 2020 pris pour l’application de l’article 15-3-3 du code de procédure pénale a désigné le tribunal judiciaire de Paris pour exercer cette compétence.
En complément, par une circulaire du 24 novembre 2020 relative à la lutte contre la haine en ligne, le ministre de la Justice a, pour « accroître l’efficacité de la réponse judiciaire », créé au tribunal judiciaire de Paris un « pôle national de lutte contre la haine en ligne ».
Ce dernier exerce une compétence concurrente, lorsque les propos diffusés sur internet visibles depuis n’importe quel point du territoire national sont susceptibles de constituer les infractions suivantes :
– la provocation directe non suivie d’effet à la commission d’un crime ou d’un délit ;
– les délits de provocation publique à la discrimination, à la haine ou à la violence, d’injure publique et de diffamation publique, à raison de l’appartenance ou de la non-appartenance, réelle ou supposée, à une ethnie, une Nation, une prétendue race ou une religion déterminée ou à raison du sexe, de l’orientation sexuelle ou identité de genre ou du handicap ;
– le harcèlement moral dès lors que les messages sont publics et qu’ils comportent des éléments permettant de retenir une circonstance aggravante des articles 132-76 et 132-77 du code pénal.
Le pôle national de lutte contre la haine en ligne est saisi des affaires complexes, engendrant un fort trouble à l’ordre public.
La rapporteure propose d’étendre la compétence du pôle national de lutte contre la haine en ligne à la provocation au suicide d’autrui et à la propagande ou publicité en faveur de moyens de se donner la mort.
Recommandation n° 36 : Étendre, par voie de circulaire, la compétence du pôle national de lutte contre la haine en ligne aux infractions de provocation au suicide visées aux articles 223‑13 et 223-14 du code pénal.
b. Renforcer la peine de suspension des comptes d’accès à des services en ligne et son application
Depuis la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, le tribunal peut, en vertu de l’article 131-35-1 du code pénal, ordonner à titre de peine complémentaire la suspension des comptes d’accès à des services en ligne, et notamment des plateformes en ligne, lorsque ceux-ci ont été utilisés pour commettre certaines infractions. La suspension est prononcée pour une durée maximale de six mois ; cette durée est portée à un an lorsque la personne est en état de récidive légale. Pendant l’exécution de la peine, il est interdit à la personne condamnée d’utiliser les comptes d’accès aux services de plateforme en ligne ayant fait l’objet de la suspension ainsi que de créer de nouveaux comptes d’accès à ces mêmes services. Le fait, pour le fournisseur, de ne pas procéder au blocage des comptes faisant l’objet d’une suspension est puni de 75 000 euros d’amende.
La rapporteure suggère de renforcer cette peine souvent qualifiée de « bannissement », en prévoyant :
– d’ajouter à la liste des délits pour lesquels la peine est encourue « la propagande ou la publicité, quel qu’en soit le mode, en faveur de produits, d’objets ou de méthodes préconisés comme moyens de se donner la mort », punie par l’article 223-14 du code pénal ;
– de porter à un an, ou deux ans en cas de récidive légale, la durée maximale de la suspension ;
– de relever à 150 000 euros l’amende sanctionnant le fait, pour le fournisseur, de ne pas procéder au blocage des comptes faisant l’objet d’une suspension.
Elle recommande d’accompagner cette modification législative d’une circulaire de présentation pour sensibiliser les magistrats à son utilité.
Recommandation n° 37 : Modifier le code pénal pour prévoir que la peine complémentaire de suspension des comptes d’accès à des services en ligne visée par l’article 131-35-1 est encourue pour le délit prévu à l’article 223-14 du code pénal, que la suspension est prononcée pour une durée maximale d’un an portée à deux ans en cas de récidive et que le fait, pour le fournisseur, de ne pas procéder au blocage des comptes faisant l’objet d’une suspension est puni de 150 000 euros d’amende. Présenter, par voie de circulaire, ces modifications législatives.
C. Face à l’extrême digitalisation de nos vies, la nécessité de réinventer un avenir plus équilibré pour nos enfants
1. Et si le problème était le smartphone ?
a. Promouvoir la déconnexion dans la vie quotidienne
Au-delà du seul cadre scolaire évoqué précédemment, se pose la question de la régulation de l’utilisation des outils numériques par les enfants et les adolescents, et particulièrement du smartphone, dont la création concomitante à celle des réseaux sociaux a représenté un « grand bouleversement », démultipliant les dangers en ligne pour les mineurs, d’après Mme Atlan, directrice générale de l’association e-Enfance
M. Stéphane Blocquaux, docteur et maître de conférence en sciences de l’information et de la communication, rappelle à ce titre que le smartphone « constitue le principal canal d’accès aux réseaux sociaux ». Pour cette raison, et jugeant que les politiques d’éducation et de communication ont rencontré « un échec cuisant », il est partisan d’« interdire aux mineurs la possession d’un smartphone ». Selon lui, « cette mesure radicale consistant à imposer aux collégiens la détention d’un téléphone à touches – les talkies-walkies comme ils les appellent – aurait des effets bien plus bénéfiques que la seule régulation des plateformes » ([736]).
M. Bruno Patino, président de Arte France, est bien plus dubitatif. Il regrette certes « l’apparition de la connexion permanente [qui] a tout changé dans nos vies », mais considère que « dans une société connectée en permanence, il […] semble difficile de refuser l’accès à cet aspect-là de la société avant un certain âge » ([737]).
Force est de constater que l’accès au smartphone dès le plus jeune âge représente aujourd’hui un problème majeur de santé publique : malgré les risques graves liés à l’utilisation du smartphone sur le développement des fonctions cognitives de l’enfant, il est légal pour un enfant, aussi jeune soit-il, d’acheter un smartphone. M. Cavada, alerte sur la situation actuelle, qu’il juge « alarmante » : « comment imaginer que nous permettions, sans la moindre restriction, d’acheter un smartphone à un enfant de six ans, alors que nul n’imaginerait vendre un scooter à un mineur de douze ans sans encadrement préalable ni autorisation spécifique » ([738]).
La situation est d’autant plus préoccupante, qu’« il existe une pression sociale très marquée sur l’équipement des jeunes en smartphones, de plus en plus jeunes » ([739]) , d’après Mme Atlan.
M. Cavada propose ainsi d’interdire l’usage du smartphone pour les mineurs de moins de 16 ans, en offrant une alternative, « un appareil limité aux appels téléphoniques, sans accès à internet ni aux réseaux sociaux. Il s’agit ici de préserver la santé mentale des enfants, de protéger leur discernement, leur jugement et leur rapport au monde. Il ne s’agit pas d’une mesure symbolique mais d’une nécessité face à une réalité qui, si nous ne la régulons pas, continuera d’oblitérer leur développement, leur esprit critique et leur avenir » ([740]).
La rapporteure souhaite ainsi attirer l’attention du public sur des initiatives rencontrant un succès croissant : les téléphones portables sans connexion à internet, ou dumbphones. Ces appareils offrent des fonctionnalités limitées, permettant principalement d’envoyer des messages et de passer des appels téléphoniques. Certains ont un design proche de celui des smartphones, pour être plus attrayants vis-à-vis des enfants. Leur adoption par les familles paraît tout à fait pertinente et doit être encouragée, notamment pour les enfants de 11 à 13 ans – la commission « enfants et écrans » considérait qu’il était envisageable d’équiper les enfants d’un téléphone portable à partir de 11 ans, mais recommandait de privilégier, avant 13 ans, les téléphones sans connexion à internet.
À l’inverse, l’achat de téléphones portables connectés à internet pour les mineurs de moins de 13 ans doit être découragé. La rapporteure recommande donc d’apposer aux emballages des téléphones portables connectés à internet la mention « déconseillé aux enfants de moins de 13 ans ».
En vertu de la directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 prévoyant une procédure d’information dans le domaine des réglementations techniques et des règles relatives aux services de la société de l’information, cette mesure devra être notifiée à la Commission européenne.
Recommandation n° 38 : Faire la promotion et mettre en place un label pour les téléphones sans accès à internet, encore trop peu connus des parents.
Recommandation n° 39 : Modifier le code de la santé publique pour prévoir que les unités de conditionnement, emballages extérieurs, suremballages et boîtes de téléphones mobile et autres équipements terminaux de communications électroniques connectés à internet comportent un message de prévention visant à informer les consommateurs que ces produits sont déconseillés aux mineurs de moins de 13 ans.
b. Réduire l’excuse de l’ennui : proposer des alternatives au « tout numérique »
Encadrer l’utilisation des outils numériques par les mineurs, dans une optique de réduction significative du temps d’usage des écrans, nécessite de proposer aux enfants et aux adolescents des occupations alternatives, des activités de substitution, leur permettant de se divertir, de s’instruire, de maintenir et retisser le lien social avec leurs pairs.
Aussi la rapporteure est-elle favorable au déploiement d’un plan de soutien massif aux activités périscolaires et extrascolaires, permettant à chaque enfant le souhaitant de pratiquer régulièrement une activité ludique, culturelle ou sportive. Sensible aux propos du Dr Tisseron selon lequel « l’accès aux activités extrascolaires varient considérablement selon les milieux sociaux », elle partage sa proposition « d’ouvrir les cours de récréation et les gymnases des écoles le week-end, offrant ainsi des espaces de socialisation physique essentiels au développement des enfants » ([741]).
À ce titre, l’école doit aussi se réinventer. Une centaine de parlementaires soutiennent, ainsi, l’éducation au dehors et en contact avec la nature ([742]).
Jonathan Haidt expose certaines expériences notamment aux États-Unis avec le projet Let Grow. Sans budget pharaonique, il est possible de suggérer l’ouverture de certaines infracstructures, des cours d’école, avant le début des cours, comme après la fin des cours, pour permettre le jeu libre, sous surveillance, de nos jeunes, dans un cadre sécurisé.
Recommandation n° 40 : Accompagner les collectivités et prioriser les investissements de l’État (politique de la ville et CAF) dans le développement des activités ludiques, culturelles et sportives proposées aux enfants et adolescents dans le cadre périscolaire et extrascolaire.
Recommandation n° 41 : Soutenir et développer les initiatives « sans écran » auprès des associations et centre de loisirs tournés vers la jeunesse, par le biais d’appels à projets.
Recommandation n° 42 : Expérimenter, avec les départements et régions volontaires, l’ouverture et la surveillance de certains espaces des locaux des collèges et des lycées le samedi et le dimanche.
2. Et pour les parents irresponsables, vers un délit de négligence numérique ?
L’article 227-17 du code pénal dispose que « Le fait, par le père ou la mère, de se soustraire, sans motif légitime, à ses obligations légales au point de compromettre la santé, la sécurité, la moralité ou l’éducation de son enfant mineur est puni de deux ans d'emprisonnement et de 30 000 euros d’amende. »
La rapporteure a bien conscience que de nombreux parents ignorent les conséquences d’une exposition aux écrans sur le cerveau de leur enfant. Mais elle estime que pour une part d’entre eux non négligeable, l’écran est devenu une nouvelle baby-sitter 2.0 qui leur assure une tranquillité, le soir, au restaurant, dans une salle d’attente, dans les transports en commun.
Laisser son enfant de 2 ans passer 6 heures sur un écran, n’est-ce pas compromettre sa santé ? Laisser son enfant de 7 ans seul sur TikTok, n’est-ce pas aussi compromettre sa sécurité et sa moralité ?
Poser la possibilité d’une sanction à un comportement parental inapproprié pour son enfant peut aussi constituer un signal d’alarme efficace, aux yeux de la rapporteure.
Elle préconise donc de laisser passer trois années de communication massive et de mise à jour de toute la communication des administrations concernées, sur les recommandations essentielles de la commission « enfants et écrans ». Une fois ce délai écoulé, il lui paraît nécessaire de créer un délit de négligence numérique en complétant l’article 227-17 du code pénal, qui ne permet actuellement pas de sanctionner les manquements des parents à leurs obligations de protection de leurs enfants face aux graves dangers que représente pour ces derniers l’utilisation des outils numériques, et en particulier des réseaux sociaux.
Recommandation n° 43 : Après un délai de trois ans permettant une campagne d’information massive sur les risques liés à l’utilisation des réseaux sociaux, créer un délit de négligence numérique en complétant l’article 227-17 du code pénal, afin de sanctionner les manquements graves de certains parents à leurs obligations de protection de la santé et de la sécurité de leurs enfants face aux outils numériques, notamment dès le plus jeune âge.
Recommandation n° 1 : Proposer d’inscrire l’interdiction de l’accès aux services de réseaux sociaux en ligne, dont l’objet principal n’est pas l’échange de messages, aux mineurs de moins de 15 ans dans le droit de l’Union européenne.
Recommandation n° 2 : En attendant ou à défaut d’une interdiction de l’accès aux services de réseaux sociaux en ligne, dont l’objet principal n’est pas l’échange de messages, aux mineurs de moins de 15 ans à l’échelle de l’Union européenne, inscrire cette mesure dans la législation nationale.
Recommandation n° 3 : Appuyer, dans le cadre de la révision des lignes directrices sur la protection des mineurs, prévue pour 2026, une modification prévoyant que les paramètres adaptés à l’âge des utilisateurs mineurs ne puissent pas être désactivés.
Recommandation n° 4 : Soutenir, au sein du Conseil de l’Union européenne, le renforcement des moyens financiers et humains alloués à la régulation des grandes plateformes numériques, afin de permettre à la Commission européenne d’augmenter ses effectifs dans le but d’assurer une supervision effective du respect des obligations des plateformes en matière de protection des mineurs prévues par le règlement DSA.
Recommandation n° 5 : Renforcer les moyens humains, techniques et financiers de l’Arcom afin de lui permettre d’assurer pleinement ses missions de supervision des plateformes numérique dans le cadre du règlement DSA, en particulier en matière de protection des mineurs, de suivi du respect des obligations des plateformes, et de soutien à la production de données et de travaux de recherche relatifs aux risques systémiques inhérents à ces plateformes.
Recommandation n° 6 : Renforcer le dispositif des signaleurs de confiance, en garantissant un financement pérenne des entités déjà reconnues, en encourageant financièrement de nouveaux acteurs à déposer leur candidature auprès de l’Arcom, et en désignant un ou plusieurs signaleurs de confiance spécialisés dans les contenus liés à la santé mentale.
Recommandation n° 7 : Mettre en place, au sein de l’administration, un dispositif structuré de veille des réseaux sociaux, à moyens humains et financiers constants, consacré aux contenus relatifs à la santé mentale et susceptibles d’avoir des effets sur celle-ci.
Recommandation n° 8 : Soutenir, au sein du Conseil de l’Union européenne, l’adoption par la Commission européenne de lignes directrices au titre du règlement DSA précisant les standards minimaux en matière de contenu et de durée des formations des modérateurs, ainsi que des indicateurs spécifiques relatifs à leurs conditions de travail, et plus particulièrement à leur suivi psychologique, devant être intégrés aux rapports de transparence, afin que les plateformes soient tenues de rendre compte dans ces rapports, de manière détaillée, des dispositifs de formation et d’accompagnement psychologique mis en place, ainsi que des conditions concrètes d’exercice de cette activité.
Recommandation n° 9 : Modifier la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) pour prévoir que les personnes dont l’activité consiste à fournir des services d’hébergement concourent à la lutte contre la diffusion des contenus constituant l’infraction mentionnée à l’article 223‑14 du code pénal, à savoir la propagande ou la publicité en faveur de moyens de se donner la mort.
Recommandation n° 10 : Missionner des experts juridiques pour évaluer la pertinence de l’évolution de la responsabilité des services de réseaux sociaux en ligne vers un statut d’éditeur.
Recommandation n° 11 : Dans le cadre de la préparation de la prochaine réglementation européenne relative aux plateformes en ligne, le Digital fairness act, soutenir l’inclusion de dispositions renforçant les obligations pour les plateformes d’offrir aux utilisateurs des paramètres spécifiques de personnalisation de leur expérience et imposant la diversification des contenus recommandés ainsi qu’une part obligatoire d’aléatoire dans les algorithmes de recommandation.
Recommandation n° 12 : Introduire dans le droit européen une obligation de pluralisme algorithmique, inspirée du principe de pluralisme des médias inscrit à l’article 34 de la Constitution, afin de garantir aux utilisateurs des plateformes, à travers la mise en place d’une interopérabilité des systèmes de recommandation et la possibilité de choisir entre plusieurs algorithmes, un réel pouvoir de décision sur leur expérience numérique – et en ce qui concerne les parents, sur celle de leurs enfants.
Recommandation n° 13 : Accélérer le déploiement des outils numériques souverains développés par l’État, y compris auprès du grand public, et soutenir les alternatives européennes aux plateformes aujourd’hui dominantes.
Recommandation n° 14 : Mettre à jour les outils de communication des administrations pour les mettre en conformité avec les conclusions de la commission « Enfants et écrans » et s’assurer que celles-ci soient systématiquement rappelées dans les communications à venir.
Recommandation n° 15 : Dans le cadre de la promotion de la santé mentale comme Grande cause nationale en 2025, diffuser des supports de communication sur l’utilisation des réseaux sociaux et ses risques.
Recommandation n° 16 : Modifier le code de la santé publique pour imposer la présence d’une information à caractère sanitaire lors des messages publicitaires en faveur des services de réseaux sociaux en ligne.
Recommandation n° 17 : Financer, par des fonds publics, la réalisation d’études longitudinales consacrées au suivi d’une cohorte d’enfants et visant notamment à évaluer les conséquences psychologiques de l’utilisation des réseaux sociaux par les mineurs.
Recommandation n° 18 : Modifier les programmes d’enseignement moral et civique pour inclure une sensibilisation à l’usage raisonné des outils numériques dès la classe de CP, en insistant sur la nécessité d’éviter l’exposition aux écrans.
Recommandation n° 19 : Modifier le code de l’éducation pour prévoir que la formation à l’utilisation responsable des outils et des ressources numériques contribue à la protection de la santé mentale en ligne. Modifier les programmes d’éducation morale et civique pour aborder les conséquences psychologiques de l’exposition à des contenus illicites ou choquants ou de l’exposition répétée à des contenus similaires.
Recommandation n° 20 : Institutionnaliser et encourager, par voie de circulaire, à l’association d’intervenants extérieurs aux séances d’éducation aux médias et à l’information, afin d’offrir aux élèves un espace de parole libre.
Recommandation n° 21 : Renforcer le pilotage académique et national de l’éducation aux médias et à l’information et du réseau des référents académiques EMI. Proposer, sur le site du centre pour l’éducation aux médias et à l’information, une cartographie digitale recensant les intervenants et les actions proposées sur l’ensemble du territoire.
Recommandation n° 22 : Intégrer au carnet de santé un message destiné aux parents relatif à l’utilisation des réseaux sociaux, reprenant les repères d’âges préconisés par la commission « enfants et écrans », ou, le cas échéant, la limite d’âge fixée par le législateur national ou européen.
Recommandation n° 23 : Utiliser les consultations et les actions de prévention organisées par les services et centres de protection maternelle et infantile (PMI) pour former les parents sur le développement cognitif et socio-émotionnel des enfants et les conséquences de l’exposition aux écrans.
Recommandation n° 24 : Mettre à jour le site jeprotegemonenfant.gouv.fr, en accordant les recommandations à celles de la commission « enfants et écrans ». Créer, sur le site jeprotegemonenfant.gouv.fr, une rubrique « je protège mon enfant dans son utilisation des réseaux sociaux ».
Recommandation n° 25 : Lancer une campagne nationale de communication sur le thème de l’utilisation des réseaux sociaux par les mineurs, pour faire connaître le site jeprotegemonefant.gouv.fr.
Recommandation n° 26 : Systématiser, dans le cadre de la formation initiale et régulière de l’ensemble de la communauté éducative, des séances régulières et obligatoires relatives à l’utilisation des réseaux sociaux et ses conséquences psychologiques pour les mineurs.
Recommandation n° 27 : Renforcer les moyens consacrés au repérage des troubles psychiques chez les mineurs, notamment par l’augmentation des effectifs de professionnels de santé et du secteur médico-social intervenant en milieu scolaire.
Recommandation n° 28 : Étendre les mesures du dispositif Santé Psy Étudiants aux mineurs et accroître de manière significative le nombre de psychologues conventionnés afin de garantir un accès effectif au suivi psychologique.
Recommandation n° 29 : Mettre en place des formations régulières à destination des professionnels liés à l’enfance, en particulier des secteurs médical et médico-social, afin de les sensibiliser et de les outiller sur les usages numériques des mineurs et leurs effets sur la santé mentale.
Recommandation n° 30 : Définir un cadre national clair régissant l’usage des écrans par les mineurs hospitalisés, afin de limiter l’exposition à des contenus et des usages susceptibles d’aggraver leur état psychique au cours de la prise en charge, en cohérence avec les objectifs thérapeutiques.
Recommandation n° 31 : En 2028, évaluer si, au regard du respect par les plateformes de réseaux sociaux de leurs obligations résultant notamment du règlement DSA et de la persistance éventuelle de risques importants pour les mineurs, l’accès aux réseaux sociaux ou à certains réseaux sociaux doit être interdit avant l’âge de 18 ans.
Recommandation n° 32 : Établir, pour les 15-18 ans, un couvre-feu numérique de 22 heures à 8 heures pour les réseaux sociaux dotés de systèmes de recommandation de contenus ou de dispositifs visant à capter l’attention de l’utilisateur, et accompagner la mise en place de cette mesure par une campagne de sensibilisation sur les effets néfastes des réseaux sociaux, et plus généralement des écrans, sur le sommeil.
Recommandation n° 33 : Mettre en place une procédure de labellisation des applications et systèmes de contrôle parental en fonction d’un référentiel établi par l’Agence nationale des fréquences.
Recommandation n° 34 : Pérenniser et généraliser le dispositif « portable en pause » dans l’ensemble des établissements scolaires, - écoles, collèges et lycées, dès janvier 2026. Modifier le code de l’éducation pour prévoir que l’utilisation d’un téléphone mobile ou de tout autre équipement terminal de communications électroniques par un élève est interdite dans les lycées, dans les mêmes conditions que dans les écoles maternelles, les écoles élémentaires et les collèges.
Recommandation n° 35 : Évaluer l’apport pédagogique et éducatif réel de l’utilisation des outils et ressources numériques dans le cadre scolaire et réduire l’usage du numérique au strict nécessaire.
Recommandation n° 36 : Étendre, par voie de circulaire, la compétence du pôle national de lutte contre la haine en ligne aux infractions de provocation au suicide visées aux articles 223‑13 et 223-14 du code pénal.
Recommandation n° 37 : Modifier le code pénal pour prévoir que la peine complémentaire de suspension des comptes d’accès à des services en ligne visée par l’article 131-35-1 est encourue pour le délit prévu à l’article 223-14 du code pénal, que la suspension est prononcée pour une durée maximale d’un an portée à deux ans en cas de récidive et que le fait, pour le fournisseur, de ne pas procéder au blocage des comptes faisant l’objet d’une suspension est puni de 150 000 euros d’amende. Présenter, par voie de circulaire, ces modifications législatives.
Recommandation n° 38 : Faire la promotion et mettre en place un label pour les téléphones sans accès à internet, encore trop peu connus des parents.
Recommandation n° 39 : Modifier le code de la santé publique pour prévoir que les unités de conditionnement, emballages extérieurs, suremballages et boîtes de téléphones mobile et autres équipements terminaux de communications électroniques connectés à internet comportent un message de prévention visant à informer les consommateurs que ces produits sont déconseillés aux mineurs de moins de 13 ans.
Recommandation n° 40 : Accompagner les collectivités et prioriser les investissements de l’État (politique de la ville et CAF) dans le développement des activités ludiques, culturelles et sportives proposées aux enfants et adolescents dans le cadre périscolaire et extrascolaire.
Recommandation n° 41 : Soutenir et développer les initiatives « sans écran » auprès des associations et centre de loisirs tournés vers la jeunesse, par le biais d’appels à projets.
Recommandation n° 42 : Expérimenter, avec les départements et régions volontaires, l’ouverture et la surveillance de certains espaces des locaux des collèges et des lycées le samedi et le dimanche.
Recommandation n° 43 : Après un délai de trois ans permettant une campagne d’information massive sur les risques liés à l’utilisation des réseaux sociaux, créer un délit de négligence numérique en complétant l’article 227-17 du code pénal, afin de sanctionner les manquements graves de certains parents à leurs obligations de protection de la santé et de la sécurité de leurs enfants face aux outils numériques, notamment dès le plus jeune âge.
Lors de sa réunion du jeudi 4 septembre 2025, la commission examine, à huis clos, les conclusions des travaux de la commission d’enquête.
M. le président Arthur Delaporte. La dernière réunion de notre commission d’enquête n’est pas retransmise, ni ouverte à la presse. Elle fera l’objet d’un compte rendu, annexé au rapport.
J’ai eu grand plaisir à présider cette commission d’enquête et à travailler avec la rapporteure Laure Miller ainsi qu’avec vous toutes et tous. Par ailleurs, je tiens à vous remercier pour votre présence ce matin, malgré les contraintes d’agenda. En effet, le rapport doit être adopté avant le 12 septembre. À la suite de son adoption, il sera rendu public le 11 septembre.
Je vous remercie pour votre présence lors de nos travaux dont le rythme fut soutenu. Au total, du 10 avril au 17 juin, nous avons tenu soixante-sept réunions en 84 jours, week-ends et jours fériés inclus, et avons entendu cent soixante‑dix‑huit personnes : nous avons auditionné cent soixante‑trois personnes physiquement ou en visioconférence durant 95 heures – ces auditions ayant fait l’objet d’un compte rendu – et nous avons rencontré quinze personnes lors de notre déplacement à Bruxelles. Grâce à la visioconférence qui nous a permis de tenir des réunions le lundi matin et le vendredi, nous avons augmenté d’un tiers le temps que nous pouvions consacrer aux auditions.
Nous avons auditionné des personnes dont les profils sont très différents. Nous avons ainsi entendu vingt-deux personnels médicaux et paramédicaux ; neuf employés, ex-employés ou sous-traitants de TikTok ; six représentants de plateformes numériques ; trente représentants d’associations ou de collectifs ; quinze victimes ou parents de victimes de TikTok ; quarante‑quatre représentants d’administrations ou d’autorités publiques ; neuf parlementaires ou anciens parlementaires français ou européens ; un représentant de l’Union européenne ; vingt-deux chercheurs ; dix créateurs ou créatrices de contenus et représentants d’agences de création de contenus ; le responsable d’un institut de mesure d’audience.
Nous avons organisé une consultation publique, dont nous présenterons les résultats à l’issue de cette réunion. Nous avons reçu 31 000 réponses, dont 19 000 provenaient de lycéens et de mineurs, ainsi que 200 mails qui ont fait l’objet d’un examen précis. Ces éléments ont permis d’analyser le rapport des jeunes aux réseaux sociaux.
Je souhaite remercier les personnes qui ont travaillé à nos côtés : l’équipe des administrateurs, Mme Inès Fauconnier, Mme Irène Gay, M. Sofian Khabot ; l’apprenti auprès de la commission des finances, M. Baptiste Prétot ; les stagiaires de la commission des finances, Mme Naomie Chainho, M. Tom Kurth et Mme Ysaure Reynaud, qui ont prêté main-forte pour analyser les réponses et les mails reçus ; les assistantes de direction et de gestion, Mme Laurence Martinez et Mme Pascale Semelet ; les agents de la commission des finances ; les rédacteurs des comptes rendus ; M. Frédéric Poli, administrateur-adjoint à la direction de la communication et de la valorisation patrimoniale, qui a mis en ligne la consultation publique et qui a réalisé un important travail de traitement des données ; les collaborateurs parlementaires de Mme Miller, M. Antonin Thomas, Mme Iphigénie Betolaud et M. Benjamin Lacourt, ainsi que mon stagiaire, M. Alexis Dudonné, et mon collaborateur, M. Léopold Benattar.
Mme Laure Miller, rapporteure. Je m’associe aux remerciements du président. Vu l’actualité, nous avons eu raison d’accomplir ce travail transpartisan. Par les temps qui courent, il est agréable de réussir à s’entendre sur un constat et sur les actions à mener dans les mois et les années qui viennent.
La première partie du rapport reprend les propos tenus lors des auditions, notamment par les jeunes et les professionnels de santé : c’est une façon de soulever le capot de TikTok et des réseaux sociaux pour dévoiler ce qui se cache derrière cette vitrine. Il était primordial de le faire.
La deuxième partie présente les combats actuels et la manière dont ils sont menés. À l’échelle de l’Union européenne, la DG Connect (direction générale des réseaux de communication, du contenu et des technologies) accomplit un important travail – nous l’avons constaté lors de notre déplacement à Bruxelles – qui n’est pas forcément visible. On ne mesure pas le courage dont a fait preuve le commissaire européen Thierry Breton pour imposer le règlement sur les services numériques – le Digital Services Act ou DSA – qui est une étape indispensable. Il faut désormais accélérer son application effective afin que nos enfants soient protégés.
La troisième partie est consacrée aux recommandations. Dans la première série de recommandations, je préconise de poursuivre le travail d’influence sur le droit de l’Union européenne effectué par la France. Plusieurs pays, dont le nôtre, plaident pour protéger les mineurs qui utilisent internet. Nous avons obtenu des victoires : les lignes directrices de la Commission européenne sur la protection des mineurs dans le cadre de cette même législation sur les services numériques nous permettront d’agir à l’échelle nationale. Dans le cadre de la future adoption du Digital Fairness Act, la législation sur l’équité numérique, la France doit faire entendre sa voix, qui vise à protéger les mineurs. Enfin, introduire un pluralisme algorithmique est indispensable.
Par ailleurs, même s’il est facile de rejeter la responsabilité sur l’Union européenne, beaucoup peut être fait au niveau national ; c’est le sens de ma deuxième série de recommandations. Je m’inscris dans la mouvance actuelle en préconisant l’interdiction de l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, ce que les lignes directrices de la Commission européenne rendent désormais possible. Du reste, j’ai été sensible aux propos tenus par certaines personnes auditionnées : il ne faut pas non plus considérer qu’après 15 ans, c’est open bar et que les jeunes pourraient avoir accès aux réseaux sociaux sans limite. Je préconise d’instaurer un couvre-feu : l’accès aux réseaux serait interdit entre vingt-deux heures et huit heures du matin, ce qui serait une des réponses à la question des troubles du sommeil.
Tout le monde a salué les conclusions de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, mais leur mise en œuvre tarde – l’audition des représentants de l’éducation nationale l’a confirmé –, alors qu’elles ont été présentées au mois de janvier 2024 au président de la République. À titre d’exemple, le site www.jeprotegemonenfant.gouv.fr n’est pas à jour. En effet, l’une des préconisations du quiz sur l’accès aux réseaux sociaux des enfants faites aux parents d’un enfant de moins de 3 ans est d’installer un contrôle parental sur les appareils.
En outre, je recommande d’étendre le dispositif Portable en pause aux lycées. Dans les lycées où elle a été menée, les jeunes ont considéré cette expérimentation comme bénéfique : leur anxiété a diminué et ils communiquent davantage avec les autres.
Il serait souhaitable que le ministre de l’éducation nationale mène un travail d’évaluation des outils numériques nécessaires au bon apprentissage des enfants. On utilise les ordinateurs pour tout et n’importe quoi, sans qu’il soit démontré que cet usage est nécessaire. À cet égard et à l’instar de nombreux pays, la France doit envisager un retour en arrière qui semble indispensable.
Je préconise également de labelliser tous les outils utiles de contrôle parental afin d’aider les parents. L’audition des familles de victimes a montré que les parents étaient un peu perdus et ne connaissaient pas les outils permettant de brider le téléphone de leurs enfants. Les téléphones portables dépourvus d’un accès à internet doivent également être valorisés, ce qui pourrait favoriser leur développement.
Par ailleurs, je propose le déploiement d’une campagne de communication massive relative aux impacts des réseaux sociaux sur les jeunes ainsi que la création d’un délit de négligence numérique s’appliquant aux parents irresponsables qui, en toute connaissance de cause, laisseraient leurs enfants des heures durant devant les écrans.
Des formations régulières et ciblées doivent être dispensées aux professionnels de santé et aux personnels de l’éducation nationale afin de les sensibiliser aux impacts des réseaux sociaux sur la santé mentale des jeunes, qui est un enjeu majeur.
Enfin, nous devons donner à voir à nos enfants un monde sans le numérique. Certains diront qu’il faudrait dépenser beaucoup d’argent pour y parvenir. Aux États-Unis, des expériences intéressantes sont menées : des cours d’école sont ouvertes tard le soir, avec un encadrement minimum. Les enfants, qui jouent sans téléphone portable, ont une vie épanouie. Il conviendrait ainsi d’élaborer une stratégie nationale qui favoriserait des activités sans écran destinées aux adolescents dans les structures dédiées aux jeunes afin d’éviter qu’ils dévient du droit chemin. Les acteurs de la jeunesse déplorent de plus en plus souvent l’absence d’un pilote dans l’avion en matière de politiques consacrées à la jeunesse.
M. le président Arthur Delaporte. Ce rapport est d’utilité publique. Son premier mérite est de proposer une synthèse des effets de la plateforme sur les mineurs. La principale utilité de la commission d’enquête, dont l’objet a souvent été décrié, est sociale. Elle a permis de diffuser dans le débat public des principes de vigilance et une meilleure connaissance de la dangerosité de l’algorithme et de la plateforme dont le fonctionnement se fonde sur l’économie de l’attention, ce qui conduit à un grand nombre de dérives. En effet, les utilisateurs sont en réalité les produits et sont mis en danger à des fins mercantiles.
Les travaux de la commission d’enquête ont fait l’objet d’une forte médiatisation lors de l’audition d’influenceurs problématiques. On a pu considérer que cela avait porté atteinte à l’image de l’Assemblée nationale puisque des personnes peu recommandables avaient adopté une attitude de défiance et de provocation. Elles ont notamment diffusé sur leurs comptes les images des auditions afin de faire état de leur supposée force face à la supposée faiblesse des députés. Je préfère voir les choses d’une autre manière, bien que je regrette que cette audition ait été la plus médiatisée. En effet, elle l’a été davantage que d’autres pourtant riches d’enseignements. Je pense notamment à celle des victimes, qui était poignante, et à celle des représentants de TikTok, qui a duré plus de sept heures et demie et durant laquelle nous n’avons rien lâché ; nous avons fait preuve d’une volonté de savoir bien que nous nous soyons heurtés au mur de l’indifférence et de l’ignorance – feinte ou réelle. Néanmoins, l’audition décriée des influenceurs a permis d’attirer la lumière sur la commission d’enquête. Les jeunes que j’ai croisés cet été m’ont dit avoir découvert son existence à cette occasion et avoir consulté d’autres vidéos de nos travaux sur le site de l’Assemblée nationale. Cette audition a été une porte d’entrée pour les jeunes et les adultes.
« Le silence éternel de ces espaces infinis m’effraie. » Notre première réaction face aux réseaux sociaux peut s’apparenter à cette sidération, à cet effroi que Pascal ressent face à la révolution scientifique. Mais, dans le cadre d’une commission d’enquête, l’enjeu est de passer de la sidération à l’analyse puis à l’action en formulant des préconisations.
À cet égard, j’adhère à de nombreuses recommandations formulées par la rapporteure, notamment celles relatives au renforcement de l’enseignement moral et civique, ou à la modification du code de la santé publique pour imposer la diffusion de messages de prévention afin de mieux informer les parents ; elles sont utiles et nécessaires.
Néanmoins, nous devons aller plus loin s’agissant de la réglementation européenne. Par exemple, la vérification de l’âge, qui sera imposée à l’échelle européenne, devra s’appliquer à toutes les plateformes. En outre, je préconise une modification du DSA qui obligerait toutes les plateformes à rendre publique la part de leur chiffre d’affaires consacrée à la modération et au recrutement des modérateurs, qui nous semble actuellement dérisoire. Les plateformes sont peu transparentes sur ces données, se réfugiant derrière le secret des affaires. Enfin, il faut renforcer les sanctions.
En ce qui concerne le droit national, je propose d’interdire la visualisation de lives par les mineurs et d’imposer aux plateformes l’installation des mécanismes de vérification de l’âge qui permettraient de vérifier le respect de cette interdiction. Cet été, l’affaire de la mort de Jean Pormanove a été la tragique illustration de cette économie du sordide. On l’a peu analysée sous l’angle de la protection des mineurs car Jean Pormanove était majeur, tout comme son entourage et une grande partie des spectateurs. Néanmoins, des mineurs ont pu regarder ces vidéos et développer un autre rapport à la violence.
J’ai tiré de nos travaux un autre enseignement lié à une réalité que je sous‑estimais : la diffusion du masculinisme sur les réseaux sociaux, qui s’observe dans les cours d’école. Des enfants de CM2 m’ont parlé d’AD Laurent et d’Alex Hitchens – que je ne connaissais pas. Or ceux-ci promeuvent des normes et formulent des prescriptions hypergenrées, sexistes, violentes et misogynes. Nous devons analyser ce sujet et envisager une évolution du droit pour intégrer la promotion de l’idéologie masculiniste dans la liste des délits en ligne. Une proposition en ce sens serait nécessaire.
Un autre sujet préoccupant est celui de l’addiction : les mineurs donnent de l’argent lors de lives. Peut-être faudrait-il conférer à l’Autorité nationale des jeux la compétence pour réguler ces pratiques s’apparentant à des jeux d’argent que nous avons observées sur plusieurs plateformes – Kick, par exemple.
Telles sont les idées que je souhaitais évoquer et qui pourraient figurer dans le rapport.
En outre, sans remettre en cause l’intérêt de notre commission d’enquête ni la nécessité de faire front commun sur le diagnostic et sur un grand nombre de propositions, je souhaite apporter des nuances à certaines recommandations de Mme la rapporteure. Je pense notamment au combat à mener à l’échelle européenne pour améliorer la protection des mineurs, qui suppose une meilleure unité de la classe politique. Or, comme on dit au niveau européen, l’unité n’est rien sans la diversité. Il faut prendre en compte les différences de points de vue, qui sont le reflet des incertitudes du corps social notamment sur les questions de limitation d’âge – les auditions l’ont montré. Elles ne sont en rien des obstacles à la régulation du numérique.
À titre personnel, je suis réservé sur l’interdiction totale des smartphones au lycée – car il peut aussi être un outil de responsabilisation des jeunes – alors que je suis pleinement favorable à leur interdiction au collège. Pour avoir discuté régulièrement avec des profs de lycée, y compris dans des établissements difficiles, le smartphone peut être utilisé à des fins pédagogiques, dans le cadre d’une éducation à la citoyenneté et aux dangers du numérique. En effet, les élèves ne sont pas tous équipés d’un ordinateur ou d’outils numériques tandis que certains lycées sont dépourvus d’une salle informatique ou d’une connexion wifi de qualité – telle est la réalité du système éducatif. Si le premier espace de liberté surveillée était la fac, cela pourrait conduire à de nombreuses dérives. Selon des témoignages recueillis au cours de nos travaux, des jeunes de 16 ans qui avaient fermement négocié pour avoir un smartphone s’étaient retrouvés pris dans une spirale de contenus qui les avait conduits à commettre des tentatives de suicide.
Même si une interdiction de l’accès aux réseaux sociaux aux mineurs de moins de 15 ans n’est pas forcément adaptée, j’en comprends l’intérêt. En revanche, je suis plus réservé sur la mesure de couvre-feu qui concernerait les mineurs de 15 à 18 ans. Nous avons auditionné un modérateur qui a sombré dans une forte dépression en raison des contenus terribles qu’il avait visionnés. Des jeunes d’une vingtaine d’années ont témoigné, par mail ou dans le cadre de la consultation publique, de leur malaise face aux dérives de la plateforme et des impacts psychologiques que celle-ci pouvait avoir sur eux. Comme la rapporteure l’a rappelé, il y a un enjeu de maturité.
L’interdiction totale des smartphones dans les lycées ne doit pas être la mesure phare du rapport car l’enjeu premier est la régulation des plateformes, le respect par celles-ci du cadre normatif européen et l’augmentation des moyens consacrés au contrôle et aux sanctions des plateformes, qui sont insuffisants. Ainsi, à l’Arcom, l’Autorité de régulation de la communication audiovisuelle et numérique, seules vingt-trois personnes sont chargées du secteur numérique. D’après les échanges que nous avons eus avec cette autorité cet été, l’affaire Pormanove entraînera une évolution de ses moyens et une redistribution des effectifs pour renforcer l’équipe chargée de l’application du DSA.
Mme Claire Marais-Beuil (RN). L’interdiction du smartphone au lycée est essentielle, d’autant que son utilisation peut être un vecteur de harcèlement des enseignants. Cette mesure a un double effet de protection de tous les enfants et des professeurs.
Vous avez tout à fait raison de vouloir augmenter le nombre de modérateurs. Il faudrait également se pencher sur la façon dont ils travaillent : s’ils doivent contrôler énormément de vidéos sur trois écrans en même temps, ils ne pourront pas remplir efficacement leur mission.
Dans ma ville, un réseau de pédocriminalité de très grande ampleur vient d’être démantelé. Il convient de réguler la présence des enfants dans les vidéos. Les problèmes alimentaires, le suicide et l’automutilation ne sont pas les seules menaces pesant sur les mineurs, le récent « zizi challenge » en apportant la preuve. Les vidéos d’enfants sont des portes d’entrée pour les réseaux criminels. Le rapport ne contient pas de préconisation dans ce domaine, mais nous devons faire preuve d’une grande rigueur dans le traitement de ces vidéos.
J’ai récemment découvert que les parents pouvaient modérer l’utilisation par leurs enfants des réseaux sociaux, mais beaucoup d’entre eux ignorent ces fonctionnalités. Il y a lieu de les en informer. Le couvre-feu que vous préconisez concerne-t-il seulement les enfants ou est-il étendu aux majeurs ?
Mme Laure Miller, rapporteure. Uniquement les mineurs âgés de 15 à 18 ans. Les plateformes devront vérifier l’âge grâce au dispositif qui existe déjà mais qu’elles n’utilisent pas : nous souhaitons les contraindre à le faire. Je préconise l’interdiction des réseaux sociaux aux enfants de 15 ans et le couvre-feu de 22 heures à 8 heures pour ceux âgés entre 15 et 18 ans.
Mme Claire Marais-Beuil (RN). En Chine, le temps passé par les mineurs sur internet est plafonné, preuve que la régulation est possible.
Je regrette que vous citiez toujours l’extrême droite après l’idéologie djihadiste : je préférerais que vous utilisiez plutôt l’expression de « politiques extrêmes », car l’extrême droite n’est pas la seule concernée et tout comportement de violence doit être combattu, quelle que soit son origine.
Nous ne devons pas oublier de surveiller l’arrivée de futurs réseaux sociaux, car on peut craindre l’émergence de plateformes pires que celles qui existent actuellement.
Les responsables de TikTok que nous avons auditionnés ont fait preuve d’une totale désinvolture par rapport aux risques que nous pointions – ils ont affirmé, par exemple, censurer le terme d’automutilation alors que celui de zèbre le remplace sans aucune difficulté. Comment les responsabiliser ? La question est difficile car les amendes n’ont que peu d’impact compte tenu de l’assise financière des plateformes. Nous devons donc faire preuve d’une grande vigilance, par exemple à l’égard des comptes supprimés qui rouvrent dans l’heure et dont les détenteurs se moquent des personnes ayant voulu fermer leur profil.
Mme Constance Le Grip (EPR). Je tiens, au nom du groupe Ensemble pour la République, à saluer le travail de la commission d’enquête, utile et pertinent. Il a bénéficié d’un certain retentissement médiatique grâce à l’audition des influenceurs toxiques : nous espérons qu’il en ira de même au moment de la publication du rapport, si la commission l’autorise, afin que certaines de ses préconisations soient appliquées, à commencer par celles qui ne requièrent pas l’intervention du législateur européen ou national.
Nous soutenons les recommandations de la rapporteure, y compris celles qui suscitent les réserves du président et, peut-être, de certains groupes parlementaires. Nous pensons notamment que la pause numérique au lycée est opportune. Si nous estimons que la dépendance aux réseaux sociaux dégrade la santé mentale, il est logique de défendre cette mesure car les jeunes de 15 à 18 ans sont encore très vulnérables. En Île-de-France, tous les lycéens reçoivent un ordinateur portable, financé par la région donc par le contribuable francilien. Les lycéens disposent ainsi d’un outil numérique pendant les cours, donc ils n’ont pas besoin de smartphone d’autant qu’ils n’ont pas à se connecter aux réseaux sociaux.
Il convient de prendre en compte les rapports de force internationaux, notamment avec les États-Unis où sont implantées de nombreuses plateformes. L’administration Trump, à son plus haut niveau, critique avec beaucoup de virulence l’application du DSA. L’Europe doit faire preuve, dans les mois et les années à venir, d’une grande détermination pour assurer le respect de sa législation, durement discutée et laborieusement élaborée, par les plateformes, notamment américaines.
Notre collègue Guillaume Gouffier-Valente me disait à l’instant que des enseignants de sa circonscription lui avaient fait part de leur intérêt pour les travaux de la commission d’enquête. Au-delà des opérations de communication que vous conduirez, nous devrons assurer la publicité du rapport et de ses préconisations.
M. Thierry Sother (SOC). Les auditions ont montré que si TikTok est l’un des pires élèves de la classe, cette plateforme n’est pas la seule à poser problème. Plusieurs applications concurrentes ont imité leur modèle économique et de communication et proposent à leurs utilisateurs l’enchaînement vertical de vidéos.
Je ne partage pas la grande confiance que vous placez dans le DSA, dont l’application m’inquiète dans le temps, notamment à cause du manque de moyens alloués et de volonté politique. Pour compléter les propos de Mme Le Grip sur l’administration Trump, j’appelle votre attention sur les déclarations du vice-président américain sacralisant les intérêts des plateformes numériques états-uniennes dans les relations économiques entre son pays et l’Union européenne. Comme le disait le commissaire Thierry Breton, l’UE doit appliquer les règles qu’elle a adoptées, en particulier le DSA. Ce qui est interdit dans la vie réelle doit également l’être dans le domaine numérique. Les nombreuses enquêtes ouvertes sur le fondement du DSA ne vont pas suffisamment loin, faute notamment de moyens humains pour contrôler les données collectées.
La douzième recommandation sur le pluralisme algorithmique est intéressante : il nous faut avancer dans ce domaine, l’interopérabilité des systèmes de recommandation constituant l’un des moyens principaux de conserver un pouvoir de décision dans l’utilisation des plateformes. L’objectif est d’obtenir des algorithmes certifiés et transparents pouvant être contrôlés par des services étatiques ou européens. Les médias pourraient également fournir des algorithmes de meilleure qualité.
Les mesures sur l’âge sont un levier pour notre action, mais elles ne peuvent pas en être l’alpha et l’oméga. La jeunesse ne s’arrête pas à 15 ans : de nombreuses études montrent que la construction de l’individu se poursuit bien au-delà de cet âge.
Les plateformes numériques me font penser à l’industrie du tabac américaine dans les années 1950 : le tabac représentait à l’époque la liberté et la jeunesse, pourtant les industriels connaissaient ses effets sur la santé et n’ont rien fait pendant des décennies. Les Facebook leaks et une enquête du Congrès américain ont montré que les plateformes étaient conscientes des effets des réseaux sociaux sur la jeunesse mais qu’elles n’entreprenaient aucune action. Il a fallu soixante-dix ans pour insérer la mention « Fumer tue » sur les paquets de cigarettes : combien de temps faudra-t-il pour alerter l’opinion publique et les familles sur le fait qu’un enfant dans sa chambre avec un smartphone n’est pas en sécurité ? Les réseaux sociaux ne sont pas toujours merveilleux ou extraordinaires, contrairement à ce que déclare parfois la ministre déléguée chargée de l’intelligence artificielle et du numérique. L’encadrement de l’utilisation des plateformes doit aller bien au-delà de l’interdiction aux moins de 15 ans.
Mme Isabelle Rauch (HOR). Le rapport est une somme très importante. Il reflète fidèlement les auditions de la commission d’enquête. Notre action doit se situer à l’échelle européenne, mais même l’UE éprouve des difficultés à déployer des politiques de protection des enfants ; en effet, les VPN, qui assurent à l’internaute une domiciliation numérique dans un pays étranger, permettent de contourner facilement certaines régulations. L’éducation et l’information sont essentielles et doivent être renforcées.
La dixième recommandation sur l’évolution du statut d’hébergeur vers celui d’éditeur est fondamentale. Nous devons appréhender de manière exhaustive l’activité de toutes les plateformes, pas uniquement celle de Tiktok. Comme le décrit très bien le rapport, leur modèle repose sur l’économie de l’attention : à ce titre, l’ensemble de la population est concerné. Nous faisons face à un problème de santé publique qui ne touche pas uniquement les jeunes.
Nous devons étudier et contraindre les plateformes pour les empêcher de réduire notre liberté.
Mme Josiane Corneloup (DR). Les travaux de la commission d’enquête – auditions et consultation citoyenne – ont traité la question de manière approfondie ; le rapport les reflète fidèlement. La commission a ouvert le débat : les personnels de l’éducation nationale, les parents et les enfants sont loquaces sur le sujet, preuve de son importance. Il est essentiel de les mettre en garde contre les risques majeurs liés à l’utilisation des réseaux sociaux.
La modération des contenus est fondamentale. Même si nous pouvons regretter la forte médiatisation des auditions des influenceurs, leur large écho a mis en lumière la volonté de ces personnes de diffuser des contenus de plus en plus spectaculaires – au mauvais sens du terme – visant à susciter des chocs et des émotions violentes. Si nous ne renforçons pas la modération des contenus, d’autres plateformes adopteront le même mode de fonctionnement car celui-ci génère énormément de vues. Tous les visuels et les vidéos qui choquent affectent fortement la santé mentale, donc leur contrôle est indispensable.
L’éducation des parents et des enfants est un autre aspect important, même si le rapport ne le traite pas. Je suis heureuse de constater que certains établissements scolaires ont installé en leur sein des groupes de travail destinés à sensibiliser les enfants à l’utilisation des réseaux sociaux et à les alerter sur leurs dangers, notamment l’enfermement découlant du défilé de vidéos portant toutes sur le même thème : l’objectif est de développer leur autonomie et leur esprit critique. Les parents souhaitent bien faire, mais ils sont souvent démunis et ils ignorent les moyens de bloquer les accès de leurs enfants à certains contenus – lorsqu’ils y parviennent, ils constatent que les jeunes sont facilement parvenus à lever les obstacles qu’ils avaient dressés. Un travail est nécessaire dans ce domaine pour fournir davantage d’outils aux parents.
Des réseaux criminels récupèrent très rapidement les vidéos montrant des enfants, ce qui exige de nous une grande vigilance, surtout lorsque l’on voit des mineurs se déshabiller pour relever des défis. Ces contenus sont extrêmement choquants.
Je suis très favorable à l’interdiction du portable à l’école. Les premières expérimentations sont très positives : les enseignants constatent une amélioration de la capacité d’attention et de concentration lorsque le smartphone est proscrit. Je soutiens également la pause nocturne, car la qualité et la quantité du sommeil sont primordiales pour la santé mentale des enfants.
Je défends la dixième recommandation, car son déploiement contribuera à renforcer l’indispensable responsabilisation des plateformes.
Les recommandations nationales visant à lutter contre la diffusion du masculinisme et du sexisme sont indispensables. À l’échelle européenne, l’action doit porter sur le contrôle de l’âge, la vérification des contenus et les sanctions.
On m’a demandé à plusieurs reprises de venir présenter les travaux de la commission d’enquête dans les établissements scolaires, ce que je vais faire dans l’ensemble de ma circonscription. Il faut généraliser ces rencontres, afin d’engager le débat et d’accroître la vigilance de tous, notamment celle des enfants, sur l’utilisation des réseaux sociaux.
Mme Constance de Pélichy (LIOT). Je me félicite que cet enjeu dont nous parlons si souvent depuis si longtemps ait fait l’objet d’une commission d’enquête et d’un rapport si complet. J’espère qu’il amorcera un travail approfondi, mené avec tous les acteurs, sur les effets des réseaux sociaux, pour protéger la santé mentale de nos jeunes, leur santé en général et celle des adultes. Je souscris à la plupart de ses propositions.
La dimension européenne du problème nous échappe. Le règlement sur les services numériques a le mérite d’exister. Ceux qui ont suivi les débats savent qu’il n’a pas été simple à faire adopter. Les moyens lui font défaut. Nous espérons tous que la France saura peser pour en permettre l’application.
Je n’en suis pas moins très inquiète du rapport de forces que le président Donald Trump essaie d’instaurer en matière de plateformes numériques avec l’Union européenne, au prétexte notamment de droits de douane supplémentaires. Chercher à asphyxier notre économie pour permettre aux plateformes de continuer à se développer est odieux et inacceptable. J’espère très sincèrement que nos dirigeants sauront tenir. Quant à nous, nous pouvons, par le biais d’une proposition de résolution européenne ou d’un autre levier, manifester notre soutien au DSA et à une régulation volontaire et volontariste de la part de l’Union européenne.
S’agissant de l’introduction d’une limite d’âge, de la pause numérique, d’un couvre-feu et plus généralement de règles contraignantes encadrant l’usage des smartphones et des réseaux sociaux, je conçois qu’elle fasse réagir et qu’on lui oppose la liberté ainsi que l’espace de mise en relation et de communication offerts par l’usage des smartphones à nos jeunes. Pour ma part, le smartphone m’apparaît de plus en plus non comme un espace de liberté mais comme un outil dont l’usage est particulièrement aliénant, précurseur d’addictions multiples et vecteur de violence.
Nous n’en sommes qu’au début, car le recours à l’intelligence artificielle dans la création de contenus ne fait que commencer. Ce point n’est pas évoqué dans le rapport faute de recul sur la question. Compte tenu de la vitesse à laquelle les plateformes évoluent, nous ne pouvons pas en anticiper les conséquences. Au vu de ce qui se passe dès à présent sur Tiktok avec un recours assez faible à l’intelligence artificielle, je suis très inquiète de ce qui se passera quand elle se sera très largement répandue.
Je fais donc partie de ceux qui privilégient un cadre strict et contraignant, d’autant que les plateformes passent leur temps à le contourner. Comme les réseaux de narcotrafic, elles vont beaucoup plus vite que notre régulation. Nous devons donc être particulièrement vigilants sur la façon de faire respecter le cadre que nous fixons.
Ce cadre doit être lisible et clair pour tous. L’évocation, dans le rapport, de la négociation familiale à propos de l’usage du smartphone est une bonne chose. On sait à quel point celui-ci peut être vecteur de conflits au sein de la famille. Fixer un cadre applicable à tous de la même manière, quel que soit l’environnement dans lequel on est éduqué, me semble de nature à apaiser les relations familiales tout en protégeant nos enfants.
S’agissant des parents, certains font tout ce qu’ils peuvent ; ils ont besoin d’être accompagnés et aidés en matière de régulation des réseaux sociaux. Mais dès lors que la moitié des enfants de 6 à 10 ans sont équipés d’un smartphone, il y a aussi des parents qui ne font rien du tout, soit par négligence, soit par méconnaissance et par défaut d’appropriation des effets des écrans, des smartphones et des réseaux sociaux.
Il en va de même des professionnels de santé. L’indifférence évoquée par certains professionnels de santé en centre psychiatrique à l’endroit des enfants dépressifs qu’ils doivent soigner m’a choquée. Il faut faire en sorte que cela change. De nombreux parents m’ont dit en substance : « Mon aîné a 18 ans ; si j’avais su, jamais je ne lui aurais donné un smartphone à 12 ans. Je ne me rendais pas compte. Mon deuxième a 13 ans ; il est dedans depuis qu’il est petit et je ne sais plus comment faire. Si j’avais su ! ».
Par ailleurs, de trop nombreux parents sont esclaves de leurs écrans. Si les parents y passent leur journée, comment voulez-vous que les enfants n’en fassent pas autant ? Les études sociologiques, neuroscientifiques et psychologiques commencent à faire état de très jeunes enfants ayant des problèmes de comportement parce que leurs parents ne sont pas concentrés sur leur enfant et apportent des réponses émotionnelles qui ne sont pas concordantes. Nous avons le même problème en matière d’éducation de nos adolescents.
M. Thierry Perez (RN). La commission d’enquête a fait un travail magnifique sur un sujet fondamental. Je souscris très largement aux propos qui précèdent.
Il y a urgence. Cela fait longtemps, malheureusement, que les réseaux sociaux sont installés dans les cerveaux de nos enfants et dans leurs habitudes comportementales. On évoque surtout les faits particulièrement choquants, tels que les mutilations, les challenges débiles et dangereux, les scarifications, mais il y a aussi tous les effets négatifs à bas bruit, qui infusent petit à petit dans le cerveau de nos enfants. Un scientifique auditionné a indiqué que les réseaux sociaux nuisent au développement du cerveau, notamment en matière de concentration, et que c’est irrémédiable – ce qui n’est pas développé dans le cerveau avant un certain âge ne se rattrape jamais.
Il y a urgence aussi parce que l’intelligence artificielle arrive. Cet été en Espagne, un jeune de 17 ans a été – heureusement – arrêté pour avoir publié sur plusieurs réseaux sociaux des photos de ses camarades de classe féminines déshabillées grâce à l’intelligence artificielle. Vous imaginez les dégâts psychologiques sur les jeunes filles concernées !
Dans le rapport, il est indiqué que des moyens sont nécessaires pour les signaleurs de confiance, pour les études et pour aider des associations. L’argent, il faut aller le chercher dans les poches des plateformes. Le pollueur doit être le payeur : ce n’est pas au contribuable français de payer pour réparer les dégâts occasionnés par leurs algorithmes et leurs politiques opaques.
S’agissant de la limitation du temps d’écran, appliquée dans certains pays – l’accès à l’application devient impossible après deux heures d’usage –, est‑elle envisageable chez nous, en dessous d’un âge à déterminer ?
M. Emmanuel Fouquart (RN). Je me félicite de la qualité du travail de la commission d’enquête. Son rapport mérite d’être rapidement et largement diffusé, en premier lieu en milieu scolaire et dans les services de l’État.
S’agissant des conditions de travail des modérateurs, il leur est impossible de travailler correctement. L’un d’eux, évoqué dans le rapport, a perdu soixante-dix kilos en peu de temps en raison des effets psychologiques qu’il a subis. Il faut absolument encadrer ce travail, qui est aussi perturbant pour les jeunes que pour les personnes qui essaient de modérer les contenus derrière un petit écran.
Sur le plan technique, la plateforme TikTok offre la possibilité de s’abonner à un compte ou de « liker ». Elle devrait aussi proposer d’emblée un bouton « Pas intéressé », qui n’est pas directement accessible.
S’agissant de la rémunération des contenus, celle des dramas est supérieure à celle des contenus éducatifs, tels que ceux publiés par le compte « monsieurlechat », dont l’élaboration est bien plus longue. Il faudrait inciter l’entreprise, au nom de la moralité, à mieux rémunérer les contenus éducatifs.
M. le président Arthur Delaporte. Les modalités de rémunération et d’incitation sont l’un des quatre axes de travail de la mission sur les enjeux émergents du numérique que le premier ministre a confié à M. Vojetta et moi-même. Il s’agit de déterminer comment valoriser la création de contenus positifs et inciter à produire de la qualité.
Mme Constance Le Grip (EPR). Nous approuvons les recommandations de la rapporteure inscrites dans le projet de rapport, notamment celles qui peuvent être rapidement mises en œuvre. La quinzième porte sur la santé mentale, décrétée grande cause nationale de l’année 2025. Nous pouvons donc espérer que, d’ici à la fin de l’année, les autorités gouvernementales mettent en œuvre une stratégie de communication, si modeste soit-elle, sur certains réseaux et sur les ondes pour dénoncer l’utilisation excessive des réseaux sociaux.
Monsieur le président, j’ai été très sensible à votre évocation du danger extrême que constituent les théories masculinistes, sur TikTok comme ailleurs. Ce phénomène est particulièrement pernicieux. Les liens entre ceux qui promeuvent ces théories et bien d’autres théories nuisibles et toxiques sont manifestes.
M. le président Arthur Delaporte. Une réflexion sur l’adoption du principe « pollueur-payeur » s’impose. Les conséquences néfastes des plateformes sont désormais claires, cela doit donc s'accompagner d'une fiscalité réparatrice. Il faut explorer cette piste pour financer par exemple les signaleurs de confiance, qui ont besoin d’argent pour fonctionner, d’autant que la taxation des plateformes est, à l’aune de leurs bénéfices, dérisoire.
S’agissant de la régulation de la plateforme, nous avons évoqué la régulation de l’algorithme et la possibilité de le personnaliser, de le retravailler. Peut-être faut‑il interdire le défilement infini de contenus, à tout le moins faire en sorte qu’il ne soit pas installé par défaut.
Par ailleurs, notre débat a donné une large place, à juste titre, à l’éducation à la parentalité et au numérique, mais nos préconisations valent pour tous les usages du numérique, sur les réseaux sociaux ou ailleurs. Centrer nos travaux sur TikTok et sur les mécanismes des plateformes permet d’élargir la focale.
Le travail ne fait que commencer. Le rapport est une brique supplémentaire d’un édifice collectif de construction d’un droit du numérique encore émergent, avec des enjeux considérables.
Mme Laure Miller, rapporteure. Je me réjouis de notre unanimité. J’espère que nous serons aussi nombreux que possible à la conférence de presse de présentation du rapport, afin de montrer qu’il s’agit d’un travail collectif. J’y tiens beaucoup. Il mérite une large diffusion, à laquelle nous pouvons œuvrer au sein de nos circonscriptions respectives.
La conférence de presse ne doit pas être une fin. Nous devons faire vivre nos travaux en dépit des probables aléas politiques de la semaine prochaine. Nous, parlementaires, devons entretenir le mouvement qui s’amorce. Certes, nous ne l’avons pas lancé, mais nous apportons une pierre à l’édifice. Le sujet mérite de faire l’objet d’un travail aussi durable que transpartisan.
Bien entendu, l’interdiction de l’accès aux réseaux sociaux aux moins de 15 ans ne doit pas être l’arbre qui cache la forêt. Comptez sur moi pour, dans notre communication, indiquer qu’elle est une mesure parmi d’autres et non la panacée. Je veillerai à faire du rapport une présentation équilibrée, afin que nos nombreuses recommandations ne soient pas occultées par une seule.
J’ai tenu compte de tout ce que vous avez dit. Nous pouvons étoffer la recommandation relative aux modérateurs, qui font déjà l’objet d’une recommandation à l’échelle européenne s’agissant de leur formation et de leur nombre. Évoquer leurs conditions de travail et les mettre davantage en évidence me semble bienvenu.
Nous pouvons aussi ajouter un paragraphe sur l’intelligence artificielle, qu’il semble d’autant plus difficile de passer sous silence que son usage a défrayé la chronique à plusieurs reprises, qu’il s’agisse du jeune arrêté en Espagne ou de celui qui s’est suicidé parce que ChatGPT le lui a suggéré. Il s’agit de montrer que ce n’est pas de la science-fiction, mais une réalité de notre temps, et que les phénomènes que nous avons identifiés, au premier rang desquels la modification de contenus, ont de grandes chances de s’en trouver amplifiés.
La commission adopte le rapport à l’unanimité.
Contributions des groupes politiques et des députés
Contribution du groupe rassemblement national
Les députés du Rassemblement National tiennent à remercier les services pour l’organisation des travaux. Les auditions, riches et nombreuses, ont permis de soulever certaines problématiques essentielles. Bien que notre réflexion se limite au cas de TikTok, cette contribution s’inscrit dans une perspective plus large. Cette plateforme n’est pas plus dangereuse qu’une autre comme l’a tristement rappelé la mort en direct du streamer Jean Pormanove sur Kick. Il est regrettable que le rapport se borne à des propositions de communication ou à l’introduction de cours supplémentaires en classe, ce qui ne répond pas à l’ampleur du problème. Les conséquences sont établies, et il est désormais urgent de prendre des mesures.
Le numérique, et plus particulièrement les réseaux sociaux, occupe aujourd’hui une place incontournable dans la vie quotidienne. Chacun les utilise comme des outils de dialogue, de débat, d’information, de découverte, de divertissement ou encore de créativité. S’ils ne présentent pas de danger en eux‑mêmes, un usage inadapté peut avoir des conséquences sur la santé mentale comme physique, notamment à travers les troubles alimentaires.
La commission d’enquête a recueilli des témoignages particulièrement poignants. Parmi eux, un adolescent de 17 ans a eu le courage de raconter son histoire devant les parlementaires : sa grande sœur s’est suicidée par pendaison. Elle avait déjà tenté de mettre fin à ses jours par absorption de médicaments et, avant de commettre cet acte irréversible, elle s’était infligée de nombreuses mutilations et scarifications. Son frère a découvert trop tard le type de contenu qu’elle consultait sur son fil TikTok : des vidéos présentaient l’automutilation comme une solution positive pour sortir de cette infâme spirale. Suite à ce drame, il décide d’aller vérifier le téléphone de sa petite sœur âgée de 14 ans. Il était également pollué de vidéos similaires. Ardemment et assidûment, pendant des jours et des jours, il nettoie son fil pour qu’il redevienne sain. Désormais, elle regarde des vidéos instructives et divertissantes plutôt que du contenu néfaste, voire mortel. Pour que de tels drames cessent, le groupe Rassemblement National propose d’instaurer, à côté des boutons « like » et « abonnement », un bouton physique « pas intéressé(e) ». Ce dispositif sauvera des vies. Les plateformes ne peuvent plus occulter leur responsabilité et doivent agir impérativement et concrètement pour protéger nos concitoyens.
Si les « cap ou pas cap » existent depuis la nuit des temps, ce phénomène est massivement amplifié par les réseaux sociaux. La puissance publique et les plateformes doivent se montrer plus réactives et fermes, sans occulter le devoir de vigilance des parents. Rien qu’en 2025, sont apparus des défis inquiétants, tels que le « paracétamol challenge », qui pousse les jeunes à avaler un maximum de médicaments pour tester leur résistance, ou encore le « Sun Tattoo », consistant à provoquer volontairement un coup de soleil afin d’obtenir une marque de bronzage.
Des discours politiques et religieux peuvent également servir à embrigader des personnes fragiles et isolées socialement. Il est regrettable que les cinquante premières pages du rapport présentent une orientation partisane. Par exemple, le mot « djihadiste » est cité quatre fois, « extrême-droite » trois fois, et aucune mention de l’« extrême gauche ». Pourtant, de nombreuses vidéos attestent des violences commises par les black-blocs contre les forces de police et de gendarmerie, notamment lors des événements de Sainte-Soline. Combattre ces groupes et la désinformation qu’ils diffusent est indispensable pour protéger notre démocratie et préserver nos valeurs.
Tout en garantissant la liberté d’expression et de création, les modérateurs des plateformes ont un rôle clef pour contribuer à en faire un espace sain. Leur nombre et leur niveau de formation doivent être renforcés. Des conditions de travail optimales permettront de protéger à la fois leur santé tout en garantissant une modération de qualité. Les plateformes devraient également financer les signaleurs de confiance ainsi que l’accompagnement psychologique des cas graves, pris en charge par les associations. La charge financière ne saurait reposer uniquement sur la collectivité. Il est impératif d’imposer un système similaire au principe pollueur‑payeur.
Bien que l’État doive rester le pilote de ces politiques, les parents constituent le maillon essentiel d’une lutte efficace contre ces dérives. Par exemple, pour protéger leurs enfants et lutter contre la pédocriminalité, il est essentiel qu’ils ne les exposent publiquement en ligne. Cette vigilance est d’autant plus cruciale que, durant les vacances estivales, des milliers de photos et vidéos sont diffusées, montrant des enfants en maillot de bain. Plus grave encore, une fois publiées, ces images laissent une trace indélébile sur Internet, même si l’enfant tente plus tard de les supprimer. Ces images, publiquement disponibles, peuvent engendrer d’autres dérives, comme la création de deepfakes à caractère sexuel, voire pornographique. Par exemple, un lycéen en Espagne a créé des photos et vidéos mettant en scène des camarades filles de son lycée complètement nues, sans leur consentement. Avec la démocratisation de l’intelligence artificielle générative, ce phénomène risque de s’accroître. Il est urgent que chaque acteur de la société remplisse son rôle et que les pouvoirs publics se montrent plus fermes à l’encontre des auteurs de ces ignobles pratiques.
Les parents doivent également limiter le temps d’écran à l’intérieur du foyer, en particulier pour les jeunes enfants. Il est scientifiquement démontré que plus un enfant est exposé tôt et longtemps aux écrans, plus il rencontre des difficultés scolaires (ex : retard linguistique) et sociales (ex : repli sur lui-même). Par ailleurs, les phénomènes d’appauvrissement cognitif et de perte de concentration liés à la consommation répétée de contenus courts doivent être pris en compte de manière beaucoup plus centrale. L’État peut amplifier les campagnes de prévention, mais ce sont les parents qui doivent agir. Ils peuvent bloquer, voire restreindre, l’utilisation des réseaux sociaux via les paramètres. Au-delà de la surveillance du contenu consommé, ils peuvent instaurer indirectement un couvre‑feu numérique. Une nouvelle fois, les études scientifiques démontrent une corrélation entre l’usage des écrans tard le soir, voire la nuit, et les problématiques liées au sommeil, avec les conséquences qu’elles engendrent (ex : endormissement à l’école). Par exemple, TikTok adopte une approche similaire à celle de Meta en instaurant la fonction « temps hors écran ». Ce dispositif bloque temporairement l’accès à l’application et ne peut être contournée, sauf si un adulte la déverrouille. La pause numérique à l’école, avec la suppression des téléphones portables, est une mesure positive. Toutefois, pour en préserver les bénéfices, il est nécessaire de porter une attention particulière à ne pas continuer à développer l’usage des écrans en classe.
Les décisions prises aujourd’hui auront des conséquences directes et durables sur la jeunesse et sur la société. Si des mesures fortes ne sont pas adoptées rapidement, il sera trop tard, pour corriger les effets à long terme de cette exposition massive aux réseaux sociaux. Face à l’urgence, l’État doit instaurer un cadre protecteur sans restreindre les libertés, par exemple par la mise en place d’un contrôle de l’âge. Cependant, c’est la société, et plus particulièrement les parents, qui doivent s’emparer de ces problématiques et affermir leur autorité auprès de leur progéniture. Le Rassemblement National travaille à une proposition de loi visant à établir un cadre protecteur sur les réseaux sociaux. Cette initiative viendra compléter les travaux de la commission et fournir un dispositif législatif plus ferme et mieux adapté.
Contribution de Mme anne genetet
Une plateforme telle que TikTok peut, lorsqu’elle est bien utilisée, constitue un outil précieux : que ce soit pour le soutien scolaire, l’accès à la culture ou encore l’apprentissage de nouvelles compétences. Toutefois, son impact négatif sur les mineurs ne peut être isolé d’un phénomène plus large : la solitude et l’isolement social, nourris par l’ensemble des outils numériques qui recourent à un écran (jeux vidéo, plateformes de streaming, réseaux sociaux).
Les auditions menées par la commission d’enquête ont dressé un constat sans appel : TikTok participe à ce phénomène, en accentuant le sentiment de solitude tout en renforçant les mécanismes addictifs qui le sous-tendent. De plus, la plateforme exerce une influence préoccupante sur les mineurs – entraînant fragilisation de l’attention, troubles du sommeil, exposition à des contenus potentiellement toxiques et amplification des mécanismes addictifs. Nous devons agir avec détermination : protéger nos enfants ne peut plus attendre.
La protection des mineurs comme priorité nationale et européenne
Il faut prendre la mesure de cette urgence. C’est pourquoi des propositions fortes et concrètes sont nécessaires pour limiter les dérives numériques, allant de l’instauration d’un couvre-feu numérique à l’interdiction des réseaux sociaux avant 15 ans, en passant par la mise en place de dispositifs techniques innovants, comme le passage des écrans en noir et blanc après un temps d’utilisation défini, afin de lutter contre l’addiction des jeunes aux plateformes sociales.
Par ailleurs, le Président de la République s’est engagé dès juin 2024 à bâtir un cadre européen contraignant pour interdire l’accès aux réseaux sociaux avant 15 ans, en soulignant que la France pourrait avancer seule si l’Union européenne ne suivait pas rapidement. Ces engagements traduisent une volonté claire de faire de la France un moteur européen.
Agir maintenant, à échelle européenne
Le plan pilote de vérification de l’âge lancé par la Commission européenne, qui sera testé dès 2026 dans cinq pays dont la France, s’inscrit dans la dynamique plus large du Digital Fairness Act, qui vise à fixer un socle commun de règles pour réguler les plateformes et protéger les mineurs.
La stratégie qui ressort de nos auditions est claire. D’abord, le contrôle d’accès doit être rendu effectif par une vérification d’âge fiable et obligatoire, via des tiers de confiance ou des documents sécurisés. La transparence algorithmique doit être garantie par des audits indépendants, et les plateformes doivent assumer leur responsabilité. Elles doivent être requalifiées en éditeurs, sans exception, et donc juridiquement responsables des contenus qu’elles diffusent et monétisent. C’est un impératif absolu.
Par ailleurs, le sujet de la régulation ne peut pas être décorrélé du temps d’écran. Les données sont claires : l’excès d’exposition entraîne fatigue visuelle, anxiété, baisse de concentration et perturbation du sommeil. C’est pourquoi nous devons instaurer des alertes visibles, des seuils paramétrables et des outils de suivi parental. Cette limitation est essentielle pour briser les mécanismes addictifs sur lesquels reposent les modèles économiques des plateformes.
La protection passe aussi par la prévention et l’éducation. L’esprit critique doit être formé dès l’école primaire, et les professionnels de santé doivent disposer des outils nécessaires, jusqu’à l’intégration de ce suivi dans le carnet de santé numérique. Quant aux parents, il ne s’agit pas seulement de les accompagner, mais de leur donner des moyens concrets : formations adaptées, médiation numérique accessible localement, outils de contrôle et de suivi simplifiés.
L’ensemble de ces mesures ne prendra toute son efficacité qu’au niveau européen. C’est pourquoi le Digital Fairness Act doit être accéléré, afin que l’Europe impose dès maintenant un standard clair et protecteur pour tous nos enfants.
Pour une régulation ambitieuse
Au terme de nos travaux, il est clair que l’action publique doit désormais reposer sur un cadre législatif fort et ciblé : une vérification d’âge obligatoire, le statut d’éditeur imposé aux plateformes, un mode mineur par défaut limitant l’addiction, et une transparence algorithmique garantie par des rapports annuels et des audits publics.
Ces exigences doivent être accompagnées d’un volet éducatif ambitieux, qui inclut une formation dès l’école primaire, une intégration dans le carnet de santé et des campagnes nationales de sensibilisation.
La réponse doit aussi être médicale et sociale, grâce à un suivi pédiatrique renforcé, à des outils de signalement et d’orientation des mineurs vulnérables. Enfin, les plateformes doivent assumer une responsabilité accrue : elles doivent publier des rapports de transparence et être redevables juridiquement de leurs choix éditoriaux.
Seule une coordination institutionnelle solide entre les ministères, pilotée au plus haut niveau, permettra d’assurer la cohérence et l’efficacité de ces mesures. Les députés du groupe EPR sont pleinement mobilisés pour porter ce combat et faire de l’Europe le premier espace numérique véritablement protecteur pour les enfants.
Annexe N° 1 : captures d’écran de l’application TIkTok –proposition de modification de la date de naissance pour participer à TikTok LIVE
Captures d’écran effectuées le 10/06/2025.
Figure 1 Figure 2
Figure 3
Annexe N° 2 : captures d’écran de l’application TikTok – résultats de la recherche « émoticône zèbre »
Captures d’écran effectuées le 24/08/2025.
Figure 1 Figure 2
Figure 3 Figure 4
Annexe N° 3 : captures d’écran de l’application TikTok – contenus relatifs au suicide, signalés par la commission d’enquête
Captures d’écran effectuées le 11/06/2025.
Figure 1 Figure 2
Figure 3 Figure 4
Annexe N° 4 : captures d’écran de l’application TikTok – modalités de signalement
Captures d’écran effectuées le 24/08/2025.
Figure 1 Figure 2
Figure 3
Annexe N° 5 : captures d’écran de l’application TikTok – barre de recherche
Captures d’écran effectuées le 06/06/2025 et le 24/08/2025.
Figure 1 (06/06/2025) Figure 2 (06/06/2025)
Figure 3 (06/06/2025) Figure 4 (24/08/2025)
Figure 5 (24/08/2025) Figure 6 (24/08/2025)
Figure 7 (24/08/2025) Figure 8 (24/08/2025)
Figure 9
ANNEXE N° 6 : RÉSULTATS DE LA CONSULTATION CITOYENNE DE LA COMMISSION D’ENQUÊTE (23 AVRIL – 31 mai 2025)
Les résultats de la consultation citoyenne menée par la commission d’enquête du 23 avril au 31 mai 2025 sont consultable sur le site de l’Assemblée nationale :
https://data.assemblee-nationale.fr/autres/consultations-citoyennes/tiktok.
ANNEXE N° 7 : Liste des personnes auditionnées
– M. Yannick Carriou, président-directeur général de Médiamétrie
– Mme Amélie Ébongué, experte en stratégie de contenus sur les réseaux sociaux, auteure de Génération TikTok : Un nouvel eldorado pour les marques
– Table ronde :
M. Mehdi Arfaoui, sociologue au Laboratoire d’innovation numérique de la Commission nationale de l’informatique et des libertés (CNIL)
Mme Jennifer Elbaz, chargée de mission éducation au numérique à la CNIL
Mme Laurence Allard, maîtresse de conférences en sciences de la communication, chercheuse à l’Université Paris Sorbonne Nouvelle-Institut de recherche sur le cinéma et l’audiovisuel (IRCAV), enseignante à l’Université de Lille, département études culturelles et médias
M. Jérôme Pacouret, sociologue et postdoctorant associé à la chaire « Société algorithmique » de l’Institut MIAI (Multidisciplinary institute in artificial intelligence) Grenoble Alpes (Laboratoire Pacte et UGA)
– Mme Rayna Stamboliyska, consultante, experte en gestion des risques, cyber-sécurité et affaires européennes, présidente de RS Strategy, auteure de La face cachée d’Internet
– Mme Océane Herrero, journaliste, auteure de l’ouvrage Le système TikTok. Comment la plateforme chinoise modèle nos vies
– M. Bruno Patino, président de Arte France * et auteur de La civilisation du poisson rouge, Tempête dans le bocal, Submersion
– Audition commune :
M. Serge Abiteboul, informaticien, chercheur à l’École normale supérieure de Paris, directeur de recherche à l’Institut national de recherches en sciences et technologies du numérique (Inria), co-auteur Le temps des algorithmes
M. Gilles Dowek, informaticien et logicien, chercheur à l’Inria, co-auteur Le temps des algorithmes
– Table ronde :
Mme Sophie Jehel, professeure en sciences de l’information et de la communication à l’Université Paris 8 Vincennes – Saint-Denis, auteure de L’adolescence au cœur de l’économie numérique. Travail émotionnel et risques sociaux
Mme Murielle Popa-Fabre, ancienne chercheuse au Collège de France et à l’Inria experte au Conseil de l’Europe, spécialiste de l’intelligence artificielle inclusive et responsable
Mme Elisa Jadot, journaliste, auteure et réalisatrice du documentaire Emprise numérique, 5 femmes contre les Big 5
M. Stéphane Blocquaux, docteur et maître de conférence en sciences de l’information et de la communication, auteur Le biberon numérique : Le défi éducatif à l’heure des enfants hyper-connectés
– MM. Mickaël Vallet et Claude Malhuret, sénateurs, président et rapporteur de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence (Sénat)
– Table ronde :
Mme Sihem Amer-Yahia, directrice de recherche CNRS, directrice adjointe du Laboratoire d’informatique de Grenoble
M. Olivier Ertzscheid, chercheur en sciences de l’information et de la communication, maître de conférences à l’université de Nantes, auteur de L’appétit des géants : pouvoir des algorithmes, ambitions des plateformes et Le monde selon Zuckerberg : portraits et préjudices
M. Marc Faddoul, directeur et cofondateur d’AI Forensics
Mme Lucile Coquelin, maître de conférences en Sciences de l’information et de la communication, Laboratoire DyLIS, Inspé Normandie Rouen Le Havre, Sciences Po Paris
– Table ronde :
M. Grégoire Borst, professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris Cité, et directeur du Laboratoire de Psychologie du Développement et de l’éducation de l’enfant (LaPsyDÉ - CNRS)
Mme Sylvie Dieu-Osika, pédiatre
M. Serge Tisseron, psychiatre, docteur en psychologie, co responsable du diplôme universitaire de cyberpsychologie (Université Paris Cité), membre de l’académie des technologies
– M. Jean-Marie Cavada, président de IDFRights
– M. Michaël Stora, psychologue et psychanalyste, co-fondateur de l’Observatoire des mondes numériques en sciences humaines
– Mission interministérielle de vigilance et de lutte contre les dérives sectaires (Miviludes) – M. Donatien Le Vaillant, chef, et Mme Audrey Keysers, adjointe
– Table ronde :
M. Elie Andraos, psychologue clinicien et coordonnateur du projet Addict‑IEJ (Intoxication éthylique jeunes) au CHU Amiens-Picardie
Mme Sabine Duflo, psychologue clinicienne
Mme Séverine Erhel, maître de conférences en Psychologie cognitive et ergonomie à l’Université de Rennes 2
Mme Vanessa Lalo, psychologue clinicienne
– Table ronde :
Mme Charlyne Buigues, infirmière et auteure de la pétition « #StopSkinnyTok »
Mme Carole Copti, diététicienne-nutritionniste
Mme Nathalie Godart, professeure des universités en psychiatrie de l’enfant et de l’adolescent UFR des Sciences de la santé Simone Veil (UVSQ)
– Collectif Mineurs, éthique et réseaux (Meer) – Mme Marie-Christine Cazaux, et Mme Catherine Martin, éducatrices spécialisées, membres du collectif
– Mme Emmanuelle Piquet, thérapeute et maître de conférences à l’Université de Liège (Belgique)
– Table ronde :
Fédération des conseils de parents d’élèves de l’enseignement public (FCPE) – Mme Alix Rivière, administratrice nationale
Fédération des parents d’élèves de l’enseignement public (PEEP) – M. Laurent Zameckwovski, porte-parole
Union nationale des associations autonomes de parents d’élèves (UNAAPE) – M. Patrick Salaün, président, et Mme Virginie Gervaise, administratrice
Union nationale des associations familiales (UNAF) – Mme Karima Rochdi, administratrice en charge du numérique, et M. Olivier Andrieu-Gerard, coordonnateur du pôle Médias et usages numériques
– MM. X et Y. et Mme Z.
– Maitre Laure Boutron-Marmion, avocate, Mme Virginie Guguen, Mme Gaelle Couplan, Mme Delphine Dapui, M. Jérémy Parkiet, Mme Christina Goncalves da Cunha, Mme Cécile Morgane Jaehn, M. Arnaud Ducoin, Mme Géraldine Fur-Ducoin, Mme Martine Guerini, M. Géraldine Denis, Mme Stéphanie Mistre, membres du collectif Algos victima
– Table ronde sur les contenus sexistes et masculinistes sur les réseaux sociaux :
Mme Shanley Clemot McLaren, cofondatrice et co-presidente de l’association Stop Fisha
M. Tristan Duverné, doctorant à l’Ecole des hautes études en sciences sociales - Ecole normale supérieure (EHESS/ENS)
Mme Pauline Ferrari, journaliste indépendante
M. Pierre Gault, journaliste, réalisateur du documentaire Mascus
– M. Bruno Gameliel, psychopédagogue, psychothérapeute
– Audition commune :
Pr Amine Benyamina, addictologue et psychiatre,
Mme Servane Mouton, neurologue et neurophysiologiste.
– Collectif d’aide aux victimes d’influenceurs (AVI) – M. Mehdi Mazi, co-fondateur, membre, et M. Jean‑Baptiste Boisseau, membre, chargé des projets espaces de discussion en ligne (Spaces, lives), relations presse
– Autorité de régulation de la communication audiovisuelle et numérique (Arcom) – M. Martin Ajdari, président, M. Alban de Nervaux, directeur général, Mme Lucile Petit, directrice des plateformes en ligne, et Mme Sara Cheyrouze, responsable du pôle relations médias et influence
– Conseil français des associations pour les droits de l’enfant (COFRADE) – M. Arthur Melon, délégué général du COFRADE, Mme Nathalie Hennequin, membre du Bureau national, SNUASFP-FSU (Syndicat national unitaire des assistantes sociales de la Fonction Publique/Fédération Syndicale Unitaire), Mme Anne‑Charlotte Gros, secrétaire générale de Respect Zone, Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale, CAMELEON Association France, Mme Marie‑Françoise Wittrant, association AISPAS
– Génération numérique * – M. Cyril di Palma, délégué général
– Point de contact * – Mme Alejandra Mariscal Lopez, directrice, et M. Yann Lescop, responsable projets et études
– Table ronde :
Conseil national de l’ordre des médecins * (CNOM) – Dr Jean-Marcel Mourgues, vice-président
Collectif ReAGJIR * – Dr Raphaël Dachicourt, président
Dr Nawale Hadouiri (Dr Nawell2.0), praticien hospitalo-universitaire en médecine physique et réadaptation – centre hospitalier universitaire de Dijon
Mme Marion Joud, CEO et co-fondatrice de Elema Agency
M. Baptiste Carreira Mellier, psychologue et neuropsychologue
Mme Sophia Rakrouki, sage-femme
– M. Éric Garandeau, ancien directeur des relations institutionnelles et affaires publiques France TikTok
– Audition commune :
M. Antonin Atger, écrivain, doctorant chercheur
Mme Audrey Chippaux, auteure de Derrière le filtre, Enquête sur le système d’influence
– Table ronde sur la régulation des plateformes :
M. Guilhem Julia, maître de conférences en droit privé et sciences criminelles à l’université Sorbonne Paris-Nord, co-directeur du master « Droits des activités numériques »
Mme Joëlle Toledano, professeur émérite d’économie associée à la chaire « Gouvernance et régulation » de l’université Paris Dauphine - PSL, membre du Conseil national du numérique
Mme Célia Zolynski, professeur de droit privé à l’Ecole de droit de la Sorbonne de l’Université Paris 1 Panthéon-Sorbonne, codirectrice du département de recherche en droit de l’immatériel de la Sorbonne
– Association Addictions France * – M. Bernard Basset, président, M. Franck Lecas, responsable du pôle Projets politiques publiques et Mme Louise Lefebvre-Lepetit, chargée de mission plaidoyer
– Mme Bérangère Couillard, présidente du Haut conseil à l’Égalité entre les hommes et les femmes
– Association E-enfance – Mme Justine Atlan, directrice générale, M. Samuel Comblez, directeur général adjoint, et Mme Inès Legendre, chargée de Plaidoyer
– M. Thierry Breton, ancien commissaire européen au marché intérieur
– Office anti cybercriminalité (OFAC) – Mme Cécile Augeraud, commissaire divisionnaire, chef-adjoint de l’OFAC
– Pôle d’expertise de la Régulaion numérique (PEReN) – M. Nicolas Deffieux, directeur
– Audition commune :
Dr Anne-Hélia Roure, médecin psychiatre
Mme Karine de Leusse, psychologue
Docteur Philippe Babe, chef de service des urgences pédiatriques de l’hôpital pédiatrique universitaire CHU Lenval de la ville de Nice
– Table ronde des députés et anciens députés ayant travaillé sur la question des réseaux sociaux :
Mme Marietta Karamanli, députée
Mme Isabelle Rauch, députée, ancienne présidente de la commission des affaires culturelles et de l’éducation
M. Bruno Studer, ancien député, ancien président de la commission des affaires culturelles et de l’éducation
– Amnesty international France * – Mme Anne Savinel-Barras, présidente, et Mme Katia Roux, chargée de plaidoyer
– Commission nationale de l’informatique et des libertés (CNIL) – Mme Marie-Laure Denis, présidente, M. Mathias Moulin, secrétaire général adjoint, et Mme Chirine Berrichi, conseillère pour les questions parlementaires et institutionnelles
– Conseil national du numérique – M. Gilles Babinet, coprésident, et M. Jean Cattan, secrétaire général
– Live’upAgency – M. Miloude Baraka, co-fondateur
– M. Hugo Travers
– M. Mathieu Barrère, journaliste pour Envoyé spécial (France télévisions)
– M. Morgan Lechat
– Mme Anna Baldy
– Audition commune :
Direction générale des entreprises – M. Loïc Duflot, chef de service de l’économie numérique, et Mme Chantal Rubin, chef de pôle structurel Numérique et affaires juridiques du Pôle Régulation des plates-formes numériques (REGPFN)
Direction générale des médias et des industries culturelles : Délégation à la régulation des plateformes numériques – M. Matthieu Couranjou, délégué à la régulation des plateformes numériques, et M. Sébastien Bakhouche, chef de service, adjoint à la directrice générale
– Audition commune :
Direction générale de l’enseignement scolaire (DGESCO) – M. Marc Pelletier, chef de la sous-direction de l’innovation, de la formation et des ressources, et Mme Stéphanie Gutierrez, adjointe au chef de la sous-direction de l’innovation, de la formation et des ressources, et Mme Claire Bey, cheffe du bureau de la santé et de l’action sociale
Direction du numérique pour l’éducation (DNE) – Mme Florence Biot, sous-directrice de la transformation numérique
Réseau Canopé – Centre pour l’éducation aux médias et à l’information (Clemi) – Mme Marie-Caroline Missir, directrice générale
– Observatoire de la parentalité et de l’éducation numérique (OPEN) – M. Thomas Rohmer, président, et Mme Angélique Gozlan, experte à l’Open, docteure en psychopathologie
– M. Isac Mayembo
– M. Adrien Laurent
– Mme Manon Tanti, et M. Julien Tanti
– M. Nasser Sari
– Audition commune sur le commerce et la monétisation sur TikTok :
M. Mehdi Meghzifene *, responsable lancement TikTok e-Commerce France
M. Arnaud Cabanis *, responsable de l'activité commerciale France & BeNeLux
– Audition commune, ouverte à la presse, réunissant les responsables de la modération TikTok :
Mme Nicky Soo *, responsable de la digital safety
Mme Brie Pegum *, responsable des aspects techniques de la régulation
M. Vincent Mogniat-Duclos *, responsable France - Tiktok LIVE
– Audition commune, ouverte à la presse, réunissant des responsables de TikTok France :
Mme Marlène Masure *, responsable du contenu États d’Europe, du Moyen-Orient et de l’Afrique, directrice exécutive du développement commercial et marketing
Mme Marie Hugon *, responsable des enquêtes réglementaires européennes
– Direction générale de la santé – Mme Sarah Sauneron, directrice générale par intérim, et M. Kerian Berose-Perez, chef du bureau Santé mentale
– Table ronde, ouverte à la presse, réunissant des plateformes :
– M. Anton’Maria Battesti, directeur des affaires publiques France, et Mme Aurore Denimal, responsable des affaires publiques France de Meta *
– Mme Claire Dilé, directrice des affaires publiques de X *
– M. Thibault Guiroy, directeur des affaires publiques France et Europe du Sud de YouTube *
– M. Simon Corsin, fondateur de Mindie
– M. Laurent Marcangeli, ministre de l'action et de la fonction publique et de la simplification
– Mme Clara Chappaz, ministre déléguée auprès du ministre de l’Économie, des finances et de la souveraineté industrielle et numérique, chargée de l’Intelligence artificielle et du Numérique
– Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) – M. Léonard Brudieu, sous-directeur, M. Paul-Emmanuel Piel, chef de bureau, et Mme Marie Pique, adjointe au chef de bureau– Office mineurs (Ofmin) – Lieutenant-Colonel Cyril Colliou, chef par intérim de l’Office mineurs (Ofmin), Mme Agathe Boudin, commandant de police, cheffe par intérim du pôle stratégie, et Mme Typhaine Desbordes, cheffe du bureau des partenariats et de la communication
– Mme Sarah Bouchahoua, responsable des affaires publiques de Snapchat France
– Table ronde sur les radicalités :
M. Tristan Boursier, Docteur associé, Centre de recherches politiques (Cevipof)
M. Hugo Micheron, enseignant-chercheur en sciences politiques rattaché au Centre de recherches internationales (CERI), maître de conférence à Sciences Po, spécialiste du Moyen Orient
Conseil représentatif des institutions juives de France (CRIF) * – Mme Sophie Taïeb, responsable du pôle cybersécurité
M. Valentin Petit, journaliste, agence CAPA
M. X, ancien modérateur sur les réseaux sociaux
* Ces représentants d’intérêts ont procédé à leur inscription sur le registre de la Haute Autorité pour la transparence de la vie publique.
ANNEXE N 8 : Liste des personnes rencontrées lors dU déplacement à Bruxelles
le mercredi 4 juin 2025
– Commission européenne, cabinet de M. Glenn Micallef, Commissaire à l’équité intergénérationnelle, la jeunesse, la culture et le sport :
M. David Ciliberti, membre du cabinet chargé de la jeunesse, du cyber‑harcèlement, de l’impact des réseaux sociaux et de la santé mentale
– Commission de protection des données (DPC) :
M. Des Hogan, Commissaire,
M. Dale Sunderland, Commissaire,
M. Paul Mcdonagh-Forde, Commissaire adjoint.
– Parlement européen :
Mme Stéphanie Yon-Courtin (FR-Renew), rapporteure fictive de la procédure d’initiative sur la conception addictive des services en ligne et la protection des consommateurs sur le marché unique de l’UE au nom de la commission du marché intérieur et de la protection des consommateurs,
Mme Christel Schaldemose (DK-S&D), rapporteure fictive de la procédure d’initiative sur la protection des mineurs au nom de la commission du marché intérieure et de la protection des consommateurs.
– Comité européen de la protection des données :
Mme Greet Gysen, cheffe de secteur, information et communication,
Mme Myriam Gufflet, cheffe de secteur, litiges et affaires internationales,
Mme Isabelle Vereecken, cheffe du secrétariat,
Mme Margarita Akritidou, juriste.
– Commission européenne, direction générale des réseaux de communication, du contenu et des technologies :
Mme Rita Wezenbeek, directrice, règlementation et supervision des plateformes en ligne,
Mme Adélaïde Remiche, chargée de dossier, protection des mineurs,
Mme Julia Van Best, conseillère politique de la directrice.
– Représentation permanente de la France auprès de l’UE :
Mme Ségolène Milaire, conseillère politique et compétitivité industrielle, innovation,
M. Luc Poulain, conseiller politique protection des consommateurs.
([1]) Pascal pouvait être sujet à la fascination face à l’immensité de l’univers cosmique. Face à TikTok, la sidération est souvent ce qui revient : sidération face au flot continu, infini, non hiérarchisé ni modéré si ce n'est par un algorithme retors, sidération et parfois incrédulité de députés à l’écoute des témoignages. Mais la sidération ne peut être durable face au vertige de l’univers en apparence sans fin des réseaux sociaux. Cette commission d’enquête est un appel à l’action.
([10]) Auxquels se sont joints ponctuellement, pour sélectionner les témoignages reçus par mail ou via le questionnaire cités dans ce rapport, les stagiaires de la commission des finances Tom Kurth, Naomie Chainho et Ysaure Reynaud. Nous remercions également Laurence Martinez et Pascale Semelet qui ont eu la charge du secrétariat de la commission. J’ai également été appuyé par Alexis Dudonné qui était en stage à mes côtés.
([11]) https://amnestyfr.cdn.prismic.io/amnestyfr/f7a52b32-793f-4e0a-a83a-737436f415f3_Pouss%C3%A9%C2%B7e%C2%B7s+vers+les+t%C3%A9n%C3%A8bres_rapport_Tiktok_Amnesty_International_FR.pdf.
([19]) https://www.august-debouzy.com/fr/event/1774-commissions-denquete-parlementaires-et-entreprises-privees
([22]) La loi du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs a été l’une des réponses du Parlement aux multiples alertes sur les “influvoleurs”.
([23]) À la suite de sa version chinoise Douyin, créée en 2016.
([24]) Adapté à celui du smartphone.
([25]) Aujourd’hui, de nombreux réseaux sociaux disposent d’une fonctionnalité de défilement sans fin de vidéos courtes au format vertical : shorts sur YouTube, reels sur Instagram, etc.
([27]) Les résultats de cette consultation citoyenne sont consultable sur le site de l’Assemblée nationale : https://data.assemblee-nationale.fr/autres/consultations-citoyennes/tiktok.
([28]) Traité de l’autorité politique, 1677, Baruch Spinoza.
([29]) Amnesty International, Poussé.e.s vers les ténèbres. Comment le fil « Pour toi » encourage l’automutilation et les idées suicidaires, 2023.
([30]) https://www.senat.fr/travaux-parlementaires/structures-temporaires/commissions-denquete/commission-denquete-sur-lutilisation-du-reseau-social-tiktok-son-exploitation-des-donnees-sa-strategie-dinfluence.html.
([42]) Les TCA sont des troubles psychiatriques, associés à des perturbations persistantes de l’alimentation ou du comportement alimentaire (insuffisant, excessif ou aberrant) et entraînant un mode de consommation pathologique ou une absorption de nourriture délétère pour la santé physique ou le fonctionnement social. Ils sont plus ou moins associés à des préoccupations centrées sur le corps, vu, en tout ou partie, comme plus gros qu’en réalité (réponse écrite au questionnaire de la rapporteure de Nathalie Godart, professeure des universités en psychiatrie de l’enfant et de l’adolescent).
([51]) The Guardian, « More than half of top 100 mental health TikToks contain misinformation, study finds », 31 mai 2025, https://www.theguardian.com/society/2025/may/31/more-than-half-of-top-100-mental-health-tiktoks-contain-misinformation-study-finds?CMP=Share_iOSApp_Other
([54]) « Des violences sexistes pour faire le show ! Les recettes des conversations spectaculaires sur TikTok Live », avril 2025.
([58]) Contribution écrite de Mme Anaïs Therond, engagée contre les contenus pro-trafic sur les réseaux sociaux, du Fonds international pour la protection des animaux et du Jane Goodall Institute France.
([59]) Soit 14 % de l’ensemble des signalements.
([60]) Réponse écrite de l’Office anti-cybercriminalité (OFAC) au questionnaire de la rapporteure.
([62]) Haut conseil à l’égalité entre les femmes et les hommes, La Femme Invisible dans le numérique. Le cercle vicieux du sexisme, novembre 2023.
([69]) Réponse écrite de l’OFAC au questionnaire de la rapporteure.
([72]) https://www.franceinfo.fr/internet/intelligence-artificielle/intelligence-artificielle-un-adolescent-pousse-au-suicide_7463146.html
([73]) https://www.franceinfo.fr/monde/espagne/un-adolescent-espagnol-cree-des-images-denudees-de-ses-camarades-de-classe-par-intelligence-artificielle-et-tente-de-les-vendre_7402228.html
([77]) https://www.ameli.fr/assure/actualites/paracetamol-challenge-les-autorites-sanitaires-tirent-la-sonnette-d-alarme
([78]) https://www.leparisien.fr/high-tech/ce-nest-pas-un-jeu-la-police-alerte-sur-le-zizi-challenge-un-defi-tiktok-inquietant-aux-relents-pedocriminels-03-04-2025-T4GF5YGVSNAANKVDVU4PAB5QVQ.php
([82]) Conseil national du numérique, « Votre attention, s’il vous plaît ! Quels leviers face à l’économie de l’attention ? », janvier 2022
([86]) Le social commerce ou social shopping consiste en l’intégration d’espaces marchands sur des réseaux sociaux, de boutons d’achats sur des publications ou plus généralement en l’utilisation des réseaux sociaux pour des transactions commerciales en ligne.
([89]) Conseil national du numérique, op. cit.
([92]) Conseil national du numérique, op. cit.
([93]) Conseil national du numérique, op. cit.
([95]) Conseil national du numérique, op. cit.
([96]) Conseil national du numérique, op. cit.
([97]) Conseil national du numérique, op. cit.
([98]) Conseil national du numérique, op. cit.
([103]) Auteur de l’ouvrage Le système TikTok. Comment la plateforme chinoise modèle nos vies.
([105]) Conseil national du numérique, op. cit.
([108]) Frédéric Aubrun, Marie-Nathalie Jauffret, « Du live NPC au live match sur TikTok : les nouvelles stratégies d’influence », The Conversation, 6 juin 2024.
([115]) Radio France rapporte le cas d’un collégien en quête de reconnaissance ayant volé plus de 3 000 euros d’économies à sa mère pour faire des dons sur TikTok LIVE : https://www.radiofrance.fr/mouv/podcasts/reporterter/live-matchs-sur-tiktok-comment-certains-influenceurs-soutirent-de-l-argent-a-leurs-jeunes-abonnes-4648619.
([117]) Réponse écrite au questionnaire de la rapporteure.
([118]) À ce sujet, on notera que TikTok n’a jamais publié de barème de conversion des pièces virtuelles.
([119]) https://www.france24.com/fr/info-en-continu/20250410-les-revenus-de-tiktok-menac%C3%A9-d-interdiction-aux-etats-unis-bondissent.
([120]) https://investor.atmeta.com/investor-news/press-release-details/2025/Meta-Reports-Fourth-Quarter-and-Full-Year-2024-Results/.
([122]) https://www.businessinsider.com/tiktok-ads-sponsored-posts-for-you-page-affiliate-creators-promotion-2023-11.
([124]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([128]) Auteure de l’ouvrage L’adolescence au cœur de l’économie numérique. Travail émotionnel et risques sociaux.
([131]) Définition de l’activité d’influence commerciale par voie électronique donnée à l’article 1er de la loi n° 2023‑451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux.
([143]) Le Parisien, 16 avril 2025, « Mineurs en fugue, distribution de billets… L’influenceur Nasdas, ramasse-misère de Perpignan », https://www.leparisien.fr/societe/mineurs-en-fugue-distributions-de-billets-linfluenceur-nasdas-ramasse-misere-de-perpignan-16-04-2025-MYPQP4ARIVDHNBL7KVZPMX6HFY.php
([144]) Id.
([146]) Id.
([147]) Le Parisien, préc.
([154]) L’A/B testing consiste à comparer les différences d’usages de deux sous-groupes d’utilisateurs homogènes dont l’interface ou l’algorithme de recommandation est similaire à l’exception d’un élément, afin de déterminer celui qui atteint le plus l’objectif fixé. Cette méthode permet de déterminer l’interface retenant le plus longtemps l’utilisateur sur la plateforme et les vidéos qui participent au rallongement de la durée d’une session d’utilisation par les utilisateurs.
([159]) Ce terme métaphorique trouve son origine dans Les Aventures d’Alice au pays des merveilles, où le personnage d’Alice tombe dans un terrier et se retrouve dans un monde étrange dont il est difficile de sortir.
([163]) Réponse de TikTok SAS au questionnaire de la rapporteure.
([171]) Les notification push sont des messages envoyés aux utilisateurs d’une application sans que ceux-ci n’aient besoin d’ouvrir l’application ou d’être en train d’utiliser leur appareil pour les recevoir.
([172]) Les notifications in-app sont des messages qui apparaissent généralement en haut de l’écran ou dans une section dédiée avec une petite pastille rouge lorsque l’utilisateur utilise activement l’application.
([173]) Les messages privés sur TikTok sont appelés « messages directs ».
([175]) TikTok’s DSA Transparency Report. July-December 2024.
([176]) Commission d’enquête d’après la réponse écrite de Médiamétrie au questionnaire de la rapporteure.
([177]) TikTok’s DSA Transparency Report. January-June 2024.
([178]) Commission d’enquête d’après la réponse écrite de Médiamétrie au questionnaire de la rapporteure.
([179]) Estimée à 57,159 millions au 1er janvier 2025 par l’Insee (« Population par sexe et groupe d’âges. Données annuelles 2025 », https://www.insee.fr/fr/statistiques/2381474).
([180]) Estimée à 68,606 millions au 1er janvier 2025 par l’Insee (« Population par sexe et groupe d’âges. Données annuelles 2025 », https://www.insee.fr/fr/statistiques/2381474).
([181]) L’accès à certains contenus et fonctionnalités peut être restreinte aux utilisateurs majeurs (voir infra).
([182]) Communiquée par TikTok SAS à la commission d’enquête, la proportion d’utilisateurs actifs quotidiens en France âgés de 13 à 17 ans est confidentielle.
([184]) Baromètre numérique de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep).
([186]) Le CRÉDOC publie, à la demande de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep), de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), du Conseil Général de l’Économie, de l’Industrie, de l’Énergie et des Technologies (Ministère de l’Economie et des Finances) (CGE) et de l’Agence Nationale de la Cohésion des Territoires (ANCT) un « baromètre du numérique ».
([187]) Arcep, Arcom, CGE, ANCT, Baromètre du numérique, édition 2025.
([188]) Arcep, Arcom, CGE, ANCT, Baromètre du numérique, édition 2025.
([189]) Arcep, Arcom, CGE, ANCT, Baromètre du numérique, édition 2025.
([190]) Association e-Enfance / 3018 et Caisse d’épargne, Étude association e-Enfance / 3018 Causse d’épargne sur le harcèlement et le cyberharcèlement des mineurs, octobre 2024.
([191]) Arcep, Arcom, CGE, ANCT, Baromètre du numérique, édition 2025.
([193]) Réponse écrite de Médiamétrie au questionnaire de la rapporteure.
([194]) Association e-Enfance / 3018 et Caisse d’épargne, Étude association e-Enfance / 3018 Causse d’épargne sur le harcèlement et le cyberharcèlement des mineurs, octobre 2024.
([195]) Arcep, Arcom, CGE, ANCT, Baromètre du numérique, édition 2025.
([196]) Réponse écrite de Médiamétrie au questionnaire de la rapporteure.
([199]) Mme Océane Herrero, Le système TikTok. Comment la plateforme chinoise modèle nos vies., 2023.
([200]) Réponse écrite de Médiamétrie au questionnaire de la rapporteure.
([201]) Réponse écrite de Médiamétrie au questionnaire de la rapporteure.
([202]) Arcom, Observatoire de l’audience des plateformes en ligne. S1 2024, novembre 2024.
([203]) Arcom, Observatoire de l’audience des plateformes en ligne. S1 2024, novembre 2024.
([219]) Réponse écrite du professeur Serge Tisseron au questionnaire de la rapporteure.
([220]) Shuai Yang, Mélèa Saïd, Hugo Peyre, Franck Ramus, Marion Taine, Evelyn C. Law, Marie-Noëlle Dufourg, Barbara Heude, Marie-Aline Charles, Jonathan Y. Bernard, « Associations of screen use with cognitive development in early childhood : the ELFE birth cohort », in The Journal of Child Psychology and Psychiatry, 29 août 2023.
([221]) La cohorte Elfe consiste en un suivi dans le temps d’enfants nés en 2011. Près de 18 000 enfants nés en 2011 ont initialement été inclus dans l’étude, avec l’accord de leurs parents. Des entretiens par questionnaires et des prélèvements, sont réalisés aux différents âges de la vie de l’enfant afin de rendre compte de son développement et de son évolution. Des données ont été recueillies chez la femme enceinte et chez le nouveau‑né à la naissance, puis aux deux mois de l’enfant, à ses 1 an, 2 ans, 3 ans et demi, etc.
([225]) Carole Bousquet-Bérard, Alexandre Pascal, Enfants et écrans. À la recherche du temps perdu, avril 2024.
([230]) The Wall Street Journal, « Facebook’s Documents About Instagram and Teens », 5 oct. 2021, https://www.wsj.com/livecoverage/facebook-whistleblower-frances-haugen-senate-hearing/card/eFNjPrwIH4F7BALELWrZ
([240]) Rapport du Haut Conseil de la Famille, de l’Enfance et de l’Âge (HCFEA), « La traversée adolescente des années collège », mai 2021.
([242]) Rapport du HCFEA, op. cit.
([243]) Santé publique France, « La santé mentale et le bien-être des collégiens et lycéens en France hexagonale », avril 2024, étude citée par le rapport « Enfants et écrans. À la recherche du temps perdu », avril 2024.
([244]) Réponse écrite de la direction générale de la santé au questionnaire de la rapporteure.
([245]) https://www.assurance-maladie.ameli.fr/sites/default/files/2024-07_rapport-propositions-pour-2025_assurance-maladie.pdf.
([246]) Rapport du HCFEA, op. cit.
([248]) Kessler R.C., Angermeyer M., Anthony J.C. et al., 2007, Lifetime prevalence and age-of-onset distributions of mental disorders in the World Health Organization’s World Mental Health Survey Initiative, World Psychiatry, 2007-6, pp. 168–76.
([249]) « Globalement les indicateurs mesurés sont dégradés chez les filles comparativement aux garçons ; les comportements de santé et le bien-être mental et social s’altèrent avec l’avancée dans l’adolescence, cette altération étant majorée chez les filles ; les inégalités sociales existent, voire s’accentuent au collège. », rapport du HCFEA, p. 19.
([250]) Observatoire national du suicide, « Suicide : mal-être croissant des jeunes femmes et fin de vie. Penser les conduites suicidaires aux prismes de l’âge et du genre – 6ème rapport », février 2025, rapport cité dans la réponse écrite de la direction générale de la santé au questionnaire de la rapporteure.
([251]) Jonathan Haidt, Génération anxieuse. Comment les réseaux sociaux menacent la santé mentale des jeunes, Les Arènes, 2025, p. 58.
([254]) Étude citée dans les réponses de l’ambassade de France en Espagne au questionnaire de la rapporteure.
([255]) https://kfst.dk/media/egkp201j/20250206-young-consumers-and-social-media.pdf, étude citée par l’ambassade de France au Danemark dans ses réponses au questionnaire de la rapporteure.
([256]) https://committees.parliament.uk/publications/45128/documents/223543/default/, étude citée par l’ambassade de France au Royaume-Uni dans ses réponses au questionnaire de la rapporteure.
([257]) Jonathan Haidt, Génération anxieuse. Comment les réseaux sociaux menacent la santé mentale des jeunes, Les Arènes, 2025, p. 174
([258]) Réponse écrite de l’ambassade de France en Australie au questionnaire de la rapporteure.
([263]) Amnesty International, « Poussé·e·s vers les ténèbres : Comment le fil “Pour toi” encourage l’automutilation et les idées suicidaires », 2023
([266]) Amnesty International, op. cit.
([276]) Lakshit Jain et al., « Exploring Problematic TikTok Use and Mental Health Issues: A Systematic Review of Empirical Studies », Journal of primary care & community health, 2025
([277]) Réponse écrite d’Antonin Atger au questionnaire de la rapporteure
([280]) Calanthe Hendrikse et Maria Limniou, « The Use of Instagram and TikTok in Relation to Problematic Use and Well-Being », Journal of Technology in Behavioral Science, 2024
([283]) Réponse à la consultation citoyenne.
([286]) Réponse écrite d’Antonin Atger au questionnaire de la rapporteure.
([289]) L’âge des auteures des témoignages est indiqué en fin de citation.
([290]) Réponse à la consultation citoyenne
([291]) Réponse à la consultation citoyenne
([292]) Réponse à la consultation citoyenne.
([293]) Réponse à la consultation citoyenne.
([294]) Réponse à la consultation citoyenne.
([295]) Réponse à la consultation citoyenne.
([296]) Réponse à la consultation citoyenne.
([297]) Réponse à la consultation citoyenne.
([298]) Réponse à la consultation citoyenne.
([299]) Réponse à la consultation citoyenne.
([300]) Courriel reçu sur l’adresse de la commission d’enquête.
([301]) Courriel reçu sur l’adresse de la commission d’enquête.
([302]) Courriel reçu sur l’adresse de la commission d’enquête.
([303]) Témoignage recueilli par la rapporteure, cité au cours de l’audition des responsables de TikTok France, compte rendu n° 26.
([306]) Définition donnée par Serge Tisseron, réponse écrite au questionnaire de la rapporteure.
([307]) Serge Tisseron, réponse écrite au questionnaire de la rapporteure.
([314]) Boniel-Nissim, Meyran, Marino, Claudia, Galeotti, Tommaso, Blinka, Lukas, Ozoliņa, Kristīne. et al. (2024). A focus on adolescent social media use and gaming in Europe, central Asia and Canada: Health Behaviour in School-aged Children international report from the 2021/2022 survey. World Health Organization. Regional Office for Europe. https://iris.who.int/handle/10665/378982.
([315]) Réponse à la consultation citoyenne.
([316]) Réponse à la consultation citoyenne.
([317]) Réponse à la consultation citoyenne.
([318]) Réponse à la consultation citoyenne.
([322]) Aglaia Katsiroumba, Ioannis Moussoglou, Olympia Konstantakopoulou et Petros Galanis (directeur de recherche) – Département de sciences médicales de l’Université nationale d’Athènes. Etude publiée dans la revue AIMS Public Health : GALA NIS Petros, KATSIROUMBA Aglaia, MOUSSOGLOU Ioannis, KONSTANTAKOPOULOU Olympia, L’échelle d’addiction à TikTok : développement et validation, AIMS Public Health, Volume 11, n°4, 1172-1197, 2024, étude citée dans les réponses écrites de l’ambassade de France en Grèce au questionnaire de la rapporteure.
([327]) https://www.dmu.ac.uk/about-dmu/news/2022/september/dmu-research-suggests-10-year-olds-lose-sleep-to-check-social-media.aspx, étude citée dans les réponses écrites de l’ambassade de France au Royaume-Uni au questionnaire de la rapporteure.
([339]) Jonathan Haidt, Génération anxieuse. Comment les réseaux sociaux menacent la santé mentale des jeunes, Les Arènes, 2025, p. 48
([344]) À la date de rédaction du rapport, l’autopsie de Raphaël Graven a montré que sa mort n’a pas eu une origine traumatique et n’est pas en lien avec l’intervention d’un tiers.
([345]) Le Monde, « La mort en direct du streameur Jean Pormanove, humilié et maltraité pendant des mois », 19 août 2025, https://www.lemonde.fr/societe/article/2025/08/19/la-mort-en-direct-du-streameur-jean-pormanove-humilie-et-maltraite-pendant-des-mois_6631954_3224.html.
([346]) Chris Bail, Breaking the Social Media Prism : How to Make Our Platforms Less Polarizing, N.J., Princeton University Press, 2021, 240 p., cité par Antonin Atger dans sa réponse écrite au questionnaire de la rapporteure.
([352]) https://www.theguardian.com/society/2025/may/31/more-than-half-of-top-100-mental-health-tiktoks-contain-misinformation-study-finds, étude citée dans les réponses écrites de l’ambassade de France au Royaume-Uni au questionnaire de la rapporteure.
([353]) https://www.ofcom.org.uk/siteassets/resources/documents/research-and-data/media-literacy-research/children/childrens-media-use-and-attitudes-2023/childrens-media-use-and-attitudes-report-2023.pdf?v=329412, étude citée dans les réponses écrites de l’ambassade de France au Royaume-Uni au questionnaire de la rapporteure.
([356]) NPR, « Inside the TikTok documents : Stripping teens and boosting ‘attractive’ people », 16 octobre 2024, https://www.npr.org/2024/10/12/g-s1-28040/teens-tiktok-addiction-lawsuit-investigation-documents.
([357]) NPR, « Inside the TikTok documents : Stripping teens and boosting ‘attractive’ people », 16 octobre 2024, https://www.npr.org/2024/10/12/g-s1-28040/teens-tiktok-addiction-lawsuit-investigation-documents.
([359]) TikTok – DSA Risk Assessment Report 2024, p. 16 : « While TikTok does not believe that use of platforms (in general or of TikTok in particular), is automatically harmful in and of itself, it recognises that some users (in particular Younger Users) could at times and in specific circumstances face serious negative mental and physical health impacts as a result of the way in which they use such platforms. ».
([360]) TikTok – DSA Risk Assessment Report 2024, p. 49 : « Younger Users may experience negative effects to their well-being, such as spending excessive time on the Platform or feeling pressure to post content and receive likes, impacting their self-esteem and overall well-being. ».
([361]) Mme Nicky Soo, responsable de la sécurité digitale (digital safety) de TikTok , affirme que « certains contenus ne sont pas éligibles au dispositif de recommandation pour les jeunes » et que les risques liés à l’exposition répétée à certains contenus sur la santé mentale des jeunes est traitée par « des techniques de dispersion, alimentées par des modèles d’apprentissage automatique, de sorte que le fil “Pour toi” ne recommande pas en série des vidéos similaires qui, sans violer les règles de la communauté, peuvent avoir un impact sur le bien-être si elles sont visionnées de façon répétée » – Compte rendu n° 25.
([362]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([364]) La ministre australienne de la communication, Mme Anika Wells, a annoncé l’interdiction de YouTube aux moins de 16 ans le 30 juillet 2025, avançant notamment que deux enfants australiens sur cinq affirment avoir visionné des contenus inappropriés sur la plateforme. La plateforme de partage de vidéos n’était pour lors pas concernée par la loi Online Safety Amendment (Social Media Minimum Age) Act 2024 adoptée le 29 novembre 2024 qui prévoit d’interdire l’accès aux réseaux sociaux aux moins de 16 ans après un délai d’un an. Source : https://www.lemonde.fr/pixels/article/2025/07/30/l-australie-va-interdire-youtube-aux-moins-de-16-ans-face-aux-algorithmes-predateurs_6625415_4408996.html et réponse écrite de l’ambassade de France en Australie au questionnaire de la rapporteure.
([370]) Au premier trimestre 2025, l’association 3-6-9-12+ est intervenue dans 63 classes du premier et du second degré.
([371]) Réponse écrite du Dr Serge Tisseron au questionnaire écrit de la rapporteure.
([372]) Mehdi Arfaoui, Jennifer Elbaz, « Numérique adolescent et vie privée », 2025 : https://hal.science/hal-04919994v2/document.
([373]) Mehdi Arfaoui, Jennifer Elbaz, op. cit.
([375]) Mehdi Arfaoui, Jennifer Elbaz, op. cit.
([382]) Réponse à la consultation citoyenne.
([383]) Réponse à la consultation citoyenne.
([384]) Réponse à la consultation citoyenne.
([387]) Paragraphe 7 de l’article 2 du DMA, auquel renvoie l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique.
([388]) Paragraphe 2 de l’article 2 du DMA.
([389]) Décision de la Commission européenne du 25 avril 2023.
([390]) CNIL, « Recommandation 1 : encadrer la capacité d’agir des mineurs en ligne », https://www.cnil.fr/fr/recommandation-1-encadrer-la-capacite-dagir-des-mineurs-en-ligne.
([391]) En vertu de l’article 1148 du code civil, « toute personne incapable de contracter peut néanmoins accomplir seule les actes courants autorisés par la loi ou l’usage, pourvu qu’ils soient conclus à des conditions normales ».
([392]) CNIL, « Recommandation 1 : encadrer la capacité d’agir des mineurs en ligne », https://www.cnil.fr/fr/recommandation-1-encadrer-la-capacite-dagir-des-mineurs-en-ligne.
([393]) Renaissance Numérique, Contrôle de l’âge en ligne : pour une approche proportionnée et européenne, septembre 2022.
([394]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([395]) Les réseaux sociaux sont également tenus de recueillir l’autorisation parentale relative aux comptes déjà créés et détenus par des mineurs de moins de quinze ans.
([397]) Celle-ci devant intervenir au plus trois mois après la date de réception par le Gouvernement de la réponse de la Commission européenne permettant de considérer le dispositif législatif lui ayant été notifié comme conforme au droit de l’Union européenne.
([399]) Tout service fourni, normalement contre rémunération, à distance au moyen d’équipement électronique de traitement (y compris la compression numérique) et de stockage des données, à la demande individuelle d’un destinataire de services.
([400]) La loi du 9 juin 2023 a été modifiée par l’ordonnance n° 2024-978 du 6 novembre 2024 modifiant la loi n° 2023-451 du 9 juin 2023 visant à encadrer l'influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux prise en application de l'article 3 de la loi n° 2024-364 du 22 avril 2024 portant diverses dispositions d'adaptation au droit de l'Union européenne en matière d'économie, de finances, de transition écologique, de droit pénal, de droit social et en matière agricole (DDADUE).
([401]) « Conditions générales d’utilisation de TikTok », https://www.tiktok.com/legal/page/eea/terms-of-service/fr.
([402]) La loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne ne prévoit pas une interdiction de l’utilisation des réseaux sociaux par les mineurs de moins de 15 ans, mais conditionne seulement celle-ci à autorisation parentale.
([403]) Notifications reçues par l’utilisateur même lorsque la page de l’application n’est pas ouverte.
([404]) Réponses écrites de TikTok SAS au questionnaire de la rapporteure.
([405]) Réponses écrites de TikTok SAS au questionnaire de la rapporteure.
([406]) Réponses écrites de TikTok SAS au questionnaire de la rapporteure.
([407]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([408]) À titre d’exemple, d’après les réponses écrites de TikTok transmises à la rapporteure, TikTok indique ne plus envoyer de notifications push aux utilisateurs âgés de 13 à 15 ans après 21 heures, tandis que ceux âgés de 16 à 17 ans voient ces notifications push désactivées à partir de 22 heures. Aussi, ils précisent que les comptes des utilisateurs âgés de 13 à 17 ans sont par défaut soumis à une limite quotidienne de 60 minutes de temps d’écran sur TikTok. Cette « limite » n’est toutefois pas contraignante et est désactivable par l’utilisateur si le contrôle parental n’est pas activé.
([409]) D’après l’enquête Parents, enfants et numérique, en 2022, 83 % des parents reconnaissent ne pas savoir ce que leur enfant fait exactement sur internet. En 2024, 41 % des adultes déclarent que leurs enfants âgés de 7 à 13 ans se rendent sur les réseaux sociaux, alors que 63 % de ces mêmes enfants déclarent les utiliser, marquant l’écart de perception entre parents et enfants.
([410]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([413]) TikTok, « Conditions d’âge pour TikTok LIVE », https://support.tiktok.com/fr/safety-hc/account-and-user-safety/age-requirements-for-tiktok-live.
([414]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([416]) Selon l’Insee, en 2025, on comptait 11,4 millions d’enfants de moins de 15 ans en France, et 4,3 millions pour la tranche d’âge 15-19 ans. Si on considère que les différents âges sont uniformément répartis, on peut estimer que la tranche d’âge 13-17 ans compte environ 4,1 millions d’enfants.
([417]) Selon l’Insee, en 2025, on comptait 11,4 millions d’enfants de moins de 15 ans en France. Si on considère que les différents âges sont uniformément répartis, on peut estimer que la tranche d’âge 8-13 ans compte environ 3,8 millions d’enfants.
([419]) DSA, considérant 71.
([420]) Commission européenne, C(2025) 4764 final ANNEX, ANNEX to the Communication to the Commission Approval of the content on a draft Communication from the Commission – Guidelines on measures to ensure a high level of privacy, safety and security for minors online, pursuant to Article 28(4) of Regulation (EU) 2022/2065, https://ec.europa.eu/newsroom/dae/redirection/document/118226.
([421]) En juin 2025, 21 ministres de 13 États membres de l’Union européenne demandaient, dans une tribune publiée sur Euronews, à ce que « la protection des enfants en ligne [soit] élevée au rang de priorité politique et sociétale, étayée par des mesures concrètes et applicables » (Euronews, « Euroviews. Tribune : il est temps d'agir pour protéger les enfants en ligne », 28 juin 2025, https://fr.euronews.com/my-europe/2025/06/28/tribune-il-est-temps-dagir-pour-proteger-les-enfants-en-ligne).
([422]) « La Commission publie des lignes directrices sur la protection des mineurs », 14 juillet 2025, https://digital-strategy.ec.europa.eu/fr/library/commission-publishes-guidelines-protection-minors.
([423]) « 29. The most common age assurance measures currently available and applied by online platforms fall into three broad categories: self-declaration, age estimation, and age verification.
a. Self-declaration consists of methods that rely on the individual to supply their age or confirm their age range, either by voluntarily providing their date of birth or age, or by declaring themselves to be above a certain age, typically by clicking on a button online.
b. Age estimation consists of methods which allow a provider to establish that a user is likely to be of a certain age, to fall within a certain age range, or to be over or under a certain age.
c. Age verification is a system that relies on physical identifiers or verified sources of identification that provide a high degree of certainty in determining the age of a user.
30. The main difference between age estimation and age verification measures is the level of accuracy. Whereas age verification provides certainty about the age of the user, age estimation provides an approximation of the user’s age. The accuracy of age estimation technologies may vary and improve as technology progresses. »
([424]) « In the following circumstances, in view of the fact that the protection of minors constitutes an important policy objective of the Union to which Regulation (EU) 2022/2065 gives an expression, as reflected in its Recital 71, the Commission considers the use of access restrictions supported by age verification methods an appropriate and proportionate measure to ensure a high level of privacy, safety, and security of minors:
a. Where certain products or services pose a high risk to minors and those risks cannot be mitigated by less restrictive measures, considering applicable Union and national laws, such as by way of example:
i. the sale of alcohol, tobacco or nicotine-related products, drugs
ii. access to any type of pornographic content,
iii. access to gambling content.
b. Where, due to identified risks to minors, the terms and conditions or any other contractual obligations of the service require a user to be 18 years or older to access the service even if there is no formal age requirement established by law.
c. Any other circumstances in which the provider of an online platform accessible to minors has identified risks to minors’ privacy, safety, or security, including content, conduct and consumer risks as well as contact risks (e.g., arising from features such as live chat, image/video sharing, anonymous messaging), where these risks cannot be mitigated by other less intrusive measures as effectively as by access restrictions supported by age verification).
d. Where Union or national law, in compliance with Union law, prescribes a minimum age to access certain products or services offered and/or displayed in any way on an online platform, including specifically defined categories of online social media services.
([425]) « The Commission considers the use of age estimation methods, when provided by an independent third party or through systems appropriately and independently audited notably for security and data protection compliance, as well as when done ex ante if necessary to ensure the effectiveness of the measure, to be an appropriate and proportionate measure to ensure a high level of privacy, safety, and security of minors in the following circumstances:
a. Where, due to identified risks to minors’ privacy, safety and security, the online platform service’s terms and conditions or similar contractual obligations of the service require a user to be above a required minimum age that is lower than 18to access the service, based on the provider’s assessment of risks for minors on the platform.
b. Where the provider of the online platform has identified medium risks to minors on their platform as established in its risk review (see Section 5 on Risk Review) and those risks cannot be mitigated by less restrictive measures. The Commission considers this will be the case where the risk is not high enough to require access restriction based on age verification but not low enough that it would be appropriate to not have any access restriction or to have access restriction that is not supported by any age assurance methods or is only supported by self-declaration. Self-declaration is not considered to be an appropriate age-assurance measure as further explained below. ».
([426]) « La Commission publie des lignes directrices sur la protection des mineurs », 14 juillet 2025, https://digital-strategy.ec.europa.eu/fr/library/commission-publishes-guidelines-protection-minors.
([427]) « Methods that rely on verified and trusted government-issued IDs, without providing the platform with additional personal data, may constitute an effective age verification method, in so far as they are based on anonymised age tokens. Such tokens should be issued after reliable verification of the person’s age, and they should be issued by an independent third-party rather than the provider of the online platform, especially when it offers access to adult content. […] To ensure compliance with the principles of data minimisation, purpose limitation, and user trust, providers of online platforms are encouraged to adopt double-blind age verification methods. A double-blind method ensures that (i) the online platform does not receive additional means to identify the user and, instead only receives information allowing it to confirm whether they meet the required age threshold and that (ii) the age verification provider does not obtain knowledge of the services for which the proof of age is used. ».
([428]) Ou de vérification de l’âge, y compris en dessous de 18 ans, dans les États membres où existent des méthodes le permettant.
([429]) « Age-appropriate design: providers of online platforms accessible to minors should design their services to align with the developmental, cognitive and emotional needs of minors, while ensuring their safety, privacy, and security. Age-appropriate designs are suitable for children considering their rights and well-being as well as their diversity and specific age or stage of development and take account of the evolving capacities of children. »
([430]) « Online platforms accessible to minors might have only some content, sections, or functions that pose a risk to minors or may have parts of their platform where the risk can be mitigated by other measures and/or parts where it cannot. In these cases, instead of age-restricting the service as a whole, providers of such online platforms should assess which content, sections or functions on their platform carry risks for minors and implement access restrictions supported by age assurance methods to reduce these risks for minors in proportionate and appropriate ways. For example, parts of social media services with content, sections or functions that may pose a risk to minors, such as adult-restricted sections of a social media, or sections with adult-restricted commercial communications or adult-restricted product placements by influencers should only be made available to adult users whose age has been verified accordingly ».
([431]) « i. accounts only allow interaction such as likes, tags, comments, direct messages, reposts and mentions by accounts they have previously accepted.
ii. no account can download or take screenshots of contact, location or account information, or content uploaded or shared by minors to the platform.
iii. only accounts that the minor has previously accepted can see their content, posts and account information. »
([432]) « vii. push notifications are turned off by default and are always off during core sleep hours, adapting the core sleep hours to the age of the minor. When push notifications are actively enabled by the user, they should only notify the user about interactions arising from the user’s direct contacts and content from accounts or channels that the user actively follows or engages with (for example, push notifications should never be inauthentic and always mentions precisely the user or creator the notification comes from). »
([433]) « xi. filters that can be associated to negative effects on body image, self-esteem and mental health are turned off. »
([434]) « c. Introducing customisable, visible, easy-to access and use, child-friendly and effective time management tools to increase minors’ awareness of their time spent on online platforms. To be effective, these tools should deter minors from spending more time on the platform. These could also include nudges that favour safer options. There should also be systematic implementation of active notifications informing minors of the time spent online. »
([435]) Article 6 la LCEN du 21 juin 2004, dans sa rédaction de 2004. L’article 6 dispose désormais : « Les personnes dont l’activité consiste à fournir des services d’hébergement concourent à la lutte contre la diffusion de contenus constituant les infractions mentionnées aux articles (…) du code pénal ».
([436]) La curation des contenus consiste en la sélection et la recommandation de contenus considérés comme pertinents.
([438]) DSA, article 3.
([439]) Compte rendu de l’audition de Mme Marlène Masure par la commission d’enquête du Sénat sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence, 8 juin 2023.
([442]) Les très grandes plateformes et les très grands moteurs de recherche en ligne au sens du DSA sont ceux comptant plus de 45 millions d’utilisateurs actifs dans l’UE (soit 10 % de la population de l’UE), compte tenu du rôle clé qu’ils jouent dans le commerce électronique, dans la diffusion d’informations et dans la facilitation de l’échange d’opinions et d’idées. Ils sont aujourd’hui au nombre de vingt-cinq, dont 7 réseaux sociaux (Facebook, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, X – anciennement Twitter).
([443]) Les autres plateformes doivent quant à elle se conformer au DSA depuis le 17 février 2024.
([444]) DSA, article 16, al. 1 : « Les fournisseurs de services d’hébergement mettent en place des mécanismes permettant à tout particulier ou à toute entité de leur signaler la présence au sein de leur service d’éléments d’information spécifiques que le particulier ou l’entité considère comme du contenu illicite ».
([445]) DSA, article 16, al. 1.
([446]) Les notifications doivent contenir « une explication suffisamment étayée des raisons pour lesquelles le particulier ou l’entité allègue que les informations en question sont du contenu illicite » (DSA, article 16).
([447]) DSA, considérant 53.
([448]) DSA, article 20.
([449]) DSA, considérant 58.
([450]) DSA, article 22, al. 5.
([451]) DSA, article 22, al. 1.
([452]) L’Arcom a désigné le Conseil représentatif des institutions juives de France (Crif) comme signaleur de confiance le 12 mai 2025.
([456]) https://www.contexte.com/fr/actualite/medias/aurore-berge-veut-encourager-financierement-les-associations-de-lutte-contre-la-haine-a-devenir-signaleurs-de-confiance_233849.
([458]) DSA, considérant 79.
([459]) DSA, considérant 83.
([460]) DSA, considérant 87.
([461]) DSA, considérant 87.
([462]) DSA, article 35.
([463]) En France, il s’agit de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), de la Commission national de l’informatique et des libertés (Cnil) et de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF).
([464]) Article 49 du DSA.
([472]) « Comprendre les Règles Communautaires de TikTok », https://newsroom.tiktok.com/fr-fr/comprendre-les-regles-communautaires-de-tiktok.
([473]) « Santé mentale et comportementale », https://www.tiktok.com/community-guidelines/fr/mental-behavioral-health.
([475]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([477]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([478]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([479]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([480]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([481]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([482]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([490]) Benjamin Steel, Miriam Schrimer, Derek Ruths, Juergen Pfeffer, « Just Another Hour on TikTok : Reverse‑engineering unique identifiers to obtain a complete slice of TikTok », 17 avril 2024. Le nombre de vidéos publiées sur TikTok en France, transmis par TikTok SAS, ne peut pas être intégré au rapport car confidentiel.
([505]) TikTok’s DSA Transparency Report 2023, TikTok’s DSA Transparency Report. October to December 2023, TikTok’s DSA Transparency Report. January-June 2024, TikTok’s DSA Transparency Report. July-December 2024
([508]) Le Monde, « TikTok remplace ses modérateurs par de l’intelligence artificielle au Royaume-Uni », 22 août 2025.
([513]) Mme Océane Herrero, Le système TikTok. Comment la plateforme chinoise modèle nos vies, 2023.
([531]) « Des violences sexistes pour faire le show ! Les recettes des conversations spectaculaires sur TikTok Live », avril 2025.
([539]) Réponse écrite de TikTok SAS au questionnaire de la rappporteure.
([540]) « Santé mentale et comportementale », https://www.tiktok.com/community-guidelines/fr/mental-behavioral-health.
([542]) « Moderation can reduce minors’ exposure to content and behaviour that is harmful to their privacy, safety and security, including illegal content or content that may impair their physical or mental development, and it can contribute to crime prevention. »
([543]) « Define clearly and transparently what the platform considers as content and behaviour that is harmful for minors’ privacy, safety and security, in cooperation with minors, civil society and independent experts, including academia. This should include any content and behaviour that is illegal under EU or national law. Providers of online platforms accessible to minors should communicate information concerning their standards and expectations regarding content and behaviour clearly to minors using their service and this information should be available during the set-up of an account and easy to locate on the platform. »
([544]) « Establish moderation policies and procedures that set out how content and behaviour that is harmful for the privacy, safety and security of minors is detected and how it will be moderated aiming at limiting minors’ exposure to harmful content. Providers of online platforms should also ensure that these policies and/or procedures are enforced in practice. »
([545]) « Assess and review policies and procedures to ensure that they remain effective as technologies and online behaviours change. In particular, the Commission considers that providers of online platforms accessible to minors should take into account the following factors when prioritising moderation: the likelihood and seriousness of the content causing harm to a minor’s privacy, safety and/or security, the impact of the harm on that minor, specific vulnerabilities and the number of minors who may be harmed. »
([546]) « d. Ensure human review is available in addition to automated content review and any other relevant tools for reported accounts or content that the provider suspects may pose a risk of harm to minors’ privacy, safety or security.
e. Ensure that content moderation teams are well-trained and resourced and that moderation mechanisms are active and functioning at all times (24 hours a day, 7 days a week) to deliver effective moderation, including at least one employee who is on call to respond to urgent requests and emergencies at all times. »
([547]) « Effective, visible and child-friendly user reporting, feedback and complaint tools enable minors to express and address features of online platforms that may negatively affect the level of their privacy, safety and security. »
([548]) « Reports made by minors should be prioritised »
([549]) « iii. Allow all users to report content, activities, individuals, accounts, or groups that they deem inappropriate or undesirable for minors, or where they are uncomfortable with the idea of such content, activities, individuals, accounts or groups being accessible to minors.
iv. Allow all users to report a suspected underage account, where a minimum age is stated in the platform’s terms and conditions. »
([550]) « Allow minors to provide feedback about all content, activities, individuals, accounts or groups that they are shown on their accounts and that make them feel uncomfortable or that they want to see more or less of. These options could include phrases such as "Show me less/more", "I don’t want to see/I am not interested in", "I don’t want to see content from this account," "This makes me feel uncomfortable," "Hide this," "I don’t like this", or "This is not for me”. Providers of online platforms should ensure that these options are designed in such a way that they are only visible to the user, so that they cannot be misused by others to bully or harass minors on the platform. Providers of online platforms should adapt their recommender systems in response to this feedback. »
([551]) « Ensure the availability of an option that allows minors to provide their own reasons for a report or complaint. Providers should avoid reporting categories, but if they are used, ensure that they are adapted to the youngest users allowed on the platform. »
([552]) « Provide each minor that submits a report or complaint with a confirmation of receipt of the report or complaint without undue delay. Minors should also be able to access an age-appropriate explanation of the process that will be followed when reviewing the report or complaint and an explanation of any actions or non-actions taken. The information should include an indicative timeframe for deciding the report or complaint and possible outcomes. The Commission is also of the view that providers of online platforms should provide a mechanism for tracking progress and communicating with the platforms. »
([555]) Commission européenne, « La Commission ouvre une procédure formelle à l’encontre de TikTok au titre du règlement sur les services numériques », 19 février 2024, https://ec.europa.eu/commission/presscorner/detail/fr/ip_24_926.
([556]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([557]) Commission européenne, « La Commission publie des lignes directrices sur la protection des mineurs », https://digital-strategy.ec.europa.eu/fr/library/commission-publishes-guidelines-protection-minors.
([558]) « Implement measures to prevent minors’ exposure to content recommendations that could pose a risk to their safety and security, particularly when encountered repeatedly, such as content promoting unrealistic beauty standards or dieting, content that glorifies or trivialises mental health issues, such as anxiety or depression, discriminatory content, radicalisation content and distressing content depicting violence or encouraging minors to engage in dangerous activities. This includes content that has been reported or flagged by users, trusted flaggers or other actors or content moderation tools, and whose lawfulness and adherence to the platform’s terms and conditions have not yet been verified, in accordance with the relevant obligations under Regulation (EU) 2022/2065 and with Section .7. »
([559]) « f. For the purposes of the present guidelines, ‘implicit engagement-based signals’ shall be understood as referring to signals and data that infer user preferences from their activities (browsing behaviour on a platform), such as time spent viewing content and click-through rates.
g. Prioritise ‘explicit user-provided signals’ to determine the content displayed and recommended to minors. The selection of such signals should be justified in the best interests of the minor, taking into account the principles of data minimisation and transparency, which will help to ensure that they contribute to a high level of safety and security for minors. For the purposes of the present guidelines, ‘explicit user-provided signals’ shall be understood as referring to user feedback and interactions that indicate users’ explicit preferences, both positive and negative, including the stated and deliberative selection of topics of interest, surveys, reporting (65), and other quality-based signals. »
([560]) « Ensure that search features, including but not limited to text autocomplete on the search bar and suggested terms and key phrases, do not recommend content that is illegal and/or qualifies as harmful to the privacy, safety or security of minors, for instance by blocking search terms that are well-known to trigger content that is deemed to be harmful to minors’ privacy, safety and/or security, such as particular words, slang, hashtags or emojis. Upon queries related to such content, providers of online platforms should redirect minors to appropriate support resources and helplines ».
([561]) L’article 27 du DSA mentionne « les options dont disposent les destinataires du service pour modifier ou influencer » les principaux paramètres utilisés dans les systèmes de recommandation des plateformes.
([562]) DSA, article 40, al. 4 : « Sur demande motivée du coordinateur pour les services numériques de l’État membre d’établissement, les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne fournissent, dans un délai raisonnable spécifié dans la demande, l’accès aux données à des chercheurs agréés qui satisfont aux exigences énoncées au paragraphe 8 du présent article, à la seule fin de procéder à des recherches contribuant à la détection, au recensement et à la compréhension des risques systémiques dans l’Union tels qu’ils sont énoncés à l’article 34, paragraphe 1, ainsi qu’à l’évaluation du caractère adéquat, de l’efficacité et des effets des mesures d’atténuation des risques prises en vertu de l’article 35 ».
([563]) Commission delegated regulation (EU) of 1.7.2025 supplementing Regulation (EU) (EU) 2022/2065 of the European Parliament and of the Council by laying down the technical conditions and procedures under which providers of very large online platforms and of very large online search engines are to share data with vetted researchers.
([564]) TikTok Technology Limited. DSA Assurance Report. Independant practitioner’s assurance report concerning Regulation (EU) 2022/2065, the Digital Services Act (DSA), KPMG, 9 September 2024.
([565]) « We have not been able to obtain all relevant information associated with the proceedings, including the reasons for and/or benchmarks/criteria underlying the formal proceedings », DSA Assurance Report, KPMG, p. 75.
([566]) « We did not obtain sufficient audit evidence which would allow us to conclude whether TikTok carried out a risk assessment “prior to deploying functionalities that are likely to have a critical impact on the systemic risks identified” as required during the Evaluation Period », DSA Assurance Report, KPMG, p. 76.
([567]) https://upload.wikimedia.org/wikipedia/foundation/6/6c/Wikipedia_DSA_Audit_Report_2023-24_Public.pdf.
([571]) Réponse écrite de TikTok SAS au questionnaire de la rapporteure.
([574]) Le DSA impose à TikTok de fourni un registre fiable et doté d’un outil de recherche sur les publicités présentées par la plateforme.
([576]) Article 3 du RGPD.
([577]) Ibid.
([578]) Article 60 du RGPD.
([579]) Article 9 du RGPD.
([580]) Article 13 du RGPD.
([581]) Id.
([582]) Modifiée par la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles.
([583]) Article 6 du RGPD.
([584]) Article 12 du RGPD.
([585]) Ibid.
([586]) TikTok, « Politique de confidentialité », https://www.tiktok.com/legal/page/eea/privacy-policy/fr.
([588]) Sénat, Rapport n° 831 fait au nom de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence, 4 juillet 2023.
([589]) TikTok, « Politique de confidentialité », https://www.tiktok.com/legal/page/eea/privacy-policy/fr.
([590]) Idem.
([591]) Idem.
([593]) Réponse écrite de l’ambassade de France au Royaume-Uni au questionnaire de la rapporteure.
(1) Conseil d’État, n° 494511, 1er avril 2025, Ligue des droits de l’homme.
([595]) Conseil d’État, n° 494511, 1er avril 2025, Ligue des droits de l’homme.
([596]) La rapporteure et le président ont rencontré des représentants de la Commission européenne et de sa direction générale des réseaux de communication, du contenu et des technologies (DG CONNECT), des députées européennes ainsi que des représentants du Comité européen de la protection des données.
([599]) Conseil d’État, n° 461193, 6 mars 2024, Société Webgroup Czech Republic.
([600]) Tribunal administratif de Paris, n° 2514377/5, 16 juin 2025.
([601]) Conseil d’État, n° 505472, 15 juillet 2025, Société Hammy Media Ltd.
([603]) Toute l’Europe, « Pourquoi l’interdiction des réseaux sociaux aux moins de 15 ans voulue par la France est un casse-tête européen ? », 18 juillet 2025, https://www.touteleurope.eu/societe/pourquoi-l-interdiction-des-reseaux-sociaux-aux-moins-de-15-ans-voulue-par-la-france-est-un-casse-tete-europeen/.
([604]) Commission européenne, https://digital-strategy.ec.europa.eu/fr/library/commission-publishes-guidelines-protection-minors et https://ec.europa.eu/newsroom/dae/redirection/document/118226.
([611]) PEReN, « Détection des mineurs en ligne : peut-on concilier efficacité, commodité et anonymat ? », mai 2022.
([612]) PEReN, note interne transmise à la rapporteure.
([616]) Commission européenne, « Guidelines on measures to ensure a high level of privacy, safety and security for minors online, pursuant to Article 28(4) of Regulation (EU) 2022/2065 », 14 juillet 2025.
([617]) https://www.contexte.com/fr/article/medias/pluie-de-lieutenants-a-la-commission-pour-reguler-la-big-tech_229849.
([620]) Compte rendu n° 6 : « [les responsables de TikTok] n’ont pas besoin de convaincre en amont : ils consacrent plutôt leur énergie à mener une politique d’évitement permanent et à jouer au chat et à la souris pour faire durer les procédures ».
([622]) https://digital-strategy.ec.europa.eu/fr/news/commission-finds-apple-and-meta-breach-digital-markets-act.
([624]) En vertu de l’article 70 du DSA.
([625]) Le DSA impose aujourd’hui un « délai raisonnable » (article 67).
([627]) https://www.franceinfo.fr/sante/le-ministre-de-la-sante-yannick-neuder-annonce-la-creation-d-un-observatoire-pour-lutter-contre-la-desinformation-en-matiere-de-sante_7196703.html.
([641]) Proposition n° 11 du comité de pilotage des EGI : « Faire vivre un pluralisme des algorithmes en garantissant un droit au paramétrage fondé à terme sur un principe de dégroupage ». Voir le rapport complet des EGI.
([643]) https://www.reuters.com/technology/eu-says-bluesky-is-violating-information-disclosure-rules-2024-11-25/.
([645]) Compte rendu n° 6. On relèvera toutefois que le réseau social Bluesky n’est pas un exemple à suivre en matière de conformité à la législation européenne, et plus particulièrement de transparence : la plateforme de réseau social n’a pas communiqué à la Commission européenne des informations obligatoires comme le nombre d’utilisateurs de la plateforme au sein de l’UE et l’État où elle est légalement établie. Voir notamment : https://www.reuters.com/technology/eu-says-bluesky-is-violating-information-disclosure-rules-2024-11-25/.
([647]) PEReN, « “Ouvrir” les réseaux sociaux : 4 pistes en 5 questions », Éclairages sur… n° 9, décembre 2024.
([652]) https://www.lesechos.fr/idees-debats/editos-analyses/reseaux-sociaux-oser-etre-adulte-2166111.
([653]) Unaf, Parents, enfants & numérique, février 2022.
([657]) La Tribune Dimanche, « Opinion. “Attention aux photos de vos enfants sur les réseaux sociaux”, par Mme Clara Chappaz ministre déléguée chargée de l’IA et du Numérique », 10 août 2025, https://www.latribune.fr/la-tribune-dimanche/opinions/opinion-attention-aux-photos-de-vos-enfants-sur-les-reseaux-sociaux-par-clara-chappaz-ministre-deleguee-chargee-de-l-ia-et-du-numerique-1030964.html.
([658]) Article 371-1 du code civil.
([659]) Article 372-1 du code civil.
([661]) Carole Bousquet-Bérard, Alexandre Pascal, Enfants et écrans. À la recherche du temps perdu, avril 2024.
([662]) Appliqués à partir de la rentrée 2024. https://www.education.gouv.fr/sites/default/files/ensel934_annexe_ok.pdf.
([663]) https://e-enfance.org/etude-google-association-e-enfance-46-des-enfants-de-6-10-ans-sont-deja-equipes-dun-smartphone/.
([665]) Les éléments relatifs à la sensibilisation contre la manipulation d’ordre commercial et les risques d’escroquerie en ligne et à l’apprentissage de la citoyenneté numérique et à l’usage des dispositifs de signalement des contenus illicites mis à disposition par les plateformes ont été insérés à l’article L. 312-9 du code de l’éducation par la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux.
([666]) Mme Florence Biot, sous-directrice de la transformation numérique de la Direction du numérique pour l’éducation (DNE), indique ainsi que, dans les nouveaux programmes d’EMC, les médias sociaux sont « présentés à la fois comme vecteurs de démocratie et espaces de débat, mais également comme vecteurs de désinformation, de théories complotistes et de discours haineux » (compte rendu n° 23).
([670]) Inspection générale de l’éducation, du sport et de la recherche, Éducation à la sexualité en milieu scolaire, juillet 2021.
([672]) Unaf, Parents, enfants & numérique, février 2022.
([674]) Certaines de ces recommandations ayant déjà été intégrées au nouveau carnet de santé, puisque la commission « enfants et écrans » invitait à « renforcer la recommandation en vigueur de ne pas exposer les enfants de moins de 3 ans aux écrans » et à « déconseiller l’usage des écrans jusqu’à l’âge de 6 ans, ou tout au moins qu’il soit fortement limité, occasionnel, avec des contenus à qualité éducative et accompagné par un adulte » (Carole Bousquet-Bérard, Alexandre Pascal, Enfants et écrans. À la recherche du temps perdu, avril 2024).
([675]) Carole Bousquet-Bérard, Alexandre Pascal, Enfants et écrans. À la recherche du temps perdu, avril 2024. Ces recommandations sont notamment reprises par le portail jeprotegemonenfant.gouv.fr.
([685]) Compte rendu n° 10. Le drame de Nantes auquel M. Zameckwovski fait référence correspond à une attaque au couteau survenue le 24 avril 2025 au sein du groupe scolaire Notre-Dame-de-Toutes-Aides à Nantes. Un élève de seconde, au profil « suicidaire », s’est attaqué à ses camarades, tuant une adolescente de 15 ans et en blessant trois autres, dont un grièvement.
([686]) Rapport d'information déposé par la délégation de l'Assemblée nationale aux droits des femmes et à l'égalité des chances entre les hommes et les femmes sur les politiques d'accompagnement à la parentalité, n° 1638, déposé le mardi 24 juin 2025, https://www.assemblee-nationale.fr/dyn/17/rapports/ega/l17b1638_rapport-information#_Toc256000002.
([688]) https://sante.gouv.fr/actualites/presse/dossiers-de-presse/article/plan-psychiatrie-reperer-soigner-reconstruire.
([698]) Réponse écrite de l’ambassade de France en Australie au questionnaire de la rapporteure.
([699]) https://www.lemonde.fr/pixels/article/2025/05/06/en-nouvelle-zelande-le-premier-ministre-souhaite-interdire-les-reseaux-sociaux-aux-moins-de-16-ans_6603257_4408996.html.
([700]) Réponse écrite de l’ambassade de France en Espagne au questionnaire de la rapporteure.
([701]) https://fr.euronews.com/next/2025/06/18/pays-bas-le-gouvernement-alerte-les-parents-des-dangers-du-numerique-chez-les-jeunes.
([702]) https://www.theguardian.com/world/2025/jul/04/dutch-schools-phone-ban-has-improved-learning-study-finds.
([703]) Il s’agit de l’Online Safety Amendment (Social Media Minimum Age) Act 2024.
([704]) Réponse écrite de l’ambassade de France en Australie au questionnaire de la rapporteure.
([705]) https://www.lemonde.fr/pixels/article/2025/07/30/l-australie-va-interdire-youtube-aux-moins-de-16-ans-face-aux-algorithmes-predateurs_6625415_4408996.html.
([708]) L’article 4 de la loi dispose que « les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France refusent l'inscription à leurs services des mineurs de quinze ans, sauf si l'autorisation de cette inscription est donnée par l'un des titulaires de l'autorité parentale sur le mineur. Ils recueillent également, dans les mêmes conditions et dans les meilleurs délais, l'autorisation expresse de l'un des titulaires de l'autorité parentale relative aux comptes déjà créés et détenus par des mineurs de quinze ans ».
([710]) https://www.arcom.fr/sites/default/files/2024-10/Arcom-Referentiel-technique-sur-la-verification-de-age-pour-la-protection-des-mineurs-contre-la-pornographie-en-ligne.pdf.
([715]) Carole Bousquet-Bérard, Alexandre Pascal, Enfants et écrans. À la recherche du temps perdu, avril 2024.
([718]) À titre d’exemple, le syndrome FOMO (pour fear of missing out en anglais), c’est-à-dire une forme d’anxiété de rater quelque chose, est l’un des ressorts psychologiques sur lesquels capitalisent les réseaux sociaux.
([723]) Cette interdiction est couplée à une durée maximale d’utilisation : jusqu’à une heure par jour pour les mineurs de moins de 16 ans et jusqu’à 2 heures par jour pour les mineurs âgés de 16 à 18 ans.
([724]) Réponse écrite de l’ambassade de France en Chine au questionnaire de la rapporteure.
([726]) L’exposition à la lumière bleue inhibe la sécrétion de mélatonine. Cette dernière permet l’endormissement et favorise un sommeil réparateur.
([727]) Décret n° 2023-588 du 11 juillet 2023 pris pour l’application de l’article 1er de la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet.
([728]) Réponse écrite de l’ambassade de France en Grèce au questionnaire de la rapporteure.
([730]) Circulaire n° MENE2417753C du 26 juin 2024, MENJ-Dgesco, Circulaire de rentrée 2024. Ne laisser aucun élève au bord du chemin.
([732]) Le Parisien, « “On se parle plus” : après quatre mois sans téléphone, les élèves s’habituent à la « pause numérique », 8 janvier 2025, https://www.leparisien.fr/oise-60/on-se-parle-plus-apres-quatre-mois-sans-telephone-les-eleves-shabituent-a-la-pause-numerique-08-01-2025-Q6SGTEQPWNHM5IHYXBTFPPRF4A.php
([733]) Mme Florence Biot, sous-directrice de la transformation numérique à la Direction du numérique pour l’éducation (DNE) (compte rendu n° 23).
([734]) Circulaire n° MENE2519904C du 10 juillet 2025, MENESR – DGESCO – DNE, Promouvoir un numérique raisonné à l’école.
([735]) Circulaire n° MENE2519904C du 10 juillet 2025, MENESR – DGESCO – DNE, Promouvoir un numérique raisonné à l’école.
([742]) Proposition de loi n° 1631, enregistrée à la Présidence de l’Assemblée nationale le 24 juin 2025, visant à reconnaître l’éducation au dehors et en contact avec la nature et à réaffirmer la place de la transition écologique à l’école (https://www.assemblee-nationale.fr/dyn/17/textes/l17b1631_proposition-loi#).