Compte rendu

Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs

– Table ronde, ouverte à la presse, sur les contenus masculinistes et sexistes sur les réseaux sociaux, réunissant : 2

• Mme Shanley Clemot McLaren, cofondatrice et co–présidente de l’association Stop Fisha

• M. Tristan Duverné, doctorant à l’Ecole des hautes études en sciences sociales - Ecole normale supérieure (EHESS/ENS)

• Mme Pauline Ferrari, journaliste indépendante

• M. Pierre Gault, auteur

– Audition, ouverte à la presse, de M. Bruno Gameliel, psychopédagogue, psychothérapeute 21

– Présences en réunion................................26


Vendredi
16 mai 2025

Séance de 10 heures

Compte rendu n° 12

session ordinaire de 2024-2025

Présidence de
M. Arthur Delaporte,
Président de la commission

 


  1 

La séance est ouverte à dix heures.

 

La commission auditionne conjointement :

 Mme Shanley Clemot McLaren, cofondatrice et co-presidente de l’association Stop Fisha,

 M. Tristan Duverné, doctorant à l’Ecole des hautes études en sciences sociales - Ecole normale supérieure EHESS/ENS,

 Mme Pauline Ferrari, journaliste indépendante,

 M. Pierre Gault, auteur,

sur les contenus masculinistes et sexistes sur les réseaux sociaux.

M. le président Arthur Delaporte. Je vous souhaite la bienvenue et vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mme Shanley Clemot McLaren, M. Tristan Duverné, Mme Pauline Ferrari et M. Pierre Gault prêtent serment.)

M. Pierre Gault, journaliste, réalisateur du documentaire Mascus (2025). J’ai récemment réalisé un documentaire sur les masculinistes, un phénomène pour lequel mon intérêt remonte à plusieurs années. Pour mener cette enquête, j’ai d’abord consommé une grande quantité de contenu, notamment sur TikTok, qui s’est révélé être une plateforme incontournable pour la diffusion du discours masculiniste.

J’ai également tenté de contacter de nombreux influenceurs pour comprendre leur idéologie, leur discours, leur communauté et les raisons pour lesquelles de jeunes hommes y adhèrent et sont séduits par ce discours. Cependant, j’ai rapidement constaté que la plupart des influenceurs importants refusaient de s’exprimer sur le sujet. Seuls quelques-uns, avec une audience limitée, acceptaient d’échanger, probablement dans l’espoir de bénéficier d’une médiatisation.

Face à cette difficulté, j’ai décidé de m’infiltrer en créant un alias et différents comptes sur les réseaux sociaux, dont TikTok. Cette démarche m’a permis de comprendre le fonctionnement interne de ces communautés et d’observer comment le discours masculiniste s’articule et se propage. J’ai rapidement constaté que ces réseaux sociaux, TikTok en particulier, servent de porte d’entrée vers un discours beaucoup plus radical qui se développe ensuite dans des communautés privées. Les influenceurs utilisent ainsi ces plateformes comme un appât initial pour séduire leur audience, abordant des sujets variés tels que la musculation, la séduction, le style de vie, qui peuvent sembler anodins au premier abord. Ce n’est que dans un second temps que s’entrevoit le lien avec le masculinisme, lorsque le discours s’oriente vers les relations hommes-femmes et le développement personnel. À partir de ce contenu initial, les influenceurs cherchent naturellement à vendre des formations et à attirer leur audience vers des communautés privées beaucoup plus radicales.

Sur TikTok, on peut déjà trouver des contenus problématiques, avec des propos rabaissant les femmes ou suggérant que les hommes sont en danger dans la société actuelle. Les influenceurs sont toutefois suffisamment habiles pour attirer progressivement leur cible vers des communautés payantes, où le discours devient nettement plus inquiétant et extrême.

Mme Shanley Clemot McLaren, cofondatrice et co-présidente de l’association Stop Fisha. Notre organisation, créée en avril 2020 en réponse à la prolifération de comptes « Ficha » sur les réseaux sociaux, lutte contre le cybersexisme et les cyberviolences sexistes et sexuelles. Le terme « Ficha », verlan d’« affiche », possède une connotation fortement genrée puisque ces comptes, créés durant le confinement et organisés par département et par ville, avaient pour but de publier et diffuser sans leur consentement des contenus intimes de jeunes filles et de femmes. Nés sur Snapchat, ils se sont rapidement propagés sur d’autres plateformes telles que TikTok, Instagram et Telegram, où la situation est devenue particulièrement préoccupante.

Malgré nos signalements répétés de ces comptes comptant des milliers d’abonnés, aucune action n’était entreprise. C’est ainsi que, face à l’inaction des plateformes et au manque de modération, nous avons lancé le hashtag #StopFisha afin de créer un mouvement citoyen de contre-offensive. C’est de ce mouvement qu’est née notre association loi 1901, qui lutte désormais contre le cybersexisme et les cyberviolences sexistes et sexuelles dans leur ensemble. Je rappelle en effet que 60 % des femmes déclarent avoir été victimes de violences en ligne et qu’elles sont 27 fois plus susceptibles d’être harcelées en ligne que les hommes. Cela démontre clairement l’aspect genré des cyberviolences qui touchent de manière disproportionnée les femmes et les filles.

Nous nous intéressons également à l’architecture de la misogynie en ligne, qui comprend l’analyse des algorithmes sexistes et discriminatoires, le manque de modération, la sous-représentation des femmes dans le secteur technologique et tous les éléments qui contribuent à la persistance de la misogynie sur internet et à l’émergence de ce type de phénomènes.

Concrètement, notre activité consiste tout d’abord à offrir une aide psychologique et juridique aux victimes. Nous effectuons également des signalements en tant que partenaire de confiance de certaines plateformes, notamment TikTok. Bien que nous n’ayons pas encore de partenariat avec Meta, nous collaborons avec la plupart des principales plateformes en ligne. Notre association bénéficie en effet d’un canal privilégié pour signaler et faire supprimer rapidement des contenus problématiques.

Nous menons également des actions de sensibilisation en France et à l’étranger sur le cybersexisme et les cyberviolences faites aux femmes et aux filles. Notre objectif est d’informer sur les moyens de défense existants et d’encourager les plateformes à renforcer leurs mesures de protection.

Nous menons par ailleurs un travail de plaidoyer à l’échelle nationale, européenne et internationale. Nous avons ainsi contribué à la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique dite SREN en France, en proposant neuf amendements spécifiques au sujet des cyberviolences sexistes et sexuelles. Au niveau européen, où de nombreuses lacunes persistent, nous avons participé aux discussions sur le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services act (DSA) et sur la directive 2024/1385 du Parlement européen et du Conseil du 14 mai 2024 sur la lutte contre la violence à l’égard des femmes et la violence domestique. Nous avons également été entendus aux Nations Unies en novembre dernier.

Force est de constater que cinq ans après l’explosion des comptes « Ficha » sur TikTok, le phénomène persiste puisque, bien que moins viral qu’au moment du confinement, nous observons encore une présence significative de ces comptes. La semaine dernière, nous avons ainsi fait face à une résurgence importante, notamment dans le département 92, nécessitant une forte mobilisation et de nombreux signalements.

Pour l’année 2024, notre association a déjà reçu plus de 400 signalements sur TikTok. L’âge moyen des victimes, qui sont majoritairement des femmes et des filles, est de quinze à seize ans. Ces chiffres ne prennent pas en compte les personnes qui ne connaissent pas notre association ou celles qui demandent une aide juridique ou psychologique sans effectuer de signalement formel.

Sur TikTok, nous constatons tout d’abord une augmentation alarmante des cyberviolences ciblant les femmes et les filles, qui se manifeste par une misogynie omniprésente. Cela va de la diffusion de contenus intimes explicites, difficiles à faire supprimer malgré leur caractère manifestement illégal, à des contenus plus implicites utilisant des symboles comme des tasses de café ou des emojis médailles pour inciter clairement au cyberharcèlement ou à la cyberviolence.

Nous observons également, depuis plusieurs années, l’émergence inquiétante du masculinisme, qui représente une forme d’extrémisme et de radicalisation en ligne. Ces idées sont activement propagées sur TikTok par deux influenceurs français extrêmement problématiques, Bassem et Alex Hitchens. Les données dont nous disposons aujourd’hui sont sans ambiguïté. En Europe, quinze des vingt-sept dernières tentatives d’attentat recensées depuis octobre 2023 impliquent des jeunes radicalisés en ligne, souvent par l’intermédiaire de plateformes telles que TikTok ou Telegram. En France, sur les neuf derniers attentats perpétrés sur le territoire, les auteurs étaient des mineurs ayant connu un processus de radicalisation en ligne, dans lequel TikTok a notamment joué un rôle, en particulier à travers le fonctionnement de ses bulles algorithmiques. Il est donc essentiel de ne pas dissocier la question des discours masculinistes de celle de la radicalisation numérique, car ces deux dynamiques sont fréquemment imbriquées.

Un autre aspect préoccupant est la représentation toxique des femmes et des filles sur la plateforme. Selon le Haut Conseil à l’égalité entre les femmes et les hommes (HCEFH), 44 % des contenus représentant des femmes en ligne sont dégradants. Les standards de beauté promus sont majoritairement blancs et toxiques, reflétant la nature économique de la plateforme où les femmes et les filles deviennent source de profit à travers l’économie de l’attention.

Enfin, l’exploitation des données et les publicités ciblées sont problématiques, comme en témoigne la tendance actuelle du SkinnyTok qui expose les jeunes filles à des publicités potentiellement nocives.

Concernant les signalements, bien que TikTok soit la plateforme la plus réactive avec notre association grâce à notre statut de partenaire de confiance, nous constatons un contraste flagrant avec l’efficacité des signalements effectués par des utilisateurs normaux. Nous rencontrons également des difficultés pour signaler les contenus problématiques diffusés en direct ou dans les messages privés, notamment dans les cas de chantage affectif ou de sextorsion.

Mme Pauline Ferrari, auteure de Formés à la haine des femmes, comment les masculinistes infiltrent les réseaux sociaux (2023). Je suis journaliste indépendante depuis 2018, spécialisée dans les questions de nouvelles technologies, de genre et de culture web. Je m’intéresse particulièrement au masculinisme en ligne et aux mouvements de désinformation de genre et de cyberviolences. Mon livre enquête, publié en 2023, vise à démontrer comment ces mouvements masculinistes organisés étendent leur influence sur les réseaux sociaux, ciblant particulièrement les jeunes hommes.

TikTok joue, selon moi, un rôle de catalyseur dans ce processus de radicalisation. Comme l’a démontré le Wall Street Journal en 2021, l’algorithme de TikTok tend en effet à exposer progressivement les utilisateurs, à des contenus de plus en plus extrêmes et radicaux, quel que soit leur centre d’intérêt initial. À titre d’exemple, l’enquête du Wall Street Journal démontrait comment, à partir d’un simple compte, les utilisateurs pouvaient se retrouver rapidement confrontés à des contenus faisant l’apologie du suicide ou exposés à de la propagande néonazie.

Concernant le masculinisme, une étude de l’Université de Belfast a révélé qu’en moyenne, les jeunes hommes sont exposés à de tels contenus en moins de 20 minutes de navigation, notamment à travers des thématiques telles que le sport, le développement personnel, la santé mentale ou la séduction. Ces contenus masculinistes, qui dénigrent voire appellent à la violence envers les femmes, entraînent des répercussions concrètes dans la vie réelle. En France, nous avons ainsi assisté cette dernière année à plusieurs cas d’attentats déjoués ou d’enquêtes sur des suspicions d’attentats masculinistes. Je pense notamment à un jeune homme qui projetait un attentat lors du passage de la flamme olympique à Bordeaux en juin 2024, à un autre à Annecy qui envisageait d’attaquer des femmes dans la rue avec une arme blanche, ou encore à l’attaque masculiniste contre une soirée en non-mixité à Paris en octobre dernier.

Il faut comprendre que ces liens entre le masculinisme en ligne et les actions violentes hors ligne s’inscrivent dans une véritable organisation politique. Nous observons, en ligne, que certains influenceurs issus d’une tradition d’extrême-droite exploitent les arguments liés au genre et à la masculinité pour attirer les jeunes hommes vers leurs idéologies, voire vers la violence néonazie. Par ailleurs, l’évolution des outils technologiques accentue la violence envers les femmes et les filles. Les deepfakes, en particulier, sont de plus en plus utilisés pour humilier et réduire au silence les femmes, y compris des mineures, qu’elles soient ou non connues.

Mon travail de recherche démontre donc que, malgré la capacité de TikTok à supprimer les contenus problématiques, la plateforme privilégie souvent la popularité et les revenus générés. Or un contenu masculiniste n’est que rarement neutre et, plus il suscite de réactions, qu’elles soient positives ou négatives, plus il gagne en popularité et génère des revenus pour TikTok et son créateur. Cette dynamique rend la suppression de ces contenus inenvisageable pour la plateforme, bien qu’elle en ait techniquement la capacité. Le manque de transparence concernant ce qui relève de la liberté d’expression ou de la haine des femmes selon TikTok reste ainsi un problème majeur.

M. Tristan Duverné, doctorant à l’EHESS / ENS. Dans le cadre de ma thèse, j’ai mené une étude ponctuelle intitulée Des violences sexistes pour faire le show, les recettes des conversations spectaculaires sur TikTok live sur la construction de la visibilité et de l’engagement sur TikTok live, en me concentrant sur le cas d’AD Laurent.

Je pars du même constat que mes collègues concernant l’augmentation des violences en ligne, particulièrement sous forme de cyberharcèlement et d’humiliation. Cette tendance est particulièrement visible dans le domaine des violences sexistes et sexuelles, bien qu’elle s’étende au-delà, et soulève des questions sur le rôle des plateformes dans la production des interactions. L’anonymat et la nature éphémère des interactions en ligne facilitent des comportements offensants qui seraient probablement inacceptables en face à face. Le « troll » typique des réseaux sociaux, caché derrière un pseudonyme, ne se comporterait probablement pas de la même manière dans sa vie quotidienne hors ligne. Cette dérégulation de la mécanique interactionnelle en ligne a été bien illustrée précédemment.

Ma recherche se concentre sur le rôle de la plateforme dans la production de ces offenses interactionnelles et de ces violences. Je soutiens que le contexte numérique, en particulier l’architecture de TikTok, supprime certains mécanismes de régulation des offenses que nous trouvons dans nos interactions ordinaires. Dans la vie réelle, un comportement offensant ou violent est généralement sanctionné par l’interlocuteur ou les pairs, puis suivi d’une tentative de réparation de l’interaction.

Mon étude repose sur trois mois d’immersion sur TikTok live, avec un focus particulier sur un passage en live d’AD Laurent, un influenceur de téléréalité connu pour ses contenus polémiques. Je précise toutefois qu’AD Laurent n’est pas représentatif de l’ensemble des influenceurs, mais fait partie d’une minorité très visible adoptant notamment une logique de court-termisme.

Ma première observation révèle que ces offenses sont souvent liées à la mise en scène du corps, puisque l’apparence des streamers sur TikTok live offre des ressources visuelles pour générer des discussions et des attaques. Dans le live étudié, le débat porte sur la féminité de la streameuse, avec des accusations infondées sur son identité de genre. Le régime de visibilité unidirectionnel de TikTok live, où l’audience peut voir les streamers sans être vue en retour, facilite la critique de l’apparence des streamers sans risque de réciprocité.

Ma deuxième observation montre que ces offenses servent souvent à augmenter la visibilité. Dans le cas étudié, le débat sur la féminité de la streameuse a entraîné une augmentation de 45 % de l’audience en seulement deux minutes. Cette dynamique peut être observée à travers le compteur d’auditeurs, indicateur de visibilité intégré au live, qui atteste en temps réel de l’audience. Il conviendrait d’ailleurs de s’interroger sur le rôle que joue cet outil dans la structuration des interactions produites en direct, de même que sur l’effet induit par l’affichage instantané de chaque nouvel abonnement. La plateforme TikTok, par son architecture, fait donc du gain de visibilité un moteur central des conversations publiques. Les échanges les plus spectaculaires, souvent conflictuels, offensants ou orientés vers la radicalisation, obtiennent de meilleures évaluations des audiences, comme en témoignent les commentaires encourageant la dispute.

Du côté d’AD Laurent, cela se traduit par un jeu avec les limites normatives pour visibiliser son contenu en direct. Il provoque et joue avec les règles d’interaction, de politesse et de respect, commettant des offenses pour produire du spectacle. L’architecture de la plateforme inverse finalement l’économie des échanges verbaux, puisque le contenu du propos devient un moyen au service de la visibilité plutôt qu’une finalité en soi. La situation prend ainsi la forme d’un combat conversationnel où deux interlocuteurs s’affrontent par une surenchère d’offenses, produisant le clash et la polémique jusqu’à atteindre les limites de respect et de politesse permises par l’ordre interactionnel.

Lorsqu’ils franchissent ces limites, les streamers risquent le bannissement, à l’image d’AD Laurent lorsqu’il a fini, à la fin du live, par aller trop loin et par être exclu du direct en raison de la multiplication des signalements émis par l’audience. Cette situation illustre le fragile équilibre qu’un tel influenceur doit maintenir entre la recherche de visibilité et l’approbation de la communauté. Il lui faut en effet produire une certaine forme de conflit afin de dynamiser et de rendre visible le live, sans pour autant se rendre détestable, car il doit conserver le soutien du public, lequel continue de lui offrir des cadeaux, de valider ses propos et de renforcer son positionnement. Il rend l’échange visible de manière subtile, tout en évitant d’endosser pleinement la responsabilité de la provocation.

D’ailleurs, à un moment du live, il transfère habilement la responsabilité du conflit sur l’influenceuse elle-même, en lui déclarant : « C’est toi la fille qui est dans le clash, tu es une meuf dans le clash, tu es complètement hystérique ». Ce faisant, il réactive des stéréotypes de genre, en particulier ceux associés aux femmes. Il n’en demeure pas moins que ce jeu avec les normes contribue, malgré tout, à les déplacer et à les transformer. Nous assistons à une radicalisation progressive des échanges car, à travers ses pratiques discursives, l’influenceur façonne de nouvelles manières de s’adresser à autrui, susceptibles d’être reprises et reproduites par son audience.

Mon dernier point concerne les recettes monétaires générées par ce type de spectacle. Les phrases chocs (ou punchlines) prononcées au cours du live donnent lieu à des récompenses sous forme de cadeaux, qui prennent la forme d’emojis animés, visibles à l’écran et offertes par les spectateurs en signe d’adhésion aux propos tenus par le streamer ou la streameuse. En l’occurrence, AD Laurent reçoit, dans ce contexte, une casquette, immédiatement après avoir adressé à l’influenceuse, de mémoire, la remarque suivante : « Toi, tu n’es pas une fille qui cherche à te poser », une phrase lourdement chargée d’allusion sexuelle. Ce qu’il exprime en réalité, c’est que l’influenceuse ne chercherait pas à s’engager avec un partenaire mais poursuivrait des relations essentiellement sexuelles. C’est à cet instant précis qu’il est gratifié du cadeau. Il s’agit bien d’une forme de validation symbolique et financière émanant de sa communauté, laquelle l’encourage à produire ce type d’énoncé offensant.

Une fois encore, nous constatons que l’économie propre à cette plateforme incite à la production de contenus rentables, dans la mesure où ceux-ci génèrent un soutien monétisé de l’audience. Cette dernière participe activement à la dynamique interactionnelle puisqu’elle peut soutenir, récompenser, encourager, mais également rejeter ou sanctionner les propos tenus en direct par les influenceurs.

En conclusion, il convient de rappeler que, sur TikTok, le contenu ne constitue plus une finalité en soi, mais devient un instrument au service de la visibilité. Pour capter l’attention et susciter l’engagement de l’audience, la transgression des normes ordinaires de respect et de politesse s’avère redoutablement efficace. Elle alimente ainsi une dynamique de radicalisation des échanges en ligne, à laquelle faisait justement référence tout à l’heure Shanley Clemot McLaren. Ce jeu avec les normes participe, par ailleurs, à leur déplacement, en engageant les individus dans l’élaboration de nouveaux principes de respect, de politesse et de ce qu’ils considèrent comme relevant de ce qu’ils se doivent les uns aux autres.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Cette audition me semble particulièrement importante, car elle nous fait entrer au cœur de l’un des enjeux majeurs qui nous concernent s’agissant de TikTok.

Tout d’abord, s’agissant de l’audience de ces contenus à caractère sexiste et masculiniste, identifiez-vous une singularité propre à cette plateforme ou constatez-vous des logiques similaires à l’œuvre sur d’autres réseaux sociaux ?

Par ailleurs, êtes-vous en mesure d’identifier la part que représentent les mineurs parmi les publics concernés ? Disposez-vous, à ce titre, d’éléments chiffrés ou d’indications précises issues de vos travaux de recherche ou d’enquête ?

Selon vous, l’algorithme de recommandation de TikTok est-il capable de favoriser la diffusion de ces contenus et d’encourager les comportements qui en découlent et, le cas échéant, de quelle manière ?

En lien avec l’actualité récente, qui met en lumière AD Laurent, je souhaiterais également savoir si vous avez identifié d’autres figures françaises émergeant autour de ce type de contenus problématiques liés au sexisme et au masculinisme. Pourriez-vous nous fournir des exemples concrets de créateurs ou d’influenceurs ?

Par ailleurs, dans le cadre des échanges que vous avez pu avoir avec des jeunes garçons ou des familles touchés par ces contenus, avez-vous relevé l’existence de signes avant-coureurs permettant d’alerter les parents, les éducateurs, les professionnels de santé ou les enseignants ? Existe-t-il des indicateurs tangibles permettant de repérer précocement l’exposition de certains enfants à ces contenus problématiques ?

Enfin, madame Ferrari et monsieur Gault, pourriez-vous nous décrire les échanges que vous avez pu avoir avec la plateforme TikTok lors de la réalisation de votre enquête et de votre documentaire ?

Pour conclure, je formulerai une question plus générale, qui porte sur les recommandations que notre commission d’enquête aura à formuler. Qu’attendez-vous de la part des institutions en général, et du législateur en particulier, pour renforcer l’efficacité des dispositifs de prévention et de sanction à l’égard des violences numériques à caractère sexiste, en particulier lorsqu’elles visent des mineurs ?

Mme Pauline Ferrari. Pour mes échanges avec TikTok durant mon enquête, j’ai procédé de manière classique en contactant leur service de presse pour solliciter une interview. Initialement, un entretien en personne avec le directeur de TikTok France avait été programmé, mais il a été annulé à la dernière minute pour des raisons officielles d’agenda. J’ai donc dû me contenter d’un échange par courriel. Les réponses fournies par TikTok se sont largement cantonnées à leurs conditions générales d’utilisation (CGU) et à leur politique de modération. Ils affirment notamment que plus de 99 % des contenus enfreignant leurs règles sont supprimés avant même d’être visibles par les utilisateurs, avec une vigilance accrue concernant les mineurs.

J’ai néanmoins soumis à TikTok plusieurs vidéos que je jugeais problématiques, relevant selon moi de discours masculinistes ou misogynes. À la suite de cet échange, ces vidéos ont été rapidement supprimées, alors que mes nombreux signalements antérieurs étaient restés sans effet.

Concernant d’autres influenceurs masculinistes particulièrement actifs sur TikTok, notamment lors de lives, la liste est malheureusement longue. Je peux citer Alex Hitchens, un jeune homme dont le discours est particulièrement dégradant envers les femmes, mais également La Menace, principalement actif sur YouTube mais présent aussi sur TikTok, ou encore des personnalités issues de l’extrême-droite qui versent dans le masculinisme, comme Mme Thaïs d’Escufon, ancienne porte-parole de Génération Identitaire, ou encore M. Baptiste Marchais et M.Julien Rochedy. Il est important de noter que ces contenus s’interconnectent souvent et forment un écosystème cohérent.

L’audience de TikTok est difficile à cerner avec précision, notamment en raison de l’accès fréquent de mineurs de moins de treize ans à la plateforme, malgré les restrictions officielles. La vérification de l’âge étant aisément contournable, il est complexe d’établir une démographie exacte des utilisateurs. Néanmoins, l’impact des contenus masculinistes sur cette plateforme est significatif et mesurable à plusieurs égards. Les vidéos d’influenceurs tels qu’AD Laurent ou Alex Hitchens génèrent ainsi fréquemment des centaines de milliers de vues et de nombreux commentaires, suggérant une audience considérable et laissant penser, au regard de la façon de s’exprimer, à un public très jeune.

Mon expérience d’intervenante en éducation aux médias dans divers établissements scolaires de la région parisienne corrobore également cette popularité. Lors de mes interventions en classe, il est fréquent que certains élèves s’appellent par le terme « pupuce », une expression popularisée par AD Laurent. À plusieurs reprises, des références explicites aux propos d’Alex Hitchens ont également été formulées. Lorsque j’aborde la question des influenceurs masculinistes auprès de jeunes, je constate qu’ils les connaissent tous, garçons comme filles. Cette familiarité avec les discours masculinistes est observable dans l’ensemble des établissements où j’ai pu intervenir sur les enjeux de genre et de numérique. Dans au moins la moitié des classes, une majorité d’élèves connaissent ces influenceurs et, même s’ils ne les suivent pas activement, sont exposés à leurs contenus dans leur fil d’actualité.

Bien que les données précises soient rares, une étude menée par le chercheur suisse Manoel Horta Ribeiro sur les réseaux masculinistes anglophones de Reddit a identifié un million de comptes distincts. Nous pouvons donc raisonnablement supposer que sur TikTok, plateforme particulièrement prisée des jeunes et propice à la viralité, l’audience de ces contenus se compte en centaines de milliers, voire en millions.

L’influence de ces contenus se manifeste enfin par la diffusion de termes spécifiques dans le langage courant des jeunes. À titre d’exemple, le concept de « body count », initialement utilisé dans les cercles masculinistes pour désigner de manière genrée le nombre de partenaires sexuels, est désormais repris par des influenceurs grand public tels que Squeezie, traçant ainsi leur chemin dans l’esprit et le langage des jeunes.

TikTok, du fait de l’importante viralité de ses contenus, présente en outre un potentiel de radicalisation particulièrement préoccupant, dont la mécanique a été mise en lumière par une enquête du Wall Street Journal. L’algorithme de la plateforme, dont le fonctionnement exact reste opaque, tend ainsi à proposer des contenus de plus en plus spécifiques et potentiellement violents aux utilisateurs qui manifestent un intérêt pour ce type de vidéos.

Je conclurai en vous invitant à consulter le rapport du HCEFH de 2023, qui a analysé les 100 contenus les plus populaires sur Instagram, YouTube et TikTok. Cette étude a révélé que TikTok favorisait particulièrement la diffusion de représentations extrêmement sexistes des femmes, notamment dans le contexte des relations conjugales, mettant en scène des situations d’humiliation et de dégradation.

Mme Shanley Clemot McLaren. L’audience de ces contenus est extrêmement diverse, l’analyse des commentaires révélant une grande variété de profils. Un aspect particulièrement intéressant concerne la question de l’anonymat et du pseudonymat, puisque de nombreux commentaires sont publiés par des utilisateurs s’exprimant à visage découvert.

M. Pierre Gault. Sur la question de l’audience des contenus masculinistes, mes observations, qui vont au-delà des réseaux sociaux grand public, m’ont conduit à explorer des communautés privées pour lesquelles TikTok sert souvent de porte d’entrée. Dans ces espaces, j’ai pu constater que la tranche d’âge des participants s’étend principalement de quinze à trente ans, avec une concentration significative entre quinze et vingt et un ans.

Il est frappant de noter que la quasi-totalité de ces jeunes hommes affirme avoir découvert leurs influenceurs de référence à travers YouTube, les lives TikTok ou les contenus partagés sur cette plateforme. Cette observation souligne le rôle crucial de TikTok comme vecteur de diffusion de ces idéologies auprès d’un public jeune et potentiellement vulnérable.

M. le président Arthur Delaporte. Pourriez-vous préciser quels sont les influenceurs qui servent principalement de porte d’entrée à ces communautés ?

M. Pierre Gault. Actuellement, l’influenceur le plus emblématique et influent dans ce domaine est sans conteste Alex Hitchens, dont la stratégie repose sur l’organisation de débats ou de tables rondes où il se confronte délibérément à des opinions divergentes. Cette approche, axée sur la culture du clash, vise à maximiser sa visibilité et son impact médiatique.

Parallèlement, d’autres influenceurs masculinistes exercent une influence significative, bien que leur présence ne se limite pas à TikTok. Parmi eux, je peux citer M. Killian Sensei, sur lequel je me suis particulièrement penché, M. Jean-Marie Corda, qui est très actif sur YouTube, BryanForReal ou encore Vinc Wolfenger.

Un phénomène inquiétant, qui se dégage de l’observation de ces influenceurs, est la surenchère constante dans la provocation et la radicalité des propos, l’objectif étant d’obtenir la punchline la plus choquante, garantissant ainsi une visibilité accrue et potentiellement une audience plus large. Cette dynamique m’a été confirmée lors d’un entretien avec Azur, jeune influenceur masculiniste, qui m’a expliqué sa stratégie consistant à élaborer des contenus délibérément provocateurs, comme une vidéo catégorisant les femmes en « chienne », « louve » et « brebis ». Ces comparaisons animales, profondément offensantes, sont soigneusement conçues pour susciter des réactions fortes et ainsi augmenter sa notoriété. D’ailleurs, cette approche lui a effectivement permis de connaître une croissance significative de son audience.

M. Tristan Duverné. Je souhaite poser deux questions essentielles : en quoi l’algorithme ou l’architecture de TikTok favorisent-ils les comportements violents et les violences sexuelles et sexistes (VSS), et quelles options politiques s’offrent à l’institution pour y remédier ?

Contrairement aux interventions précédentes qui se concentraient sur les violences des influenceurs et des créateurs de contenu, je propose de réduire l’importance accordée à la visibilité sur ces plateformes, tant dans l’algorithme que dans l’architecture. Par exemple, nous pourrions envisager de masquer le compteur de likes pendant les diffusions en direct, comme sur d’Instagram, afin que ce chiffre ne devienne pas une fin en soi, mais reste un moyen d’expression.

Je soulignais tout à l’heure que dans la vie ordinaire, une offense est généralement suivie d’une phase de régulation : la personne offensée, ou une figure d’autorité, intervient par un rappel à l’ordre, puis une phase de réparation s’instaure, au cours de laquelle l’auteur de l’offense est amené à présenter des excuses. Sur les réseaux sociaux, cette dynamique régulatrice ne s’applique plus de la même manière. Concernant les facteurs favorisant les violences et les offenses sur TikTok, j’en identifie quatre principaux. Premièrement, la communication anonyme permet aux internautes de ne pas mettre en jeu leur réputation personnelle lorsqu’ils offensent. Deuxièmement, le caractère éphémère des interactions, particulièrement marqué sur TikTok, supprime l’enjeu de maintenir de bonnes relations avec les personnes offensées puisque les « trolls » ou les haters ne courent pas le risque d’être sanctionnés. Troisièmement, l’asymétrie d’exposition, où les streamers exposent leur corps sans que l’audience ne le fasse, rend possible certaines offenses basées sur l’apparence physique, sans possibilité de riposte. Ce régime de visibilité à sens unique confère un pouvoir nettement supérieur à celui qui observe, comparé à celui qui est exposé, dans la mesure où le « troll », dissimulé derrière un compte anonyme ou fictif, échappe à toute possibilité de réponse ou de mise en cause directe de la part de l’influenceur. Enfin, le dernier facteur est l’absence de risque de violence physique due à la distance sociale et physique, qui contribue à une forme de désinhibition.

Pour contrer ces phénomènes, nous pourrions envisager des options visant à rétablir le contrôle social de nos interactions en ligne, non pas nécessairement par un contrôle étatique, mais plutôt par un contrôle entre pairs. Cela impliquerait de réfléchir à des inducteurs dans l’architecture même de la plateforme, qui permettraient de réactiver les mécanismes d’autorégulation et de contrôle social, dans une approche fondée sur la théorie du « nudge ».

Concernant le caractère éphémère des interactions, plusieurs pistes peuvent être explorées. Nous pourrions notamment envisager de forcer TikTok à créer des relations en ligne plus durables, sur le modèle de Facebook, où les utilisateurs interagissent sur le long terme, les incitant ainsi à modérer leurs propos. Nous pourrions également recréer une symétrie d’engagement et de visibilité, où celui qui critique doit pouvoir craindre d’être vu et critiqué en retour. Autrement dit, il faudrait que celui qui attaque puisse redouter une riposte. Une grande partie de nos interactions ordinaires repose sur ce principe de réciprocité, la violence exercée par autrui devant pouvoir susciter une réponse équivalente. C’est cette logique de don et de contre-don, propre à la régulation sociale, qui fait défaut sur TikTok. En somme, les utilisateurs devraient pouvoir craindre les conséquences de leurs offenses.

Enfin, la réintroduction du mécanisme de réputation, moins présent sur TikTok que sur Instagram, consisterait à interroger la levée partielle, voire totale, de l’anonymat en ligne. Alors que, dans le cadre des interactions ordinaires, le fait d’adopter une posture offensante engage la réputation personnelle de l’individu, les internautes peuvent, aujourd’hui, se créer en toute simplicité de nouveaux comptes ou de nouveaux pseudonymes afin de transgresser à nouveau les normes de l’échange, sans jamais subir les effets régulateurs du regard social. C’est comme si, dans l’espace numérique, il devenait possible de changer d’identité à l’infini dès lors qu’une faute d’interaction est commise, précisément pour échapper à toute forme de responsabilité sociale.

À partir de ce constat, deux options mériteraient d’être débattues. Une première option, relativement modérée, consisterait à restreindre la liberté de créer un nouveau compte ou de modifier son pseudonyme à chaque scandale. Cette contrainte inciterait les internautes à modérer leurs propos, grâce à la réintroduction d’une forme de continuité identitaire. Une seconde option, plus radicale mais sans doute plus efficace, viserait à renforcer le lien entre l’identité numérique et l’identité réelle de l’utilisateur. Il s’agirait, par exemple, de contraindre un individu à apparaître sur une plateforme comme TikTok sous son véritable nom, à l’image du système de vérification mis en place sur LinkedIn. Une telle mesure permettrait de réintroduire un contrôle social d’origine hors-ligne susceptible de s’exercer sur les comportements numériques de l’individu. Un utilisateur au comportement déviant ne pourrait ainsi plus se dissimuler derrière un pseudonyme ou un faux compte pour multiplier les comportements abusifs ou malveillants. Il serait, dès lors, identifiable par son entourage personnel, qui aurait la possibilité de le retrouver et de le confronter à ses agissements en ligne.

Un tel mécanisme suppose cependant que l’entourage hors-ligne exerce effectivement une forme de veille sur l’activité numérique des individus, notamment des plus jeunes. Il est donc nécessaire de mener, en parallèle, un travail de sensibilisation auprès des familles, afin qu’elles suivent les comptes de leurs enfants et soient en mesure de les retrouver facilement, ce qui devient possible lorsque ceux-ci n’agissent plus sous pseudonyme.

Ce type de mesure aurait pour effet de réintroduire, d’une part, un contrôle social diffus et, d’autre part, un potentiel contrôle d’ordre étatique. Il soulève toutefois deux enjeux majeurs que sont la question du droit à l’anonymat et celle de la protection des données personnelles. En tant que scientifique, je les présente comme des options à débattre, sans nécessairement les soutenir en tant que citoyen.

Mme Shanley Clemot McLaren. Concernant l’audience des contenus, nous observons une application parfaite de la pyramide de la haine en ligne. L’exposition à des contenus apparemment anodins, ou à des propos légèrement misogynes, suffit à déclencher un mécanisme algorithmique proposant des contenus qui deviennent de plus en plus radicaux et extrémistes. Ainsi, d’un contenu misogyne banal, on passe rapidement à du contenu masculiniste radical ou extrémiste. Plusieurs enquêtes, notamment celle du Wall Street Journal et de Media Matters for America, corroborent ce phénomène. Des chercheurs, créant des comptes fictifs neutres, constatent qu’après seulement quelques centaines de vidéos, l’algorithme propose systématiquement des contenus misogynes, discriminatoires, puis radicaux.

La spécificité de ces contenus réside dans leur impact sur un public très jeune. J’en ai fait l’expérience personnelle avec mon frère de onze ans qui, bien que n’ayant pas de compte sur TikTok, a été exposé sur YouTube à des contenus d’Alex Hitchens, initialement publiés sur TikTok puis repris en format YouTube shorts. Cet exemple illustre la difficulté de sensibiliser à ces questions, même au sein de sa propre famille, malgré mon engagement de longue date contre les cyberviolences sexistes et sexuelles.

TikTok se distingue par son public particulièrement jeune, garçons comme filles, et par son caractère addictif lié à son architecture basée sur les likes, les cadeaux, les lives et les interactions constantes. Nous observons également une romantisation des contenus misogynes et extrémistes, notamment masculinistes, à travers l’utilisation de musiques patriotiques ou guerrières, créant une forme de fictionnalisation attrayante, particulièrement efficace auprès des jeunes garçons.

Concernant le concept de distance facilitant les cyberviolences, souvent appelé « effet cockpit », je souhaite apporter une nuance car nous constatons, chez Stop Fisha, que l’anonymat n’est plus vraiment un enjeu. Nous y préférons désormais le terme de pseudonymat. De nombreux utilisateurs n’hésitent plus, aujourd’hui, à poster des contenus misogynes ou extrémistes à visage découvert, que ce soit sur des plateformes grand public telles que TikTok ou plus confidentielles telles que Telegram. La seule crainte qui subsiste concerne la réputation professionnelle lorsque nous parvenons à identifier leur profil LinkedIn. Cette impunité grandissante remet en question la notion de distance.

Il est également crucial de souligner le continuum entre les violences en ligne et hors ligne. Dans 90 % des cas que nous accompagnons, en effet, les cyberviolences sur TikTok ou d’autres plateformes s’accompagnent de violences physiques dans la vie réelle.

Quant aux figures influentes, outre Alex Hitchens déjà mentionné, Bassem et Nasdas sont particulièrement actifs sur Snapchat. Leurs contenus sont souvent enregistrés et rediffusés sur TikTok par d’autres utilisateurs, générant débats et viralité autour de propos misogynes. Ce phénomène illustre la façon dont la misogynie génère de l’attention, du profit et de la viralité, tant pour les utilisateurs qui augmentent leur base de fans que pour les plateformes qui en tirent des bénéfices économiques.

Enfin, les lives constituent une technique privilégiée par ces influenceurs, car ils sont mal régulés par TikTok. Le processus de signalement d’un live est particulièrement problématique, ne permettant pas un traitement efficace des contenus problématiques diffusés sur plusieurs heures. Premièrement, le processus actuel ne permet pas de spécifier précisément l’heure et le contenu exact d’un incident survenu pendant un live. Cette lacune devrait être comblée pour améliorer l’efficacité des signalements. Deuxièmement, l’architecture de la plateforme ne permet pas de soumettre au service de modération une capture vidéo d’un acte de cyberviolence survenu lors d’un direct. Ces failles dans la gestion des lives sont préoccupantes, d’autant plus que ce format est une source de revenus importante pour TikTok.

Concernant les signes de misogynie, ils sont souvent explicites et facilement détectables, reprenant des propos entendus couramment dans les cours de récréation.

Quant aux possibilités d’action des législateurs, je considère qu’il est extrêmement complexe de modifier l’architecture de TikTok, car elle constitue l’essence même de la plateforme et de son modèle économique. TikTok reste une entreprise multinationale dont nous sommes, en quelque sorte, le produit, puisque nous ne payons pas pour l’utiliser. Toute modification substantielle de son fonctionnement impacterait directement sa raison d’être commerciale.

Néanmoins, les pouvoirs publics disposent de leviers d’action, notamment en matière de prévention, essentielle face à la difficulté de réguler l’espace numérique. Je reste optimiste quant à notre capacité à progresser dans ce domaine puisqu’en comparaison avec la situation d’il y a cinq ans, où la modération était quasi inexistante, des avancées significatives ont été réalisées.

L’un des axes prioritaires devrait être le renforcement de la prévention, notamment à travers une application plus large du programme Phare. J’ai personnellement constaté que ce dispositif n’est que peu mis en œuvre, y compris dans des cas avérés de harcèlement et de cyberharcèlement touchant des enfants de mon entourage. Son déploiement semble actuellement limité aux établissements volontaires et disposant de ressources financières suffisantes, créant ainsi de nouvelles inégalités.

Au niveau national, il est impératif d’augmenter les moyens alloués à la lutte contre la cyberviolence, car les effectifs de la police numérique française sont notoirement insuffisants. La plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (Pharos) ne compte ainsi qu’une quarantaine d’agents pour l’ensemble du territoire. Les équipes de l’Office mineurs (Ofmin) et de la gendarmerie en charge des enquêtes et du retrait de contenus en ligne sont également sous-dimensionnées. Cette pénurie de ressources entrave considérablement notre capacité à traiter efficacement les signalements des citoyens.

La création du parquet numérique à Nanterre, à la suite de la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, dite loi Avia, est une initiative positive. Cependant, ses moyens restent limités, ce qui se traduit par un traitement insuffisant des affaires. J’ai moi-même déposé des plaintes pour cyberviolence qui n’ont jamais abouti, faute de ressources suffisantes.

Pour réguler efficacement TikTok, nous devons donc impérativement investir dans nos propres capacités de contrôle et d’action. Je recommande vivement d’auditionner les représentants du pôle national de lutte contre la haine en ligne (PNLH), de Pharos, de l’Ofmin et de la cellule de la gendarmerie en charge des enquêtes numériques pour obtenir leur perspective sur ces enjeux.

M. Pierre Gault. Lors de mes entretiens avec des chercheurs, j’ai notamment rencontré Stéphanie Lamy, spécialiste de ces questions, qui qualifie les influenceurs masculinistes de « marchands de misère ». Cette expression me semble particulièrement appropriée car elle met en lumière la capacité de ces personnes à exploiter le mal-être de jeunes hommes, à tirer profit de leur vulnérabilité et à les entraîner vers une radicalité croissante, tout en en faisant fructifier un véritable business.

M. Thierry Perez (RN). Les témoignages que nous avons entendus sont véritablement glaçants. Au regard de l’ampleur du phénomène, et en dépit des nombreuses pistes d’action évoquées, ne courons-nous pas le risque de nous engager dans une démarche dont l’efficacité resterait dérisoire ? N’existe-t-il pas un risque que tout ce que nous parvenons à supprimer soit immédiatement remplacé, en raison de la nature même de ces plateformes et du besoin viscéral d’audience de certains utilisateurs ? La quête d’audience et les motivations financières ne vont-elles pas constamment dégrader les améliorations que nous tentons d’apporter ? En somme, pensez-vous qu’il soit réellement possible d’obtenir des résultats durables dans ce domaine ?

Mme Pauline Ferrari. Je partage l’avis selon lequel la régulation des multinationales du numérique représente une tâche d’une extrême complexité, dans la mesure où nous faisons face à des systèmes techniques et économiques dont l’ampleur et la structuration dépassent largement les capacités d’action d’une nation, d’un État ou même d’un cadre législatif isolé. Toutefois, cela ne signifie pas que nous sommes impuissants. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a notamment initié des démarches pour obtenir davantage de transparence, ne serait-ce que concernant le nombre de modérateurs francophones capables de traiter les contenus en français. Ces informations restent difficiles à obtenir de la part de TikTok et, malgré la menace de sanctions financières, les multinationales préfèrent souvent s’acquitter de l’amende plutôt que de se conformer à ces obligations. L’Arcom, bien que son rôle soit principalement consultatif, constitue un outil puissant pour notre démocratie et doit s’intéresser à internet, comme vous le faites actuellement.

Comme vous l’avez justement souligné, nous parlons de TikTok, Instagram et Snapchat mais, en matière de radicalisation, plus nous repoussons certains contenus ou groupes hors des plateformes grand public, plus ils se réfugient sur des canaux plus discrets comme Discord ou des messageries cryptées telles que Telegram. L’extrême droite, par exemple, utilise massivement les canaux Telegram. Il est donc nécessaire de nouer des partenariats avec ces plateformes pour devenir des partenaires de confiance, comme c’est le cas pour Stop Fisha et l’association e-Enfance.

Au-delà des réseaux sociaux, je souligne souvent le fait que les cyberviolences s’inscrivent dans un continuum de violences faites aux femmes et aux minorités de genre. Dans la mesure où ce que nous observons en ligne reflète ce qui se passe hors ligne, la régulation des plateformes numériques est indispensable mais elle doit s’accompagner d’une réduction des remarques misogynes et du sexisme dans la vie réelle.

Dans cette optique, je crois fermement au pouvoir de l’éducation. Or le programme Phare rencontre de nombreuses difficultés dans son application au sein des établissements scolaires. Dans les écoles où j’interviens, je constate que le manque de moyens n’est pas l’unique problème, puisque les enseignants eux-mêmes sont insuffisamment formés à ces questions et ne savent pas comment réagir. Nous observons également un manque de connaissances du côté des forces de l’ordre concernant les plaintes pour cyberviolences, alors que ces cas offrent souvent le plus de preuves matérielles, comme des captures d’écran, et la possibilité d’identifier les auteurs. Certains policiers et gendarmes ne maîtrisent pas ces outils, tout comme du côté de la magistrature et de la justice. Cette problématique s’inscrit donc dans un cadre plus large de lutte contre les violences faites aux femmes.

Les polémiques et les scandales accumulés par TikTok ne portent pas uniquement sur la question du masculinisme. J’estime que la plateforme a tout intérêt, pour son image et sa stabilité, notamment sur le territoire européen, à se conformer à certaines règles. Des mesures peuvent être mises en place, car personne ne souhaite voir ses enfants devenir d’horribles misogynes, voire des tueurs de masse. Nous parlons ici du masculinisme, mais les véritables conséquences sont les féminicides, les attentats, les meurtres de femmes et de jeunes filles, ou les suicides de jeunes filles à cause de vidéos diffusées sur TikTok sans leur consentement.

Mme Shanley Clemot McLaren. La tâche est, en effet, particulièrement ardue, car nous sommes démunis face à cette déferlante. Le combat contre ces multinationales et leurs architectures peut être comparé à la lutte en faveur de l’écologie, qui implique également la nécessité d’une régulation. Les solutions pertinentes peuvent ainsi devenir des sources d’inspiration pour d’autres luttes.

Je considère la situation avec espoir et optimisme, au regard des évolutions que j’ai pu observer et des actions entreprises au cours des cinq dernières années. L’entrée en vigueur du DSA, adopté en 2022, constitue à la fois la première loi transnationale sur ce sujet et le symbole d’une volonté réelle d’action commune de la part des États contre ces plateformes. Je note toutefois que les sanctions financières prévues par cette directive font actuellement l’objet de négociations de la part des acteurs du numérique, ce qui peut remettre en question l’application concrète du texte. Nous devrons rester attentifs, dans les prochains jours, à l’évolution de la situation.

Toujours dans le cadre du DSA, Meta a récemment publié, dans le cadre des obligations qui lui sont imposées, le nombre de modérateurs humains qu’elle emploie. Pour la langue française, ce chiffre s’élève à 226 modérateurs actifs au sein de l’Union européenne. La France fait ainsi partie des pays disposant du plus grand nombre de modérateurs opérant dans sa langue. En ce qui concerne TikTok, je n’ai, pour l’heure, pas eu connaissance de données chiffrées équivalentes. Il est toutefois possible que ces éléments soient prochainement rendus publics, puisque cette publication figure parmi les obligations prévues par le DSA.

Au-delà des enjeux spécifiques liés à la cyberviolence ou aux discours masculinistes, il est essentiel de comprendre l’architecture d’ensemble instaurée par le DSA. Celui-ci prévoit notamment un dispositif de risk assessment, autrement dit une évaluation des risques que chaque plateforme est tenue de réaliser et de transmettre. Cette évaluation doit prendre en compte la diffusion de contenus illicites, les atteintes potentielles aux droits des utilisateurs, ainsi que les risques systémiques que ces contenus peuvent faire peser sur les sociétés. Il serait donc particulièrement utile d’examiner le contenu de ces évaluations, d’en connaître la date de publication et d’en analyser la teneur, afin de vérifier si TikTok, en particulier, s’acquitte effectivement de ses obligations.

Il me semble qu’il existe, en ce domaine, une dynamique positive, mais qu’elle reste insuffisante au regard des défis posés. Le DSA, tout comme la loi « SREN », peuvent constituer les premiers jalons d’un cadre de régulation plus ambitieux, en tant que fondations d’une action publique plus structurée. Il est également souhaitable d’envisager des mécanismes juridiques ou réglementaires plus innovants, à la hauteur des évolutions constantes que connaît l’espace numérique, et notamment TikTok.

Nous devons, en tant que société, nous interroger sur notre capacité à inventer, de notre côté, des réponses nouvelles. Je n’ai pas, à ce stade, de solution à proposer, mais je plaide pour un travail collectif d’analyse, de réflexion, et de concertation.

M. Tristan Duverné. Concernant ce besoin d’audience, qui sera sans doute remplacé à terme par d’autres formes de reconnaissance, je souhaite rappeler qu’il ne s’agit nullement d’un besoin naturel ou inné. Ce besoin est une construction sociale, historiquement située, façonnée en grande partie par les médias eux-mêmes. En ce sens, agir sur les médias revient également à agir sur le besoin d’audience. Il est important de garder à l’esprit ce caractère construit pour penser des leviers d’action pertinents.

Par ailleurs, en ce qui concerne cette impression d’impuissance, il me semble que certaines mesures récentes démontrent au contraire que l’État dispose d’un pouvoir réel d’intervention. L’hypothèse d’interdire TikTok aux mineurs a bien été évoquée, ce qui témoigne d’une capacité à agir de manière contraignante sur l’accès à la plateforme. Si l’État peut envisager une telle interdiction, il me paraît raisonnable de considérer qu’il pourrait également imposer des modifications plus ciblées, par exemple en exigeant la désactivation du compteur de visibilité ou en exerçant une pression sur TikTok pour qu’une partie de son architecture algorithmique soit revue.

Pour résumer ma proposition, qui s’inscrit dans une perspective sociologique, il s’agirait de rétablir une forme de contrôle social, qui permettrait d’éviter de recourir à un contrôle exclusivement étatique, lourd et peu réaliste, reposant sur une surveillance massive et continue du contenu. Il est en effet peu envisageable, compte tenu du volume ininterrompu de contenus produits chaque jour, de mobiliser une armée de modérateurs ou de policiers du numérique.

L’enjeu consiste donc à s’appuyer sur l’architecture même de TikTok pour restaurer des mécanismes de régulation sociale. Comme je l’évoquais précédemment, la réintroduction de la réputation sur la plateforme pourrait produire un effet tangible sur certaines formes de violence verbale ou symbolique. Une telle orientation permettrait à l’État de limiter son implication directe dans la surveillance tout en renforçant l’efficacité de la modération par des outils structurels moins consommateurs de ressources et d’énergie.

M. le président Arthur Delaporte. Je tiens à vous remercier pour la qualité de vos propos ainsi que pour l’ensemble des propositions formulées au cours de cette discussion. Il me semble qu’un point essentiel qui a clairement émergé est la nécessité de s’interroger sur les mécanismes mêmes de la plateforme et, plus précisément, sur la manière dont son architecture favorise certains comportements masculins, sexistes, et donc pour partie répréhensibles au regard de la loi. En effet, plusieurs de ces comportements tombent sous le coup de dispositions pénales, même si, comme vous l’avez justement souligné, leur prise en charge par le système judiciaire demeure aujourd’hui difficile et limitée dans sa portée.

Vous avez d’ailleurs pointé avec précision l’une des faiblesses de la réponse judiciaire française en la matière, et nous aurons l’occasion d’approfondir ces questions dans le cadre des futures auditions que nous mènerons, y compris avec certains des acteurs évoqués au cours de vos interventions.

Je me permets de partager un retour d’expérience personnel. Lorsque je me rends dans les classes de CM2, il m’arrive régulièrement de demander aux élèves de me citer les tiktokeurs qu’ils connaissent, et les noms d’Alex Hitchens ou La Menace reviennent très fréquemment. Or il suffit de consulter leurs comptes pour constater à quel point il est préoccupant de voir ces figures devenir des références familières pour des enfants aussi jeunes.

Vous avez en outre évoqué les contenus que vous avez signalés comme contrevenant aux règles de la plateforme, sans pour autant qu’ils soient reconnus comme tels. Si vous disposez d’exemples précis de signalements ayant donné lieu à une absence de réponse, ou à une réponse considérée comme insuffisante, cela serait particulièrement utile pour nos travaux.

Mme Pauline Ferrari. Parmi les contenus que j’ai récemment signalés, figure notamment une vidéo d’Alex Hitchens dans laquelle il affirme que « toutes les femmes sont des putes jusqu’à preuve du contraire ». Ce contenu n’a pourtant pas été jugé contraire aux règles d’utilisation de la plateforme.

Une autre vidéo, largement diffusée sur TikTok, a fini par être supprimée, sans doute en raison du tollé qu’elle a suscité. Toutefois, lors de mon premier signalement, aucune mesure n’avait été prise. Il s’agissait d’une séquence publiée par l’influenceur La Menace, désormais installé à Dubaï, qui commence par ces mots : « J’ai décidé de goûter le matcha, cette boisson de pédé servie par une lesbienne de 120 kilos avec un piercing. » Ces propos, que j’ai pourtant signalés, n’ont pas été considérés comme enfreignant les règles d’utilisation de TikTok.

Je précise également que, du fait de mon travail sur le masculinisme et l’extrême droite, j’ai moi-même été victime de cyberharcèlement sur plusieurs plateformes, en particulier sur X. Là encore, les signalements que j’ai effectués n’ont jamais donné lieu à une quelconque réaction de la part des modérateurs.

M. le président Arthur Delaporte. Pourrez-vous nous transmettre par courriel les archives des signalements que vous avez effectués ? Cela nous permettra d’interroger TikTok sur les raisons de la non prise en compte de vos alertes.

Mme Shanley Clemot McLaren. Nous accompagnons actuellement une créatrice de contenu très suivie sur TikTok, connue sous le nom de Ranelle, qui est victime de cyberviolences depuis près d’un an et demi. Malgré cet accompagnement, elle subit un harcèlement en ligne massif, accompagné d’actes de doxing. Lors d’un live qu’elle a animé, l’ensemble de ses données personnelles a été divulgué en temps réel par des internautes présents sur le direct. Ce harcèlement a atteint un degré de gravité extrême, avec des menaces visant directement sa nièce, incluant des appels explicites au viol. Elle a déposé plainte pour ces faits, mais les cyberviolences qu’elle subit sur TikTok ne cessent de croître, en dépit des signalements réguliers effectués.

Un autre cas concerne Aïcha, victime de la diffusion non consentie de contenus anciens, relayés par son ex-compagnon. Ces contenus continuent à circuler sur TikTok, relayés massivement par d’autres utilisateurs. Là encore, bien que de nombreux signalements aient été effectués, seuls certains contenus sont supprimés, tandis que d’autres persistent.

Je souhaite également évoquer un contenu qui m’a particulièrement choquée il y a environ une semaine, au moment de l’explosion des groupes « Ficha » dans les Hauts-de-Seine. Des contenus extrêmement violents ont alors circulé sur TikTok. Nous avons procédé à des signalements, mais aucune réponse ne nous a été adressée dans un premier temps. Ce n’est qu’après être passés par Stop Fisha que les suppressions ont commencé à être effectuées. Ce contraste est révélateur du fait que les contenus signalés par des utilisateurs individuels ne suscitent souvent aucune réaction, tandis que ceux signalés par une association reçoivent une réponse. Il est important de souligner cette inégalité dans le traitement des signalements.

Enfin, je souhaite mentionner un dernier cas, qui ne relève pas du sexisme mais de l’antisémitisme. J’ai récemment observé une trend particulièrement inquiétante sous la forme d’un extrait sonore contenant un discours à la gloire d’Adolf Hitler utilisé comme bande-son sur TikTok. De nombreuses vidéos, publiées tant par des influenceurs que par des utilisateurs lambda, le reprenaient. On y voyait, entre autres, des personnes se filmer à la salle de sport en train de soulever des poids, le tout accompagné de hashtags explicitement antisémites. Ce phénomène ne se limite pas à la France, mais s’étend à d’autres pays également. Là encore, la modération semble totalement défaillante.

M. le président Arthur Delaporte. Quels sont ces hashtags que vous avez pu observer ? Les avez-vous signalés ?

Mme Shanley Clemot McLaren. Il s’agit le plus souvent de chiffres qui font référence à l’Holocauste ou à des codes antisémites. Je pourrai vous transmettre les captures d’écran de ces éléments qui ont, en effet, également fait l’objet de signalement pour apologie de crimes et antisémitisme. Les retours que j’ai reçus indiquaient qu’ils ne contrevenaient pas aux règles d’utilisation de TikTok.

M. le président Arthur Delaporte. Nous aurons l’occasion d’interroger TikTok à ce sujet.

Des liens manifestes semblent se dessiner entre certains contenus masculinistes et des discours relevant de l’extrême droite, voire de l’antisémitisme. Pourriez-vous approfondir cette articulation ?

Mme Pauline Ferrari. Si toutes les personnes qui se réclament du courant masculiniste ne relèvent pas nécessairement de l’extrême droite, tous les influenceurs d’extrême droite véhiculent en revanche, de manière systématique, une vision stéréotypée et profondément masculiniste des rôles genrés. Ce que j’ai pu observer, notamment depuis 2020, avec la montée en popularité des contenus masculinistes en ligne, c’est l’émergence d’un phénomène de recyclage idéologique. Certains influenceurs ou influenceuses historiquement rattachés à la sphère d’extrême droite se réorientent vers des thématiques masculinistes, dans une stratégie visant à capter un public plus jeune et à l’amener progressivement vers ce courant politique.

Un exemple particulièrement révélateur est celui de Thaïs d’Escufon, qui publie aujourd’hui des vidéos centrées sur les relations entre les hommes et les femmes, dans lesquelles elle relaie à la fois de fausses informations présentées comme scientifiques et des propos normatifs à l’égard des femmes. Elle affirme notamment qu’une femme devrait rester à la maison ou encore qu’une femme ayant eu trop de partenaires sexuels ne serait pas digne de confiance.

Ce type de convergence idéologique s’observe également chez d’autres influenceurs issus de la mouvance d’extrême droite. La Menace, que nous avons déjà évoqué, affiche notamment des positions politiques très explicites. On retrouve également des figures plus anciennes, comme Julien Rochedy, ancien cadre du Front national, qui s’est spécialisé depuis plusieurs années dans la diffusion de discours portant précisément sur ces thématiques. D’autres personnalités connues de l’extrême droite, telles que Papacito, véhiculent également une vision profondément masculiniste des rapports sociaux.

Ce constat vaut d’ailleurs au-delà des seules questions liées aux rôles genrés. Il se vérifie également dans la manière dont ces influenceurs abordent la transidentité, ou plus largement les thématiques LGBTQIA+, avec une insistance marquée sur des discours transphobes, souvent d’une grande violence à l’égard des personnes concernées. Il s’agit là d’un axe récurrent dans les contenus masculinistes, qui mobilise fortement ces sphères idéologiques.

Cette dynamique donne parfois lieu à des rapprochements absurdes entre des figures qui relèvent de profils très différents, comme c’est le cas pour Alex Hitchens, un homme racisé, et Thaïs d’Escufon, qui apparaissent ensemble dans certaines vidéos.

M. Tristan Duverné. Un point qui me semble particulièrement intéressant dans l’usage de TikTok est celui du choc culturel. La plateforme engendre en effet des frictions sociales qui résultent de la mise en contact de groupes porteurs de pratiques, de normes et de valeurs très différentes. En cela, la plateforme tend à brouiller certaines frontières sociales et géographiques en exposant les utilisateurs à des réalités qu’ils n’auraient probablement jamais rencontrées dans leur environnement quotidien hors ligne.

TikTok confronte ainsi chaque individu à des contenus et à des univers sociaux dont il aurait autrement été largement éloigné. C’est cette logique qui produit, selon moi, de nombreuses tensions et incompréhensions. Pour illustrer ce phénomène, je peux citer l’exemple des groupes féministes et des groupes masculinistes, qui, sur TikTok, coexistent dans un même espace numérique, alors que ces deux groupes n’auraient que très rarement été amenés à se côtoyer dans la vie réelle. Or cette cohabitation forcée, dans un même environnement algorithmique, fait naître des frictions particulièrement vives.

TikTok nous confronte donc à des systèmes de valeurs et à des modes d’expression qui peuvent nous sembler extrêmement éloignés, voire étrangers, et c’est précisément cette exposition à l’altérité qui alimente, en grande partie, les conflits d’interprétation et les tensions observées sur la plateforme.

M. le président Arthur Delaporte. Ma dernière question porte sur les stratégies de monétisation des contenus. Il me semble essentiel d’interroger la manière dont tout cela devient un modèle économique à part entière. Au-delà des lives, qui permettent de générer des revenus directs, il existe également des dispositifs plus élaborés visant à inciter les utilisateurs à s’abonner ou à accéder à des contenus payants. Sur certaines chaînes, des liens externes renvoient vers des formations, des services ou des produits à acheter.

Si vous disposez d’éléments à ce sujet, nous serions particulièrement intéressés par un retour, y compris ultérieurement par écrit. La question de la monétisation me semble en effet centrale, car elle constitue le socle économique de ces pratiques, aussi bien pour la plateforme elle-même, qui en tire des ressources, que pour les influenceurs.

Mme Pauline Ferrari. Il ne faut pas perdre de vue le fait que les influenceurs masculinistes demeurent, fondamentalement, des influenceurs, et que le principe même de l’influence repose sur une logique de monétisation, c’est-à-dire sur la capacité à vendre. Certains commercialisent des compléments alimentaires, des programmes de coaching en nutrition ou en développement personnel, mais certains opèrent également sur le marché des idées. Ils commercialisent ainsi des livres électroniques, des formations en ligne censées permettre de devenir comme eux, d’apprendre à séduire les femmes ou d’atteindre un idéal de virilité. Dans les formes les plus extrêmes de cette dynamique, certains promeuvent leurs stages de survivalisme ou des retraites autour de la masculinité, parfois teintées d’ésotérisme, de spiritualité, voire de références religieuses. Il s’agit donc d’un véritable modèle économique structuré, dont le cœur repose sur la marchandisation d’une vision du monde.

Ce phénomène s’inscrit, par ailleurs, dans la filiation directe de figures comme Andrew Tate, célèbre influenceur masculiniste anglophone, qui a bâti l’essentiel de son empire financier sur des pratiques de proxénétisme en ligne, à travers une industrie de camgirls. Dans ce contexte, il n’est guère étonnant de constater, y compris sur les réseaux sociaux francophones, l’émergence d’une nouvelle génération d’utilisateurs se présentant comme de futurs « OnlyFans managers », aspirant à reproduire ces modèles d’exploitation du corps féminin à des fins de profit personnel.

Mme Shanley Clemot McLaren. Il est en effet frappant de constater qu’Andrew Tate a pu continuer à exercer ses activités durant plusieurs années, alors même qu’un nombre important d’accusations avaient déjà été portées contre lui. Cette situation interroge directement la responsabilité des plateformes, et en particulier celle de TikTok, dans la diffusion et la valorisation de ce type de contenus.

Pour terminer, les comptes « Ficha » et les cyberviolences ciblent clairement les femmes et les filles, notamment par la diffusion de contenus intimes, ce que je considère être une forme d’exploitation sexuelle facilitée par le numérique. J’ai récemment observé des comptes « Ficha » sur TikTok qui redirigent vers des chaînes Telegram, certaines proposant un accès payant à davantage de contenu. TikTok sert ainsi de vitrine pour promouvoir ces chaînes payantes qui offrent du contenu explicite.

Concernant la monétisation, le lancement prochain du TikTok shop soulève des questions. Cette nouvelle fonctionnalité permettra aux marques et aux créateurs de contenu de faire davantage de publicité. Il faudra donc examiner si les influenceurs masculinistes pourront également bénéficier de TikTok shop et quels types de publicités seront ciblés sur les femmes et les filles.

Je tiens également à mentionner les tendances Tradwife et SkinnyTok qui renforcent la culture de la misogynie en ligne et dont TikTok tire profit.

M. le président Arthur Delaporte. Je vous remercie pour votre engagement et vous invite à compléter nos échanges en transmettant à notre secrétariat tout complément d’information que vous jugeriez pertinent pour les travaux de cette commission d’enquête.

Puis la commission auditionne M. Bruno Gameliel, psychopédagogue, psychothérapeute.

M. le président Arthur Delaporte. Je vous souhaite la bienvenue et vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Bruno Gameliel prête serment.)

M. Bruno Gameliel, psychopédagogue, psychothérapeute. En préambule, je souhaite préciser que la psychopédagogie, domaine souvent méconnu, est une branche de la psychologie du développement qui s’intéresse aux problématiques scolaires. Cette discipline s’est développée en France après la seconde guerre mondiale pour traiter les difficultés d’apprentissage liées à des facteurs externes, notamment les traumatismes de guerre.

Mon activité principale se concentre donc sur les problématiques scolaires, y compris celles liées au numérique et aux écrans. Je précise ici que je ne diabolise pas les écrans et le numérique, dont les effets sur le plan cognitif et comportemental peuvent être positifs. La question devient cependant délicate lorsqu’il s’agit des mineurs.

Lors d’une récente conférence, j’ai énoncé le concept de « délégation cognitive », qui illustre le fait que la technologie constitue aujourd’hui un problème sociétal, voire civilisationnel. Les praticiens, tout comme les professionnels de la santé ou des milieux scolaire et universitaire, constatent en effet une dépendance croissante des apprenants aux écrans et à certaines applications, ce qui entraîne des effets négatifs sur la cognition et au-delà. Nous observons la perte de certains principes et valeurs fondamentales, tels que les notions d’effort, de respect, d’autorité et de sens. Cette situation affecte non seulement le développement cérébral des enfants et des adolescents, mais également leur motivation et leur esprit critique. Les écrans, initialement passifs comme la télévision, ont évolué vers des formes davantage interactives avec l’essor d’internet, des jeux vidéo puis des réseaux sociaux et des applications, parfois rattachées à des intérêts économiques. Ces changements ont profondément modifié les comportements des apprenants mineurs, impactant à la fois leur éducation, leurs relations familiales et leur scolarité.

Le défi est d’autant plus grand que la technologie évolue à un rythme extrêmement rapide, nécessitant une vigilance constante et une approche à la fois théorique, empirique et analytique afin de réagir de manière pertinente.

Concernant TikTok spécifiquement, que j’ai récemment découvert, je trouve ironique que son nom soit l’acronyme, en psychologie, des troubles involontaires verbaux et physiques et des troubles obsessionnels compulsifs.

Il me semble ainsi indispensable d’adopter une approche analytique envers nos mineurs face à cette plateforme et aux écrans en général. Comme le soulignait Jean-Jacques Rousseau en 1762 dans la préface de L’Émile : « Commencez donc par mieux étudier vos élèves, car très assurément vous ne les connaissez point. » L’attention des professionnels de santé, des éducateurs et des parents est donc fondamentale.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. J’aimerais que vous approfondissiez l’impact de l’usage de TikTok sur la santé mentale des jeunes, que vous observez. Vous avez évoqué les effets des réseaux sociaux sur l’attention et la capacité de concentration des jeunes. Pouvez-vous développer ce point, notamment concernant l’impact du visionnage prolongé de vidéos très courtes sur leur concentration et leur raisonnement ?

Nous avons, hier, auditionné des familles de victimes, dont certains enfants se sont malheureusement suicidés. Ces témoignages, empreints d’une grande émotion, ont soulevé plusieurs questions cruciales. Certains parents ont notamment indiqué que leurs enfants avaient visionné des images inappropriées qui sont restées « imprégnées dans leur rétine ». Pouvez-vous commenter l’impact de telles images sur le développement et la santé mentale des jeunes ?

Nous avons également perçu la difficulté des parents confrontés à un enfant qui s’enferme dans les réseaux sociaux et dans des communautés centrées sur le mal-être. Bien que ces enfants aient été suivis par des professionnels de santé, les parents avaient le sentiment d’être tenus à l’écart. Tous les parents nous ont confié leur sentiment d’impuissance face à la situation de leurs enfants et fait savoir qu’ils manquaient cruellement d’outils pour les accompagner et les interroger efficacement, se retrouvant ainsi isolés dans cette épreuve. Un autre point essentiel qui est ressorti de nos échanges est cette impression que ni le corps enseignant ni les professionnels de santé ne prenaient pleinement conscience de l’omniprésence des réseaux sociaux, en particulier de TikTok, dans la vie des jeunes. Cette lacune semble découler d’un manque de formation ou de sensibilisation des professionnels eux-mêmes.

En effet, lors des consultations pour mal-être ou problèmes de santé mentale, les questions relatives à l’usage des réseaux sociaux ne sont pas systématiquement posées aux jeunes. Pourtant, bien que ces plateformes ne soient pas nécessairement à l’origine du mal-être, elles jouent indéniablement un rôle d’amplificateur et contribuent à enfermer les jeunes dans leur détresse. Pourriez-vous nous faire part de votre réaction face à ces constats ?

M. Bruno Gameliel. Vos observations mettent en lumière la complexité de la situation. TikTok, application relativement récente, a malheureusement des effets délétères et engendre des biais cognitifs évidents, avec parfois des conséquences tragiques pour les mineurs. Cela s’explique en partie par le fait que leur développement cérébral n’est pas achevé, la maturité cérébrale n’étant atteinte qu’entre vingt et vingt-cinq ans.

Votre constat sur le manque d’information et de communication entre les différents acteurs est particulièrement pertinent. Je suis d’ailleurs actuellement en déplacement en Europe pour donner des conférences sur la psychopédagogie et l’importance cruciale des liens entre les différents acteurs de l’apprentissage, à la fois les apprenants eux-mêmes, mais également le corps enseignant et les parents.

Il est important de souligner que la psychologie, discipline pourtant essentielle pour aborder ces problématiques, est souvent mal comprise et parfois rejetée. La psychopédagogie, une branche spécifique de la psychologie, reste largement méconnue du grand public. La psychologie a, en outre, tendance à être peu associée au domaine pathologique, alors qu’elle s’intéresse en réalité à l’étude de l’esprit dans sa globalité et vise l’optimisation globale des capacités de tous les individus.

Ce manque d’information et cette appréhension biaisée de la psychologie constituent donc un véritable obstacle. Dans mes interventions en milieu universitaire et scolaire, je constate parfois une réticence à intégrer l’approche psychologique, alors même que les fondements de l’école moderne reposent sur les travaux de médecins-psychologues tels que Piaget, Wallon et Vygotsky. Ces derniers ont étudié les processus de développement de l’enfant, contribuant ainsi à l’élaboration des courants pédagogiques actuels.

Face à ces défis, nous avons développé un programme de thérapie cognitivo-comportementale complémentaire d’optimisation scolaire et universitaire. Cette approche prend en compte l’apprenant dans sa globalité, contrairement aux approches traditionnelles souvent cloisonnées entre médecine, psychologie et soutien scolaire. Notre méthode vise à créer une synergie entre ces différents aspects pour obtenir des résultats probants.

Concernant les effets cognitifs potentiels de TikTok, vous avez raison de souligner leur importance. Bien que les études sur ce sujet nécessitent encore du temps pour être pleinement évaluées, un consensus se dégage, selon lequel TikTok agit comme un amplificateur des difficultés psychologiques préexistantes, particulièrement chez des personnes déjà vulnérables.

Dans ma pratique, qu’elle soit curative ou préventive, j’interviens auprès de profils variés présentant des singularités ou des problématiques neurologiques. Cela inclut les troubles de l’attention avec ou sans hyperactivité (TDAH), les troubles « dys » (dysphasie, dyslexie, dysorthographie, dyspraxie, etc.), les phobies scolaires et sociales, ainsi que les enfants à haut potentiel. Pour tous ces profils, l’usage intensif des écrans, et particulièrement de TikTok, accentue les difficultés existantes.

Parmi les effets observés, nous notons une diminution de la concentration, une recherche de gratification immédiate et une réduction de la tolérance à l’ennui. Ce dernier point est particulièrement préoccupant car, contrairement à ce que nous laisse penser notre société de consommation du bien-être, l’ennui joue un rôle fondamental dans le développement cognitif. Il permet l’activation du « mode par défaut » du cerveau, une zone neuronale qui s’active lorsque les autres régions du cerveau sont en veille, essentielle à la mémorisation, au développement de certaines émotions telles que la compassion et l’empathie et à la consolidation des apprentissages. Ce mode est particulièrement actif pendant le sommeil, soulignant l’importance d’un repos adéquat. Il est essentiel de comprendre que ces comportements induits chez les mineurs entraînent des répercussions directes sur leur développement cérébral, d’autant plus que la plasticité cérébrale est particulièrement élevée durant l’enfance et la préadolescence.

Le développement exponentiel de certaines hormones, notamment la sérotonine et la dopamine, crée ce que nous appelons les phases sensibles du développement, des périodes marquées par une certaine fragilité dans le processus de maturation cérébrale. Les récepteurs sensoriels, en captant des informations, modulent les connexions neuronales et créent des ancrages mémoriels, influençant ainsi les comportements futurs. Des études démontrent également un impact significatif sur la mémoire de travail, dont l’utilisation de TikTok, avec son défilement rapide de contenus, compromet le fonctionnement optimal. Par conséquent, la mémoire de stockage, qui lui est étroitement liée, se trouve également affectée. Le circuit neuronal se trouve ainsi considérablement simplifié, ne sollicitant qu’une attention visuelle basique. Les fonctions exécutives, telles que les capacités d’inhibition et de réflexion, normalement assurées par le cortex frontal et préfrontal, sont largement absentes lors de l’utilisation de ces applications. La répétition quotidienne de ce comportement crée une habitude et un rythme cérébral spécifique à l’utilisation des écrans, particulièrement de ce type d’application.

Une étude italienne de 2021 met en évidence l’impact de ces pratiques sur différents aspects de la mémoire, notamment en ce qui concerne la gestion des éléments de distraction. Un enfant fréquemment exposé à TikTok développera ainsi une propension accrue à la distraction lorsqu’il devra mobiliser ses capacités cognitives dans d’autres contextes, comme dans le cadre scolaire.

Concernant les effets émotionnels et sociaux de TikTok, cette application peut engendrer de l’anxiété chez les utilisateurs, qui peut parfois évoluer vers des états dépressifs. Elle peut également induire des complexes d’infériorité et une perception déformée de la réalité, particulièrement chez les mineurs. Ces effets sont exacerbés par l’exposition à des contenus inappropriés, hypersexualisés ou empreints de violence verbale et visuelle, susceptibles de perturber profondément les plus jeunes.

La pression sociale exercée est également considérable, notamment en ce qui concerne l’image de soi. À un âge où la construction identitaire est cruciale, cette pression peut entraîner des conséquences délétères sur le développement psychologique des adolescents. Dans certains cas extrêmes, l’application peut même encourager des comportements ou actes dangereux, tels que l’automutilation ou les idées suicidaires. La pratique de la scarification, malheureusement observée chez les préadolescents, est un exemple alarmant de ces dérives.

Paradoxalement, bien que TikTok prétende favoriser les interactions sociales, il tend en réalité à réduire les liens sociaux authentiques, alors que le contact virtuel ne saurait se substituer aux interactions présentielles, fondamentales pour un développement social équilibré.

L’application peut également contribuer au développement de troubles de la perception corporelle, pouvant mener à des désordres alimentaires, comme pourront vous le confirmer pédopsychiatres et nutritionnistes.

TikTok favorise par ailleurs une comparaison constante entre les utilisateurs, exacerbant le narcissisme et la vanité au détriment de valeurs plus profondes. L’importance excessive accordée aux apparences peut engendrer une addiction comportementale, créant un cercle vicieux dont il devient difficile de s’extraire.

Pour terminer, certains défis viraux, tels que le « Blackout challenge » consistant à se priver d’air jusqu’à l’évanouissement, représentent un danger réel pour la vie des jeunes utilisateurs.

En conclusion, les effets délétères de TikTok sont multiples, touchant aussi bien la sphère émotionnelle et sociale que les fonctions cognitives des utilisateurs, avec des conséquences potentiellement graves sur leur développement et leur bien-être.

Mme Laure Miller, rapporteure. En tant que professionnel, estimez-vous qu’il existe un âge consensuel, fondé sur l’analyse des professionnels de santé, en dessous duquel l’accès aux réseaux sociaux devrait être interdit ? Cet âge serait déterminé par la capacité de l’enfant à discerner et à faire face à la nocivité potentielle de ces plateformes.

M. Bruno Gameliel. En m’appuyant sur diverses études, mes recherches personnelles et mon expérience de praticien, je préconise une augmentation significative de l’âge minimal d’accès aux réseaux sociaux, qui prenne en compte les étapes du développement cérébral. Jusqu’à l’âge de six ans, l’enfant est dans ce que nous appelons le « mode marionnette », les régions postérieures et inférieures du cerveau, responsables de la motricité, de la vision et de l’audition, se développant prioritairement. Les fonctionnalités exécutives, liées à la concentration, à l’attention volontaire ou à l’inhibition, ne sont quant à elle pas pleinement opérationnelles avant l’âge de six ou sept ans. Considérant que les applications telles que TikTok tendent à détériorer ces fonctions cognitives déjà fragiles, il est impératif d’attendre une certaine maturité cérébrale avant d’y exposer les enfants.

Mon point de vue s’aligne sur les pratiques de certains pays qui interdisent l’utilisation des réseaux sociaux jusqu’à l’âge de quinze ou seize ans. Cette position s’appuie sur l’observation des effets néfastes de l’utilisation intensive des écrans sur les performances scolaires, particulièrement dans certaines matières. Je recommanderais donc d’interdire totalement les écrans jusqu’à l’âge de six ans, puis de mettre en place une régulation stricte au-delà. Je serais d’ailleurs heureux d’accompagner, sur la base de mes recherches, le travail qui sera mené dans le cadre de votre futur rapport.

Il est important de souligner que l’action doit être multimodale. En tant que législateurs, vous avez un rôle primordial à jouer en définissant un cadre clair pour l’école et les parents. Les professionnels tels que moi peuvent ensuite accompagner la mise en œuvre de ces directives. Les parents, souvent démunis face à ces enjeux, ont besoin d’informations claires et d’un cadre réglementaire précis. Je plaide donc pour l’établissement de règles et d’une réglementation sans ambiguïté. Il est également nécessaire de réguler et de modérer strictement ces applications et les entreprises qui les développent car, sans ces mesures, il sera extrêmement difficile de protéger efficacement nos jeunes.

M. le président Arthur Delaporte. Je vous remercie pour votre engagement et vous invite à compléter nos échanges en transmettant à notre secrétariat tout complément d’information que vous jugeriez pertinent pour les travaux de cette commission d’enquête.

 

La séance s’achève à douze heures vingt-cinq.


Membres présents ou excusés

 

Présents.  M. Arthur Delaporte, Mme Laure Miller, M. Thierry Perez