Compte rendu

Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs

– Audition commune, ouverte à la presse, des co-présidents de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans (2024) :              2

• Professeur Amine Benyamina, addictologue et psychiatre

• Docteur Servane Mouton, neurologue et neurophysiologiste

– Audition, ouverte à la presse, de M. Mehdi Mazi, co‑fondateur du collectif d’aide aux victimes d’influenceurs (AVI), et M. Jean-Baptiste Boisseau, membre chargé des projets espaces de discussion en ligne, relations presse              12

– Audition, ouverte à la presse, de M. Martin Ajdari, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), M. Alban de Nervaux, directeur général, et Mme Lucile Petit, directrice des plateformes en ligne              22

– Présences en réunion................................35


Mardi
20 mai 2025

Séance de 15 heures

Compte rendu n° 13

session ordinaire de 2024-2025

Présidence de
M. Arthur Delaporte,
Président de la commission
Puis M. Pouria Amirshahi,
Vice-président

 


  1 

La séance est ouverte à quinze heures.

 

La commission auditionne conjointement le Professeur Amine Benyamina, addictologue et psychiatre, et le Docteur Servane Mouton, neurologue et neurophysiologiste, co-présidents de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans (2024).

M. le président Arthur Delaporte. Nous recevons à l’occasion de cette nouvelle audition de notre commission d’enquête les coprésidents de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans : le professeur Amine Benyamina, addictologue et psychiatre, et le docteur Servane Mouton, neurologue et neurophysiologiste, qui s’exprimeront l’un et l’autre à distance, et dont les travaux ont abouti à la rédaction d’un rapport remis au président de la République en avril 2024.

Avant de vous céder la parole pour un propos liminaire, Pr Benyamina et Dr Mouton, je vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Le professeur Amine Benyamina et le docteur Servane Mouton prêtent serment.)

Dr Servane Mouton, neurologue et neurophysiologiste, co-présidente de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans. Bien que votre commission ait déjà mené de nombreuses auditions, il me semble important de rappeler en premier lieu le contexte de notre intervention. La santé mentale des jeunes de moins de 25 ans connaît une détérioration significative depuis 2012, tendance qui s’est accentuée avec la pandémie de covid-19. Cette dégradation coïncide avec la diffusion massive des réseaux sociaux.

L’objet de votre commission d’enquête se rapporte à la seule plateforme TikTok, mais il convient de souligner que les problématiques liées au design non éthique sont communes à l’ensemble des réseaux sociaux. Certes, il est permis de considérer que TikTok se distingue par son efficacité à capter l’attention, mais les autres plateformes ne sont pas exemptes de critiques.

Au-delà de la discussion, qu’il reste à mener, sur les éventuels bénéfices de l’usage des réseaux sociaux en termes de connexion sociale et de lutte contre l’isolement, il nous semble essentiel d’appréhender le fond du problème, à savoir la conception et le design des réseaux sociaux en général et de TikTok en particulier, basés sur l’économie de l’attention et la monétisation des données personnelles à des fins publicitaires. La viabilité de leur modèle économique suppose de maximiser le temps passé en ligne et la fréquence des connexions, tout en encourageant les achats via des micro-transactions.

Avant d’aborder les questions relatives à la santé mentale, il importe de rappeler les conséquences préoccupantes sur la santé physique de l’utilisation intensive des réseaux sociaux. De manière générale, les activités sur écran favorisent la sédentarité et augmentent ainsi les risques d’accidents cardiovasculaires, d’obésité et de diabète de type 2. Lorsqu’elles empiètent sur les heures de sommeil, voire qu’elles interrompent le sommeil – et il faut avoir à l’esprit que certains adolescents vont jusqu’à régler leur réveil pour participer à des défis au milieu de la nuit – elles en compromettent la qualité et la quantité. Or le sommeil est déterminant sur le plan de la santé globale, la dette chronique de sommeil étant susceptible de favoriser les maladies cardiovasculaires, le surpoids, l’obésité, les infections et de nombreuses autres pathologies. En outre, les activités sur écran perturbent évidemment les apprentissages, en particulier la mémorisation et les capacités de concentration, tant celles des élèves que celles des adultes.

Enfin, l’activité sur écran, en particulier lorsqu’elle est pratiquée en intérieur, n’est pas sans effet sur la vision puisqu’elle en favorise notamment la myopie en raison du manque d’exposition à la lumière naturelle, de la surexposition à la lumière bleue émise par les écrans de type LED, et de la sursollicitation de la vision de près.

Bien entendu, l’enjeu principal, sur lequel nous avons mis l’accent dans notre rapport, se rapporte aux effets potentiels des réseaux sociaux sur la santé mentale, mais nous aborderons ce point plus en détail. Je conclurais provisoirement en rappelant que la responsabilité première des méfaits des plateformes incombe aux industriels qui les conçoivent, et qu’il appartient selon nous au législateur de réguler ces pratiques aux conséquences délétères.

Pr Amine Benyamina, addictologue et psychiatre, co-président de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans. Le rapport que nous avons remis au président de la République est l’aboutissement de treize mois de travail. Il aborde notamment la question de l’addiction potentielle aux réseaux sociaux, chez les jeunes et les moins jeunes. Notre avis relatif à cette problématique est empreint de nuance et de prudence.

Sur le plan clinique, je constate dans mon service d’addictologie la présence de nombreux jeunes dépendants aux réseaux sociaux, à TikTok en particulier, dont l’algorithme est particulièrement addictogène. Nous les prenons en charge de manière similaire aux addictions aux substances comme le cannabis ou l’alcool. Ces cas se caractérisent rarement par une consommation isolée des réseaux sociaux et s’accompagnent souvent d’effets délétères, tant métaboliques que psychologiques : anxiété, insomnie, dépression, difficultés relationnelles. Nous traitons donc cette problématique dans un cadre global de psychologie, de psychiatrie ou de psychoaddictologie de l’adolescent ou du jeune adulte.

Sur le plan académique, en revanche, l’addiction aux écrans ou aux réseaux sociaux n’est pas officiellement reconnue dans les classifications internationales. Seul le jeu pathologique a été reconnu comme une addiction comportementale, et ce après de longues discussions.

Cette dichotomie entre la réalité clinique et les classifications officielles est courante dans l’évolution de notre compréhension des addictions. Des études à grande échelle seront nécessaires pour éventuellement inclure la consommation des réseaux sociaux dans le cadre général des addictions, de la même manière qu’une discussion est actuellement conduite à propos des troubles du comportement alimentaire. En attendant, nous traitons cliniquement cette problématique comme une addiction.

M. le président Arthur Delaporte. Je tiens d’abord à vous remercier pour la qualité de vos travaux, qui ont considérablement guidé notre réflexion. La lecture de votre rapport a fourni une base solide à notre commission, lui permettant d’optimiser son temps et de se concentrer sur des aspects complémentaires.

Nous avons particulièrement apprécié votre approche consistant à donner la parole aux jeunes. Nous aurions d’ailleurs souhaité reproduire plus amplement cette démarche dans le cadre de notre commission. Il importe en effet de ne pas traiter la question des réseaux sociaux uniquement d’un point de vue adulte, surtout lorsqu’il s’agit d’expériences vécues. Nous avons également cherché à intégrer les perspectives de sociologues spécialisés dans les usages du numérique pour enrichir notre compréhension.

Mme Laure Miller, rapporteure. Je m’associe aux remerciements du président pour ce rapport qui connaît une nouvelle actualité à l’occasion de l’anniversaire de sa remise. Cette actualité reflète l’importance croissante du sujet des réseaux sociaux dans le débat public.

Vous avez évoqué la logique des réseaux sociaux, l’économie de l’attention et leur impact sur la santé des enfants. Votre rapport a été révélateur à cet égard. Cependant, estimez-vous que la prise de conscience vis-à-vis de ces sujets soit suffisante dans notre société ? N’existe-t-il pas un écart significatif entre, d’un côté, les parents et les professionnels de santé bien informés, et de l’autre une large partie de la population qui ignore ces effets et donne sans arrière-pensées des téléphones à de très jeunes enfants ? Ne conviendrait-il pas d’envisager une communication massive afin de diffuser largement les conclusions de votre rapport ?

J’aimerais ensuite vous poser une série de questions qui me sont venues à l’esprit après notre récente audition de familles de victimes, principalement de jeunes filles dont certaines se sont suicidées. Ces familles engagent actuellement des procédures judiciaires pour établir la responsabilité de TikTok dans les tragédies qu’elles ont vécues.

Premièrement, de nombreuses familles nous ont rapporté que, bien que leurs enfants aient été suivis en raison de leurs problèmes de santé mentale par des professionnels de santé, la question de l’utilisation des réseaux sociaux, en particulier de TikTok, n’a jamais été abordée. Cette omission est frappante, comme un éléphant au milieu de la pièce que personne ne voudrait voir. Ne devrions-nous pas envisager une communication plus ciblée auprès des professionnels de santé pour les inciter à interroger systématiquement les jeunes en difficulté sur leur usage des réseaux sociaux ? De manière plus générale, pensez-vous que les professionnels de santé eux-mêmes soient suffisamment sensibilisés à ce sujet ?

Deuxièmement, nous avons entendu lors des auditions, et parfois directement de la bouche des jeunes, l’argument selon lequel les réseaux sociaux représentent pour eux une forme de refuge ou de divertissement essentiel. Ils s’interrogent sur ce qui pourrait remplacer ces plateformes si on les leur retirait. Comment réagissez-vous à cet argument ? Quelle est votre analyse de cette perception des réseaux sociaux comme alternative nécessaire à un manque de divertissement ?

Troisièmement, vous préconisez dans votre rapport une approche progressive de l’accès aux écrans et à leurs usages pour les mineurs en fonction de leur âge. Vous parlez d’une « conquête progressive de leur autonomie numérique ». Comment envisagez-vous la mise en œuvre de cette progressivité face à l’attitude pour le moins peu coopérative des plateformes, notamment de TikTok, lorsqu’il s’agit de respecter un âge minimum ou de modérer les contenus ? Par ailleurs, vous évoquez un accès limité, à partir de 15 ans, aux réseaux sociaux, mais uniquement à ceux dont la conception serait éthique. Pouvez-vous développer ce concept de « réseaux sociaux éthiques » ? Est-ce une utopie ou une réalité envisageable ? Quelles sont vos recommandations concrètes à ce sujet ?

Pr Amine Benyamina. Lorsque le président de la République nous a chargés de constituer cette commission, je dois admettre que j’ignorais l’ampleur du problème lié aux écrans. J’ai découvert un gouffre entre ma perception initiale et la réalité de cette problématique. Je me considérais pourtant comme une personne de bonne foi, pensant tout au plus que les écrans n’étaient qu’une distraction excessive éloignant nos enfants de la réalité. En vérité, il s’agit d’un monde dont les adultes sont souvent exclus, et auquel ils s’intéressent d’ailleurs très peu. Cette prise de conscience s’est particulièrement accentuée à la faveur des témoignages de parents ayant perdu leurs enfants, et qui établissaient un lien direct entre cette perte et ces machines de captation qui broient les plus jeunes.

Depuis la publication de notre rapport, je constate qu’un changement significatif s’est opéré dans la perception collective de ce phénomène. Depuis deux décennies est arrivé entre nos mains un objet révolutionnaire qui a indéniablement facilité nos vies. La société s’est naturellement focalisée sur les aspects positifs de cette révolution. Et aujourd’hui nous nous réveillons et nous découvrons que l’explosion des capacités techniques et technologiques des téléphones a généré des effets pervers considérables.

Lorsque l’humanité s’intéresse à un nouvel outil ou un nouveau canal de communication, la question du profit ne tarde jamais à se poser. C’est précisément ce que les plateformes ont orchestré : une opération de captation massive, ciblant d’abord les enfants, puis s’étendant aux adultes. Cette prise de conscience est en cours, et votre commission contribuera, je l’espère, à l’amplifier.

Aujourd’hui, lorsque l’on interroge les parents ou les adultes, ils évoquent presque systématiquement un jeune de leur entourage confronté à des difficultés liées à l’usage du téléphone portable. Sans nécessairement parler d’addiction, il est clair qu’un problème s’est immiscé dans l’intimité des familles. Cet objet, censé faciliter la vie, grignote insidieusement notre existence et notre liberté.

TikTok incarne à lui seul tous les aspects négatifs que nous dénonçons. Son algorithme, conçu pour une captation maximale, ne fait pas mystère de ses objectifs finaux : attirer un maximum d’utilisateurs, jeunes et moins jeunes, pour vendre du temps, de l’attention, de l’accaparement. Aucune considération éthique n’entre en jeu ni dans sa conception ni dans les contenus parfois sordides qu’il fait circuler.

Les jeunes se trouvent dans une situation paradoxale. Comme nous l’avons souligné dans notre rapport, peut-être de manière trop discrète, l’espace dans lequel nous vivons est devenu essentiellement un espace d’adultes. Nous avons progressivement évincé les jeunes de notre espace commun, multipliant les lieux et les moments où ils ne sont pas les bienvenus. L’espace de l’échange est devenu adultomorphique et, face à cette exclusion, les jeunes se sont réfugiés dans un espace virtuel où ils se retrouvent entre eux, devenant captifs de ces plateformes.

Dans ce contexte, la parole ou l’image émanant de l’écran acquiert souvent plus de poids que celle de l’adulte. Plus inquiétant encore, et contrairement aux affirmations des parents et des adultes, les contenus diffusés par ces appareils ne sont généralement ni discutés ni remis en question par les jeunes utilisateurs. Aussi la question de l’accès des mineurs aux réseaux sociaux constitue un enjeu éthique majeur sur lequel nous avons, en tant qu’adultes, l’obligation morale de nous pencher sérieusement.

Il convient de rappeler que les plateformes disposent des capacités techniques nécessaires pour mettre en œuvre les préconisations et les lois qui pourraient émaner de votre commission, en particulier sur la progressivité de l’accès en fonction de l’âge. Cependant, elles font preuve d’une réelle mauvaise foi. Ainsi l’interdiction aux moins de 13 ans ne semble être énoncée que pour ne pas être respectée. Nous savons pertinemment que la majorité numérique est fixée à 15 ans dans de nombreux pays, et cette limite pourrait parfaitement être appliquée d’un point de vue technique, quoi que prétendent les plateformes. Celles-ci s’efforcent, au mieux, de donner quelques gages de bonne volonté. Elles mettent en avant quelques vœux pieux sur la responsabilité et la liberté, mais se contentent en réalité de renvoyer à la responsabilité des parents de mineurs. Aussi, soyons certains que les plateformes n’agiront de leur propre chef qu’à la condition d’y être contraintes.

J’insiste : les plateformes disposent de toutes les capacités requises pour mettre en place les mesures requises par un fonctionnement éthique. Et je pense qu’il convient d’appréhender la promotion de plateformes éthiques de manière très pragmatique, en insistant sur les profits financiers qu’elles seraient susceptibles de représenter. En effet, si un grand nombre d’utilisateurs migrent vers ces réseaux éthiques au détriment des réseaux non éthiques, les annonceurs suivront naturellement cette tendance, et les profits également.

Dr Servane Mouton. J’aimerais insister, pour répondre à votre première question et compléter les propos du Pr Benyamina, sur le besoin de formation des soignants. Actuellement, la formation relative à l’usage des écrans, quel que soit l’âge de l’enfant ou de l’adolescent, n’est pas structurée. Elle dépend entièrement de l’initiative personnelle du praticien, qui doit trouver ses propres ressources en l’absence d’un cadre officiel, tant en termes de formation que de documentation. Un besoin massif de formation se fait donc sentir, qui concerne les médecins généralistes, les psychiatres et les psychologues. Si l’on considère également la petite enfance, il convient d’y ajouter les pédiatres et l’ensemble du personnel en lien avec les jeunes enfants, notamment les éducateurs. Les assistantes maternelles semblent quant à elles mieux sensibilisées à ces questions. En somme, une formation approfondie et homogène de toutes les professions liées à l’enfance s’avère nécessaire, car la situation actuelle est très hétérogène, avec des messages et des ressources qui varient considérablement selon la personne qui les dispense, faute de lignes directrices clairement définies.

La remarque relative au manque d’alternatives aux réseaux sociaux appelle une réflexion sociétale plus large. En examinant l’évolution des réseaux sociaux, on constate qu’ils se sont éloignés de leur objectif initial de mise en relation des individus pour devenir de véritables machines à profit. TikTok, en particulier, se distingue par un système de recherche et développement extrêmement dynamique, proposant constamment de nouvelles fonctionnalités et diversifiant son offre commerciale. Cela en fait un support publicitaire redoutablement puissant.

Les raisons pour lesquelles les gens utilisent les réseaux sociaux sont multiples et dépendent de facteurs tels que la personnalité, le profil psychologique et les circonstances de vie. TikTok semble avoir la capacité de répondre à une grande variété de besoins : socialisation, reconnaissance, élargissement du réseau social, positionnement au sein d’un groupe, information, expression créative, divertissement, apaisement de l’anxiété par des contenus légers, ou encore procrastination. Cette polyvalence en fait un outil puissamment attractif.

Cependant, la motivation première de TikTok n’est pas le bien-être de ses utilisateurs, elle a pour finalité unique le profit. La plateforme a développé un modèle économique extrêmement lucratif basé sur de nombreux systèmes publicitaires : marques thématiques, publicités entre les vidéos, placements de produits, filtres de marque, partage facilité sur d’autres réseaux sociaux pour recruter de nouveaux utilisateurs, publicités sur d’autres médias, et partenariats commerciaux avec de grandes enseignes, comme Walmart aux États-Unis, permettant des achats directs via l’application. Il est également possible d’acheter des cadeaux virtuels pour les influenceurs que l’on apprécie. Ces cadeaux sont ensuite convertis en monnaie réelle, générant un chiffre d’affaires estimé à 1,9 milliard de dollars en 2023. Cette stratégie commerciale agressive, dénuée de considérations éthiques pour la santé et le bien-être des utilisateurs, transforme ces plateformes en outils d’une puissance quasi incontrôlable et soulève immanquablement des questions éthiques relatives à leur impact sur les jeunes utilisateurs.

L’efficacité de TikTok repose sur son algorithme sophistiqué, qui lui permet de proposer un contenu personnalisé. Des études montrent que notre cerveau réagit différemment à ce type de contenu, parce qu’il stimule ce qu’on appelle le réseau du mode par défaut, c’est-à-dire les régions cérébrales actives lorsque le cerveau est au repos et n’est pas sollicité par le monde extérieur. Le flux de vidéos courtes intitulé « Pour toi », flux continu, permanent, infini, crée une distorsion temporelle et un état de flottement où l’utilisateur perd la notion du temps. Le système de récompense aléatoire, avec des vidéos particulièrement appréciées qui apparaissent de façon imprévisible, renforce le caractère addictif de l’application.

La brièveté des vidéos, généralement de 10 à 15 secondes, permet à l’algorithme de proposer rapidement un contenu très personnalisé. En une heure, l’utilisateur peut visionner un nombre considérable de vidéos, ce qui affine encore la personnalisation. Cette plateforme devient ainsi un lieu où l’on peut satisfaire tous nos besoins sociaux, puisqu’elle cherche à stimuler précisément le système de récompense de notre cerveau. De la sorte, elle coupe l’envie de s’extraire de ce monde virtuel dans lequel on est immergé pour rechercher d’autres sources de satisfaction, puisqu’il récompense notre cerveau sans aucun effort et en un clic.

Une application telle que TikTok, conçue autour de la captation de l’attention, motivée par le seul profit et dépourvue de toute forme de questionnement éthique, conduit naturellement à des excès d’utilisation. Il est par conséquent indispensable non seulement de contraindre ces plateformes à adopter des pratiques plus vertueuses, mais aussi de proposer des alternatives suffisamment attrayantes pour extraire les utilisateurs de cet univers numérique si attractif. À cet égard, j’aimerais mentionner une étude récente menée en France, qui illustre l’importance des alternatives concrètes. Dans un quartier d’habitations à loyer modéré, des installations rudimentaires pour des activités physiques et sportives ont été mises en place durant les vacances scolaires. Les premiers jours, personne ne s’y est intéressé. Puis les gens ont commencé à s’y retrouver, et le lieu n’a pas désempli pendant la seconde semaine. Ces infrastructures simples et peu coûteuses ont incité les habitants du quartier à diversifier leurs activités quotidiennes.

M. le président Arthur Delaporte. Cette initiative rappelle la proposition émise par Serge Tisseron lors de son audition, à propos de l’aménagement de terrains vagues dans les villes, une solution efficace et peu onéreuse.

Pr Amine Benyamina. Deux caractéristiques rendent TikTok particulièrement addictif. Premièrement, son puissant algorithme cible avec précision les préférences individuelles, en se concentrant sur les aspects plaisants. C’est le principe même de l’addiction : on commence par le plaisir, puis on se retrouve enfermé dans une dépendance. Deuxièmement, ses contenus éphémères, fugaces, sont pareils à la cigarette ou au shoot : la brièveté et la répétitivité des vidéos stimulent intensément et constamment le système de récompense du cerveau. Ces deux éléments ne sont pas le fruit du hasard, mais bien le résultat d’une conception délibérée.

Mme Sophie Taillé-Polian (Écos). Je tiens d’abord à vous remercier, Pr Benyamina et Dr Mouton, pour votre travail considérable.

Votre rapport et vos interventions publiques ont suscité un débat de société. Cependant, il me semble que ce débat est pour une part importante un débat générationnel. De manière générale, les jeunes sont conscients du danger que représentent les substances addictives. La dangerosité des plateformes numériques n’est, en revanche, pas reconnue par les 10-25 ans. Lorsqu’on aborde ce sujet avec eux, on est rapidement taxé de ringardise, catalogué comme dépassé et incapable de comprendre le monde contemporain. Dès lors, comment convaincre les jeunes de la réalité des risques pour leur santé ? Vous avez évoqué la formation des soignants et des encadrants, mais ne faudrait-il pas également sensibiliser directement les jeunes en communiquant davantage sur les dangers ? La série Dopamine, diffusée sur Arte, est un excellent exemple de contenu pédagogique, expliquant le fonctionnement de chaque application et son impact sur le système de récompense du cerveau. Malheureusement, ce type de contenu reste rare.

Dr Servane Mouton. La prévention contre les risques inhérents au numérique et aux réseaux sociaux se heurte à un discours convenu sur le conflit générationnel et le caractère inévitable du progrès. Ces arguments paralysent toute volonté de changement. Dès lors, il est déterminant de rappeler que nous ne sommes pas dépouillés de notre capacité à opérer des choix, et que des alternatives sont possibles. Nous pourrions envisager un modèle différent de réseaux sociaux, adapter l’usage de certains produits selon l’âge et les individus, ou encore limiter la présence d’écrans dans certains espaces, notamment ceux fréquentés par les enfants. Il s’agit avant tout d’une question de volonté et de décision collective. Le discours fataliste sur le progrès nous empêche d’évoluer et de reprendre le contrôle de nos choix.

Cela étant dit, n’oublions pas que l’expérience en santé publique montre que la seule information sur la nocivité d’un produit ne suffit pas à modifier les comportements. Si tel était le cas, nous n’aurions plus de problèmes d’obésité, de consommation excessive de produits transformés, de tabagisme ou d’alcoolisme. C’est la raison pour laquelle les produits à fort potentiel addictif, tels que les réseaux sociaux ou les jeux vidéo en ligne, qui stimulent intensément le système de récompense du cerveau, nécessitent une régulation stricte pour espérer un changement de comportement.

En outre, la reconnaissance d’une addiction et de ses effets néfastes peut prendre du temps. L’exemple de la cigarette, dont la dangerosité n’a été pleinement reconnue qu’après près d’un siècle, illustre bien ce phénomène. Ce délai s’explique par la lenteur du processus scientifique et par un lobbying intense adossé à des enjeux financiers colossaux.

La discussion autour du principe de précaution et du niveau de preuve nécessaire pour agir relève de décisions politiques. La difficulté est d’autant plus grande avec les technologies numériques qui évoluent à une vitesse fulgurante. Les usages se transforment constamment, avec de nouvelles applications et de nouveaux produits apparaissant régulièrement. La science peine à suivre ce rythme, accumulant des années de retard dans l’évaluation des effets. Cette situation complexifie et retarde considérablement la mise en place de régulations efficaces.

Pr Amine Benyamina. Rien n’interdit de multiplier les approches de ce sujet qui comporte de multiples facettes et se rapporte à des aspects légaux, législatifs, juridiques, intimes et sanitaires. Je pense par exemple au nécessaire et minutieux travail à mener sur l’imputabilité de cas de suicides aux réseaux sociaux. Parce que les plateformes n’hésiteront pas à se défendre et à rejeter toute forme de responsabilité, il est essentiel d’affirmer clairement la définition de l’addiction ainsi que le lien de causalité direct, notamment en vue des enjeux de réparation.

En parallèle, entamons un travail d’information auprès des populations de France et d’ailleurs. Le président de la République a souligné l’importance de notre rapport, qui pourrait avoir un impact à l’échelle européenne et mondiale. Nous pouvons d’ores et déjà mettre en place des mesures de bon sens, d’information et de limitation. En outre, s’il est bien entendu difficile de questionner des pratiques au sein des familles, notre rapport est accessible sur le site de l’Élysée, et les particuliers peuvent le télécharger et s’en inspirer pour appréhender le sujet dans leur foyer.

M. Arnaud Saint-Martin (LFI-NFP). Pr Benyamina, je suis curieux de connaître l’état de l’art en psychiatrie sur ces questions, et de savoir dans quelle mesure nous disposons aujourd’hui de réponses concrètes pour traiter ces problèmes. L’étiologie des troubles addictifs liés aux réseaux sociaux suscite des controverses au sein de la communauté psychiatrique. Vous avez évoqué des enjeux de classification, probablement liés à des critères spécifiques pour établir un tableau clinique. Les psychiatres s’accordent-ils sur une approche ? Où en est-on aujourd’hui dans l’établissement du diagnostic ? Ce sujet est-il au cœur des congrès de psychiatrie internationaux ?

Ensuite, j’aimerais en apprendre davantage sur les stratégies de traitement adoptées en psychiatrie. Quelles sont les approches privilégiées pour faire face aux comportements particulièrement exposés à l’addiction, en particulier chez les adolescents ? Je m’interroge également sur la durabilité de la guérison. Ces addictions créent-elles des habitudes cognitives profondément ancrées qui pourraient se reporter sur d’autres formes d’addiction ? En d’autres termes, dans quelle mesure ces expériences peuvent-elles conduire à d’autres addictions durables ?

Pr Amine Benyamina. En psychiatrie, les classifications sont rigides mais ne nous empêchent nullement de prendre en charge nos patients comme nous le faisons pour toute problématique lorsque les dommages sont avérés. L’addiction se définit à la fois par ses critères et ses conséquences. Lorsqu’un individu présente une désocialisation, une déscolarisation, des conflits familiaux, des troubles du sommeil, une obsession pour son appareil numérique ou son ordinateur, une immersion excessive dans les réseaux sociaux, et que les parents décident de consulter un spécialiste, nous le prenons en charge comme pour toute autre addiction. Autrement dit je n’attends pas, en tant que praticien, que soient établis des critères formels pour initier une prise en charge.

Il convient en effet de distinguer les critères théoriques et la réalité clinique. Dans la pratique, les parents viennent nous consulter lorsqu’ils sont dépassés par la situation. Leur premier interlocuteur est généralement un professionnel de santé – médecin de famille, neurologue, psychiatre, psychologue – autant qu’il se montre capable de comprendre leur préoccupation et les difficultés de l’enfant à exprimer sa dépendance ou ses problèmes quotidiens liés à sa consommation numérique.

De manière générale, le débat sur l’étiologie existe au sein de la communauté des psychiatres. Il est fort probable qu’à l’avenir une classification intègre les comportements d’addictions aux plateformes. J’en suis personnellement convaincu car nous disposons de tous les éléments nécessaires. En attendant, notre approche clinique fonctionne car elle repose sur une éthique : nous ne pouvons laisser les personnes en difficulté sans assistance.

Le soin découle naturellement de cette approche. Il s’agit d’une prise en charge globale, bio-psycho-sociale. Les mesures sociales consistent à conseiller une limitation de la consommation, à dialoguer avec le système familial – ce que nous appelons la thérapie systémique, impliquant parents et enfants – afin d’éviter les conflits et l’éclatement du noyau familial. Ce point est particulièrement important car il existe souvent un attachement viscéral au produit, à la fois en raison d’une véritable dépendance et parce que l’adolescent ou l’enfant a évolué dans un système avec ses pairs où la virtualité est devenue sa réalité. Leur demander simplement de sortir jouer dehors n’est plus adapté à leur réalité sociale.

Avant de mettre en place cette stratégie bio-psycho-sociale, nous effectuons un bilan approfondi. Celui-ci est déterminant car de nombreuses pathologies psychiatriques majeures débutent à l’adolescence. La schizophrénie se manifeste généralement vers 15 ans, le trouble bipolaire est souvent diagnostiqué plus tard, mais avec une erreur de 10 à 15 ans. Les troubles anxieux apparaissent tôt, dès le début de l’adolescence et de la puberté, période qui s’accompagne de nombreux changements physiques et psychologiques, de confrontations avec le sexe opposé et avec les parents, contre lesquels l’adolescent s’affirme pour construire son identité. Cette compréhension est fondamentale dans notre démarche psychothérapeutique, qui s’adresse à la fois à l’adolescent, au jeune adulte et aux parents. C’est l’ensemble du système familial que nous prenons en charge.

Lorsqu’une pathologie spécifique est identifiée et que des traitements médicamenteux existent, nous traitons l’anxiété, la dépression ou les symptômes psychotiques avec les médicaments appropriés. Notre approche est globale et non séquentielle, et nous adaptons nos thérapies en fonction du profil du patient : thérapies cognitivo-comportementales avec un programme et un contrat, psychanalyse, psychodynamie de groupe, etc. À l’hôpital Paul-Brousse, où j’exerce, nous accueillons des patients de 15 à 23 ans, ce qui nous permet de recréer dans un espace thérapeutique la communauté dont le jeune a été extrait et qui l’a potentiellement affecté.

Enfin, pour répondre à la question sur le transfert de dépendance, qui est fréquemment posée, nous constatons que lorsque nous parvenons à traiter l’addiction aux écrans, il n’y a pas nécessairement de report vers d’autres substances comme le tabac, le cannabis, ou d’autres substances. En revanche, les personnes sujettes aux additions sont aujourd’hui des polyconsommateurs, des polyexpérimentateurs. Ce n’est donc pas l’arrêt de la consommation des écrans qui est à l’origine d’un transfert, mais plutôt le système global dans lequel les jeunes évoluent, avec l’offre de substances disponibles, qui doit être pris en compte dans notre approche thérapeutique.

Mme Laure Miller, rapporteure. Vous préconisez dans votre rapport de ne permettre l’accès aux réseaux sociaux qu’à partir de 15 ans. Pourriez-vous exposer les raisons qui vous ont amenés à fixer ce seuil ? Ne pensez-vous pas qu’en poussant le principe de précaution à son maximum, il serait préférable de le reculer légèrement, peut-être à 16 ans, c’est-à-dire à l’entrée au lycée ? Parmi les familles de victimes que nous avons auditionnées, certaines nous ont confié, en marge des auditions, que 15 ans leur semblait un âge, au cœur de l’adolescence, où les jeunes sont encore vulnérables.

Dr Servane Mouton. Ce sujet a fait l’objet de nombreuses discussions. Le choix de ce seuil de 15 ans pour l’accès aux réseaux sociaux éthiques et transparents s’aligne sur l’âge de la majorité sexuelle en France, et l’âge de la majorité numérique telle qu’elle est fixée par le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD), afin d’aboutir à une certaine cohérence. Cependant, en coulisses et sans que cela soit nécessairement inscrit dans le rapport, nous avons longuement débattu en rapportant la nature addictive de certains produits et l’âge des jeunes qui y sont exposés. Les jeux vidéo en ligne sont déjà reconnus comme potentiellement addictifs dans la classification internationale des maladies, et les réseaux sociaux pourraient un jour rejoindre cette catégorie, comme l’a souligné le Pr Benyamina. Aussi, nous avons même évoqué la possibilité de recommander un seuil à 18 ans.

Toutefois, notre recommandation, telle qu’elle est formulée, s’inscrit dans un cadre idéal où la vérification de l’âge serait efficace, respectueuse de la vie privée et des libertés démocratiques, et où les réseaux sociaux seraient devenus éthiques grâce au renforcement du Digital services act. Cela ne correspond évidemment pas la réalité actuelle.

M. le président Arthur Delaporte. Dans ce cas, si l’on considère que dans un monde idéal, la limite de 15 ans concerne les réseaux sociaux dits éthiques, pourquoi ne pas envisager l’ouverture de réseaux sociaux éthiques à des tranches d’âge inférieures, par exemple 13-15 ans ?

Dr Servane Mouton. Des réseaux sociaux plus éthiques, du moins dans une certaine mesure, existent. Cependant, ils ne rencontrent pas un grand succès car leur fonctionnement diffère des réseaux sociaux traditionnels.

M. le président Arthur Delaporte. Permettez-moi de reformuler ma question. Si, dans un monde idéal, vous préconisez l’accès aux réseaux sociaux éthiques à partir de 15 ans, pourquoi ne pas envisager un accès plus précoce, partant du principe que le caractère éthique implique l’absence de risques d’addiction ?

Pr Amine Benyamina. Notre choix du seuil est lié à la notion de majorité numérique. Nous partons du principe qu’à partir de 15 ans révolus, l’utilisation d’un réseau social, qu’il soit éthique ou non, est plus acceptable que pour les moins de 15 ans.

M. le président Arthur Delaporte. La loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne, dite loi Marcangeli, prévoit que la majorité numérique est fixée à 15 ans, mais que les 13-15 ans peuvent s’inscrire sur des réseaux sociaux sous réserve de l’accord des parents. Ce seuil est comparable à la conduite accompagnée, qui permet de conduire avant l’obtention du permis.

Dr Servane Mouton. L’accord parental est mentionné dans les conditions générales d’utilisation des réseaux sociaux n’est jamais recueilli. Mais en pratique, il n’est jamais recueilli.

M. le président Arthur Delaporte. Je l’entends, mais ces conditions ne sont pas davantage remplies pour les mineurs de 15 ans révolus. J’aimerais simplement comprendre si, selon vous, permettre l’accès à des réseaux sociaux dits éthiques représente un danger pour mineurs de 13-15 ans, ou bien si ce seuil des 15 ans est avant tout une question de principe.

Pr Amine Benyamina. Je vais peut-être paraître m’égarer dans ce débat, mais je pense qu’il convient de mentionner la question des espaces numériques de travail (ENT), que l’éducation nationale a rendu plus ou moins obligatoires, et qui concerne les moins de 15 ans. Ces environnements sont à vocation pédagogique, ils sont encadrés mais, qu’on le veuille ou non, ce sont aussi des réseaux sociaux.

J’aimerais également évoquer l’annonce de l’interdiction des réseaux sociaux aux moins de 15 ans en Australie. Au-delà de cette annonce, il convient d’être attentif commentaire du premier ministre, qui a mis en avant le caractère révolutionnaire de cette décision, tout en ajoutant immédiatement qu’il ne formait aucun espoir quant à sa mise en pratique. Son Gouvernement a souhaité, avant tout, émettre un signal.

Dr Servane Mouton. Le processus de maturation cérébrale est loin d’être achevé à 15 ans, puisqu’il se poursuit jusqu’à 25 ans. Toutefois, le degré de maturité avéré d’un adolescent de 15 ans n’est pas le même que celui d’un enfant de 13 ans. Plus on avance en âge, plus on est à même d’acquérir les capacités et les compétences nécessaires pour prendre la mesure des enjeux en lien avec le partage de contenus, y compris ceux qui peuvent exposer sa vie privée et son intimité, et la frontière publique-privée.

N’oublions pas non plus que tout seuil d’âge revêt un caractère artificiel, arbitraire, à commencer par la majorité, fixée à 18 ans alors qu’elle était à 21 ans auparavant. Le cerveau mature jusqu’à 25 ans, mais cela n’empêche pas que l’on puisse détenir un permis de chasse à 16 ans. En d’autres termes, les règles d’âge relèvent de normes quelque peu artificielles, et il convient d’harmoniser ces normes dans un souci de cohérence.

M. le président Arthur Delaporte. Je vous remercie pour ces échanges et, au nom des membres de notre commission d’enquête, pour l’ensemble de vos travaux. Nous accueillerons volontiers toute autre contribution que vous jugerez utile de nous faire parvenir afin d’améliorer la régulation de l’espace numérique et la protection des jeunes qui l’arpentent.

 

Puis la commission auditionne M. Mehdi Mazi, co-fondateur du collectif d’aide aux victimes d’influenceurs (AVI), et M. Jean-Baptiste Boisseau, membre chargé des projets espaces de discussion en ligne, relations presse.

M. le président Arthur Delaporte. Je souhaite la bienvenue au nom de notre commission d’enquête à deux représentants du collectif d’aide aux victimes d’influenceurs (AVI), M. Mehdi Mazi, son cofondateur, et M. Jean-Baptiste Boisseau, membre chargé des projets espaces de discussion en ligne et des relations presse.

Avant de vous céder la parole pour un propos liminaire, je vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(MM. Mehdi Mazi et Jean-Baptiste Boisseau prêtent serment.)

M. Jean-Baptiste Boisseau, membre du collectif d’aide aux victimes des influenceurs, chargé des projets espaces de discussion en ligne et des relations presse. Je n’ai aucun lien d’intérêts vis-à-vis de TikTok, cependant, je dois vous informer que je suis le gérant d’une plateforme communautaire de signalement d’escroqueries en ligne. Bien que cela ne constitue pas un conflit d’intérêts à proprement parler, cette expérience me confère une perspective similaire à celle des plateformes sur certains aspects, notamment en matière de modération et de gestion communautaire.

M. Mehdi Mazi, co-fondateur du collectif d’aide aux victimes d’influenceurs. Je n’ai moi non plus aucun lien d’intérêts à déclarer. Le collectif AVI a vu le jour à l’été 2022, d’abord pour répondre aux témoignages nombreux et particulièrement accablants de victimes du couple d’influenceurs M. et Mme Marc et Nadé Blata. Notre objectif premier consistait à accompagner les victimes de ces influenceurs dans leurs démarches pour faire valoir leurs droits et se défendre.

Rapidement nous sont parvenus de nombreux témoignages relatifs aux méfaits d’autres influenceurs. C’est ainsi que notre collectif, à l’origine nommé AVMN pour « aide aux victimes de Marc et Nadé Blata », s’est officiellement constitué en association le 19 août 2022 sous le nom de collectif d’aide aux victimes d’influenceurs.

Notre mission est double. D’une part, nous accompagnons les victimes dans leurs démarches juridiques, portons leur voix et œuvrons pour mettre fin aux agissements de ces influenceurs qui trop souvent continuent d’opérer en toute impunité en dépit des signalements. D’autre part, nous nous efforçons de sensibiliser et d’alerter l’opinion publique, les institutions et les plateformes sur ces dérives.

Dès la création de notre collectif, nous avons reçu de nombreux témoignages particulièrement marquants et accablants. Certaines personnes ont subi des pertes financières considérables, entraînant des préjudices personnels importants. Nous avons recensé des conflits familiaux, des séparations, des divorces, des ventes de maisons forcées, et dans les cas les plus graves, des tentatives de suicide. Les conséquences des méthodes frauduleuses des influenceurs ont bouleversé de nombreuses vies.

Face à cette situation, nous avons immédiatement entrepris des actions de signalement auprès des plateformes comme Snapchat et Instagram. Snapchat s’est montré relativement réactif, bannissant les comptes incriminés au bout de quelques semaines. Instagram, en revanche, a mis plus de temps à réagir.

Nous avons ensuite décidé de lancer une action collective sous forme de 88 plaintes conjointes pour escroquerie et abus de confiance en bande organisée. Ce recours collectif a été déposé le 20 janvier 2023 et annoncé lors d’une conférence de presse. Il vise plusieurs influenceurs, notamment M. Marc Blata et Mme Nadé Blata, concernant leurs projets de copy-trading et d’investissement en crypto-monnaies.

Notre association a également traité un dossier concernant M. Dylan Thiry pour des faits présumés d’abus de confiance aggravé, en lien avec des soupçons de détournement de cagnottes en ligne à vocation humanitaire. En mars 2024, nous avons organisé une seconde conférence de presse, au cours de laquelle nous avons annoncé le dépôt de nouvelles plaintes visant d’autres influenceurs pour des faits similaires, principalement d’escroquerie en bande organisée ou d’abus de confiance.

Nous avons par ailleurs effectué de nombreux signalements auprès de diverses instances. Dès août 2022, nous avons alerté la Caisse des dépôts concernant les arnaques au compte personnel de formation (CPF) impliquant une quinzaine d’influenceurs. Nous avons également saisi l’Autorité nationale des jeux (ANJ), la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), ainsi que la Cour des comptes.

En parallèle, nous avons participé à des travaux législatifs en collaboration avec des députés et un groupe de travail du ministère de l’économie. Nous avons également coopéré avec des journalistes dans le cadre d’enquêtes, en leur fournissant des documents et des témoignages afin de sensibiliser le plus grand nombre.

Depuis le début de son action, l’association a recensé plus de 2 400 victimes, pour un préjudice total estimé à plus de 2 millions d’euros. Nous gérons actuellement 23 dossiers au sein du collectif, et une douzaine de plaintes ont déjà été déposées.

M. le président Arthur Delaporte. Je vous invite maintenant à aborder les effets sur les mineurs et les aspects directement liés aux travaux de la commission.

M. Jean-Baptiste Boisseau. Je vous propose pour répondre à cette question d’illustrer mon propos par des cas concrets, en mettant en lumière certains points qui n’ont pas encore été portés à la connaissance de la commission. Je commencerai par évoquer deux influenceurs dont les parcours me semblent particulièrement représentatifs des problèmes de régulation actuels.

Le premier cas concerne Rayan PSN, un influenceur qui à l’origine s’est fait connaître sur Snapchat. Sa notoriété a crû soudainement à la faveur d’une vidéo le montrant en train de commettre un vol dans un camion de pompiers. Cette action lui a valu une condamnation à un stage citoyen, mais n’a pas manqué d’entraîner une augmentation significative du nombre de ses abonnés sur les réseaux sociaux. On peut malheureusement constater que, dans ce cas, le délit a été profitable. Par la suite, Rayan PSN a publié une vidéo dans laquelle il menaçait le ministre de l’éducation de l’époque, Jean-Michel Blanquer, avec une arme. Cette fois encore, la justice s’est montrée clémente, le condamnant à quelques heures de travaux d’intérêt général, invoquant le droit à l’humour et le caractère décalé des contenus de ce jeune homme.

Il semble que la justice ne prenne pas en compte la dimension commerciale qui sous-tend ces provocations, ce qui constitue un véritable problème. En effet, ces actions servent en réalité de vitrine à un véritable business de vente de produits et services frauduleux, notamment la promotion de plateformes de trading non autorisées en France, en violation flagrante des réglementations de protection des épargnants.

Un autre épisode controversé concerne une vidéo prétendument tournée en Syrie en 2022, mais en réalité filmée au Liban, dans laquelle Rayan PSN se filme en train de tirer à la kalachnikov et au bazooka, et affirme qu’aucun conflit n’est en cours dans ce pays, ce qui est manifestement mensonger. Ces contenus, d’abord publiés sur Snapchat, ont ensuite été relayés sur Telegram où ils restent d’ailleurs accessibles aujourd’hui.

Malgré ces controverses, Rayan PSN a réussi à se reconvertir sur TikTok, où il compte aujourd’hui plusieurs centaines de milliers d’abonnés. Ses vidéos, qui cumulent parfois des millions de vues, promeuvent des méthodes douteuses d’enrichissement rapide par le trading. Il se présente comme un exemple de réussite, incitant ses jeunes followers à suivre son parcours, malgré ses démêlés avec la justice.

Le second cas que je souhaite évoquer est celui de M. Illan Castronovo. En septembre 2022, sur Instagram, il faisait la promotion d’une clinique esthétique en Turquie, une pratique déjà problématique à l’époque. Il promouvait également un cryptoactif qui s’est avéré être une escroquerie, ainsi que des services de trading promettant des rendements irréalistes de 20 % par semaine.

À la suite de l’adoption de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, promulguée en 2023, et à la faveur d’une attention médiatique et politique accrue sur ces pratiques en 2022 et 2023, M. Castronovo a été épinglé par la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Cependant, l’autorité s’est limitée à lui adresser un simple avertissement, sans sanction concrète ni restriction de ses activités sur les réseaux sociaux.

Afin d’échapper à ces pressions, M. Castronovo a opéré une transition vers TikTok, où il a opté pour des formats de contenus plus légers, mêlant recettes de cuisine et commentaires sur l’actualité. Il participe désormais à des matchs, c’est-à-dire des événements diffusés en direct dans lesquels les influenceurs cherchent à obtenir des dons de leur communauté. M. Castronovo figure régulièrement dans le top 10 des créateurs recevant le plus de cadeaux virtuels, une pratique qui soulève des questions éthiques, notamment concernant la potentielle manipulation de personnes vulnérables. Nous avons recueilli des témoignages suggérant des comportements susceptibles de relever de l’abus de faiblesse.

Les deux cas que je viens de présenter sont loin d’être des exceptions. Au contraire, ils sont caractéristiques d’une tendance inquiétante. Plus alarmant encore, il convient de souligner qu’à ce jour, aucun d’entre eux n’a été condamné par un tribunal pour escroquerie ou pratique commerciale trompeuse.

Prenons l’exemple de M. Adrien Laurent, alias AD Laurent, qui a récemment fait l’actualité puisque la ministre déléguée chargée de l’égalité entre les femmes et les hommes et de la lutte contre les discriminations vient de demander à TikTok de supprimer son compte. Son cas est particulièrement intéressant car il soulève non seulement des questions sur son discours problématique concernant les relations hommes-femmes, mais aussi sur ses pratiques commerciales douteuses, notamment dans le domaine du trading. Ces agissements relèvent clairement de la délinquance économique avérée, et il est regrettable que de telles pratiques n’aient pas été stoppées plus tôt.

Notre collectif a élaboré plusieurs propositions pour remédier à cette situation. La première, sur laquelle j’insiste régulièrement auprès de M. le président de la commission d’enquête depuis nos discussions sur la loi sur les influenceurs de 2023, concerne la création d’un véritable parquet du numérique. En vérité ce parquet du numérique existe déjà en France, mais il se limite aux affaires de haine en ligne. C’est la raison pour laquelle nous estimons qu’il devrait élargir son champ d’action pour traiter l’ensemble des abus commis en ligne.

La nécessité d’un parquet spécialisé s’explique par le fait que la justice classique peine à appréhender certaines problématiques spécifiques au numérique. Le cas de Rayan PSN est emblématique : malgré plusieurs comparutions devant les tribunaux, ses activités, relevant à l’évidence de la délinquance économique, n’ont pas été correctement identifiées.

Nous proposons également de renforcer les moyens de lutte contre la délinquance économique en ligne. Cela implique une collaboration accrue avec des autorités telles que la DGCCRF, l’Autorité des marchés financiers (AMF), l’ANJ, et potentiellement l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). À ce propos, il serait intéressant de connaître le nombre de personnes travaillant spécifiquement sur le respect du référentiel de modération des publications litigieuses au sein de l’Arcom.

L’établissement d’un référentiel clair pour la modération des contenus problématiques est indispensable. Actuellement, de nombreuses plateformes se retranchent derrière l’argument de l’absence d’illicéité manifeste pour justifier leur inaction. Un référentiel bien défini permettrait un premier tri efficace sans nécessairement recourir à la voie judiciaire.

Nous préconisons également le renforcement des dispositions de blocage, de suppression de contenus et de bannissement de comptes. Cela implique une extension des mesures juridiques existantes, ainsi que la mise en place de procédures de blocage administratif, similaires aux fermetures administratives d’établissements physiques.

Enfin, d’autres propositions incluent l’encadrement des dons et des matchs, l’organisation de réunions d’information pour les parents de collégiens sur les outils de protection en ligne, et la réalisation d’un audit sur l’application du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital service act (DSA).

M. le président Arthur Delaporte. Nous aurons l’opportunité d’aborder cette question du DSA lors de notre visite à Bruxelles le 4 juin.

M. Jean-Baptiste Boisseau. Concernant les procédures de modération, nous estimons qu’une procédure d’appel indépendante est nécessaire. Actuellement, les appels sont traités par les plateformes elles-mêmes, ce qui limite leur efficacité. Nous suggérons que ces appels soient transmis aux signaleurs de confiance (trusted flaggers) selon la catégorie du signalement, procédure qui peut d’ailleurs bénéficier aussi bien aux influenceurs ciblés qu’aux personnes effectuant les signalements.

La législation européenne, qui s’appuie notamment sur le principe du pays d’origine, constitue souvent une entrave à l’action, comme l’a récemment illustré le cas des sites pornographiques. Ce problème, déjà soulevé lors des discussions sur le DSA, nécessite une réévaluation approfondie.

L’algorithme de TikTok n’est pas le seul en cause, mais il est certainement le plus efficace. C’est pourquoi nous recommandons une approche alternative à l’interdiction ou à la modification directe par les pouvoirs publics. Il s’agirait plutôt de désactiver la vue algorithmique par défaut dans les applications de médias sociaux. En privilégiant par défaut l’affichage des contenus auxquels l’utilisateur est abonné, on pourrait observer un changement significatif dans l’expérience utilisateur, sans pour autant imposer des mesures trop intrusives aux plateformes.

Je souhaite pour conclure évoquer un point très important qui est ressorti de votre échange avec le rapporteur de la commission du Sénat sur TikTok, Claude Malhuret, lors de son audition. Il s’agit de la réalité de la guerre informationnelle et cognitive, qui est au cœur de cette problématique. L’actualité récente en Roumanie illustre parfaitement ce phénomène. TikTok a été massivement utilisé comme outil de propagande et de déstabilisation de l’État, notamment par le biais d’influenceurs. Cette opération, qui aurait pu mener à l’installation d’un gouvernement pour le moins contestable en Roumanie cette semaine, a conduit à l’annulation des élections.

La Roumanie n’est pas un cas isolé. Depuis l’affaire Cambridge Analytica en 2015‑2016, nous avons acquis une connaissance empirique de ce type de problèmes. Ces enjeux concernent désormais l’ensemble de la population, y compris les jeunes. En effet, ces pratiques façonnent la culture de la jeunesse, qui est particulièrement présente sur les réseaux sociaux et s’y informe massivement. Mécaniquement, l’impact de ces techniques ne fera que s’amplifier avec le temps.

Bien que cela puisse dépasser le cadre strict de votre commission, je suis convaincu que ces deux problématiques sont étroitement liées. En nous penchant sur la régulation des contenus accessibles aux jeunes – et pas uniquement à eux – nous devons nécessairement aborder ce sujet, à propos duquel il serait instructif pour votre commission d’enquête d’auditionner le service de vigilance et de protection contre les ingérences numériques étrangères (Viginum).

M. le président Arthur Delaporte. Nous envisageons d’auditionner Viginum, ainsi que d’entendre l’historien M. David Colon sur les questions de guerre de l’information.

Je tiens à vous remercier pour les informations que vous nous livrez, mais aussi et surtout pour vos propositions puisque notre commission d’enquête, à l’issue de son travail de recueil d’informations, a pour objectif d’élaborer une série de propositions afin de déterminer comment prévenir à l’avenir les dérives constatées.

Mme Laure Miller, rapporteure. Je vous remercie à mon tour pour les propositions très détaillées que vous avez formulées, et qui nourriront notre réflexion.

Vous avez mentionné dans votre présentation le chiffre de 2 400 victimes. Quelle est la proportion de mineurs concernés ? Quelle est la part des abus spécifiquement liés à TikTok ?

M. Mehdi Mazi. Nous n’avons recensé qu’un seul cas de mineur impliqué dans les affaires que nous suivons. En l’occurrence il s’agissait d’une affaire de trading.

Nous ne disposons pas de données précises permettant de mesurer l’implication respective de TikTok et d’autres plateformes. Si nous constatons davantage de cas impliquant des influenceurs sur Snapchat et Instagram en particulier, nous observons une augmentation des signalements concernant TikTok. Je précise toutefois que nous traitons principalement de faits datant de 2021-2022, que nous avons examinés récemment. Actuellement, nous commençons à recevoir des cas liés à TikTok, notamment dans le domaine du trading.

M. Jean-Baptiste Boisseau. Notre échantillon n’est pas représentatif. À l’origine, nous avons traité une communauté de victimes liée à M. Marc Blata et Mme Nadé Blata. Au fil du temps, d’autres victimes se sont manifestées après avoir eu connaissance de ces affaires. Nous ne sommes nous-mêmes présents sur TikTok que depuis un an. Néanmoins, nous avons rapidement reçu de nombreux témoignages mettant en lumière des problématiques spécifiques à cette plateforme.

Mme Laure Miller, rapporteure. Dans la continuité de votre réponse, identifiez-vous une spécificité propre à TikTok par rapport aux autres réseaux sociaux, au vu des signalements que vous avez reçus ces derniers mois ?

M. Jean-Baptiste Boisseau. De manière générale, les escroqueries sont similaires sur TikTok et sur les autres réseaux sociaux. La spécificité majeure de TikTok réside dans les matchs, puisque cette fonctionnalité n’existe pas sur les autres plateformes. Elle mérite par conséquent une attention particulière.

En outre, TikTok se distingue par les réponses et les décisions de modération pour le moins déconcertantes par lesquelles elle donne suite aux signalements que nous effectuons. En effet, nous observons que certains contenus sont supprimés, tandis que d’autres, qui nous semblent pourtant davantage problématiques, sont maintenus. N’étant pas encore reconnus comme signaleurs de confiance, il nous est difficile d’expliquer en détail pourquoi nous considérons un contenu ou un compte comme problématique dans son ensemble.

Mme Laure Miller, rapporteure. Avez-vous été en mesure, à la faveur de contacts directs, de signaler à des responsables de TikTok que la modération de la plateforme vous semblait assez aléatoire et pas toujours cohérente ?

M. Jean-Baptiste Boisseau. Non, nous n’avons jamais eu de contacts directs avec TikTok.

Mme Laure Miller, rapporteure. Vous avez mentionné précédemment l’existence d’outils pour les parents, notamment dans le cadre de votre proposition d’organiser une grande réunion avec les parents au collège. Nous avons été frappés, lors de notre audition des familles de victimes la semaine dernière, par les difficultés exposées par les familles à comprendre et à utiliser ces applications. De plus, elles ont souligné que ces outils sont facilement contournables, avec des tutoriels aisément disponibles pour les jeunes. Pourriez-vous développer ce que vous entendez par « outils » dans ce contexte ?

M. Jean-Baptiste Boisseau. Je fais référence aux outils de contrôle parental. La difficulté réside dans leur multiplicité et la complexité de leur paramétrage. Il est vrai que certains jeunes motivés peuvent les contourner ou les désinstaller. Cependant, ce n’est pas le cas de tous, loin de là. Si nous leur expliquons correctement comment les utiliser, alors les parents auront la capacité de détecter ces contournements et d’exercer un contrôle efficace. L’objectif n’est pas de paramétrer l’outil une fois pour toutes, mais d’encourager les parents à suivre régulièrement l’activité de leurs enfants. Avec un suivi attentif, ils devraient être en mesure de repérer d’éventuelles anomalies.

M. le président Arthur Delaporte. Je souhaite revenir sur certains exemples que vous avez mentionnés, afin de les approfondir. Vous avez insisté sur l’interconnexion de l’ensemble des réseaux, et mis en évidence que les influenceurs passent d’un compte à l’autre et d’un réseau social à l’autre. Vous avez également mentionné que TikTok, bien que plus récent que Snapchat ou Instagram, propose des contenus aussi sinon davantage problématiques, en particulier avec ses retransmissions en direct, qui permettent de pratiquer diverses formes d’extorsion. Pourriez-vous, en vous appuyant sur des exemples, décrire précisément les contenus problématiques que vous avez constatés ? Je pense d’abord à AD Laurent, que nous allons bientôt auditionner dans le cadre de cette commission d’enquête.

M. Jean-Baptiste Boisseau. Le cas d’AD Laurent est particulièrement intéressant. Nous nous sommes intéressés à lui lorsqu’il était sur Snapchat. Il avait vu son compte Instagram fermé à la fin du premier confinement, en 2020, à la suite d’un live où une jeune femme avait montré ses seins, ce qui a entraîné de nombreux signalements. Son compte Snapchat a été supprimé environ un an plus tard, en 2021 ou 2022, dans un contexte où cette plateforme se montrait particulièrement vigilante sur les problématiques de trading, et avait supprimé les comptes de nombreux influenceurs, notamment ceux de M. Marc Blata et Mme Nadé Blata, Seby Daddy ou M. Laurent Correia, tous auteurs d’infractions liées à la promotion du trading.

AD Laurent, quant à lui, a persisté dans ses pratiques. Il a créé son propre réseau social, WeScoop, en collaboration avec Seby Daddy, sans toutefois reconnaître son implication. Leur stratégie promotionnelle pour ce réseau était particulièrement problématique, puisqu’ils incitaient les utilisateurs à consulter du contenu progressivement moins censuré sur WeScoop, puis sur OnlyFans. En parallèle, AD Laurent continuait à faire des placements de produits problématiques, des escroqueries diverses et la promotion de produits financiers douteux. Ces pratiques ont perduré jusqu’en 2023. Son comportement sur TikTok s’inscrit dans la continuité de ses agissements sur les réseaux sociaux.

Un doctorant ayant étudié spécifiquement l’activité en ligne d’AD Laurent a montré de quelle manière il jouait constamment avec les limites du système, cherchant à maximiser l’engagement en créant des situations à forte charge émotionnelle. C’est bien cette stratégie qui lui a permis d’exploser sur les réseaux sociaux.

M. le président Arthur Delaporte. Vous mentionnez également Nasdas dans la liste d’influenceurs que vous nous avez transmise. Pourriez-vous développer ce cas ?

M. Jean-Baptiste Boisseau. Nasdas a été, un temps, l’influenceur numéro un sur Snapchat. Il est actuellement le numéro deux. Il a été lui aussi impliqué dans des placements de produits problématiques et la promotion d’offres de trading. Ces pratiques ont été constatées dès 2021, 2022, et persistent encore aujourd’hui puisque récemment encore il faisait sur Twitch la promotion d’un autre influenceur, Marcuus Lawrence, qui propose des formations pour « devenir riche ». Nasdas ne fait pas directement la promotion de ces formations, mais il incite à participer à un concours organisé par son acolyte pour gagner des cadeaux, l’objectif final étant de capter l’attention à travers ce concours, puis de prendre les internautes au piège de la formation au trading dispensée par Marcuus Lawrence. Nasdas est présent sur TikTok et, s’il n’est pas à proprement parler un créateur de contenu TikTok, son influence y est significative puisque ses contenus y sont largement commentés.

M. le président Arthur Delaporte. Dans ces deux cas, AD Laurent et Nasdas, il est difficile de mesurer la proportion exacte de mineurs composant leur audience, mais on peut supposer qu’elle est significative. Avez-vous eu connaissance de victimes mineures qui se seraient inscrites à des services de copy-trading par exemple ?

M. Jean-Baptiste Boisseau. Non, nous n’avons pas identifié de cas impliquant des mineurs, mais il convient de rappeler que les victimes qui s’adressent à notre collectif sont rarement mineures. En d’autres termes, si nous ne disposons pas de témoignages directs, il est certain que les mineurs sont directement exposés aux pratiques de ces influenceurs. Je pense en particulier à Rayan PSN : aucune victime mineure ne nous a contactés, mais il est absolument certain que Rayan PSN a causé beaucoup de dégâts parmi les plus jeunes. De même, un groupe nommé Groupe Élite, dirigé par un certain ZK et dont de nombreux influenceurs ont assuré la promotion, cible précisément les mineurs. Bien que nous n’ayons pas reçu de plaintes directes, nous savons qu’il cause des dommages considérables.

Nous pourrions citer d’autres cas exemplaires tels que Alex Hitchens et La Menace. Ces individus font la promotion de formations supposées enrichir rapidement ceux qui les suivent, avec des promesses de rendement extravagantes. La DGCCRF devrait se montrer davantage attentive au contenu et à la présentation de ces formations, car elle pourrait probablement identifier de nombreuses infractions.

M. le président Arthur Delaporte. S’il semble plus que probable que ces influenceurs font des victimes parmi les mineures, ceux-ci sont naturellement peu susceptibles d’être en mesure de leur confier de l’argent, donc d’être victimes directes de leurs escroqueries.

M. Jean-Baptiste Boisseau. En effet, et il convient d’ajouter à cela que, mineures ou majeures, seule une très faible proportion des victimes se déclarent. Dans le cas des escroqueries financières et des formations pour devenir riche, les influenceurs et leurs communautés parviennent souvent à convaincre les victimes qu’elles ne sont pas réellement des victimes. Ils leur font croire qu’elles sont à l’origine de leurs problèmes, qu’elles n’ont simplement pas compris ou correctement suivi la formation, et que c’est pour cette seule raison qu’elles ne sont pas devenues riches. L’influenceur, en exhibant des signes extérieurs de richesse, leur tend un miroir inversé : puisqu’il a réussi, lui, il est bien la preuve que la formation était efficace, et fait porter sur la victime la responsabilité de son échec.

En outre, l’influenceur peut compter sur le soutien d’une partie de sa communauté pour renforcer ce discours d’inversion de la responsabilité. Sur les réseaux sociaux, on observe en effet un phénomène de victim shaming, où il s’agit de faire honte aux victimes, ce qui les dissuade de témoigner contre les influenceurs. Les victimes subissent d’importantes pressions, ce qui explique pourquoi de nombreuses personnes qui nous soumettent des dossiers refusent pourtant de porter plainte.

M. le président Arthur Delaporte. Il me semble important de bien comprendre ces mécaniques de la honte, de la pression, de la peur et du déni du statut de victime. Vous avez évoqué précédemment des agissements pouvant relever de la manipulation de personnes vulnérables. Pourriez-vous détailler davantage la logique de ces manipulations, notamment sur les lives ? Comment se manifestent-elles concrètement ? Quelles sont les méthodes employées pour exploiter la vulnérabilité financière de certaines personnes ?

M. Jean-Baptiste Boisseau. Les lives sont le théâtre de mécanismes biaisés, et TikTok porte une responsabilité importante sur ce point, puisqu’il incite fortement, à travers divers éléments de son interface, à y participer activement, ainsi qu’aux matchs. Des notifications et des messages réguliers encouragent les utilisateurs à soutenir tel ou tel influenceur, promettant des récompenses comme le passage à un niveau supérieur ou l’obtention d’un badge spécifique. Cette gamification, c’est-à-dire cette manière de donner à tout l’aspect d’un jeu et de capter l’attention des participants par la perspective d’obtenir un gain potentiel, se traduit notamment par le classement des meilleurs donateurs, qui crée une compétition malsaine. Les influenceurs faisant eux-mêmes l’objet d’un classement, ils sont eux aussi poussés à exploiter autant que possible ce système. C’est ainsi que l’on observe la formation de véritables équipes de supporters, prêts à investir du temps et de l’argent pour faire progresser leur « gourou » dans ce classement. Une pression de groupe s’exerce au sein de ces communautés, allant jusqu’à qualifier de « traîtres » ceux qui soutiendraient d’autres influenceurs.

Cette dynamique est particulièrement perverse, et certains influenceurs, à l’image de M. Illan Castronovo, l’amplifient en établissant des contacts directs avec leurs meilleurs donateurs. Cette proximité apparente avec l’influenceur devient un enjeu supplémentaire, incitant à des dons toujours plus importants.

M. le président Arthur Delaporte. Pourriez-vous évoquer le cas particulier de M. Julien Tanti ?

M. Jean-Baptiste Boisseau. Notre intérêt pour M. Julien Tanti découle de ses nombreux placements de produits problématiques sur d’autres réseaux, notamment Snapchat et Instagram, impliquant de la contrefaçon. Il s’est également signalé par ses activités de trading et, s’il a bien été sanctionné par la DGCCRF, cette sanction n’a pas abouti à un procès ni à une indemnisation des victimes, qui n’ont même pas été contactées. Un arrangement judiciaire a été conclu, principalement en raison du manque de temps et de ressources de la justice, résultant en une simple transaction financière dont le montant n’a pas été divulgué. Cette situation soulève des questions sur l’efficacité de la justice dans ces affaires.

Depuis, M. Julien Tanti, à l’instar de M. Illan Castronovo, a tenté d’effacer son passé en affirmant avoir cessé les placements de produits. Aujourd’hui, il tire principalement ses revenus de TikTok, à travers les lives et les services associés proposés par la plateforme.

M. Mehdi Mazi. Je souhaite mettre en lumière les principales problématiques que nous avons rencontrées au fil des années. L’isolement des victimes constitue un enjeu majeur, car elle rend difficile l’obtention de témoignages et la libération de leur parole. La peur de s’exprimer, exacerbée par les menaces et les intimidations en ligne, est omniprésente. L’inégalité de la médiatisation place souvent les victimes en position de faiblesse face aux influenceurs.

Nous sommes également confrontés à l’inaction des plateformes, qui rejettent la majorité de nos signalements. Sur TikTok, nos alertes concernant des contenus problématiques sont systématiquement classées sans suite, la plateforme affirmant n’avoir identifié aucune violation de leurs règles d’usage. Cette situation est particulièrement préoccupante dans le cas d’influenceurs promouvant des activités à risque, comme le trading, en utilisant des stratégies de contournement pour échapper à la modération.

Un exemple flagrant est celui d’une influenceuse faisant la promotion indirecte du trading en vantant son train de vie luxueux. Malgré nos signalements répétés, TikTok n’a pris aucune mesure, arguant l’absence de violation directe de ses règles. Cette influenceuse dirige finalement ses abonnés vers un courtier basé aux Caraïbes, proposant des produits financiers extrêmement risqués et douteux.

J’insiste, enfin, sur l’impunité persistante et alarmante dont bénéficient les influenceurs aux pratiques délictueuses. Malgré les dommages causés, certains continuent de diffuser du contenu et de promouvoir des produits ou services douteux sans être inquiétés.

M. Jean-Baptiste Boisseau. Il me semble que la société, dans son ensemble, ne semble pas pleinement consciente de l’ampleur du problème. Prenons l’exemple de la fille de M. Nicolas Sarkozy, dont les lives TikTok ont fait l’objet de nombreux commentaires. Au-delà du contenu de ces lives, le véritable problème réside dans le fait qu’elle n’aurait pas dû pouvoir les réaliser étant donné qu’elle n’a pas atteint l’âge minimum requis de 18 ans selon les conditions d’utilisation de TikTok. La réaction de Mme Carla Bruni, exprimant son incompréhension face à la suppression du compte de sa fille, illustre cette méconnaissance générale des règles en vigueur.

Un autre exemple frappant est celui de M. Laurent Correia, membre de la JLC Family, qui utilise sa biographie TikTok pour rediriger vers un groupe Telegram promouvant du trading. Malgré nos alertes auprès de l’Arcom concernant la publicité faite par TF1 pour cet influenceur, nous n’avons reçu aucune réponse. TF1, de son côté, a simplement déclaré ne pas voir le problème. Cette situation met en lumière un manque de prise de conscience et de responsabilité à l’échelle de la société entière.

M. le président Arthur Delaporte. Avant de conclure, j’aimerais aborder un point que nous n’avons pas suffisamment évoqué : l’exposition des enfants par les influenceurs. Avez-vous des exemples concrets d’influenceurs qui mettent en scène leurs propres enfants ?

M. Jean-Baptiste Boisseau. M. Laurent Correia constitue un exemple parfait de cette pratique. Il va jusqu’à utiliser ses enfants dans des publicités liées au trading. Cette mise en scène de sa vie familiale sert d’élément de crédibilisation, suggérant implicitement que le mode de vie luxueux dont bénéficient ses enfants est accessible à ses abonnés s’ils suivent ses conseils en matière d’investissement.

M. le président Arthur Delaporte. Je tiens à rappeler, notamment pour ceux qui nous écoutent et qui envisageraient d’impliquer leurs enfants dans des publicités, que cette pratique est strictement réglementée et généralement interdite. Par exemple, il est formellement proscrit de faire figurer un enfant dans une publicité pour du trading, activité qui requiert par ailleurs un enregistrement auprès de l’AMF. En outre, toute participation d’un enfant à une publicité nécessite l’établissement d’un contrat de mannequinat et une rémunération appropriée. J’insiste sur ce point car il semble que de nombreuses personnes mettent en scène leurs enfants sans avoir conscience que l’utilisation d’un mineur dans un contenu à visée commerciale est illégale.

M. Jean-Baptiste Boisseau. Je crois qu’un décret d’application de la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet, dite loi Studer, encadre ces pratiques. J’ignore s’il a finalement été promulgué ou s’il est toujours en suspens.

M. le président Arthur Delaporte. Nous vérifierons ce point. Je vous remercie pour vos informations. Vous avez évoqué l’Arcom, ses représentants sont justement les prochaines personnes que nous allons auditionner.

 

Enfin la commission auditionne M. Martin Ajdari, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), M. Alban de Nervaux, directeur général, et Mme Lucile Petit, directrice des plateformes en ligne.

M. Pouria Amirshahi, président. Je souhaite la bienvenue à M. Martin Ajdari, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), à M. Alban de Nervaux, directeur général et à Mme Lucile Petit, directrice des plateformes en ligne. Je vous remercie d’avoir pris le temps de répondre à notre invitation.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations. Je rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(MM. Martin Ajdari, Alban de Nervaux et Mme Lucile Petit prêtent successivement serment.)

M. Martin Ajdari, président de l’Autorité de régulation de la communication audiovisuelle et numérique. Je vous remercie de me donner l’occasion de contribuer à vos travaux, lesquels portent sur un sujet qui est au cœur des préoccupations de l’Arcom et des attentes de régulation de la société, telles que je les perçois depuis ma prise de fonctions à la présidence de l’Autorité, il y a trois mois.

L’Arcom a été désignée en 2024 comme l’une des trois autorités françaises compétentes pour l’application du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital service act (DSA), avec la Commission nationale de l’informatique et des libertés (Cnil) et la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). En revanche, elle est le seul coordinateur pour les services numériques : elle est chargée de faire le lien avec la Commission européenne, dans une architecture de régulation du numérique assez complexe.

Sans entrer dans le détail de cette architecture juridique, je rappelle que l’article 28 du règlement sur les services numériques (DSA) prévoit des dispositions spécifiques pour la protection des mineurs, qui s’appliquent à toutes les plateformes en ligne – c’est-à-dire non seulement aux fournisseurs de services intermédiaires les plus importants et bien connus, mais également à ceux de taille plus limitée, à l’exception des très petites entreprises – et qui visent à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs.

Un projet de lignes directrices de la Commission européenne sur la protection des mineurs en ligne vient de préciser ces mesures. Nous avons la faiblesse de penser que ces lignes directrices, soumises à consultation jusqu’au 10 juin, reprennent assez largement la contribution que l’Arcom avait adressée à la Commission l’été dernier, au moment du lancement du projet. Elles portent sur l’ensemble des thèmes pertinents que sont la vérification de l’âge, le paramétrage protecteur par défaut des mineurs, les systèmes de recommandations personnalisées, les notifications ou encore le contrôle parental.

Au-delà des obligations générales posées par l’article 28, qui s’appliquent à toutes les plateformes, les très grandes plateformes en ligne – dont TikTok fait partie –, qui comptent plus de 45 millions d’utilisateurs par mois, soit plus de 10 % de la population européenne, doivent évaluer chaque année les risques systémiques liés à leur fonctionnement et prendre des mesures pour les atténuer. Parmi ces risques, pour reprendre la définition du règlement européen, figure tout effet négatif, réel ou prévisible, lié à la protection de la santé publique et des mineurs.

Comme pour les très grandes plateformes – Facebook, Instagram, X, Google ou YouTube –, TikTok relève du contrôle de la Commission européenne et de l’autorité de son pays d’établissement, en l’occurrence, la commission des médias, instance irlandaise que j’ai rencontrée le 9 mai. Seules ces deux autorités peuvent prononcer d’éventuelles sanctions à son encontre. Nous sommes en lien presque quotidien avec la Commission et, le cas échéant, notre homologue irlandais, pour leur transmettre des alertes, des informations et des compléments d’instruction lorsque nous en disposons. C’est l’un des rôles de l’Arcom, qui a ainsi participé à la procédure engagée contre le service TikTok Lite à l’été 2024, service qui, du fait même du lancement de cette procédure d’enquête à laquelle l’Autorité collaborait, a été supprimé par TikTok.

L’Arcom a pour objectif et ambition de jouer un rôle d’alerte sur les applications en particulier, mais aussi, de façon plus générale, sur les limites observées dans le cadre du déploiement du règlement sur les services numériques. J’ai récemment été conduit, comme d’autres collègues européens, à exprimer au sein du comité européen pour les services numériques les frustrations et les attentes de plus en plus vives en matière de protection des mineurs, à l’égard de la plateforme X notamment – je l’ai déjà fait à deux reprises depuis ma prise de fonctions.

Nous sommes également chargés de désigner les signaleurs de confiance, organismes associatifs, en général, qui sont des maillons essentiels du fonctionnement du DSA. Ces structures agréées par l’Arcom, spécialistes de tel ou tel risque en ligne, peuvent signaler et demander des retraits, avec une priorité de traitement, auprès des très grandes plateformes. Avec sept organismes labellisés, l’Arcom est celui des coordinateurs nationaux qui en a reconnu le plus. Nous entendons poursuivre notre action, puisque le DSA ne fonctionnera pleinement que lorsqu’il se démultipliera et sera pris en charge par des associations, qui en seront les fers de lance, et par des chercheurs qui, en accédant si possible aux données, pourront étudier et identifier les menaces auxquelles les plateformes sont confrontées, afin de les inviter à prendre des mesures correctrices.

Actuellement, 23 équivalents temps plein (ETP) se consacrent au règlement sur les services numériques, sur un effectif total de 350 personnes, sachant que le champ de compétences premier de l’Arcom est l’audiovisuel et la lutte contre le piratage. C’est une première étape et nous sommes reconnaissants au législateur de nous avoir accompagnés ; nous connaissons les contraintes budgétaires, mais l’Arcom devra vraisemblablement monter en puissance si elle veut conduire elle-même des études et démultiplier son action – nos collègues allemands comptent une soixantaine de personnes à leur disposition pour un périmètre de compétences comparable.

Un large consensus se fait jour pour considérer que le niveau de protection des mineurs en ligne en France et en Europe est, depuis de nombreuses années, tout à fait insuffisant sur TikTok. Les très grandes plateformes ont une responsabilité particulière en la matière, en raison de l’empreinte de leurs services dans la population, de la conception et des caractéristiques mêmes de ces services, notamment les réseaux sociaux, et de leur modèle économique fondé sur l’engagement. Ces risques très sérieux ont été largement documentés, entre autres par votre commission. Ils recouvrent l’exposition des contenus illégaux et préjudiciables, rendus dangereux par leur multiplicité, des rencontres susceptibles de porter atteinte à la vie privée, à la sûreté et à la sécurité des mineurs, du cyberharcèlement, des sextorsions et de la pédocriminalité. Ils produisent des effets connus d’anxiété, de dépression, d’addiction, de troubles du comportement et du sommeil, ou encore d’isolement.

S’agissant de TikTok, des signaux convergents, des témoignages de professionnels, de parents, de jeunes eux-mêmes, des travaux de chercheurs et des procédures judiciaires ont montré que ce service est au cœur d’un ensemble de risques particulièrement élevés pour les mineurs, qui justifie de lui porter une attention toute particulière.

Permettez-moi de citer trois éléments qui permettent de caractériser ce service. Tout d’abord, l’exposition des mineurs à la plateforme : au premier trimestre 2025, selon Médiamétrie, près d’un tiers des enfants âgés de 11 à 12 ans ont utilisé TikTok, alors que l’âge minimum d’accès est fixé, dans les conditions générales d’utilisation (CGU), à 13 ans ; la consommation de TikTok concerne plus de la moitié des jeunes internautes dès l’âge de 13 ans et elle augmente progressivement pour atteindre plus de 80 % pour les 15-17 ans – âge auquel on n’est pas non plus sans fragilités.

Ensuite, la deuxième caractéristique de TikTok, qui fait aussi l’attractivité et la qualité de son service, réside dans la conception de son interface, dont les fonctionnalités, le scrolling – défilement – illimité de vidéos courtes et personnalisées, les tendances, les hashtags et un algorithme de recommandations très puissant captent l’attention et allongent le temps passé sur la plateforme. Si cette interface est de nature à répondre aux envies immédiates des utilisateurs, en particulier des mineurs, elle peut aussi les enfermer dans des boucles de contenus nocives. On trouve principalement sur cette plateforme des contenus préjudiciables, qui visent à valoriser ou à banaliser certains comportements, tels que les troubles alimentaires ou la scarification – il existe un hashtag zèbre, assez éloquent, à ce sujet –, les intentions suicidaires, l’hypersexualisation, la violence. Certes, certains contenus visent à contester ou à critiquer de tels comportements, mais les publications nocives touchent des millions et des millions de personnes et attisent fortement les risques.

L’exemple le plus récent et évocateur est la tendance SkinnyTok, qui valorise la maigreur extrême. Elle touche potentiellement tous les utilisateurs, mais le risque est accru pour le public adolescent. À la suite de signalements, nous avons alerté nos collègues européens. Nous avons nous-mêmes effectué durant deux jours, les 23 et 24 avril, des mesures portant sur les publications mises en ligne sur TikTok au cours des trente jours précédents : sur cette seule période, 5 500 publications, diffusées par 3 000 créateurs différents, comprenaient l’expression SkinnyTok. Ces publications, dont 80 % étaient en anglais et 7 % en français, ont obtenu 97 millions de vues et 9,5 millions de likes, ce qui donne une indication de la viralité de ce type de contenus et du nombre de personnes touchées. Même si certaines de ces vidéos dénoncent la tendance et ses effets, il est facile de mesurer l’effet de masse induit.

Ces risques ne sont pas spécifiques à TikTok. D’autres plateformes, plus généralistes ou à destination des jeunes en particulier, qui ont aussi une empreinte très forte dans la population, sont concernées. Par conséquent, les travaux de votre commission d’enquête contribueront, en identifiant et en mettant en évidence certains risques liés à TikTok, à accentuer la pression sur toutes les plateformes et à les inciter à évaluer la situation et à y répondre.

Au-delà de TikTok, permettez-moi d’ajouter quelques mots sur la protection du jeune public et les orientations à privilégier. Évidemment, les plateformes doivent élever considérablement le niveau de protection des mineurs. L’Arcom considère à cet égard que le DSA représente le cadre pertinent pour obtenir des avancées décisives, en raison de sa cohérence d’ensemble, de la sécurité juridique qu’il apporte et de la capacité à négocier avec les plateformes qu’il permet – même si les cultures varient d’un État membre à l’autre, nous constatons une convergence sur le constat et les préoccupations. Certes, une tentation existe, née d’une frustration légitime, d’aller plus vite : sans doute faudra-t-il accélérer, voire renforcer le règlement européen.

Les propositions que nous avions formulées ont été largement reprises dans le projet de lignes directrices, qui fonde la régulation non pas uniquement sur la modération ex post, mais sur une invitation à modifier l’interface des services eux-mêmes et leur algorithme, afin d’apporter des réponses dès leur conception.

La priorité est d’interdire de façon effective l’accès des plus jeunes aux réseaux sociaux. Les conditions générales d’utilisation des plateformes prévoient un âge minimal de 13 ans pour accéder à leurs contenus : imposons-leur déjà de s’assurer que leurs propres CGU sont respectées, en vérifiant l’âge des utilisateurs – même s’il y a un débat légitime au sein des États membres de l’Union européenne sur l’âge, qui pourrait être relevé à 15 ans.

La deuxième exigence est que les plateformes adaptent leurs services au public adolescent et que, lorsqu’elles visent plus largement l’ensemble de la population, des limites d’âge soient instaurées par défaut, ne pouvant être débloquées que par un adulte, selon des modalités à définir, telles que la vérification de l’âge. Si la limite d’âge fixe à l’entrée d’un service ne peut pas constituer la seule protection, elle permet d’instituer un mode « tout ou rien », notamment concernant l’accès des mineurs à la pornographie. Il faut moduler les degrés de protection grâce à un paramétrage par défaut.

Troisièmement, il faut que les obligations procédurales prévues par le DSA soient pleinement appliquées : je pense notamment au traitement prioritaire des notifications des signaleurs de confiance et à l’accès des chercheurs aux données, conformément à l’article 40 du règlement. Un acte délégué de la Commission européenne doit préciser les conditions dans lesquelles les chercheurs pourront accéder aux données qui ne sont pas publiques ; nous espérons présenter ce point aux chercheurs avant l’été pour leur permettre de demander cet accès et d’identifier les risques, afin que la Commission puisse confronter les plateformes à leurs obligations.

Dernier point, sur lequel l’Arcom n’est toutefois pas en première ligne : ces mesures n’auront d’effets que si la sensibilisation des mineurs comme des adultes est améliorée et renforcée – votre commission d’enquête y contribuera. Il n’est certes pas facile de surveiller ce que font les enfants sur leur smartphone et les parents ne sont pas égaux face à cette tâche, mais cela reste le premier degré de régulation. Il s’agit donc, en complément des obligations imposées aux plateformes qu’il faut faire respecter, d’un autre volet de la politique à conduire.

Pour conclure, le DSA est, à mon sens, un outil efficace dont nous devons nous saisir. Pour exploiter pleinement son potentiel, il faut donner les moyens à tous les acteurs – associations, chercheurs, administrations – de conduire des actions pertinentes.

M. Pouria Amirshahi, président. Je vous remercie d’avoir répondu par anticipation à la question sur la nature de la coopération entre l’Arcom et la Commission européenne pour assurer le respect des dispositions du DSA.

Mme Laure Miller, rapporteure. Vous avez mentionné le nombre de personnes qui se consacrent à ce dossier au sein de l’Arcom. Pourriez-vous nous expliquer concrètement en quoi consiste leur travail et comment vous vous organisez pour assurer une veille, recueillir les informations et les faire remonter ? Quel lien entretenez-vous avec la Commission européenne et vos homologues européens – vous avez évoqué notamment un comité européen pour les services numériques ?

M. Martin Ajdari. La Commission européenne est à la tête de l’architecture juridique de régulation des grandes plateformes. Toutefois, à la différence du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA) dont elle traite directement avec chacune des grandes plateformes, elle se repose davantage, s’agissant du DSA, sur le coordinateur du pays d’installation des plateformes – souvent l’Irlande ou les Pays-Bas – et sur les coordinateurs nationaux, puisque les services sont déployés de manière différente selon les États. Les coordinateurs nationaux se réunissent tous les mois au sein de ce que nous appelons le comité européen pour les services numériques – le DSA board – au sein duquel la Commission présente l’avancement des différentes briques du règlement européen qui a été adopté à la fin de l’année 2022 et qui est entré en vigueur au milieu de l’année 2023. C’est donc une architecture neuve, d’autant que la plupart des coordinateurs nationaux ont été désignés en 2024 – deux ou trois pays n’en ont d’ailleurs pas encore nommé. Même si nous avons commencé à entrevoir la plupart des risques auxquels les mineurs sont exposés dès le début des années 2010, notamment en matière d’exposition à la pornographie, la réponse est relativement récente.

Nous alertons la Commission et nous lui faisons remonter régulièrement, dans un système d’alerte et de partage d’informations appelé Agora, les cas qui nous sont signalés, par exemple par des parlementaires – nous avons ainsi saisi la Commission sur le système de recommandation de X, à la suite d’une plainte déposée par une sénatrice et une députée européenne française.

En interne, les 23 ETP sont répartis entre la direction des plateformes en ligne, représentée ici par Mme Lucile Petit, la direction des affaires européennes et internationales qui assure la coordination avec la Commission et la direction des études. Le rôle de la direction des plateformes en ligne est de transposer en France l’architecture du DSA, d’organiser les relations avec les signaleurs de confiance – y compris le recueil des dossiers de candidature à ce statut –, ainsi qu’avec les chercheurs éventuellement – même si cela relève davantage de la direction des études –, et d’être en contact avec l’ensemble des acteurs français, tels que la délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la haine anti-LGBT (Dilcrah) ou les organisations de suivi de la haine en ligne ou de protection des consommateurs.

Mme Lucile Petit, directrice des plateformes en ligne. Nous sommes également chargés du suivi de l’application du DSA par les fournisseurs de services intermédiaires français, dont le nombre est estimé à 200 environ – nous continuons de les recenser tant le champ est large. Bien que ces acteurs, qui incluent les places de marché, soient plus petits que les très grandes plateformes en ligne et que leurs moteurs de recherche soient moins puissants, ils sont tout de même assujettis au DSA : nous devons les accompagner, notamment par de la pédagogie. Ils devront publier cette année, pour la première fois, un rapport de transparence. Le Parlement a confié à l’Arcom la mission de réaliser elle-même un rapport sur ceux-ci. Par conséquent, les équipes sont aussi mobilisées par le volet français de cette mission.

M. Martin Ajdari. Les places de marché, telles que BlaBlaCar, Doctolib ou autres, peuvent poser des problèmes de protection des consommateurs, d’arnaques ou de discrimination en ligne – pour du logement par exemple. Ce sont ces mêmes effectifs de l’Arcom qui sont chargés d’assurer le suivi, en France, des garanties de transparence et de précaution exigées des acteurs.

Mme Laure Miller, rapporteure. En tant qu’autorité, avez-vous des relations directes avec TikTok et quelles sont-elles ? Obtenez-vous les informations que vous demandez ?

M. Martin Ajdari. Nous avons des relations d’assez bonne qualité au quotidien.

Mme Lucile Petit. Nous sommes en relation avec l’équipe française de TikTok depuis des années, puisque la plateforme était concernée par la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information. Nos échanges consistent à associer TikTok à l’Observatoire de la haine en ligne – ses représentants sont présents à chaque réunion –, à recueillir les informations de la plateforme sur les modifications apportées à ses modalités de modération ou à ses conditions générales d’utilisation. Lorsque nous repérons un problème ou organisons un cycle d’auditions, comme cela a été le cas au cours des périodes électorales, nous avons des échanges bilatéraux, voire multilatéraux, toutes les deux semaines, pour que TikTok nous fasse remonter d’éventuelles difficultés et alertes. Cependant, l’accès aux données en tant que telles, que permet l’article 40 du DSA, n’est pas ouvert aux coordinateurs des pays de destination.

M. Martin Ajdari. Il ne s’agit pas pour nous de faire du TikTok-bashing en tant que tel. Par exemple, TikTok est l’une des plateformes qui traite le plus rapidement les signalements qui lui sont faits et, d’un point de vue administratif, la réaction est satisfaisante. Il n’en demeure pas moins que des risques évidents ont été identifiés et que vous avez signalés : c’est ce sur quoi nous devons nous concentrer.

M. le président Arthur Delaporte. Je vous remercie pour le travail que vous effectuez avec des moyens limités. Comprenez-vous l’impatience des citoyens et leur sentiment que le régulateur est impuissant ? Le Collectif d’aide aux victimes d’influenceurs (AVI), que nous venons d’auditionner, a évoqué le cas d’influenceurs dont TF1 fait la publicité et qui renvoient vers des canaux de copy trading – pratique illégale consistant à copier les investissements de traders. Le Collectif a beau faire des signalements, tout le monde lui répond qu’il n’y a pas de problème. Comprenez-vous qu’on se demande où est la police ?

M. Martin Ajdari. Nous comprenons cette frustration ; nous la partageons et la relayons auprès du comité européen pour les services numériques, notamment en ce qui concerne la protection des mineurs. Encore une fois, le DSA est très récent.

Je n’ai pas connaissance de la saisine du Collectif AVI, mais j’essayerai de la retrouver pour voir si un lien peut être fait entre TF1 et cet influenceur qui valorise des pratiques critiquables.

L’interdiction de l’accès des mineurs à la pornographie en ligne a fait l’objet d’une première tentative législative, qui s’est toutefois révélée insatisfaisante sur le plan juridique, dans son articulation avec le droit européen. Elle a été inscrite dans la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique dite loi Sren. Nous avons ensuite publié un référentiel demandant aux plateformes installées en France et en dehors de l’Union européenne d’installer un outil de vérification de l’âge des utilisateurs. Sur les six sites que nous avons contrôlés, l’un a été bloqué parce qu’il ne communiquait pas l’identité et l’adresse de son fournisseur ; les cinq autres ont déployé des systèmes de vérification de l’âge, dont nous sommes en train d’examiner s’ils répondent parfaitement au référentiel.

À compter du mois de juin, nous écrirons aux plateformes les plus importantes installées dans l’Union européenne, comme PornHub et YouPorn, pour leur demander d’installer à leur tour cet outil. Elles essaieront sans doute de le contester ou d’engager des manœuvres dilatoires, mais nous avançons ; on ne peut pas dire qu’il n’y a aucun résultat. Une large part des signalements effectués auprès des grandes plateformes sont suivis d’effet ; en général, quand nos interlocuteurs – les associations e-Enfance ou Point de contact, le Conseil représentatif des institutions juives de France (Crif) – les saisissent, ils obtiennent des résultats. Les signaleurs de confiance permettront de repérer de façon plus systématique et objective les insuffisances des plateformes. Je ne partage donc pas l’idée que cela ne marche pas, même si cela ne marche pas assez, pas assez vite.

M. Pouria Amirshahi, président. Une étude de Médiamétrie montre que les utilisateurs ont des usages différenciés des réseaux sociaux selon leur profil et leur âge. D’après vous, toutes les plateformes présentent-elles des risques identiques, ou sont-ils eux aussi différenciés ?

M. Martin Ajdari. La consommation des plateformes étant multiforme, il est difficile d’apporter une réponse unique. Certains risques sont très bien identifiés : la loi proscrit ainsi l’accès des mineurs aux contenus pornographiques et aux jeux d’argent.

La conception même des plateformes renforce-t-elle la nocivité de contenus qui, en soi, ne sont pas forcément illégaux ? C’est ce que l’on pressent pour un réseau social dont l’algorithme est particulièrement addictif, en comparaison avec une plateforme qui s’apparente plutôt à une messagerie privée, dans un environnement plus fermé. Les services dont le modèle économique repose sur l’engagement, comme les réseaux sociaux, peuvent sans doute produire, par effet de surexposition, des risques plus élevés d’addiction et d’enfermement, même si chaque contenu pris isolément est rarement illégal ou dangereux. Nous devons mettre en évidence ce phénomène et le documenter par un travail d’instruction scientifique, voire presque pénale. Nous souhaitons que des chercheurs accèdent à des données pour approfondir le sujet puis relayer leurs résultats auprès de la Commission européenne – telle est la logique du DSA.

Mme Laure Miller, rapporteure. Nous avons le sentiment de vider la mer à la petite cuiller. Vous signalez certains contenus à la Commission européenne, lesquels sont bannis ou modérés, mais il y en a tellement ! Les jeunes sont confrontés aux écrans sans aucune modération – il n’y a qu’à écouter les familles de victimes que nous avons auditionnées. Je me rends chaque semaine dans des collèges ou des lycées ; hier encore, une jeune fille m’expliquait que l’émoticône de la pizza faisait accéder à des contenus extrêmement problématiques. Tout cela pullule sur un réseau social comme TikTok.

Vous dites relayer les frustrations auprès du comité européen pour les services numériques, mais quelles sont vos attentes concrètes ? L’échelle européenne est sans doute la plus pertinente, mais trois ans après son entrée en vigueur, le DSA n’est pas pleinement appliqué. Pendant ce temps, les plateformes redoublent d’inventivité pour capter et monétiser toujours davantage l’attention. Aurons-nous un jour des plateformes satisfaisantes ? Que faut-il de plus que le DSA pour parvenir à une modération efficace, en particulier à l’égard des mineurs ?

M. Martin Ajdari. Dans la construction juridique européenne à laquelle nous appartenons, les lignes directrices de la Commission constituent des réponses précises sur différents paramètres. Si nous pouvons conditionner l’accès aux réseaux sociaux à une vérification de l’âge, ce sera une réponse. Nous pouvons imposer à des services comme Instagram ou YouTube d’installer des paramétrages protecteurs pour les adolescents, et les sanctionner s’ils n’y procèdent pas.

Mme Laure Miller, rapporteure. Pourquoi ne l’a-t-on pas encore fait ?

M. Martin Ajdari. On pourrait se demander pourquoi l’on a attendu pour interdire l’accès des mineurs aux contenus pornographiques. Songez qu’il a fallu du temps pour imposer le port de la ceinture de sécurité dans les véhicules, d’abord à l’avant puis à l’arrière. Malheureusement, de nombreuses protections sont déployées avec retard ; changer des habitudes ancrées demande du temps. Les lignes directrices permettront d’imposer des obligations aux plateformes à l’échelle européenne, quitte à les adapter au niveau national.

M. Alban de Nervaux, directeur général de l’Arcom. Ces lignes directrices sont extrêmement détaillées, exhaustives et précises. Elles sont de nature à permettre une évolution structurelle du modèle de ces services, à condition qu’elles soient effectivement appliquées et que les contrôles prévus aient lieu. La conviction de l’Arcom est qu’on ne peut pas se contenter d’une régulation ex post consistant à retirer les contenus signalés, tous plus problématiques les uns que les autres – ce serait le tonneau des Danaïdes. L’enjeu est d’engager une évolution systémique, structurelle, du modèle de ces services. On peut estimer que les lignes directrices ne vont pas assez loin sur certains points, mais dans l’ensemble, elles constituent une avancée sans précédent.

Jusqu’à présent, le caractère assez général du DSA et de son article 28 pouvait être utilisé comme prétexte pour ne pas avancer. Or les lignes directrices sont des prescriptions précises touchant à la structure des services – évolution notoire. Elles entrent dans le détail concernant la vérification de l’âge ou les paramètres de protection installés par défaut pour les mineurs : interdiction des contacts avec des inconnus, désactivation de la lecture automatique, interdiction des notifications, a fortiori pendant les heures de sommeil, désactivation des filtres préjudiciables à l’image ou à la santé mentale et des fonctions ayant pour seul objet de maximiser le temps passé et l’engagement des utilisateurs. Saisissons cette occasion, parallèlement aux enquêtes que mène la Commission, et qui avancent – en témoignent les conclusions préliminaires relatives à l’obligation pour TikTok de publier un registre des publicités, en application de l’article 39 du DSA. Les publicités sont aussi le nerf de la guerre et présentent des enjeux systémiques pour les plateformes.

Mme Laure Miller, rapporteure. La question de l’âge minimal pour accéder aux réseaux sociaux s’invite dans le débat public, en France mais peut-être aussi ailleurs. Qu’en pensez-vous ? Au-delà des amendes, de quels moyens disposons-nous pour obliger TikTok à respecter la limite d’âge de 13 ans ? Si TikTok est sanctionné financièrement et refuse d’obtempérer, pouvons-nous aller jusqu’à supprimer la plateforme ?

M. Martin Ajdari. Si TikTok ne se conforme pas à ses obligations de manière répétée, malgré les injonctions de la Commission, elle peut se voir infliger une amende équivalant à 6 % de son chiffre d’affaires mondial ; puis vient la possibilité d’une suspension – cela existe. À court terme et de façon pragmatique, nous pouvons demander aux plateformes de respecter certaines obligations, à commencer par leurs propres conditions générales d’utilisation qui fixent la limite d’âge à 13 ans. Ces CGU sont la norme aux États-Unis ; chaque plateforme les a reprises à son compte.

Si nous voulions imposer une limite d’âge à 15 ans, comme la ministre chargée du numérique l’a évoqué, ce pourrait être une démarche politique conduite avec d’autres États membres en vertu du principe de précaution. Il y a de bonnes raisons de penser qu’en matière de santé publique, ne pas accéder aux réseaux sociaux avant 15 ans ne serait pas une très mauvaise idée. Tel que le règlement est conçu, cela nécessiterait une décision des États membres de réviser le DSA ou une décision politique de l’Union européenne, respectant les règles de majorité du Conseil et du Parlement, d’interdire les réseaux sociaux avant 15 ans. À mon avis, cette démarche n’est pas hors de portée car tous les États partagent cette préoccupation.

Une autre approche – pouvant être transitoire, avant de remonter l’âge limite – consisterait à appliquer tous les outils disponibles. En effet, les réseaux sociaux ne sont pas intrinsèquement dangereux en dessous de 15 ans ; tout dépend du type de service, des limitations au caractère addictif de l’algorithme, des paramétrages d’accès, de la vérification de l’âge…

Il peut donc y avoir deux approches. On peut comprendre que l’impatience, la frustration et les dangers observés conduisent à privilégier le principe de précaution, mais cette voie requiert des étapes politiques. Une approche plus pragmatique consiste à forcer les plateformes à déployer certains outils. La capacité à faire appliquer des paramétrages, des règles et des principes protecteurs fera office de test pour juger de la nécessité d’aller plus fort, plus vite et plus loin en remontant la limite d’âge.

M. Pouria Amirshahi, président. L’Arcom peut-elle adresser en propre des injonctions ou des avertissements à TikTok, indépendamment des faits incriminés par la Commission européenne, ou ne peut-elle le faire qu’à la demande de cette dernière ?

M. Martin Ajdari. Nous transmettons des alertes à la Commission, qui s’en saisit : elle peut demander des informations à TikTok, éventuellement lui imposer de conserver toutes ses données de trafic pour mener une enquête plus approfondie. Cette enquête contradictoire prend du temps, causant impatience et frustration. La Commission peut enfin prononcer une sanction. En revanche, l’Arcom ne peut pas prendre de sanction contre les plateformes comme TikTok.

M. Pouria Amirshahi, président. Le fait que TikTok soit domicilié en Irlande vous empêche-t-il de lui adresser des avertissements ?

M. Martin Ajdari. Nous pouvons faire remonter des alertes à la Commission ou à notre interlocuteur en Irlande, selon qu’une enquête a été engagée ou non par la Commission. Nous leur demandons d’étudier tel ou tel problème constaté par nos soins ou par des tiers – chercheurs, ONG, associations, élus.

Mme Laure Miller, rapporteure. Qu’en est-il des deux enquêtes dont TikTok fait l’objet ? L’Arcom est-elle associée aux travaux de la Commission ?

Mme Lucile Petit. La Commission peut demander des éléments aux coordinateurs nationaux si elle en ressent le besoin, mais ce n’est pas systématique.

Plusieurs enquêtes sont en cours au sujet de TikTok. L’une, ouverte en février 2024, porte sur la conception des interfaces et des systèmes de recommandation, en lien, notamment, avec la protection des mineurs. Dans ce cadre, une procédure vise le service TikTok Lite. Ce dernier n’étant disponible qu’en Espagne et en France, la Commission nous a demandé de lui fournir des éléments d’analyse ; nous y avons répondu dans le délai court – quelques jours – dont nous disposions. En revanche, nous n’avons pas été associés à l’enquête relative à la bibliothèque publicitaire.

M. Martin Ajdari. Il me semble que cette enquête était liée au processus électoral en Roumanie, mais nous n’avons pas eu d’information officielle sur le sujet.

Pour assurer la sécurité juridique de la procédure, la Commission observe le silence pendant toute la durée de l’instruction. Comme l’instruction peut durer six, douze voire dix-huit mois, cela peut occasionner des incompréhensions de la part des coordinateurs nationaux, qui n’obtiennent aucune réponse à leurs questions. Nous sensibilisons la Commission au besoin d’être associés à l’avancement de ses démarches, mais il est compréhensible qu’elle veuille garantir la sécurité juridique de l’instruction.

M. Pouria Amirshahi, président. Parmi les risques ou délits identifiés sur les plateformes, vous avez cité l’accès à la pornographie pour les mineurs, les incitations abusives à la consommation ou encore la promotion de pratiques dangereuses pour la santé, comme l’anorexie. Qu’en est-il du recrutement de candidats – possiblement mineurs – au narcotrafic ou à la commission d’actes délictueux ? Nous savons que les prises de contact peuvent passer par les plateformes.

M. Martin Ajdari. Tout passe malheureusement par les plateformes, y compris ces pratiques.

Mme Lucile Petit. Le DSA impose à chaque plateforme d’évaluer les risques systémiques induits par ses usages et ses fonctionnalités, parmi lesquels figure « tout effet négatif, réel ou prévisible sur […] la sécurité publique ». Il faut toutefois préciser que le DSA ne s’applique pas aux messageries privées des plateformes.

Mme Laure Miller, rapporteure. De nombreux contenus problématiques captent des utilisateurs sur les réseaux sociaux et les renvoient très rapidement vers des messageries privées comme WhatsApp ou Telegram. Avez-vous des pistes pour endiguer ce phénomène face auquel nous sommes démunis ?

M. Martin Ajdari. Les messageries privées ne sont pas complètement à l’écart du champ du DSA et elles peuvent se prêter à l’analyse des risques. Cependant, le caractère systémique de ces derniers est moins facile à mettre en évidence pour des messageries fermées que pour des systèmes ouverts comme TikTok.

Mme Lucile Petit. C’est une vraie préoccupation, qui renvoie à l’aptitude à coopérer des réseaux mi-publics, mi-privés. Quant aux messageries cryptées de bout en bout, elles présentent des risques pour la sécurité des utilisateurs, leurs données personnelles et leur vie privée.

Mme Laure Miller, rapporteure. Pourriez-vous nous en dire plus sur la participation de TikTok à l’Observatoire de la haine en ligne ? Les contenus haineux sont très présents sur cette plateforme en particulier. Comment parvenez-vous à échanger avec ses responsables ? N’est-il pas illusoire de penser que les choses pourraient évoluer favorablement ?

Les plateformes sont aujourd’hui de simples hébergeurs mais, leur rôle n’étant pas neutre dans la diffusion des contenus, elles pourraient être considérées comme des éditeurs. Vous semble-t-il que cette question pourrait revenir dans le débat à l’échelon européen ?

M. Martin Ajdari. Les exigences du DSA vis-à-vis des plateformes sont supérieures à celles imposées aux simples hébergeurs : les plateformes ne sont pas uniquement contraintes de retirer les contenus illicites, elles doivent également, sous peine d’encourir des sanctions assez importantes, fonctionner de manière transparente, évaluer les risques et y répondre.

Considérer qu’elles seraient éditrices des contenus reviendrait à faire un pas de trop, en tout cas aujourd’hui. Elles organisent et mettent à disposition les contenus mais elles ne les créent pas. Leur responsabilité est évidente, mais je ne la qualifierais pas d’éditoriale ; c’est une responsabilité de fournisseur de service en ligne. Si le service comporte des risques importants, ceux-ci doivent être mesurés et corrigés. À défaut, le service doit être supprimé ou sanctionné.

M. Alban de Nervaux. Le DSA a tranché pour un temps le débat sur le statut des plateformes et il ne me semble pas qu’il faille le remettre à l’ordre du jour. Les déterminants ayant conduit à la création d’un régime de responsabilité particulier, singulièrement renforcé par rapport à celui des hébergeurs, restent les mêmes. Ces plateformes contribuent à leur manière à la liberté d’expression. Il pourrait être disproportionné de les rendre comptables de l’infinie quantité de contenus qui transitent par leur intermédiaire.

Il n’y a pas eu de consensus parmi les États membres, lors de la négociation du DSA, pour leur conférer le statut d’éditeur ou les investir d’une responsabilité comparable ; je ne pense pas qu’il y en aurait davantage aujourd’hui. Cette voie ne me semble la plus judicieuse ni sur le plan politique ni sur le plan juridique. Nous devons continuer de privilégier celle qui consiste à tirer le maximum du potentiel qu’offre le DSA et à être particulièrement exigeants sur le respect par les très grandes plateformes en ligne de leurs obligations – sachant que l’essentiel des travaux est encore devant nous.

Mme Lucile Petit. L’Observatoire de la haine en ligne a été installé quelques semaines après la promulgation de la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet. Il comprend une cinquantaine de membres. Dès les premières réunions, la question de la mesure de la haine en ligne s’est posée et l’ensemble des membres ont constaté que l’on manquait de données pour cette tâche.

L’Observatoire s’est réuni quarante à cinquante fois en cinq ans, pour traiter notamment de sujets concrets. L’an dernier, nous avons organisé deux réunions pour anticiper, avec l’ensemble des membres et de façon élargie avec le ministère de la justice et celui des sports, les risques susceptibles de survenir en ligne au moment des Jeux olympiques. Chacun a pu évoquer les risques et les craintes qu’il avait identifiés mais aussi présenter les mesures déjà déployées : ces rencontres ont été l’occasion de créer des canaux. Nous nous servons de l’Observatoire comme d’un espace de dialogue et de régulation, dans lequel les plateformes sont toujours présentes.

Grâce à un règlement d’exécution de la Commission entrant en vigueur à partir du semestre prochain, nous disposerons bientôt, au sujet de la modération par les plateformes, de chiffres très précis et harmonisés. Nous avons bon espoir aussi qu’une fois en place, les bibliothèques publicitaires donneront, avec certains outils offerts par le DSA, un souffle nouveau aux travaux d’observation.

M. le président Arthur Delaporte. Le cas de X est sans doute l’exemple le plus flagrant de mise en avant de contenus d’extrême droite au travers d’un algorithme. Dans un cas comme celui-ci, ne peut-on pas considérer que le réseau a une responsabilité éditoriale ? De la même façon, TikTok a fait le choix d’un algorithme qui promeut des contenus problématiques auprès d’utilisateurs ayant une tendance à la tristesse, par exemple. N’y a-t-il pas, là aussi, une responsabilité éditoriale ? Ces logiques de promotion sont intentionnelles.

M. Martin Ajdari. S’agissant de la mise en avant de contenus par le propriétaire de la plateforme X au profit de son agenda politique, nous avons saisi la Commission au début de l’année 2025 et lui avons transmis les constats faits par des utilisateurs, notamment des élus. Elle examine actuellement le sujet. Si l’ensemble des fils suivis par les utilisateurs de X étaient inondés de contenus d’Elon Musk visant à promouvoir ses propres idées, peut-être pourrait-on se poser la question d’une responsabilité éditoriale, mais c’est un cas un peu particulier.

Lors des élections en Roumanie, il y a eu une suspicion d’utilisation de la plateforme TikTok par des intérêts étrangers ou locaux, lesquels auraient cherché à manipuler l’opinion. Un tel risque systémique doit être identifié, corrigé et, à défaut, sanctionné. Mais cela ne doit pas conduire, à mon sens, à considérer TikTok comme un service de nature éditoriale. La responsabilité liée aux risques manifestes ou supposés appelle des réponses que le DSA permet d’apporter.

La situation pourrait être différente dans le cas en cours d’instruction, donc encore supposé, d’Elon Musk et de X.

M. Pouria Amirshahi, président. J’entends bien la différence selon que l’on est propriétaire ou non du réseau, et le fait que la responsabilité éditoriale d’une plateforme ne saurait être engagée comme celle d’un titre de presse.

Les publications incitant à la haine – qu’elle soit raciste, xénophobe, antisémite, islamophobe, homophobe ou autres – constituent des délits et mettent en cause les fondements des démocraties. Vous dites qu’il faudrait les corriger : ce vœu reste assez général. Envisagez-vous d’avancer, dans le rapport que vous remettrez au Parlement, des recommandations plus spécifiques en la matière ?

M. Martin Ajdari. Quand les contenus sont illégaux – ce qui est le cas des publications racistes –, la question n’est pas celle de la responsabilité éditoriale : l’hébergeur a la responsabilité de les retirer. Il doit se mettre en situation de les identifier à l’avance et de répondre rapidement aux signalements, avec d’autant plus de diligence que les contenus sont dangereux et qu’ils sont signalés par des personnes réputées habilitées à le faire, comme les signaleurs de confiance. Beaucoup de contenus sont supprimés automatiquement – malheureusement pas tous. Le système est organisé de façon à permettre leur retrait très rapide.

M. Pouria Amirshahi, président. Un délai précis est-il fixé, ou le retrait doit-il seulement être « très rapide » ?

M. Martin Ajdari. Les contenus signalés par les signaleurs de confiance doivent être traités prioritairement, 50 % voire 75 % devant être retirés dans les 24 heures – c’est un objectif indicatif, susceptible d’être renforcé.

Ce n’est pas au sujet du retrait de contenus illicites que l’on nous signale le plus de problèmes, quand bien même ces contenus sont très nombreux. La question de l’identification de leur source se pose, tout comme celle de l’anonymat – même si celui-ci n’apporte plus le même degré de protection qu’il y a deux ou trois ans –, mais les obligations relatives à leur retrait sont très claires.

M. Pouria Amirshahi, président. Nous vous remercions de votre participation à cette audition.

M. Martin Ajdari. Nous vous remercions pour votre écoute. Nous préciserons et compléterons notre propos en vous transmettant des réponses écrites au questionnaire que nous avons reçu il y a quelques jours.

 

 

La séance s’achève à dix-huit heures dix.


Membres présents ou excusés

 

Présents. M. Pouria Amirshahi, M. Arthur Delaporte, M. Kévin Mauvieux, Mme Laure Miller, Mme Constance de Pélichy, M. Arnaud Saint-Martin, Mme Sophie Taillé-Polian