Compte rendu
Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs
– Audition, ouverte à la presse, de M. Miloude Baraka, co-fondateur de Live’up Agency 2
– Audition, ouverte à la presse, de M. Hugo Travers.............13
– Audition, ouverte à la presse, M. Mathieu Barrère, journaliste pour Envoyé spécial (France télévisions) 22
– Audition, ouverte à la presse, de M. Morgan Lechat............30
– Audition, ouverte à la presse, de Mme Anna Baldy............39
– Présences en réunion................................48
Mardi
3 juin 2025
Séance de 14 heures
Compte rendu n° 21
session ordinaire de 2024-2025
Présidence de
M. Arthur Delaporte,
Président de la commission
— 1 —
La séance est ouverte à quatorze heures dix.
La commission auditionne M. Miloude Baraka, co-fondateur de Live’up Agency.
M. le président Arthur Delaporte. Nous recevons l’agence Live’up Agency, qui accompagne des créateurs de contenus sur les réseaux sociaux, particulièrement sur TikTok et TikTok Live.
Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(M. Miloude Baraka prête serment.)
M. Miloude Baraka., co-fondateur de Live’up Agency. Je déclare n’être ni employé ni représentant de TikTok, bien que TikTok fasse partie de mes clients.
M. le président Arthur Delaporte. Pouvez-vous préciser si cette relation client implique des rémunérations de leur part ?
M. Miloude Baraka. Effectivement, nous facturons nos services à TikTok qui nous rémunère en conséquence.
Mon parcours dans le digital s’étend sur plus de huit ans, avec une focalisation sur les réseaux sociaux depuis environ cinq ans. Notre aventure a débuté sur Instagram avant de s’orienter vers TikTok il y a deux ans et demi, en réponse à l’émergence du marché du live.
L’agence Live’up Agency, fondée il y a deux ans et demi, poursuit deux objectifs principaux : accompagner les créateurs de contenus dans la professionnalisation de leur approche sur TikTok Live et offrir à nos clients une visibilité adaptée à leurs projets et leurs besoins spécifiques. Cette industrie étant encore jeune, nous contribuons activement à sa structuration et son développement.
Un document est projeté en séance.
Ma présentation contient une frise chronologique de nos réalisations. Notre agence a reçu huit nominations, qui témoignent de la reconnaissance de notre travail aux niveaux national, européen et international. Notre plus récente distinction, obtenue en mars dernier, est le prix de l’agence live MCN of the year (Multi-Channel Network), récompensant la diversité de notre offre de contenu sur TikTok. Cette reconnaissance, décernée en présence de plus de quatre-vingts agences leaders sur le marché européen, témoigne de l’aboutissement de notre travail ces deux dernières années.
Je souhaite également mettre en lumière quatre aspects essentiels de notre méthodologie d’accompagnement et de pédagogie, développée bien avant les débats actuels. Fin 2023, face à l’expansion du marché et à l’arrivée de nombreux acteurs, nous avons pris l’initiative d’élaborer la première charte déontologique du live. Ce document d’une quinzaine de pages, rédigé avec l’aide d’experts du domaine, aborde les questions éthiques et la protection des mineurs. Nous sommes actuellement en train de recueillir des signatures d’autres agences désireuses de collaborer avec nous sur ces principes.
Nous avons par ailleurs mis en place des process rigoureux pour former les créateurs de contenu, souvent novices dans ce domaine. Notre objectif est de leur enseigner les fondamentaux de la communication en direct, les bonnes pratiques à respecter et les lignes directrices essentielles pour une présence professionnelle sur les plateformes de live. Nous mettons également en place des formations continues et hebdomadaires pour nos créateurs de contenu. Lorsque de nouvelles personnes souhaitent intégrer notre agence, nous leur expliquons clairement les conditions requises, notamment le sérieux et l’engagement nécessaires.
Concernant spécifiquement la protection des mineurs sur TikTok, la plateforme a mis en place des mesures strictes puisque, par exemple, toute transaction financière, même minime, nécessite désormais une vérification d’identité avec présentation d’une pièce d’identité. Nous avons constaté que l’intelligence artificielle de TikTok est particulièrement vigilante. À titre d’illustration, si l’un de nos créateurs modifie sa voix pour la rendre plus enfantine dans le but d’amuser son audience, il risque un bannissement immédiat de la plateforme. Dans ce cas, nous devons fournir des justificatifs pour lever la sanction.
En tant qu’agence, nous avons une responsabilité importante vis-à-vis de TikTok concernant la qualité du contenu diffusé par nos créateurs, car la plateforme a mis en place un système de score de santé et d’amendes pour les agences. Ces pénalités sont calculées en fonction du nombre de créateurs actifs, avec un seuil de tolérance fixé à 0,8 %. Le système est complexe, mais il faut retenir qu’une agence dont le score de santé descend en dessous de 50 peut se voir interdire d’exercer sur TikTok.
Concernant l’industrie du live, bien que le concept existe depuis longtemps, l’approche de TikTok est novatrice. Nous avons identifié un besoin réel de formation, tant pour les créateurs de contenu que pour les agences souhaitant se lancer sur ce marché. C’est un domaine relativement nouveau, existant depuis seulement deux ans, ce qui explique l’absence de diplômes spécifiques. Cette nouvelle industrie crée des opportunités professionnelles inédites. Nous travaillons actuellement sur un projet d’Académie Live, dont l’ouverture est prévue pour septembre. Notre objectif est de permettre aux influenceurs de devenir salariés d’une entreprise, tout en les formant à communiquer efficacement et à produire du contenu pertinent.
Cependant, malgré nos efforts de formation et d’accompagnement, nous ne pouvons pas être tenus responsables des propos tenus par un créateur, notamment s’il diffuse du contenu inapproprié en dehors des heures de travail habituelles. C’est pourquoi nous réfléchissons à un modèle où les créateurs seraient salariés et travailleraient sur des horaires de bureau, permettant ainsi un meilleur contrôle et un respect plus strict de notre charte.
Pour améliorer leur accompagnement, nous avons développé des logiciels spécifiques. Le premier, nommé Live Success, offre une expérience gamifiée, centralise les formations, facilite le contact avec le manager et propose des missions quotidiennes, encourageant ainsi l’implication positive des influenceurs dans la démarche.
Concernant la protection des mineurs, je suis favorable à une forme de discrimination positive en proposant des contenus adaptés, car il manque des contenus éducatifs spécialisés pour les jeunes sur les plateformes, similaires à ce que proposaient des émissions comme « C’est pas sorcier » à la télévision. Cette diversité de contenus adaptés et attractifs pourrait contribuer à réduire l’exposition des mineurs à des contenus inappropriés.
La prévention auprès des parents est également essentielle, dans l’objectif de limiter le temps d’écran des enfants, quel que soit le support. J’approuve également l’idée de faire des écoles des sanctuaires d’interactions sociales réelles, en proposant par exemple que les élèves déposent leurs téléphones dans des casiers à l’entrée de l’établissement.
Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Pourriez-vous nous expliquer plus en détail le fonctionnement des lives et des live-matchs ainsi que leurs objectifs ?
Concernant la charte déontologique que vous avez mentionnée, serait-il possible de nous la transmettre pour que nous puissions en prendre connaissance ? Est-elle obligatoire pour les TikTokeurs que vous accompagnez ? Avez-vous déjà rencontré des cas de non-respect de cette charte et, le cas échéant, quelles mesures avez-vous prises ?
Vous avez indiqué être tenu responsable par TikTok de la qualité des contenus diffusés. Pourriez-vous nous en dire plus sur le score de santé que vous avez mentionné ? Quels sont les critères imposés par TikTok ? Avez-vous déjà eu des retours de la plateforme concernant des contenus jugés inappropriés ?
Enfin, concernant votre modèle économique, vous indiquez sur votre site internet que vous n’avez pas de lien de rémunération direct avec les créateurs que vous accompagnez, ces derniers conservant l’intégralité des revenus générés sur le réseau social. Comment vous rémunérez-vous ? TikTok est-il votre seule source de revenus actuellement ?
M. Miloude Baraka. Il existe plusieurs catégories de lives : les live-guests, les live‑gaming, les live-matchs, ainsi que d’autres types comme les lives artistiques. L’objectif des live-matchs est de mettre en scène deux influenceurs sur un même live, en face à face. Chacun amène sa propre communauté et le but est de soutenir son influenceur favori pendant cinq minutes, que ce soit par des tapotages, des partages, des likes, des commentaires ou des dons. Cette durée est limitée mais, si l’influenceur ou sa communauté souhaite poursuivre, ils peuvent relancer un match et continuer le live pour discuter, échanger sur divers sujets ou se lancer des défis.
Mme Laure Miller, rapporteure. Pourquoi vous êtes-vous spécialisé dans ce domaine ? Est-ce en raison de la rémunération générée par les dons ? Quel est l’intérêt pour un utilisateur TikTok de privilégier le live par rapport à d’autres formes de publication ?
M. Miloude Baraka. Notre spécialisation ne se limite pas aux live-matchs, mais concerne le live en général. Il faut comprendre que TikTok a transposé dans le monde numérique ce qui se passait autrefois dans la rue avec les artistes de rue, qui posaient leur chapeau et étaient soutenus par les passants selon leur bon vouloir. Aujourd’hui, TikTok permet de faire cela grâce à un smartphone. Les spectateurs peuvent interagir en s’abonnant, en aimant, en partageant, ou parfois en faisant un don allant d’un dixième de centime d’euro à plusieurs euros.
M. le président Arthur Delaporte. Voire à plusieurs centaines d’euros.
M. Miloude Baraka. En effet, cela dépend de la volonté et du budget des utilisateurs.
M. le président Arthur Delaporte. Pour filer cette métaphore, l’artiste de rue n’était généralement pas millionnaire. Parmi les personnes que vous accompagnez, quels sont les revenus mensuels les plus élevés générés par l’activité live ?
M. Miloude Baraka. Les revenus varient considérablement. Les influenceurs débutants gagnent entre 10 et 15 euros par mois. Comme dans toute activité, il y a une élite très restreinte qui performe exceptionnellement bien. Aujourd’hui, un TikTokeur très performant sur le live peut générer entre 10 000 et 20 000 euros par mois.
M. le président Arthur Delaporte. Parmi les personnes que vous accompagnez, qui dégage les revenus les plus importants ?
M. Miloude Baraka. Actuellement, les influenceurs spécialisés dans les jeux vidéo sont les plus performants. L’intérêt du live réside dans le fait que ces personnes ne sont pas nécessairement des célébrités avec des millions d’abonnés. Beaucoup de nos influenceurs gagnent plusieurs milliers d’euros et en font leur profession, avec seulement 20 000 à 30 000 abonnés. Notre meilleur performeur n’a que 150 000 abonnés. Cela remet en question l’économie traditionnelle des influenceurs, car le nombre d’abonnés n’est pas corrélé aux revenus générés en live. L’essentiel est d’avoir des spectateurs qui restent et interagissent pendant le live.
Mme Laure Miller, rapporteure. Pouvez-vous nous détailler votre méthode de formation ? Quels conseils donnez-vous pour réussir un live ?
M. Miloude Baraka. Notre approche s’intéresse tout d’abord à la motivation sincère de l’aspirant, qui peut être soit une curiosité et un désir d’apprendre, soit l’ambition d’en faire son métier. Ces intentions correspondent aux valeurs de Live’up. Ensuite, nous les guidons dans ce parcours exigeant, où la qualité du contenu est primordiale pour se démarquer, sur un marché qui n’en est encore qu’à ses balbutiements. Nos conseils de base incluent une posture correcte, un bon éclairage, une connexion internet stable et la préparation de sujets de discussion captivants. L’objectif est de créer une communauté engagée autour de sujets intéressants, ce qui est fondamental pour capter l’attention du public.
Mme Laure Miller, rapporteure. Concernant le contenu, donnez-vous des conseils sur les sujets à aborder ou la manière de se comporter pour capter rapidement l’attention ?
M. Miloude Baraka. Notre approche est progressive. Pour les débutants, nous insistons sur les bases que sont une présentation soignée, un bon éclairage et des sujets qui les passionnent. Notre rôle est d’être un baromètre de la société. Nous ne dictons pas le contenu à nos influenceurs mais identifions ce que le public apprécie, car c’est l’utilisateur qui décide ultimement quel contenu consommer. Grâce à notre large réseau d’influenceurs, nous pouvons déterminer les types de contenus qui suscitent le plus d’interactions.
M. le président Arthur Delaporte. Comment mesurez-vous cela ?
M. Miloude Baraka. Nous disposons d’une équipe de dizaines de managers en contact quotidien avec nos influenceurs. Avec 600 à 800 influenceurs actifs chaque jour, nous recueillons des données en temps réel sur les performances des lives. Dès qu’un live rencontre un succès particulier, nous analysons les facteurs de réussite, qu’il s’agisse d’un nouveau jeu créé ou d’une interview intéressante. Nous partageons ensuite ces constats avec d’autres influenceurs, favorisant ainsi l’innovation et la création de liens. Notre rôle n’est pas d’inventer les sujets de discussion, mais d’identifier et de promouvoir ce qui fonctionne le mieux auprès du public.
Mme Laure Miller, rapporteure. Pouvez-vous nous donner des exemples récents de lives qui ont particulièrement bien fonctionné ?
M. Miloude Baraka. La définition d’un live performant dépend des critères d’évaluation choisis. Pouvez-vous préciser ce que vous entendez par un live qui fonctionne bien ?
M. le président Arthur Delaporte. C’est à vous de nous éclairer sur ce point.
M. Miloude Baraka. Il existe en réalité plusieurs critères de succès, qui varient selon les objectifs spécifiques de chaque influenceur, indépendamment de l’agence. L’influenceur conserve son autonomie décisionnelle et, s’il souhaite mettre fin à sa collaboration avec l’agence, il peut le faire en toute liberté, avec un préavis de trente jours et ce, même si nous l’avons accompagné et formé pendant une année entière, lui permettant ainsi d’accroître significativement ses revenus. Cette flexibilité contractuelle explique pourquoi nous n’avons pas de lien financier direct avec l’influenceur : il conserve l’intégralité des gains générés lors de ses lives, sans que nous ne prélevions de commission sur ces revenus.
M. le président Arthur Delaporte. Vous percevez néanmoins un pourcentage sur les revenus additionnels qu’il génère, n’est-ce pas ?
M. Miloude Baraka. En réalité, notre modèle économique prévoit que pour chaque euro dépensé sur TikTok Live, 50 centimes reviennent à l’influenceur et 50 centimes à TikTok. C’est sur cette part de TikTok qu’une commission minime est reversée à l’agence.
M. le président Arthur Delaporte. Votre rémunération est donc proportionnelle aux dépenses effectuées sur un live pour financer un influenceur. En d’autres termes, vos revenus sont corrélés à ceux de l’influenceur. Est-ce bien cela ?
M. Miloude Baraka. La réalité est plus complexe, mais votre analyse comporte une part de vérité.
M. le président Arthur Delaporte. Pouvez-vous expliciter cette complexité ? Notre objectif est précisément de comprendre les mécanismes de financement dans ce domaine.
M. Miloude Baraka. TikTok établit les règles du jeu et utilise des algorithmes spécifiques pour calculer les rémunérations. Pour simplifier, il existe effectivement une corrélation entre la performance d’une agence, mesurée en termes de vues ou de diamants sur TikTok, et sa rémunération. Cependant, d’autres indicateurs de performance entrent en jeu. Une agence qui sous-performe par rapport au marché ou qui n’apporte pas de valeur ajoutée significative verra sa rémunération impactée. Notre capacité à accompagner efficacement les créateurs débutants est particulièrement importante. Une agence doit constamment démontrer sa compétitivité, notamment auprès des petits créateurs de contenu. C’est pourquoi il est difficile d’établir une règle générale. En résumé, bien qu’il existe une corrélation entre le chiffre d’affaires généré par un influenceur et la commission perçue par l’agence intermédiaire, cette relation n’est ni directe ni simple à quantifier.
Mme Laure Miller, rapporteure. Pourriez-vous nous donner des exemples concrets de lives que vous avez jugés particulièrement réussis récemment, tout en reconnaissant que les critères de succès peuvent varier selon les perspectives ?
M. Miloude Baraka. Nous évaluons le succès d’un live selon deux métriques principales qui sont le nombre de vues et le soutien apporté par la communauté à l’influenceur. Concernant les vues, les interviews sur des sujets d’actualité sont particulièrement performantes sur TikTok. Dès qu’un sujet devient viral, si un influenceur parvient à s’entretenir avec une personne concernée, cela génère immédiatement un fort engouement. Ces lives peuvent accueillir jusqu’à huit participants simultanément et atteindre rapidement 1 200 à 1 300 spectateurs en temps réel.
Pour ce qui est du soutien de la communauté, l’aspect divertissement est primordial. Un influenceur capable de captiver son audience, par exemple en proposant un one-man-show humoristique de qualité, aura un fort potentiel de monétisation sur TikTok. Les spectateurs appréciant le contenu seront enclins à soutenir financièrement le créateur, même pour des montants modestes. La capacité à performer, au sens littéral du terme, est centrale. Certains influenceurs excellent dans l’interaction avec leur communauté, notamment dans le domaine des jeux vidéo, en impliquant les spectateurs dans le gameplay. Cette interaction crée un lien de proximité et incite les spectateurs à participer activement.
Les liveurs professionnels les plus performants adoptent une approche similaire à celle des présentateurs télé, en établissant des horaires de diffusion réguliers et en proposant une programmation planifiée, permettant ainsi à leur audience de les retrouver à des moments précis. Ce niveau de professionnalisme se caractérise par une discipline irréprochable.
Un autre facteur clé de succès réside dans la cocréation de contenu avec la communauté. Les influenceurs les plus performants interagissent constamment avec leurs abonnés, sollicitant leur avis sur les futurs contenus et adaptant leur programmation en fonction des retours reçus. Cette approche collaborative renforce l’engagement de la communauté et assure que le contenu proposé corresponde aux attentes du public.
M. le président Arthur Delaporte. Vous avez précédemment évoqué l’importance de créer un sentiment de proximité, presque d’amitié, entre l’influenceur et son public. Dans le cadre de notre commission d’enquête, nous nous interrogeons sur les potentiels effets néfastes de ces relations parasociales, notamment en termes de dépendance ou d’addiction. De plus, les mécanismes de gamification que vous avez mentionnés peuvent également favoriser des comportements addictifs. Êtes-vous conscient de ces risques ? N’existe-t-il pas un danger que certains spectateurs, dans leur désir d’établir une relation amicale avec l’influenceur, se retrouvent indirectement exploités en donnant de l’argent ?
M. Miloude Baraka. Je considère tout excès comme néfaste. Notre première expérience problématique remonte à environ deux ans, impliquant une influenceuse extérieure à notre agence qui aurait feint des relations amoureuses avec certains fans pour des gains financiers. Cet incident a été révélateur et a conduit à une réflexion approfondie sur notre approche des lives. Face à cette situation, qui a entraîné des conséquences graves pour la victime manipulée émotionnellement, nous avons instauré des limites claires au sein de l’agence. Nous insistons désormais auprès de nos influenceurs pour que leurs interactions avec leur communauté se cantonnent strictement aux lives TikTok.
Nous sommes conscients de la détresse sociale omniprésente sur les réseaux sociaux, puisque nos influenceurs reçoivent fréquemment des messages de personnes en difficulté sollicitant de l’aide. Il est d’ailleurs essentiel de préserver également la santé mentale de nos influenceurs, qui pourraient être tentés d’intervenir par empathie. Cependant, l’expérience montre que les interactions qui débordent du cadre de TikTok se terminent généralement mal, malgré de bonnes intentions initiales.
Notre directive est claire : les influenceurs doivent se comporter en professionnels sur TikTok, faire preuve de bienveillance lors des lives et répondre aux questions, mais ne jamais sortir de ce cadre. En cas de situation délicate, nous leur recommandons une réponse type : « Je comprends votre situation difficile. Je vous encourage à vous tourner vers vos proches ou des amis. Si nécessaire, n’hésitez pas à consulter un expert dans le domaine. » Cette approche vise à gérer les interactions potentiellement problématiques ou malsaines.
Mme Laure Miller, rapporteure. Pouvez-vous préciser si la charte déontologique est respectée par l’ensemble de vos influenceurs et, le cas échéant, quelles sont les conséquences en cas de non-respect ? Vous avez mentionné être tenu responsable par TikTok de la qualité du contenu produit par vos influenceurs. Pourriez-vous développer ce point, notamment en ce qui concerne les amendes et le score de santé, ainsi que leurs implications concrètes ?
M. Miloude Baraka. L’objectif principal de la charte est de fédérer les différents acteurs du live pour qu’ils s’efforcent de l’appliquer à leurs créateurs de contenu. Il faut comprendre que nous gérons plus de 2 800 influenceurs, dont environ 1 200 actifs. Il est humainement impossible de garantir le respect absolu de la charte par chacun d’entre eux.
Cette charte déontologique vise donc avant tout à établir un consensus pour professionnaliser la démarche au niveau des agences. Notre stratégie consiste à collaborer avec les directeurs d’agences, qui gèrent collectivement entre 10 000 et 20 000 influenceurs, pour mettre en place des outils pédagogiques similaires aux nôtres. C’est ainsi que nous pourrons être le plus efficaces.
Quant aux conséquences du non-respect, notre seul pouvoir juridique est l’exclusion de l’agence. Nous procédons à un nettoyage mensuel, en supprimant entre 20 et 100 créateurs de contenu qui ne répondent pas à nos critères. C’est notre unique moyen d’action concret.
M. le président Arthur Delaporte. Cela signifie que vous écartez approximativement 10 % de votre effectif de 1 200 influenceurs chaque mois.
M. Miloude Baraka. C’est une estimation correcte, en effet.
M. le président Arthur Delaporte. Ce chiffre révèle l’existence de dérives significatives parmi les créateurs.
M. Miloude Baraka. Il s’agit plutôt d’une question d’adéquation avec les intérêts et la vision de l’agence. Si un influenceur ne s’implique pas suffisamment ou ne partage pas notre approche, nous préférons ne pas poursuivre la collaboration. Cela ne signifie pas nécessairement que son comportement soit problématique.
Notre approche est similaire à celle d’un coach sportif envers ses athlètes. Nous établissons avec chaque influenceur professionnel un calendrier de lives dont le non-respect répété entraîne des avertissements, puis potentiellement une exclusion. Cette rigueur s’applique également aux rendez-vous manqués ou aux comportements inappropriés sur TikTok.
Les motifs d’exclusion peuvent être aussi simples que des absences répétées lors de sessions prévues, ou aussi graves que des contenus irrespectueux ou des propos déplacés sur la plateforme. Notre objectif est de maintenir un niveau de professionnalisme et de respect conforme à nos standards.
Mme Laure Miller, rapporteure. Pouvez-vous préciser l’effectif de votre agence ?
M. Miloude Baraka. Notre entreprise est exclusivement composée de prestataires de services travaillant à temps partiel. Grâce à l’automatisation que nous avons mise en place, chaque intervenant ne consacre que quatre à cinq heures par semaine maximum à ses tâches. Leur rôle principal consiste à assurer un suivi psychologique et à répondre aux questions que notre logiciel ne peut traiter. Cette approche nous permet d’être particulièrement performants en créant une expérience gamifiée.
Il nous est matériellement impossible de surveiller en permanence tous les lives de l’ensemble de nos influenceurs. Avec 800 influenceurs actifs simultanément, nous ne disposons ni des ressources humaines ni des infrastructures nécessaires pour un tel contrôle. Cependant, notre force réside dans la communication naturelle entre les influenceurs au sein de l’agence. Ce réseau nous permet d’être alertés rapidement sur les points nécessitant une vigilance particulière. Chaque manager est responsable d’une équipe d’influenceurs. Dans la majorité des cas, après une formation initiale et un accompagnement de deux à trois mois, l’influenceur devient autonome et performant. Notre intervention se limite alors à un audit mensuel d’une heure. Lors de cet entretien, nous analysons les statistiques, évaluons le ressenti de l’influenceur et définissons les objectifs à venir.
Mme Laure Miller, rapporteure. Pouvez-vous nous éclairer sur l’attitude de TikTok face aux contenus jugés inappropriés ?
M. Miloude Baraka. Sur ce point, je considère que de nombreux progrès restent à faire. TikTok adopte une approche excessivement punitive envers les agences, ce qui pose des problèmes au quotidien. Nous sommes confrontés à des amendes parfois injustifiées, tant dans leur principe que dans leur montant. Il semble que TikTok utilise une intelligence artificielle pour détecter les contenus potentiellement problématiques, mais ce système manque cruellement de nuance, notamment en ce qui concerne la compréhension de l’humour et des expressions idiomatiques.
Je peux vous citer un exemple récent et frappant. Un de nos influenceurs a été banni définitivement, sans possibilité de recours, pour avoir utilisé l’expression « je n’aime pas quand il y a des blancs comme ça » en parlant d’un silence dans une conversation. L’IA a interprété cela comme un propos raciste, ignorant totalement le contexte et le sens réel de l’expression. L’utilisation de l’expression « on n’a qu’à se suicider avec des andouillettes », une formule humoristique du sud de la France, a également été sanctionnée. Ces exemples montrent à quel point le système de modération automatique de TikTok peut être déconnecté des réalités linguistiques et culturelles et illustrent les défis quotidiens auxquels nous sommes confrontés.
Ainsi, malgré notre formation approfondie et notre accompagnement des influenceurs, nous recevons en moyenne quinze à vingt signalements automatiques par mois de la part de TikTok. Ces signalements concernent notre base de 1 200 influenceurs, dont environ 1 000 sont actifs. Je précise ici que je fais uniquement référence aux signalements émanant de l’algorithme de TikTok, et non à ceux effectués par les utilisateurs.
M. le président Arthur Delaporte. Lorsqu’un influenceur reçoit un signalement, en êtes-vous systématiquement informés ? Avez-vous accès à ces notifications concernant les contenus de vos influenceurs ?
M. Miloude Baraka. En règle générale, nous sommes effectivement notifiés des signalements émis par le système de TikTok, malgré quelques dysfonctionnements occasionnels. En revanche, nous ne recevons aucune information concernant les signalements effectués par les utilisateurs.
M. le président Arthur Delaporte. Vous n’avez donc aucune visibilité sur les actions des spectateurs envers vos influenceurs ?
M. Miloude Baraka. Effectivement, nous n’avons accès qu’au résultat final. Nous recevons un rapport uniquement lorsqu’un influenceur accumule un certain nombre de signalements aboutissant à un bannissement. Nous contactons alors TikTok pour obtenir des éclaircissements sur la situation, en demandant si le bannissement est justifié ou non. TikTok procède alors à une vérification humaine de la diffusion en question. Si le bannissement s’avère injustifié, le compte est rétabli.
Mme Laure Miller, rapporteure. Pouvez-vous expliciter le score de santé et nous indiquer combien d’amendes vous avez déjà reçues de la part de TikTok ?
M. Miloude Baraka. Le système de score de santé, qui est un mécanisme particulièrement strict, a été mis en place par TikTok il y a environ neuf mois. Sans entrer dans les détails techniques, toutes les infractions de contenu sont classifiées et pondérées selon leur gravité. Le seuil critique est fixé à 0,8 % de bannissements effectifs sur l’ensemble des influenceurs d’une agence, qu’ils soient actifs ou non, sur une période d’un mois. TikTok a également introduit une variable de récurrence, ce qui signifie qu’une agence peut se voir infliger une amende conséquente même si elle reste sous le seuil de 0,8 %, dans le cas où un même influenceur accumulerait trois signalements.
Le score de santé est noté de 0 à 100. Si une agence descend en dessous de 50, elle perd le droit d’opérer sur TikTok. Un tel résultat ne peut être atteint que si l’agence néglige totalement la gestion de ses influenceurs. TikTok nous accorde environ deux semaines pour fournir des preuves de notre accompagnement des influenceurs concernés, mais je dois admettre que ces preuves sont systématiquement rejetées, même lorsque nous démontrons la participation des influenceurs à nos formations.
Les différents types de signalements sont hiérarchisés selon leur gravité. Par exemple, les sollicitations non authentiques sont considérées comme moins graves que les abus, les contenus sexuels inappropriés, l’homophobie ou les propos religieux extrémistes. Chaque infraction entraîne une perte de points pour l’agence et une récurrence excessive peut conduire à l’interdiction d’exercer sur TikTok.
Pour répondre directement à votre question, oui, nous avons déjà reçu des amendes de la part de TikTok.
Mme Anne Genetet (EPR). Quel est l’intérêt de TikTok dans ces interactions entre l’influenceur et sa communauté ? Comment la plateforme génère-t-elle des revenus dans ce contexte ? S’agit-il d’insertion publicitaire ou d’orientation des utilisateurs vers des plateformes de vente ? Je ne parviens pas à cerner clairement le modèle économique.
M. Miloude Baraka. À ce jour, les lives TikTok ne comportent pas de publicités payantes ou sponsorisées. J’ai uniquement observé l’apparition de petites bannières promotionnelles qui défilent discrètement mais ne s’apparentent en rien aux publicités que l’on peut voir sur d’autres plateformes comme Twitch, où des spots publicitaires interrompent le flux vidéo pendant plusieurs secondes. Sur TikTok, ce type de publicité intrusive n’existe pas et n’a jamais été mis en place.
M. le président Arthur Delaporte. Le modèle de rémunération de TikTok repose essentiellement sur les cadeaux virtuels offerts par les utilisateurs.
Mme Anne Genetet (EPR). La collecte de données constitue également une source de revenus pour TikTok.
M. Miloude Baraka. En tant qu’entrepreneur du numérique, je ne peux parler au nom de TikTok, mais je peux partager ma vision. Le live représente une industrie en pleine expansion, offrant de nombreuses opportunités. C’est précisément pour cette raison que j’ai créé mon agence et que je participe à ces échanges aujourd’hui. Nous sommes face à un secteur naissant, avec ses aspects positifs et négatifs. Notre défi consiste à trouver le juste équilibre dans cette zone grise, afin de garantir que toutes les parties prenantes puissent en tirer profit.
M. Stéphane Vojetta (EPR). Si nous ignorons les mécanismes précis de monétisation de TikTok, nous savons en revanche que les influenceurs tirent leurs revenus des cadeaux virtuels. J’aimerais savoir si certains influenceurs pratiquent le placement de produits durant leurs lives. Par ailleurs, certains redirigent-ils leur audience vers d’autres plateformes, comme OnlyFans ou des canaux Telegram, pour d’autres types de promotions ? Enfin, avez-vous dans votre portefeuille des influenceurs anciens « influvoleurs » qui, à la suite des récentes contraintes légales sur leur activité promotionnelle, se tournent vers TikTok Live pour générer des revenus ?
M. Miloude Baraka. TikTok a mis en place des mesures dissuasives concernant le placement de produits ou la redirection vers d’autres sites pendant les lives. Ainsi, dès qu’un influenceur mentionne des mots-clés comme « aller sur » suivi d’une référence externe à TikTok, sa visibilité chute immédiatement. Cette pratique n’est donc pas recommandée et s’avère inefficace. Quant à la promotion de plateformes telles qu’OnlyFans ou Telegram, TikTok est extrêmement vigilant. Toute évocation orale ou tentative de redirection vers des contenus pour adultes entraîne un bannissement quasi instantané, généralement en moins de vingt-quatre heures. Les créateurs sont ainsi contraints d’utiliser des stratégies détournées, comme passer par Instagram où la modération est moins stricte. TikTok se distingue par sa rigueur en matière de contenus sexualisés, puisque même des activités sportives impliquant une nudité partielle font l’objet d’une modération attentive, nécessitant parfois des justifications de la part des créateurs. Je tiens à souligner l’efficacité de TikTok dans ce domaine, car il est pratiquement impossible d’y promouvoir du contenu pour adultes ou de rediriger vers de telles plateformes.
M. Stéphane Vojetta (EPR). Comptez-vous, au sein de votre portefeuille d’influenceurs, des personnes qui, auparavant, se concentraient sur la promotion de produits et qui cherchent maintenant à générer des revenus principalement grâce aux lives ?
M. Miloude Baraka. Les agences live TikTok sont principalement conçues pour accompagner des créateurs débutants dans leur professionnalisation. Les règles de TikTok limitent strictement notre capacité à recruter des influenceurs déjà établis. Pour intégrer un créateur ayant plus de 150 000 abonnés, nous devons obtenir une autorisation spéciale de TikTok et prouver l’existence d’un contrat antérieur à leur présence sur la plateforme. Dans mon agence, le créateur le plus suivi compte environ 300 000 abonnés, mais la majorité de nos talents sont des nouveaux venus qui cherchent à se construire une audience. Ils se tournent vers le live comme moyen de développer leur passion et leur base de fans.
Mme Laure Miller, rapporteure. Étant donné que notre commission d’enquête se concentre sur l’impact des réseaux sociaux sur la santé mentale des mineurs, disposez-vous d’un moyen de vérifier ou d’estimer la proportion d’audience mineure pour chaque live ?
M. Miloude Baraka. Cette question est particulièrement pertinente. Lors de nos tentatives de collaboration avec des marques, qui s’intéressent principalement au pouvoir d’achat de l’audience, nous avons cherché à obtenir des données démographiques précises, mais TikTok nous a informés que la collecte de données sur les mineurs est interdite par la législation européenne. Par conséquent, il nous est impossible d’obtenir des statistiques fiables sur la proportion de mineurs dans notre audience.
Nos créateurs sont toutefois sensibilisés à cette problématique et adoptent une approche responsable. Lorsqu’un utilisateur mentionne son jeune âge, nos influenceurs les encouragent généralement à privilégier leur scolarité, particulièrement en fonction de l’heure de diffusion. Certains vont jusqu’à bannir les utilisateurs identifiés comme mineurs. De plus, TikTok offre aux créateurs la possibilité d’activer un filtre « interdit aux moins de dix-huit ans » pour leurs lives. Cette option est fréquemment utilisée, notamment pour les diffusions tardives ou abordant des sujets plus matures, bien que restant dans les limites de la bienséance.
M. le président Arthur Delaporte. Ces discussions plus matures sont-elles particulièrement lucratives ?
M. Miloude Baraka. Elles attirent effectivement des spectateurs, mais ne génèrent pas de revenus significatifs.
M. le président Arthur Delaporte. Sur d’autres plateformes, notamment Instagram, il est possible d’obtenir des données précises sur la proportion de mineurs parmi les abonnés. TikTok, en revanche, ne fournit pas suffisamment de données à ce sujet. Pouvez-vous clarifier cette situation ?
M. Miloude Baraka. Il ne s’agit pas d’un sujet que j’aborde à titre personnel. Comme je l’ai mentionné précédemment, si je collabore avec une marque, c’est pour cibler un public disposant d’un pouvoir d’achat. Dans les tableaux de bord auxquels j’ai accès pour mes influenceurs, je n’ai jamais vu de graphique mentionnant spécifiquement les mineurs. Je ne dispose même pas d’informations sur la répartition homme-femme de l’audience des lives. En revanche, j’ai accès à toutes les autres données telle que le nombre de vues, d’impressions, de passages, ainsi que le temps de visionnage moyen, qui est particulièrement remarquable pour les lives. Alors que les vidéos classiques sont visionnées en moyenne cinq secondes, nos lives captent l’attention des spectateurs pendant deux à trois minutes en moyenne. Cela démontre que les gens sont naturellement plus engagés par les lives aujourd’hui, en raison de leur authenticité, comparativement à une vidéo standard.
M. le président Arthur Delaporte. Vous n’accompagnez donc pas la création d’autres types de contenus, comme des vidéos classiques par exemple ?
M. Miloude Baraka. Live’up Agency se concentre en effet exclusivement sur le live.
M. le président Arthur Delaporte. En dehors de cette activité, proposez-vous d’autres services d’accompagnement pour les influenceurs, à l’image d’une agence traditionnelle ?
M. Miloude Baraka. En réalité, notre accompagnement ne cible pas directement les influenceurs, mais plutôt les marques.
M. le président Arthur Delaporte. Vous accompagnez donc des marques pour du placement de produits par le biais des influenceurs sur TikTok, Instagram ou Snapchat. Ce sont ces marques qui vous ont exprimé leur réticence à cibler les mineurs, est-ce bien cela ?
M. Miloude Baraka. Effectivement. Pour contextualiser, le live fait l’objet de nombreuses controverses, comme en témoigne cette commission. Ces discussions créent un environnement anxiogène que les marques, qui exigent un cadre propre et sécurisé pour travailler sereinement, cherchent à éviter. En tant qu’entrepreneur, je mobilise mon réseau et je mets en avant les avantages du live, notamment le temps de visionnage élevé, ce qui n’empêche pas les marques d’hésiter à s’engager en raison des nombreuses incertitudes, notamment concernant la rentabilité. Pour étayer mon argumentation, je souligne que notre audience est composée de personnes avisées, disposant d’un pouvoir d’achat, et non de mineurs, ce que je constate à travers les interactions et les retours que je reçois.
M. le président Arthur Delaporte. Pouvez-vous préciser le taux de rentabilité d’un live sur TikTok ?
M. Miloude Baraka. À ce stade, aucune marque n’a encore osé s’engager pleinement, ce qui m’empêche de fournir des chiffres précis sur la rentabilité. Nous n’avons pas encore réalisé de placement de produit, les marques restant prudentes. Je peux toutefois établir un parallèle avec le fonctionnement d’une chaîne de télévision, qui se base sur des parts d’audience et un temps de visionnage, tout comme le live TikTok. Si je parviens à capter 100 000 spectateurs qui restent plus de trois minutes sur mon live, j’obtiens une part d’audience significative, c’est aussi simple que cela.
M. le président Arthur Delaporte. N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.
Puis la commission auditionne M. Hugo Travers.
M. le président Arthur Delaporte. Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(M. Hugo Travers prête serment.)
M. Hugo Travers, journaliste et vidéaste (HugoDécrypte). Le sujet de la santé mentale, et plus spécifiquement de la santé mentale des jeunes et des mineurs, me tient particulièrement à cœur, pour de nombreuses raisons, et je sais qu’il est également central pour l’ensemble de l’équipe de HugoDécrypte. Nous tentons en effet de le mettre en lumière depuis plusieurs années sur notre chaîne, notamment lors du confinement, période au cours de laquelle il a émergé aux yeux de certains médias, même s’il était déjà présent auparavant.
Notre média étant aujourd’hui très actif sur TikTok, je suis en mesure de vous partager des éléments de contexte sur notre activité actuelle sur cette plateforme.
TikTok a véritablement émergé en France en 2020, à l’occasion du premier confinement, et c’est à peu près à cette période que nous avons rejoint la plateforme. Nous y produisons aujourd’hui des contenus d’actualité, avec un traitement journalistique directement adapté au format de ce réseau social. Nous y publions en moyenne entre trois et dix vidéos par jour, qui sont également diffusées sur d’autres plateformes. Ils sont préparés par notre rédaction, qui compte dix journalistes professionnels travaillant à temps plein, tous titulaires de la carte de presse, qui se consacrent à ce travail.
Lorsque j’évoque les contenus d’actualité généraliste, j’entends des sujets politiques, culturels ou encore d’autres thématiques variées que nous couvrons au quotidien, principalement sous forme de vidéos, avec parfois également des directs, même si nous en réalisons moins aujourd’hui.
Dans ce cadre, il existe un programme de monétisation sur TikTok, dont le fonctionnement a beaucoup évolué et dont les modalités demeurent parfois assez floues, y compris pour nous. Ce que nous savons, c’est qu’une partie des contenus que nous diffusons sur la plateforme donne lieu à une rémunération, bien que celle-ci demeure faible au regard du volume d’audience que nous générons. Nous comptons en effet plus de 7 millions d’abonnés sur TikTok, et enregistrons près de deux milliards de vues par an. Malgré ce volume important, la rémunération associée reste proportionnellement modeste par rapport à d’autres plateformes, même s’il existe bien un dispositif en ce sens.
Pour terminer, je précise que nous avons collaboré avec TikTok en 2024 dans le cadre d’un partenariat éditorial à l’occasion du Festival de Cannes.
Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Depuis quand êtes-vous présent sur TikTok et avez-vous observé une évolution de la plateforme depuis vos débuts ? Je serais également intéressée de connaître la part de mineurs, voire de très jeunes utilisateurs, au sein de votre audience. Enfin, quelle perception avez-vous du rôle de l’algorithme ? De quelle manière l’utilisez-vous pour valoriser vos contenus ? Avez-vous le sentiment que l’algorithme de TikTok favorise les contenus problématiques au détriment des contenus à visée informationnelle ?
M. Hugo Travers. Nous sommes présents sur la plateforme depuis 2020, vraisemblablement depuis mars ou avril, soit pendant ou juste après le premier confinement.
Depuis nos débuts, nous avons toujours proposé des contenus d’information, même si nous avons expérimenté différentes approches. Nous avons d’abord tenté de republier ce que nous diffusions déjà sur YouTube, puis nous avons développé des formats spécifiquement adaptés à TikTok. Aujourd’hui, les contenus que nous publions sur TikTok sont également diffusés sur Instagram, sous forme de Réels, ainsi que sur YouTube, dans le format Shorts. Nous avons également commencé, ces dernières semaines, à publier sur TikTok des vidéos relativement longues, de sept ou huit minutes, initialement destinées à YouTube. De manière assez surprenante, ce sont des vidéos qui rencontrent un certain succès, parfois plusieurs millions de vues, alors même qu’elles sont longues et portent souvent sur des sujets sérieux.
Concernant l’algorithme, il s’agit, comme pour la plupart des réseaux sociaux, d’une sorte de boîte noire. Nous testons régulièrement différentes approches afin d’en comprendre le fonctionnement par nous-mêmes. Ce qui nous paraît certain, c’est que, comme beaucoup d’autres plateformes, TikTok cherche à maximiser le temps passé par les utilisateurs sur les contenus. Il existe donc un enjeu fort de personnalisation, puisque les vidéos proposées varient selon l’utilisateur qui les consulte. Il s’agit également d’un enjeu évident de rétention, puisque nous avons le sentiment, au regard des contenus que nous produisons, que TikTok met en avant les vidéos qui sont visionnées non seulement quelques secondes, mais aussi de manière prolongée, idéalement jusqu’à leur terme. Ce sont des éléments que nous avons pu constater assez clairement à travers notre expérience de publication.
Concernant l’audience de notre chaîne sur les réseaux sociaux, et plus particulièrement sur TikTok, notre cœur de cible se compose principalement de jeunes âgés de dix-huit à vingt-quatre ans. Cependant, bien que j’aie initialement lancé la chaîne il y a près d’une décennie pour rendre l’actualité accessible aux jeunes, notre audience s’est progressivement élargie, en raison de l’adoption croissante des réseaux sociaux par toutes les tranches d’âge. Sur YouTube, par exemple, nous constatons que nos contenus sont souvent consultés en famille, les jeunes générations ayant introduit nos formats à leurs parents et grands-parents.
Dans le cas spécifique de TikTok, nous rencontrons une difficulté majeure qui est l’impossibilité d’accéder aux statistiques concernant les utilisateurs mineurs. Nos données indiquent une prédominance des dix-huit à vingt-quatre ans, suivis des vingt-cinq à trente-quatre ans, mais l’absence d’informations sur les mineurs biaise inévitablement ces chiffres. Bien que nous soyons conscients de leur présence parmi notre audience, comme en témoignent les nombreuses questions reçues sur des sujets tels que les examens, le baccalauréat ou le brevet, nous ne disposons malheureusement pas de chiffres précis à ce sujet.
Quant à l’évolution de nos contenus sur TikTok, nous avons fait notre entrée sur la plateforme en 2020, à une époque où elle était principalement dédiée au divertissement, notamment à la musique ou aux défis de danse. Fidèles à notre mission de rendre l’actualité accessible au plus grand nombre, nous avons saisi l’opportunité d’être présents sur cette plateforme malgré son orientation initiale vers le divertissement. Notre défi a consisté à comprendre le fonctionnement de TikTok et à adapter nos formats pour proposer un contenu journalistique pertinent.
Au fil du temps, la diversité des contenus sur TikTok s’est considérablement élargie. D’autres médias ont rejoint la plateforme, et nous avons observé une diversification des tranches d’âge des utilisateurs. Bien que TikTok attire de nombreux jeunes, son utilisation s’est également répandue parmi les tranches d’âge plus élevées. Cette évolution soulève des questions importantes, notamment en termes d’impact psychologique et de santé mentale, qui concernent un public bien plus large que les seuls jeunes utilisateurs.
L’introduction du format live sur TikTok a également contribué à diversifier les types de contenus disponibles. Aujourd’hui, la plateforme offre une variété d’options, allant de l’information au divertissement, en passant par des résumés sportifs diffusés par les détenteurs de droits. Cette diversification a considérablement élargi l’éventail des contenus accessibles.
M. le président Arthur Delaporte. Pouvez-vous approfondir la question des algorithmes ? En tant que créateur de contenu, vos revenus dépendent en partie de la manière dont l’algorithme vous permet d’atteindre votre public cible. Bien que cela puisse être bénéfique pour la diffusion de contenus informatifs, nos auditions ont révélé que les contenus polémiques ou violents tendent à être davantage mis en avant par l’algorithme que les contenus à caractère informatif. Confirmez-vous ces biais ? Avez-vous observé d’autres formes de valorisation mises en œuvre par TikTok ? Constatez-vous des différences dans le traitement algorithmique entre TikTok et les autres plateformes ?
M. Hugo Travers. TikTok a effectivement introduit une approche novatrice dans le fonctionnement des algorithmes de réseaux sociaux. Contrairement aux plateformes qui, jusqu’en 2020-2021, reposaient principalement sur un système d’abonnement, TikTok privilégie la pertinence du contenu par rapport à son public. Cette approche permet à un nouveau compte de générer potentiellement des millions de vues dès sa première vidéo si celle-ci suscite l’intérêt des utilisateurs. Ce fonctionnement révolutionne la dynamique de création de contenu, rendant possible l’émergence rapide de créateurs amateurs capables d’atteindre une large audience.
Cette approche algorithmique présente des avantages certains, comme celui de permettre une personnalisation accrue des contenus proposés en fonction des intérêts ponctuels de l’utilisateur. Par exemple, si je m’intéresse à un événement sportif particulier le temps d’un week-end, l’algorithme détectera cet intérêt et me proposera des contenus pertinents, même si je ne suis pas abonné aux comptes spécialisés dans ce domaine. Il est important de noter que cette approche algorithmique commence à être adoptée par d’autres réseaux sociaux, étendant ainsi son influence au-delà de TikTok. Cependant, ce système comporte également des risques significatifs qui méritent une analyse approfondie.
M. le président Arthur Delaporte. Comment appréhendez-vous ces risques en tant que créateur de contenu ?
M. Hugo Travers. Le fonctionnement de l’algorithme de TikTok soulève plusieurs questions. Tout d’abord, il bouleverse la dynamique traditionnelle de création de contenu en permettant à n’importe qui d’obtenir une visibilité importante. Cette démocratisation de la visibilité présente des avantages, offrant à chacun la possibilité de partager sa passion, mais comporte également des risques non négligeables. Un contenu publié sans réflexion approfondie peut soudainement atteindre des millions de vues, parfois à l’insu ou contre la volonté de son créateur. J’ai personnellement observé des cas où des vidéos de personnes âgées, par exemple, sont devenues virales simplement parce qu’elles ont intrigué les utilisateurs. Bien que ces situations soient souvent anodines, elles soulignent la puissance et l’imprévisibilité de la viralité sur cette plateforme.
En tant que média, nous sommes confrontés à des défis spécifiques liés à la modération des contenus sur TikTok, puisque l’opacité de l’algorithme nous oblige à naviguer dans une zone grise, sans règles précises sur ce qui est acceptable ou non. Nous avons constaté que certains sujets sont considérés comme sensibles par la plateforme et peuvent être automatiquement supprimés ou rendus invisibles. Par exemple, le simple mot « cigarette » peut déclencher une modération automatique, entraînant la suppression du contenu ou son invisibilisation (shadow ban). Nous avons également rencontré des difficultés lors de la couverture en direct de manifestations, où des situations jugées dangereuses ou violentes par l’algorithme ont entraîné la suspension automatique de nos diffusions.
Pour contourner ces obstacles et conformément à notre volonté d’informer le plus grand nombre, nous avons adopté des stratégies de contournent ou d’adaptation. Nous modifions parfois l’orthographe de certains mots sensibles ou utilisons des astérisques pour éviter la détection automatique et nous assurer que les contenus restent visibles. Cependant, nous ne sommes pas certains de l’efficacité réelle de ces méthodes, ce qui nous place dans une position délicate entre notre devoir d’informer et la nécessité de nous conformer aux règles de la plateforme. Cette situation soulève des questions fondamentales sur le droit à l’information et sur notre capacité à informer efficacement, en particulier un public jeune, sur des sujets parfois sensibles mais cruciaux. Nous sommes constamment en train d’ajuster nos pratiques, sur la base du principe de précaution, pour trouver un équilibre entre la nécessité d’informer et le respect des contraintes imposées par la plateforme.
Concernant les contenus potentiellement violents, nous adoptons une approche nuancée. Si nous jugeons qu’une image violente est essentielle à la compréhension d’un sujet d’importance, nous la diffusons. Dans le cas contraire, nous optons pour le floutage ou l’omission afin de garantir la diffusion de l’information sans enfreindre les règles de la plateforme.
Mme Laure Miller, rapporteure. Vous publiez régulièrement des contenus qui dénoncent des pratiques néfastes. Comment parvenez-vous à éviter les sanctions de la plateforme et à diffuser ces messages de sensibilisation, particulièrement auprès du jeune public ?
M. Hugo Travers. Avant de répondre à votre question, je souhaite apporter des précisions sur un sujet fréquemment évoqué, y compris par notre public et les journalistes qui s’intéressent à notre travail, qui est celui de la censure potentielle de certains sujets par TikTok.
Bien que nous ne connaissions pas les détails précis du fonctionnement de l’algorithme, notre expérience nous permet d’affirmer que nous avons pu traiter une grande variété de sujets sérieux, y compris des conflits mondiaux et des questions sensibles liées à la Chine, comme la situation des Ouïghours et les droits de l’homme. Nous avons produit des dizaines de contenus sur ces sujets, qui nous semblent importants à aborder sur TikTok, et ces vidéos ont systématiquement atteint un large public, avec plusieurs millions de vues.
À notre connaissance, nous n’avons jamais été confrontés à une censure politique ou à des restrictions liées à l’appartenance de TikTok à un groupe chinois. Cependant, nous avons observé que pour les sujets jugés sensibles ou violents, une modération automatique peut parfois s’appliquer, ce qui peut entraver notre mission d’information. C’est là que résident les enjeux que j’évoquais précédemment.
Concernant les défis potentiellement dangereux qui circulent sur la plateforme, nous nous efforçons de jouer un rôle de sensibilisation et n’avons jamais rencontré de problèmes de censure pour ces vidéos de prévention. Nous sommes conscients de notre responsabilité d’alerter sur ces défis lorsqu’ils surviennent, tout en veillant à ne pas donner une visibilité excessive à des phénomènes marginaux.
Cette approche équilibrée s’applique également à la gestion des fausses informations. Nous évitons de produire une vidéo qui pourrait atteindre des millions de vues pour démentir une information erronée qui n’a été vue que par quelques centaines de personnes. Notre méthode consiste à surveiller attentivement les commentaires et à nous appuyer sur notre communauté qui nous alerte souvent sur des vidéos ou des informations potentiellement fausses. Si nous constatons qu’une question revient fréquemment dans les commentaires de nos vidéos, nous produisons alors un contenu pour vérifier ou démentir l’information en question.
J’attire d’ailleurs également votre attention sur un risque particulièrement préoccupant qui est celui de l’automatisation de la production de fausses informations. Depuis quelques mois, nous observons l’émergence de comptes qui imitent le style de comptes d’information comme le nôtre, utilisant des voix générées par intelligence artificielle pour diffuser des fausses informations. Ces vidéos peuvent atteindre des centaines de milliers de vues, souvent en annonçant de fausses modifications législatives, généralement liées à des restrictions de liberté. Leur stratégie consiste à mélanger des éléments véridiques, comme d’anciennes déclarations de ministres, avec des informations erronées, créant ainsi une apparence de crédibilité.
Face à ce défi, nous sommes de plus en plus impliqués dans la vérification de ces contenus et dans la diffusion de démentis, notamment sur des sujets d’actualité comme les déclarations de revenus.
Un autre problème auquel nous sommes confrontés, et qui n’est pas spécifique à TikTok, est l’utilisation de l’intelligence artificielle pour cloner nos voix et créer de faux contenus imitant notre style. Lorsque nous détectons de tels cas, nous les signalons rapidement à TikTok pour obtenir leur suppression, car il s’agit d’une usurpation d’identité.
Enfin, nous avons également constaté la réapparition de vidéos anciennes sorties de leur contexte, comme des annonces de reconfinement datant de 2020 ou 2021 qui resurgissent et sont interprétées comme actuelles. Dans ces cas, nous intervenons dans les commentaires pour clarifier la situation et replacer l’information dans son contexte temporel correct.
Mme Laure Miller, rapporteure. Avez-vous constaté une réactivité satisfaisante de la part de TikTok lorsque vous signalez des cas d’usurpation d’identité ?
M. Hugo Travers. Il existe un système de signalement intégré à la plateforme, accessible à tous les utilisateurs, mais qui peut parfois prendre du temps.
Notre statut de compte parmi les plus suivis en France sur TikTok nous confère l’avantage de disposer d’un contact direct au sein de l’entreprise. Cela nous permet, en cas d’urgence ou de problème important, d’envoyer un courriel à cette personne pour signaler rapidement la situation et obtenir une réponse rapide. Cette voie de communication privilégiée nous aide à gérer efficacement les situations critiques qui peuvent survenir sur la plateforme.
M. le président Arthur Delaporte. Avez-vous également établi un partenariat avec eux visant à promouvoir certains types de contenus, notamment ceux relevant de l’information de qualité ou bénéficiant d’une mise en valeur spécifique ?
M. Hugo Travers. TikTok cherche à diversifier les types de contenus présents sur sa plateforme, au-delà du simple divertissement. Nous observons cette tendance à travers leur système de monétisation, qu’ils préfèrent qualifier de « système de récompense ». Deux critères principaux semblent être mis en avant dans ce système. Premièrement, la durée des contenus, les vidéos de plus d’une minute étant généralement privilégiées pour la monétisation, ce qui encourage la production de contenus plus longs et plus approfondis. Deuxièmement, TikTok affirme vouloir valoriser des contenus plus qualitatifs et originaux, même si la définition exacte de ces termes reste floue.
Il est clair que TikTok cherche à élargir son offre de contenus et, par conséquent, à diversifier son audience, afin d’attirer un public différent, intéressé par des contenus allant au-delà du simple divertissement.
M. le président Arthur Delaporte. Pour prolonger cette réflexion, seriez-vous favorable à la mise en place d’un système de labellisation pour les créateurs de contenus de qualité ?
M. Hugo Travers. Je ne suis pas favorable à la labellisation des créateurs de contenu, cette démarche étant particulièrement complexe et délicate. En effet, si je considère mon propre parcours et celui de mon équipe actuelle, je n’aurais probablement pas obtenu de label de créateur de contenu sérieux à mes débuts, bien que j’estime avoir produit un travail journalistique de qualité sur les réseaux sociaux en tant qu’étudiant. J’éprouve donc des réticences face à ce type de catégorisation, car il me paraît délicat de définir des critères pertinents.
M. le président Arthur Delaporte. Avec le député Stéphane Vojetta, nous avons élaboré la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux. Certains créateurs, dont vous-même parfois, réalisent des collaborations commerciales. Vous êtes-vous interrogé sur l’impact potentiel de ces partenariats sur la réception ou l’orientation du contenu ? Quelle est votre réflexion à ce sujet, notamment concernant la dépendance éventuelle des créateurs vis-à-vis des placements de produits dans leurs publications ?
M. Hugo Travers. J’ai le sentiment que la loi en question a considérablement fait évoluer les pratiques et clarifié les obligations concernant les contenus réalisés en collaboration commerciale par les créateurs. Même si certaines règles existaient déjà, cette législation a permis de préciser les modalités à respecter dans différents contextes.
Notre fonctionnement s’apparente davantage à celui d’un média traditionnel avec, d’une part, des journalistes qui produisent un contenu éditorial indépendant et, d’autre part, une équipe dédiée aux contenus réalisés en partenariat avec des marques. Ces derniers sont systématiquement identifiés comme tels, conformément aux obligations légales.
Nous sommes particulièrement vigilants quant à la nature des contenus produits dans chaque cadre, y compris pour les collaborations avec des marques. Il est difficile de généraliser sur la prise de conscience de tous les créateurs de contenus à ce sujet, mais je pense que c’est une question importante.
Je constate en outre que les utilisateurs sont désormais très attentifs à l’identification des contenus sponsorisés. D’ailleurs, lorsqu’un créateur omet de mentionner une collaboration commerciale, le public le fait généralement remarquer dans les commentaires. Il existe donc une forme de vigilance collective sur ce point.
Mme Anne Genetet (EPR). Vous venez d’exprimer vos réserves quant à la labellisation des contenus, ce qui est compréhensible. Cependant, vous avez précédemment expliqué que TikTok semble considérer certains contenus comme sensibles, citant des mots tels que « fumée », « cigarette » ou « drogues ». Serait-il envisageable, à l’inverse, d’établir des critères pour définir les sujets sensibles ? Avez-vous connaissance de ces critères ? Les avez-vous découverts à travers vos propres productions ? Existe-t-il une liste officielle de sujets sensibles dans les conditions d’utilisation de TikTok ? Si ce n’est pas le cas, pensez-vous qu’il serait pertinent que nous, en tant que législateurs, proposions une telle liste ? N’y aurait-il pas des limites légales à cette approche, notamment en termes de liberté d’expression ?
M. Hugo Travers. Concernant l’existence d’une liste officielle, je dois avouer mon ignorance. Il est probable que les conditions d’utilisation de la plateforme abordent ces éléments, mais j’ignore dans quelle mesure ils sont précisés ou s’il s’agit d’une formulation générale laissant place à l’interprétation.
La difficulté réside dans la tension entre le droit à l’information sur certains sujets et les enjeux de modération auxquels sont confrontées les plateformes telles que TikTok. Par exemple, lorsque l’un de nos contenus traitant de la cigarette est invisibilisé, cela pose un problème pour nous, même si nous comprenons la nécessité pour la plateforme de prévenir la promotion de substances nocives par certains utilisateurs.
Quant à l’idée de certifier certains médias pour leur permettre d’aborder des sujets sensibles, bien que je puisse percevoir les avantages potentiels pour un média comme le nôtre, je reste réticent à l’idée de catégoriser les créateurs de contenu. Je trouve cette démarche délicate car il serait difficile d’établir des critères objectifs pour certifier certains créateurs, comptes ou médias plutôt que d’autres. De plus, la question se pose de savoir qui serait légitime pour prendre ces décisions : une institution publique ou le réseau social lui-même ? Dans ce dernier cas, est-il souhaitable de confier une telle responsabilité à la plateforme ? Je préfèrerais personnellement explorer d’autres mécanismes pour aborder ces enjeux.
Cette réflexion s’applique également à la diffusion de fausses informations, dont la régulation sur les réseaux sociaux soulève de nombreuses interrogations. Qui doit assumer cette responsabilité ? Est-ce l’entreprise privée ? Cela comporte des risques de dérives et d’arbitrages potentiellement problématiques. Est-ce un organisme public ? Cette option soulève également des questions sur les critères de régulation et les risques de dérives antidémocratiques ou autoritaires en cas de mauvaise utilisation de cette autorité. Ou est-ce la communauté des utilisateurs elle-même ? Bien que cette approche, mise en œuvre depuis près de deux ans sur X avec l’arrivée de M. Elon Musk, puisse sembler séduisante sur le principe, nous constatons dans la pratique que les vérifications sur X interviennent souvent trop tardivement, voire pas du tout. Force est donc de constater qu’il n’existe pas de solution miracle à cette problématique complexe.
M. Stéphane Vojetta (EPR). Sur quelle plateforme vos contenus fonctionnent-ils le mieux ? Comment expliquez-vous le succès de vos contenus informationnels par rapport à ceux de vos concurrents ?
M. Hugo Travers. Concernant nos activités sur les différentes plateformes, il est difficile d’établir une hiérarchie claire. Si l’on considère uniquement le nombre d’abonnés, TikTok arrive en tête. En termes de vues, nous atteignons près de deux milliards par an sur TikTok, avec des chiffres similaires sur Instagram. Il faut cependant noter que ces plateformes privilégient des contenus courts, permettant à un utilisateur de visionner potentiellement dix de nos vidéos en une journée. Sur YouTube, en revanche, la durée moyenne de visionnage est nettement plus longue, ce qui modifie la nature de l’engagement. Bien que TikTok occupe une place importante, nous considérons, au vu de nos audiences, qu’il n’est pas plus prépondérant qu’Instagram ou YouTube dans notre stratégie globale.
Concernant notre approche éditoriale, j’ai initialement lancé la chaîne sur YouTube, avec pour objectif clair de rendre l’actualité accessible au plus grand nombre. Cette démarche est née d’un constat personnel de jeune bachelier qui ressentait un décalage entre les médias traditionnels et les attentes des jeunes désireux de s’informer sur l’actualité, notamment politique. Les émissions télévisées semblaient souvent s’adresser davantage aux experts qu’aux jeunes en quête d’information.
Aujourd’hui, notre succès, avec plus de 20 millions d’abonnés cumulés sur les différents réseaux sociaux, s’explique par l’attention particulière que nous portons à la forme, adaptée aux codes des réseaux sociaux, tout en maintenant la volonté de proposer un contenu accessible. Nous nous efforçons de rendre chaque vidéo compréhensible pour un novice, même sur des sujets récurrents comme la guerre en Ukraine.
Il est important de souligner que l’intérêt des jeunes pour l’actualité ne se limite pas aux contenus courts. Sur YouTube, nous avons récemment publié une interview de M. Fabrice Arfi, journaliste chez Mediapart, sur l’affaire M. Nicolas Sarkozy et Kadhafi. Cette vidéo d’une heure et demie a atteint près de deux millions de vues, démontrant un réel intérêt du public jeune pour des contenus approfondis sur des sujets politiques complexes.
Notre présence sur TikTok, initiée en 2020, vise à toucher un public encore plus jeune, potentiellement des collégiens, en les sensibilisant à certains sujets tout en maintenant une rigueur journalistique. Notre objectif est d’informer dès le plus jeune âge, en adaptant notre approche à chaque plateforme.
M. le président Arthur Delaporte. Abordons maintenant la question de la monétisation des contenus, un sujet central mais souvent opaque. Pourriez-vous nous donner une idée plus précise des revenus générés par les vues sur ces plateformes ?
M. Hugo Travers. Je ne suis pas certain de pouvoir communiquer publiquement les chiffres précis, mais je pourrai vous transmettre certains éléments. Malgré les près de deux milliards de vues annuelles que nous générons sur la plateforme, les revenus générés sont loin d’être suffisants pour rémunérer une équipe de journalistes. En comparaison, YouTube dispose d’un programme de monétisation beaucoup plus abouti et lucratif. Sur YouTube, le créateur de contenu perçoit environ la moitié des revenus publicitaires générés par les annonces diffusées avant la vidéo, l’autre moitié revenant à Google. Ce système, basé sur des enchères d’annonceurs, est relativement transparent. En revanche, TikTok fonctionne différemment. Les publicités n’apparaissent pas avant une vidéo spécifique, mais entre les vidéos, ce qui complique le calcul de la rémunération. TikTok a par ailleurs lancé son programme de monétisation il y a deux ou trois ans, et nous avons constaté que le revenu pour 1 000 vues a considérablement fluctué au fil du temps, probablement en raison d’expérimentations de leur part.
M. le président Arthur Delaporte. Il semble que certains influenceurs parviennent à générer des dizaines de milliers d’euros par mois sur la plateforme, peut-être davantage grâce aux diffusions en direct.
M. Hugo Travers. Nos revenus sont nettement inférieurs à ces montants. Deux facteurs peuvent expliquer cette disparité. Premièrement, les diffusions en direct, que nous pratiquons peu, semblent effectivement plus lucratives que la simple publication de vidéos, qui constitue l’essentiel de notre activité. Deuxièmement, notre structure est fondamentalement différente de celle d’un créateur de contenu individuel, puisque nous employons une équipe de trente personnes, dont dix journalistes. Par conséquent, notre modèle économique et nos besoins financiers ne sont pas comparables à ceux d’un créateur indépendant qui perçoit l’intégralité des revenus générés.
Il est important de souligner que les mécanismes de cette monétisation restent opaques pour nous. Nous savons simplement que les vidéos de plus d’une minute ont tendance à être monétisées, contrairement à celles de moins d’une minute, mais nos connaissances s’arrêtent là.
M. le président Arthur Delaporte. Dans le débat public, circule actuellement l’idée d’interdire l’accès aux réseaux sociaux aux moins de quinze ans. Quel est votre point de vue sur cette proposition ?
M. Hugo Travers. Je dois avouer que cette idée me met mal à l’aise, et ce pour deux raisons principales. Tout d’abord, je m’interroge sur la faisabilité pratique et technique d’une telle mesure et doute de sa réelle applicabilité. Même si nous parvenions à mettre en place un système efficace sur une plateforme donnée, ne risquerait-on pas de voir les utilisateurs se tourner simplement vers d’autres plateformes ? D’un point de vue technique, j’ai donc du mal à concevoir la mise en œuvre concrète de cette proposition.
Sur le plan des principes, bien que je comprenne l’intention de minimiser les risques pour les mineurs, j’ai le sentiment que cette approche pourrait nous détourner d’enjeux plus larges. Les problématiques liées à la santé mentale, à l’impact psychologique ou à la désinformation ne se limitent pas aux jeunes. Dans certains cas, notamment concernant la propagation de fausses informations, ces phénomènes peuvent même être plus prégnants dans d’autres tranches d’âge, selon les sujets abordés. Pour toutes ces raisons, cette mesure ne me semble pas nécessairement la plus efficace.
M. le président Arthur Delaporte. N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.
Puis la commission auditionne M. Mathieu Barrère, journaliste pour Envoyé spécial (France télévisions).
M. le président Arthur Delaporte. Nous reprenons avec l’audition de M. Mathieu Barrère, journaliste et réalisateur pour l’émission « Envoyé Spécial » de France 2. Son documentaire intitulé OnlyFans, Mym, du porno chez nos ados sera diffusé le 19 juin prochain.
Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(M. Mathieu Barrère prête serment.)
M. Mathieu Barrère, journaliste pour « Envoyé spécial » (France télévisions). Je précise, en préambule, que le reportage n’a pas encore été diffusé et que son contenu reste donc confidentiel à ce stade. Cela ne nous empêchera pas, bien entendu, d’aborder les thématiques qu’il traite.
Mon enquête, qui s’est étendue sur plusieurs mois, porte sur le phénomène de vente de contenus, principalement pornographiques, sur des plateformes telles qu’OnlyFans, une multinationale britannique, et Mym, une start-up française ayant adopté un modèle similaire. Sans entrer dans les détails du sujet, je souhaite mettre en lumière certains points saillants de cette enquête, dont certains n’ont pu être inclus dans le reportage faute de temps.
Le premier élément frappant concerne le profil des créateurs de contenus sur ces plateformes, qui sont majoritairement des jeunes femmes, âgées de dix-huit à vingt-sept ans environ. Ce qui est particulièrement notable, c’est qu’il s’agit de personnes ordinaires, très éloignées des profils d’acteurs pornographiques ou de travailleurs du sexe traditionnels, puisque l’on trouve une grande diversité de profils (étudiants, salariés, demandeurs d’emploi) issus de toute classe sociale. Certains en font leur activité principale, d’autres un complément de revenus. L’exemple récent d’une institutrice qui, en arrêt maladie, a produit des vidéos pornographiques dans l’enceinte de son école pour les monétiser sur OnlyFans illustre l’étendue du phénomène. Cette pratique de home-porn monétisé s’est aujourd’hui largement banalisée.
Un autre aspect frappant est la rupture générationnelle manifeste. Les quinze à trente ans connaissent presque tous ces deux plateformes, tandis que la majorité des plus de quarante ans en ignore jusqu’à l’existence. Le problème se pose particulièrement chez les jeunes de quinze à dix-huit ans, lycéens, qui sont tous familiers avec le fonctionnement de ces plateformes, en font des plaisanteries et connaissent les célébrités qui y sont présentes. Cette banalisation extrême contraste fortement avec l’ignorance de leurs parents ou responsables légaux.
La popularité de ces plateformes auprès des jeunes s’explique par leur stratégie de communication centrée sur les réseaux sociaux, point central de leur modèle économique. Instagram, TikTok, Snapchat et X sont tous concernés. Les plateformes y font leur propre promotion, mais ce sont surtout des stars de téléréalité et des influenceurs qui en assurent la publicité directe, notamment parce qu’ils y trouvent eux-mêmes un intérêt commercial. Des personnalités comme AD Laurent, Adixia ou Mme Manon Tanti sont fréquemment citées par les jeunes à ce sujet.
Les réseaux sociaux jouent un rôle central dans ce système, servant au recrutement des modèles, parfois même de personnes qui ne monétisaient pas auparavant ce type de contenu. C’est également sur ces plateformes qu’est effectuée la promotion des modèles, attirés par l’intermédiaire des clients et des utilisateurs, et dirigés ensuite vers les plateformes payantes grâce à de simples liens dans les biographies ou les stories.
Bien que je me sois principalement concentré sur Mym, l’entreprise française, les deux sociétés adoptent des stratégies similaires, sur la base d’une approche qui pourrait être qualifiée de « fausse transparence ». Leur communication se focalise presque exclusivement sur du contenu grand public tel que musique, jardinage, cuisine ou astrologie. Par exemple, le tennisman français Alexandre Müller est sponsorisé par OnlyFans tandis que DJ Snake fait la promotion de Mym. Cette stratégie des plateformes vise à améliorer leur image, alors qu’en réalité, la grande majorité du contenu y est érotique ou pornographique. Bien que je ne dispose pas de chiffres officiels vérifiés, plusieurs sources, notamment internes à Mym, suggèrent que 80 à 90 % du contenu de ces plateformes serait à caractère pornographique. Il existe une volonté manifeste, particulièrement de la part de Mym, de ne pas mettre en avant la nature réelle du contenu présent sur la plateforme.
Parallèlement, Mym mène une communication très active auprès des pouvoirs publics, notamment auprès des députés, de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) et d’avocats spécialisés dans la protection des mineurs. L’entreprise cherche à participer aux discussions, notamment sur la question de la protection des mineurs. J’ai même recueilli le témoignage officieux d’une personne haut placée d’un organisme officiel qui, au début de mon enquête, m’assurait de la totale conformité de Mym, alors que je disposais déjà d’éléments concrets indiquant le contraire. Il y a donc une réelle volonté d’anticiper et de maintenir une image positive auprès des autorités.
En revanche, lorsque nous avons mené notre enquête et sollicité des réponses, notamment auprès de Mym, nous avons fait face à un verrouillage complet de la communication. Toutes nos demandes ont été refusées, que ce soit par téléphone ou sur place. Les employés ont été informés de nos démarches et nous n’avons reçu que des éléments de langage génériques par courriel, sans réponse précise à nos questions.
Je m’étonne ainsi que Mym bénéficie du soutien de l’État à travers la mission « French Tech », d’autant plus que le ministère de l’économie a systématiquement refusé de répondre à mes demandes d’information concernant les raisons de cet accompagnement et les garanties exigées. Il est tout aussi surprenant de constater l’absence totale de contrôle externe sur l’activité de cette plateforme, l’Arcom se déclarant incompétente et la police ne pouvant agir sans dépôt de plainte préalable, ce qui aboutit à une situation d’autorégulation opaque de l’entreprise. Cette enquête m’a donné l’impression d’un système totalement hermétique.
Un phénomène connexe particulièrement préoccupant est l’émergence d’agents de modèles, souvent jeunes, une nouvelle profession attirée par les perspectives lucratives de ce secteur. J’ai notamment rencontré un jeune de dix-sept ans qui, ayant abandonné ses études pour se lancer dans le Only Fan Management (OFM), génère déjà un revenu mensuel net de 1 900 à 2 000 euros. Ces agents, principalement de jeunes hommes entre dix-huit et vingt-cinq ans, sont recrutés par le biais des réseaux sociaux par des influenceurs établis qui vantent leur réussite dans ce domaine.
Des formations en ligne pour devenir agent sont facilement accessibles, avec des tarifs allant de 500 à 2 000 euros. J’ai personnellement suivi celle de M. Anthony Sirius, pionnier du secteur. Bien que ces formations transmettent de réelles compétences en management, développement personnel, marketing et fiscalité, elles sont malheureusement empreintes de références masculinistes et misogynes. Le discours véhiculé vise à conditionner les futurs agents à exploiter les émotions des femmes afin de maximiser la production de contenu, y compris le plus explicite, dans le but d’augmenter les revenus.
Ces agents forment des réseaux sur Telegram, échangeant conseils et offres d’emploi mais, surtout, ils y revendent quotidiennement des centaines de contrats de modèles du monde entier, avec une prédominance de jeunes femmes d’Amérique du Sud et d’Europe de l’Est, ainsi que des Françaises. Les contrats sont négociés entre agents, souvent à l’insu des modèles, pour des sommes allant de 300 à 500 euros. Cette pratique s’apparente à de l’exploitation, les agents percevant jusqu’à 80 % des revenus générés par le contenu pornographique des modèles. Ces dernières, souvent mal informées de leurs droits, peuvent se retrouver victimes de harcèlement ou d’emprise, avec des recours juridiques limités, principalement dans le domaine civil.
Les avocats spécialisés dans l’influence constatent une augmentation des demandes de conseil et anticipent une croissance significative des recours juridiques, principalement de la part de jeunes femmes cherchant de l’aide.
En conclusion, cette enquête révèle un secteur en pleine expansion, ciblant principalement les jeunes, fortement dépendant des réseaux sociaux, et propice à de nombreuses dérives en raison d’un manque flagrant de régulation externe. Certains pays commencent à prendre conscience de l’ampleur du problème, comme la Suède qui a récemment criminalisé l’achat de contenu spécifique sur OnlyFans.
Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Pourriez-vous détailler davantage le processus de recrutement des modèles ? Vous avez étudié en profondeur les mécanismes internes de ce système, pouvez-vous nous éclairer sur la manière dont ces jeunes sont appâtés ?
Par ailleurs, concernant les plateformes, et plus particulièrement TikTok qui fait l’objet de nos travaux, avez-vous connaissance de mécanismes de blocage mis en place pour empêcher le renvoi vers OnlyFans ou Mym ?
Enfin, pouvez-vous nous informer de l’existence et l’efficacité des systèmes de vérification d’âge sur ces plateformes ?
M. Mathieu Barrère. Concernant le recrutement, la communication des influenceurs joue un rôle crucial en suscitant l’intérêt des jeunes par la promesse d’argent facile. Les agents, quant à eux, utilisent une technique appelée « mass DM », consistant à contacter massivement des profils de jeunes femmes correspondant à certains critères physiques et de popularité sur les réseaux sociaux. Leur approche repose sur des promesses de gains importants et de soutien, créant une illusion de simplicité et de sécurité.
Concernant la publicité sur les réseaux sociaux, les pratiques des plateformes comme TikTok et Instagram ont largement évolué depuis la naissance de ces sites, à travers la mise en place de filtres visant à bloquer les comptes faisant explicitement mention d’OnlyFans ou Mym. Cependant, des stratégies de contournement ont émergé, telles que l’utilisation d’astérisques dans les noms (par exemple, Onl*Fans) et l’emploi d’applications de redirection vers les plateformes comme GetAllMyLinks. Bien qu’une politique de modération soit mise en place, elle est donc inefficace à ce stade. Les agents anticipent également la suppression potentielle des comptes en gérant plusieurs profils différents par modèle.
Quant aux stratégies des plateformes, Mym et OnlyFans s’appuient principalement sur l’intelligence artificielle pour le contrôle de l’âge lors de l’inscription des créateurs. L’IA utilisée par Mym présente une marge d’erreur de 1,3 an pour la tranche d’âge de treize à dix‑sept ans. Nos tests ont révélé des failles dans ce système, avec une validation rapide malgré l’utilisation d’une pièce d’identité modifiée par Photoshop.
Aujourd’hui, Mym déclare recenser 167 000 créateurs de contenus certifiés, ce qui implique, entre autres, le passage par un contrôle de l’âge. En 2021, on en comptait 8 499, 48 583 en 2022 et 104 269 en 2023. Il s’agit donc d’une progression exponentielle du nombre de comptes certifiés.
D’après les déclarations de Mym, une équipe de douze modérateurs spécialisés est chargée de la modération du contenu. Concernant spécifiquement la vérification de l’âge, ils indiquent disposer de sept agents modérateurs chargés de valider ou de refuser les certifications des créateurs. Ils ont en revanche refusé de préciser si une vérification humaine intervenait systématiquement après le passage de l’intelligence artificielle. Le seul exemple concret dont je dispose est celui de notre propre expérience, et je laisse donc à chacun la liberté d’estimer si, dans un délai de quinze minutes, une vérification humaine a réellement pu être effectuée.
Certaines sources internes m’ont par ailleurs confié que Mym aurait recours à une sous-traitance de certaines vérifications et certifications de comptes, confiée à une équipe basée au Sri Lanka, composée de quinze à dix-sept modérateurs. Je n’ai toutefois pas pu obtenir de confirmation officielle de leur part quant à l’existence de cette équipe. Il existe donc bien un système de contrôle, mais nous avons pu en identifier des failles évidentes sans avoir mené une enquête longue et approfondie, puisque notre investigation n’a duré que quatre mois.
Je précise que nous avons rencontré et discuté avec de très nombreux mineurs présents sur ces plateformes. L’une d’entre elles a même accepté de témoigner dans notre reportage, ce qui demande un réel courage, tant il est difficile de se confier sur ce sujet.
Mme Claire Marais-Beuil (RN). Existe-t-il des liens financiers entre les réseaux sociaux et ces plateformes de contenu ? Étant donné qu’une redirection vers ces plateformes génère de la monétisation, existe-t-il des accords de reversement ou d’autres types de relations financières entre eux ?
M. Mathieu Barrère. À ma connaissance, les agents ne reversent pas de bénéfices aux plateformes. Le modèle économique de ces dernières repose sur une commission de 20 % prélevée sur chaque transaction effectuée. Un créateur de contenu publie des photos ou des vidéos sur la plateforme, fixe librement le prix de l’abonnement mensuel, généralement entre 10 et 20 euros, puis les utilisateurs s’abonnent pour accéder à cette bibliothèque de médias. Il existe en parallèle un système de demandes privées où les utilisateurs peuvent solliciter du contenu spécifique auprès des modèles. Ces requêtes sont souvent tarifées à des prix élevés, allant de 15 à 500 euros selon la nature de la demande. Par exemple, une vidéo de pénétration digitale en prononçant le prénom du client peut être facturée 100 euros. D’autres actes plus extrêmes peuvent atteindre des montants allant de 500 à 700 euros. Sur chacune de ces transactions, la plateforme prélève donc une commission de 20 %.
Les agents, quant à eux, ont développé une stratégie complémentaire pour optimiser les profits. Ils recrutent des « tchateurs », principalement des hommes, qui se font passer pour les modèles dans les conversations avec les clients. Ces tchateurs, recrutés sur Telegram, souvent des francophones originaires de Madagascar, du Bénin ou de France, sont rémunérés à la commission, touchant entre 8 et 15 % sur chaque vente de contenu qu’ils parviennent à réaliser.
Dans ce système, les modèles sous contrat avec des agents se concentrent uniquement sur la création de contenu, tandis que les agents gèrent l’ensemble de la stratégie, y compris la présence sur les réseaux sociaux et les interactions avec les clients par le biais des tchateurs.
Il est important de noter que les plateformes et les agents n’ont pas de lien direct. L’objectif des plateformes est simplement de maximiser le trafic et les transactions, chacune leur rapportant 20 % de commission. À titre d’exemple, OnlyFans génère des milliards de revenus, tandis que Mym, startup française créée il y a six ans, a vu son chiffre d’affaires passer de 3 à 100 millions d’euros, sans investisseur initial. Ce modèle économique et les échanges qui s’y opèrent témoignent de l’importance des sommes en jeu dans cette industrie.
M. Stéphane Vojetta (EPR). Bien que je n’aie pas visionné votre reportage, je travaille sur ce sujet depuis plusieurs années et ai personnellement ouvert un compte OnlyFans en tant qu’utilisateur pour étudier le modèle. L’une des dérives les plus préoccupantes que j’aie observées est ce que j’appelle le rabattage, ces personnes qui envoient des messages directs à de jeunes femmes, parfois même à des adolescentes, pour les inciter à créer un compte, en leur proposant de le gérer et en minimisant initialement la nature du contenu demandé.
Notre intention est d’améliorer la régulation de ce secteur actuellement peu encadré. Nous envisageons de créer une définition légale de cette « pornographie à la demande » et de considérer potentiellement cette activité comme une forme de prostitution.
Selon vous, les actes à la demande, récemment interdits en Suède, ne constituent-ils pas une forme de prostitution 2.0 ? L’activité des agents ne s’apparente-t-elle pas à du proxénétisme moderne ? Auquel cas nous pourrions faire tomber ce modèle et le réduire drastiquement. Dans le cadre de votre enquête, avez-vous identifié des liens entre le commerce d’images en ligne et la prostitution physique ? Il est en effet fréquent de trouver sur les sites d’annonces de prostitution des liens vers des pages OnlyFans, utilisées comme vitrine promotionnelle.
Enfin, avez-vous examiné le phénomène des modèles virtuels sur OnlyFans ou Mym ? Il s’agit d’un business consistant à créer des créatrices de contenu virtuelles, parfois en utilisant à leur insu l’image de personnes réelles, pour générer des revenus grâce à l’intelligence artificielle.
M. Mathieu Barrère. Nous avons effectivement abordé le sujet du proxénétisme 2.0 dans notre enquête et consulté des avocats spécialisés. La difficulté réside dans le fait qu’en l’état actuel, nous n’avons pas trouvé de lien direct entre ces activités en ligne et une incitation à des actes physiques monétisés et n’avons pas identifié d’agents cherchant à basculer vers la prostitution physique.
Comme vous l’avez justement souligné, l’absence d’acte physique implique qu’au regard du droit actuel, ces pratiques ne peuvent être qualifiées de prostitution. Le terme de proxénétisme 2.0 est évocateur mais, juridiquement, tant que les échanges restent numériques et que la modèle est consentante, il n’existe pas de moyen de rendre ces pratiques pénalement répréhensibles.
Les avocats que nous avons consultés ont exprimé leur frustration face à cette situation. Actuellement, les seuls recours possibles relèvent du droit civil, comme la contestation de contrats abusifs ou l’usurpation d’identité lorsque les agents s’approprient les identifiants des comptes sur les plateformes. Ces infractions semblent mineures au regard de l’ampleur du phénomène. Les juristes appellent à une évolution du droit afin de mieux encadrer ces pratiques. Cependant, la situation est complexe car la majorité des personnes impliquées sont majeures et consentantes et cette activité constitue leur source de revenus.
Nous n’avons donc pas constaté de passage à l’acte physique dans le cadre spécifique de ces plateformes. En revanche, nous avons effleuré un phénomène distinct sur Snapchat, où la vente de photos et vidéos dénudées, en dehors du cadre des plateformes comme OnlyFans et Mym, peut effectivement mener à des situations de prostitution, y compris impliquant des mineurs. Ces situations sortent toutefois du cadre de notre enquête sur les agents et les plateformes spécialisées.
Concernant votre dernière question sur les modèles générés par intelligence artificielle, l’agent de dix-sept ans que j’ai rencontré s’apprêtait à recruter sa première modèle dans la vie réelle alors qu’il opérait jusqu’alors exclusivement avec du contenu généré par IA. Ces agents parviennent à faire croire aux clients qu’ils interagissent avec une personne réelle, alors qu’en réalité, c’est l’adolescent qui répond en utilisant du contenu créé par IA. J’ai également observé sur les boucles Telegram un phénomène d’achat de packages de contenus créés par des modèles, pour un montant unitaire. Par exemple, pour 800 dollars, on acquiert une gamme complète de contenu d’un modèle spécifique. Ce contenu est ensuite modifié par IA, notamment le visage, permettant de le monétiser presque indéfiniment. Une fois le contenu acquis, il est possible de changer le visage à volonté grâce à l’IA pour le commercialiser.
Dans mes recherches, je n’ai pas eu connaissance de cas où des personnes auraient été exploitées contre leur gré. Bien que ce phénomène existe probablement, je n’ai pas été confronté à des situations où l’apparence de personnes aurait été modifiée ou leurs images utilisées à des fins lucratives sans leur consentement. Il est important de souligner que les modèles vendant ces packages sont consentantes car cette pratique permet aux modèles et aux agents de diversifier leurs activités, toujours dans l’optique de maximiser leurs revenus. L’objectif fondamental demeure la génération du plus grand profit possible.
M. Stéphane Vojetta (EPR). Est-il exact que la plateforme Mym prélève 20 % sur les revenus de ses créateurs et créatrices de contenu, et que cela s’applique à chaque transaction ?
M. Mathieu Barrère. L’entreprise prélève en effet une commission de 20 % sur chaque transaction, que ce soit un pourboire, un achat privé ou un abonnement.
Mme Anne Genetet (EPR). J’avoue faire partie de ceux qui méconnaissaient totalement ce sujet. Vos explications m’ont permis de mieux saisir l’importance des amendements proposés par mon collègue Stéphane Vojetta, que je peinais auparavant à comprendre pleinement.
Je comprends que ces plateformes utilisent, entre autres, TikTok pour attirer des utilisateurs vers leurs propres services. Selon vos recherches, quelles mesures pourraient être envisagées pour contrôler TikTok et empêcher ce phénomène de rabattage ? Quels outils devraient être déployés ? Même si nous parvenions à réguler TikTok, n’est-il pas probable que ces plateformes se tournent simplement vers d’autres supports pour poursuivre leurs activités ? En somme, que pouvons-nous concrètement faire du côté de TikTok pour, sinon empêcher, du moins limiter ce flux ? Est-ce réalisable et souhaitable ?
M. Mathieu Barrère. Il est important de préciser que ce ne sont pas les plateformes elles-mêmes qui mettent en place des stratégies de rabattage et que Mym et OnlyFans ne ciblent pas directement les jeunes. Ce sont les agents et les célébrités de ces plateformes qui assurent une communication massive sur les réseaux sociaux, diffusant ainsi la réputation de ces services. Les plateformes, quant à elles, maintiennent une présence et une communication grand public, sans mettre en avant l’aspect pornographique ni cibler spécifiquement les jeunes. Ce sont véritablement les influenceurs et les stars des réseaux sociaux qui ont façonné la réputation de ces plateformes.
Concernant les possibilités de limitation, l’interdiction de placer des liens de redirection, quels qu’ils soient, serait déjà un pas significatif. Auparavant, les liens directs vers OnlyFans ou Mym étaient courants, et leur interdiction a conduit à la suppression de nombreux comptes, mais si nous rendions impossible la transition directe depuis les réseaux sociaux, et TikTok en particulier qui est un vecteur majeur, vers ces plateformes payantes, cela compliquerait considérablement l’accès. L’absence d’un simple clic dans la légende d’une vidéo pour accéder à la plateforme payante obligerait l’utilisateur à une démarche plus complexe : noter le nom de la personne, se rendre sur la plateforme, créer un compte, effectuer une recherche. Je pense que cela réduirait significativement le trafic quasi direct des réseaux sociaux vers ces plateformes payantes.
Au-delà de cela, la régulation du contenu est délicate car celui présent sur TikTok et Instagram ne comporte pas de nudité explicite. Sur TikTok, on trouve par exemple des lives de plusieurs heures montrant des jeunes femmes pratiquant du sport en tenue de fitness, certes suggestive, mais pas illégale en soi. La limite de ma compétence ne me permet pas de définir où placer précisément les limites, mais je pense qu’en l’état actuel, il est complexe d’interdire ce type de contenu.
Il est par ailleurs évident que dans un environnement numérique ciblant les jeunes, il existera toujours des moyens de contournement. Cependant, étant moi-même proche de la génération des réseaux sociaux, je constate que le flux d’informations y est si intense et les phénomènes de mode si éphémères que la mise en place de freins pourrait rapidement faire oublier ces pratiques. Ainsi, en réduisant la présence de ce type de contenu et de promotion sur les réseaux sociaux, nous pourrions significativement diminuer le nombre de jeunes tentés d’y accéder.
Je pense sincèrement que si vous parvenez à réguler, ne serait-ce que partiellement, la promotion de ces plateformes, une grande partie du travail sera accomplie, particulièrement en ce qui concerne les très jeunes utilisateurs.
Comme je l’ai mentionné précédemment, les créateurs trouvent des moyens détournés pour promouvoir ces plateformes, en utilisant des abréviations ou des expressions codées telles que « retrouvez-moi sur mes plateformes privées ». Dans la tranche d’âge quinze à trente ans, ces références sont largement comprises. Il n’est donc pas nécessaire de citer explicitement le nom de la plateforme pour inciter les gens à s’y rendre.
Mme Claire Marais-Beuil (RN). Toutes ces plateformes nécessitent un paiement et nous ciblons particulièrement les très jeunes utilisateurs, dont les moyens diffèrent généralement de ceux des adultes, avec des cartes bancaires spécifiques ou des comptes bancaires identifiés comme appartenant à des jeunes. Ne serait-il pas envisageable de réguler en vérifiant le mode de paiement ? Cette question me préoccupe, car à moins qu’ils n’utilisent les moyens de paiement de leurs parents, le type de paiement utilisé devrait permettre d’identifier l’âge des jeunes accédant à ces plateformes.
M. Mathieu Barrère. Le sujet des moyens de paiement, bien que peu exploré dans mon enquête, mérite effectivement notre attention. Lors de mes échanges avec les jeunes créateurs, j’ai constaté que l’inscription sur les plateformes nécessite la fourniture d’un relevé d’identité bancaire (RIB) personnel. Si certains jeunes, modèles ou agents, impliquent leurs parents dans le processus, la majorité opère dans la clandestinité et contourne les restrictions en utilisant le RIB d’une connaissance majeure, parfois en modifiant numériquement des pièces d’identité pour faire correspondre les informations. Cette ingéniosité leur permet de percevoir les revenus générés sur les plateformes.
Concernant l’aspect bancaire, il convient de rappeler l’incident impliquant OnlyFans il y a quelques années. Une enquête de Reuters sur la présence de mineurs sur la plateforme avait alarmé le secteur bancaire, qui avait menacé de retirer son soutien en matière de paiement. En conséquence, Mym, selon mes sources internes, prospecte régulièrement de nouvelles start-up spécialisées dans les solutions de paiement. Cette démarche vise à anticiper d’éventuelles ruptures de collaboration avec leurs partenaires actuels, tant pour les transactions des clients que pour les reversements aux créateurs. Malgré leurs efforts de communication, ces plateformes sont conscientes de leur réputation controversée et de la lucidité générale quant à la nature de leur contenu. Elles font donc face à un défi réputationnel significatif dans leurs relations avec le secteur bancaire.
M. Stéphane Vojetta (EPR). Il est important de préciser que ni Mym ni OnlyFans ne collaborent avec les géants du paiement tels que Visa, MasterCard ou American Express, ces derniers refusant toute association. En conséquence, ces plateformes se tournent vers des start-up ou de petites entreprises spécialisées dans les paiements digitaux. Alors que les acteurs traditionnels tels que Visa ou MasterCard prélèveraient environ 1 % sur les transactions, ces nouvelles plateformes de paiement exigent entre 20 et 30 % des revenus pour leurs services. Cette situation illustre comment chaque intervenant du secteur cherche à maximiser ses profits. Par conséquent, les plateformes de contenu se voient contraintes de maintenir une grande flexibilité dans leur approche des systèmes de paiement.
M. Mathieu Barrère. Il est avéré que dans le milieu des agents, particulièrement lorsqu’il s’agit de jeunes profils, le recours aux cryptomonnaies pour l’achat de contrats est une pratique existante. Cette méthode permet d’éviter les transactions en monnaie traditionnelle pour des sommes conséquentes. Néanmoins, je n’ai aucune information concernant l’utilisation de cryptomonnaies dans les relations directes entre les créateurs et les plateformes.
M. le président Arthur Delaporte. Vos travaux mettent en lumière des phénomènes souvent peu visibles, même pour ceux qui s’y intéressent de près. L’opacité persistante dans certains domaines souligne l’importance de telles investigations. Nous attendons avec intérêt la diffusion de votre documentaire le 19 juin sur le service public, saluant au passage la qualité de ce type de production.
N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.
Puis la commission auditionne M. Morgan Lechat.
M. le président Arthur Delaporte. Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(M. Morgan Lechat prête serment.)
M. Morgan Lechat, professeur et vidéaste (Monsieurlechat). Je suis M. Morgan Lechat, professeur de physique-chimie et créateur de contenu scientifique sur TikTok, avec une audience de plus de 400 000 abonnés. Certains de mes contenus sont monétisés à travers le fonds des créateurs et je collabore également de manière ponctuelle avec des institutions ou des marques dans un cadre éducatif en étant rémunéré. Ces partenariats sont systématiquement signalés et n’impliquent jamais de produits spécifiquement destinés aux mineurs.
Passionné de science depuis mon plus jeune âge, j’ai eu la chance de croiser la route d’un enseignant qui m’a fait découvrir la méthode scientifique. Dès le lycée, j’ai commencé à réaliser des vidéos à des fins de passe-temps personnel, avant de poursuivre mes études vers la science et l’enseignement. Par la suite, à l’université, le doyen avait recours à la méthode de la classe inversée : il concevait des capsules vidéo destinées à ses étudiants, de sorte que nous pouvions accéder aux leçons avant même de nous rendre en salle de cours ou en amphithéâtre.
Devenu à mon tour professeur, c’est la volonté de reproduire cette approche qui m’a conduit à la création de contenu sur YouTube, permettant à mes élèves d’accéder aux notions de cours en amont des séances en classe. Cette approche s’est avérée particulièrement pertinente lors de l’enseignement à distance pendant la période du covid-19.
C’est initialement dans une optique de divertissement que j’ai découvert TikTok. Pendant les confinements, j’ai commencé à diffuser des vidéos depuis ma salle de classe vide. Ces contenus ont rapidement trouvé un écho auprès d’un public varié, incluant d’anciens élèves nostalgiques de leurs années scolaires, ce qui a engendré un effet de viralité important. Cette expérience m’a conduit à collaborer avec le média Epicurieux, porté par Jamy, une figure emblématique de ma jeunesse, qui s’était également lancé sur internet pendant la pandémie. Cette collaboration m’a ouvert les portes du secteur de l’audiovisuel et m’a amené à m’intéresser de plus près au domaine de l’influence, sur lequel vous avez légiféré il y a quelques années.
Dans une démarche de professionnalisation, j’ai opté pour un temps partiel en tant qu’enseignant afin de poursuivre mon travail de vulgarisation sur internet. Aujourd’hui, le média Monsieurlechat s’appuie sur une équipe de cinq personnes pour la création de contenus, s’inscrivant ainsi dans une véritable démarche entrepreneuriale parallèle à mon activité au sein de l’éducation nationale. Depuis la rentrée 2024, je suis en disponibilité pour des raisons de compatibilité avec cette activité entrepreneuriale, une décision prise en concertation avec mes inspecteurs.
Concernant TikTok spécifiquement, j’ai constaté que mon contenu, initialement décalé par rapport aux standards de la plateforme, a bénéficié d’un effet de surprise et d’exclusivité qui a favorisé sa viralité. Aujourd’hui, je constate que de nombreux élèves utilisent TikTok comme outil de révision, bien que je me positionne davantage comme un créateur de contenu scientifique visant un public large plutôt que comme un influenceur scolaire à proprement parler. Un phénomène qui m’interpelle particulièrement est l’utilisation de TikTok comme moteur de recherche par les jeunes, une tendance que je trouve préoccupante et potentiellement aliénante. Néanmoins, je considère que ma présence sur la plateforme offre une porte d’entrée vers la science, encourageant un public varié à s’y intéresser.
Pour les révisions scolaires, je recommande à mes élèves de se tourner vers des plateformes proposant des contenus plus approfondis et plus longs, notamment sur YouTube, en citant par exemple le travail remarquable de M. Paul Olivier en physique-chimie.
Concernant l’impact de TikTok dans la salle de classe, j’ai observé empiriquement une certaine baisse d’empathie chez les élèves, potentiellement liée à l’exposition à des contenus non hiérarchisés sur la plateforme. Le défilement continu de vidéos aux thématiques variées, allant du divertissement léger à des sujets graves tels que la guerre, en passant par des contenus éducatifs, semble affecter la capacité des jeunes à hiérarchiser l’importance des informations et à réagir de manière appropriée à leur gravité.
En tant qu’enseignant, je suis particulièrement préoccupé par plusieurs phénomènes liés à l’usage du numérique chez les jeunes. Les troubles du sommeil sont notamment fréquents, souvent causés par une consommation excessive de vidéos ou de jeux vidéo la veille et il n’est pas rare de voir des élèves arriver en classe avec les yeux rouges et gonflés, révélateurs d’une utilisation prolongée des écrans.
Un autre défi majeur concerne la difficulté des élèves à gérer le flux d’informations circulant sur internet. Nous sommes régulièrement confrontés à des situations où des élèves remettent en question l’enseignement dispensé en classe, s’appuyant sur des informations erronées ou non vérifiées trouvées sur les réseaux sociaux. Cette problématique touche l’ensemble des disciplines et souligne l’importance centrale de l’éducation aux médias et à l’information.
Je tiens cependant à souligner que les plateformes telles que TikTok peuvent également avoir des effets positifs. En tant qu’enseignant présent sur cette plateforme, j’ai pu constater qu’elle stimule la curiosité et peut même susciter des vocations. J’ai ainsi reçu de nombreux messages d’élèves et de parents me remerciant pour mon travail, certains exprimant même le désir de devenir enseignants à leur tour. C’est un aspect extrêmement gratifiant de mon engagement sur ces plateformes.
Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Nous avons bien noté les aspects positifs de votre présence sur TikTok, notamment en termes de vocations suscitées. Cependant, sachant que votre contenu est également disponible sur d’autres plateformes, pensez-vous que TikTok vous permet d’atteindre un public spécifique que vous ne pourriez pas toucher ailleurs ? Avez-vous observé des différences notables entre les plateformes ? Plus précisément, adaptez-vous votre contenu pour tirer parti de l’algorithme de TikTok ? Avez-vous développé des stratégies particulières pour optimiser la visibilité de vos publications sur cette plateforme ?
M. Morgan Lechat. Concernant les spécificités de TikTok par rapport aux autres plateformes telles qu’Instagram et YouTube, j’ai constaté que la concurrence a progressivement conduit à une certaine uniformisation des pratiques, effaçant les différences marquées qui existaient auparavant entre ces plateformes.
Prenons l’exemple de YouTube, qui a introduit les Shorts pour concurrencer les formats courts de TikTok et Instagram. Une caractéristique qui était auparavant propre à TikTok, à savoir la possibilité pour une vidéo de connaître un succès viral indépendamment des performances des autres contenus du même créateur, s’est désormais généralisée. Sur TikTok, Instagram Reels et même YouTube, nous observons maintenant un système de suggestion basé sur la performance individuelle de chaque contenu, plutôt que sur la fidélisation d’une audience à un créateur spécifique.
Ce système repose sur un mécanisme d’échantillonnage où une vidéo est d’abord présentée à une partie de l’audience, y compris à des utilisateurs non abonnés. L’engagement généré par cette vidéo, principalement mesuré par le taux de rétention, les likes, les commentaires et les partages, détermine ensuite sa diffusion plus large. Les partages semblent avoir un poids particulièrement important dans cet algorithme, car ils permettent d’attirer de nouveaux spectateurs et d’augmenter potentiellement la rétention.
Je précise que je base ces observations sur mon expérience en tant qu’utilisateur et créateur de contenu. Je ne suis pas un expert en ingénierie algorithmique, mais un professeur de physique-chimie qui partage son expérience pratique des plateformes.
Cette approche algorithmique peut conduire à des situations où certaines vidéos connaissent un succès viral tandis que d’autres, potentiellement tout aussi intéressantes, restent relativement peu vues si elles ne passent pas ce test initial d’engagement. Ce phénomène s’observe désormais sur l’ensemble des plateformes, y compris pour les formats longs sur YouTube.
Mme Laure Miller, rapporteure. Pourriez-vous nous en dire plus sur les caractéristiques spécifiques de l’audience que vous touchez sur TikTok ?
M. Morgan Lechat. En ce qui concerne la démographie de mon audience, j’observe une répartition relativement équilibrée entre les genres sur TikTok et Instagram, avec environ 55 % de femmes. YouTube présente une particularité avec une majorité masculine dans mon audience, un phénomène qui se retrouve même chez les créatrices de contenu scientifique, rendant plus difficile l’atteinte d’un public féminin sur cette plateforme pour les sujets scientifiques.
TikTok et Instagram se distinguent par un public globalement jeune, tandis que YouTube attire généralement une audience plus âgée. Il est intéressant de noter que, dans le cadre de mon travail avec le hashtag #apprendresurTikTok, TikTok nous a informés que 20 % des vues provenaient d’utilisateurs de plus de trente-cinq ans, ce qui laisse supposer une forte proportion de jeunes dans les 80 % restants.
Mme Laure Miller, rapporteure. Pourriez-vous nous faire part de votre point de vue sur l’éducation au numérique, en vous appuyant sur votre double expérience d’enseignant et d’influenceur ?
M. Morgan Lechat. L’éducation au numérique comporte de multiples aspects. En tant qu’ancien professeur principal, j’y ai accordé une importance significative lors des séances de vie de classe, profitant de la liberté pédagogique dont nous disposons, en mettant en place plusieurs initiatives. Nous avons notamment fait intervenir un addictologue pour aborder les risques d’addiction chez les adolescents, incluant la problématique des écrans et des réseaux sociaux. Concernant les usages numériques, les professeurs-documentalistes bénéficient désormais d’une formation plus approfondie, ce qui n’est pas nécessairement le cas dans toutes les disciplines, puisque la formation initiale des enseignants se concentre principalement sur la didactique de leur matière, reléguant souvent l’apprentissage de la gestion de classe et de l’éducation numérique à l’expérience de terrain.
Notre approche de l’éducation numérique s’est articulée autour de plusieurs axes. Nous avons commencé par sensibiliser les élèves à l’importance de leur e-réputation et à la sécurisation de leurs informations en ligne. Nous avons insisté sur la persistance des contenus publiés sur les réseaux sociaux, même après suppression, et sur les précautions à prendre concernant la divulgation d’informations personnelles. Ensuite, nous nous sommes attachés à développer leur capacité à identifier les discours haineux, racistes ou misogynes, afin de prévenir la normalisation de certains propos ou comportements problématiques.
Ma participation à votre commission m’a également fait prendre conscience que mon expérience personnelle des réseaux sociaux, plutôt positive, peut différer considérablement de celle de certains jeunes, pour qui ces plateformes peuvent représenter un danger pour leur santé mentale. Nous avons donc abordé des sujets tels que le cyberharcèlement, que les jeunes désignent aujourd’hui par le terme de « pressing ». Ce terme, emprunté au vocabulaire footballistique, est utilisé pour décrire une forme de pression exercée sur autrui, qui s’apparente en réalité à du harcèlement.
M. le président Arthur Delaporte. En tant qu’enseignant, avez-vous été confronté à des conflits ou des situations de harcèlement liés aux réseaux sociaux ?
M. Morgan Lechat. Fort heureusement, je n’ai pas eu à gérer de situations de harcèlement directement liées aux réseaux sociaux. J’ai cependant été confronté à des problématiques bien plus graves dans la vie réelle, notamment des cas de violences intrafamiliales et de violences sexuelles. Concernant le harcèlement, nous avons dû traiter des situations qui se limitaient à l’enceinte de l’établissement, en restant vigilants, grâce aux témoignages des élèves, pour éviter que ces comportements ne se propagent sur les réseaux sociaux.
Le seul incident lié à internet auquel j’ai été indirectement confronté concernait un de mes collègues, qui avait été filmé en classe dans une situation humiliante, avec des élèves lui lançant des boulettes de papier. Cette vidéo avait ensuite été diffusée sur Snapchat. En dehors de cet épisode, je n’ai pas eu à faire face à des cas de cyberharcèlement au cours de mes six années de carrière.
Mme Claire Marais-Beuil (RN). Vous avez qualifié votre connaissance des algorithmes de limitée, alors qu’ils sont pourtant utilisés pour vos vidéos. Adaptez-vous le contenu de vos vidéos en fonction de la tranche d’âge que vous souhaitez cibler, afin que l’algorithme les identifie et les mette en avant ? Dans votre approche, savez-vous comment créer une vidéo qui touchera plus facilement un public jeune ?
M. Morgan Lechat. La création de contenu professionnel sur les plateformes telles que TikTok repose sur trois éléments clés. Il est tout d’abord essentiel de définir le public cible de la vidéo. Je vise généralement une audience élargie, tandis que certains créateurs de contenu éducatif ciblent très spécifiquement leur audience, par exemple en s’adressant directement aux élèves préparant le brevet.
Le deuxième élément essentiel est ce que nous appelons le « hook », ou l’accroche de la vidéo. Les cinq premières secondes sont déterminantes pour capter l’attention du spectateur et l’inciter à regarder la vidéo dans son intégralité. Les créateurs de contenu, quel que soit leur domaine, accordent une grande importance à cette accroche initiale.
Le troisième élément est le « storytelling », ou la narration. L’efficacité d’une vidéo repose souvent sur sa capacité à raconter une histoire, que ce soit une anecdote scolaire ou tout autre type de récit. Nous nous concentrons donc sur l’information clé à mettre en avant dans les premières secondes, en l’adaptant potentiellement au public visé.
Dans la mesure où l’utilisation d’un vocabulaire spécifique aux adolescents ciblerait un public jeune et exclurait probablement les spectateurs de plus de trente-cinq ans, je m’efforce généralement de concevoir des accroches qui parlent à un public large, en m’appuyant sur des situations de la vie quotidienne auxquelles chacun peut s’identifier. Par exemple, j’ai récemment publié une vidéo sur Roland-Garros abordant la question de la tension des raquettes de tennis. Cette accroche d’actualité, susceptible d’intéresser tous ceux qui suivent l’événement, me sert de prétexte pour introduire un point sur les unités en physique, comme la tension et la masse.
Mme Laure Miller, rapporteure. Réalisez-vous des lives sur TikTok ?
M. Morgan Lechat. J’ai effectivement réalisé des lives, principalement axés sur l’apprentissage, les révisions ou des expériences en direct. Cependant, je ne le fais que ponctuellement, principalement par manque de temps. Concernant la monétisation des lives, TikTok utilise un système de cadeaux virtuels. Personnellement, je ne sollicite pas ces cadeaux. Je trouve ce système potentiellement problématique, car il rappelle les abonnements aux jeux vidéo ou l’utilisation des codes de carte bancaire des parents que nous avons pu connaître étant plus jeunes. Les utilisateurs ont l’impression de dépenser une monnaie virtuelle en envoyant ces cadeaux, alors qu’il s’agit en réalité d’argent réel dépensé sur la plateforme. Cette pratique soulève des questions éthiques car, malgré l’apparence ludique des cadeaux virtuels, il s’agit bel et bien de transactions financières réelles.
M. le président Arthur Delaporte. Pourriez-vous nous détailler davantage le processus de monétisation des vues et nous expliquer le modèle économique du point de vue d’un créateur de contenu ?
M. Morgan Lechat. Il existe un fonds de créateurs basé sur un système de coût pour mille vues (CPM) financé par les annonceurs. Ce modèle, similaire à celui de YouTube, est spécifique à ces deux plateformes et n’existe pas sur Instagram. Actuellement sur TikTok, la rémunération s’élève à environ 30 ou 40 centimes pour mille vues, pour une vidéo dépassant une minute et respectant certains critères, notamment l’absence de violence, de nudité ou de contenu illégal. Pour être éligible à ce fonds, il faut compter plus de 10 000 abonnés.
La seconde source de revenus sur TikTok provient des collaborations commerciales. Dans ce cas, je réalise des vidéos pédagogiques pour le compte d’une marque ou d’une institution, clairement identifiées comme des collaborations commerciales. Ces prestations sont généralement rémunérées entre 500 et 3 000 euros.
M. le président Arthur Delaporte. Nous nous intéressons principalement au système interne de monétisation propre à TikTok. Concernant le modèle que vous avez évoqué, offrant 30 centimes pour mille vues aux créateurs ayant plus de 10 000 abonnés, avez-vous constaté des fluctuations dans ces niveaux de rémunération ?
M. Morgan Lechat. L’évolution des fonds de créateurs sur TikTok a effectivement été significative. Initialement, la rémunération était commune à toutes les vidéos. Puis, dans le but d’encourager des contenus de haute qualité, TikTok a commencé à privilégier et à monétiser uniquement les vidéos dépassant une minute. Au début de cette transition, les CPM étaient plus élevés qu’actuellement.
M. le président Arthur Delaporte. Quel était le montant initial ?
M. Morgan Lechat. Le montant pouvait atteindre quasiment un euro.
M. le président Arthur Delaporte. Je constate que votre expérience utilisateur n’est pas particulièrement approfondie, notamment concernant les lives. En tant qu’influenceur de confiance, avez-vous reçu des retours de la part de jeunes abonnés à vos réseaux ou commentateurs concernant des contenus potentiellement choquants ?
M. Morgan Lechat. J’ai effectivement été confronté à des contenus problématiques, signalés par mes élèves. Un cas particulier concerne une créatrice de contenu sur TikTok qui se disait prof de physique-chimie et diffusait des vidéos à caractère sexuel implicite, utilisant des bonbons pour mimer des actes obscènes. J’ai immédiatement signalé ce contenu, bien que je ne connaisse pas les suites données à mon signalement.
M. le président Arthur Delaporte. Vous ignorez si le contenu a été retiré ?
M. Morgan Lechat. Je le présume.
M. le président Arthur Delaporte. Vous n’avez pas vérifié par la suite ?
M. Morgan Lechat. Face aux contenus qui me dérangent, j’ai pour habitude de bloquer les comptes concernés afin de ne plus y être exposé. Dans ce cas précis, j’ai bloqué la créatrice, ce qui explique que je n’aie plus rencontré ses contenus.
M. le président Arthur Delaporte. Est-ce la seule occasion où vous avez été confronté à un contenu que vous jugiez choquant ?
M. Morgan Lechat. Ce qui m’a particulièrement interpellé dans ce cas, c’est la manière dont cette personne semblait jouer avec les règles de la plateforme, utilisant des bonbons comme prétexte pour faire des allusions sexuelles à peine voilées.
Cependant, ma préoccupation principale ne concerne pas tant les contenus auxquels je suis personnellement exposé, mais plutôt le fait que des élèves puissent accéder à des contenus destinés aux adultes ou à des informations particulièrement dures. Notre société actuelle est déjà assez violente, et je m’inquiète de voir des jeunes exposés à des propos et des informations potentiellement traumatisantes pour leur âge. Par exemple, mes élèves ont appris l’assassinat d’un enseignant en France sur TikTok, ce qui contraste fortement avec mon expérience de jeunesse où l’exposition médiatique se limitait essentiellement au journal de 20 heures.
M. le président Arthur Delaporte. Comment gérez-vous votre relation avec les mineurs dans vos interactions en ligne ? Répondez-vous publiquement à leurs messages ? Avez-vous parfois des échanges privés ? Êtes-vous vigilant quant aux risques de dépendance parasociale qui peuvent se développer sur ces plateformes ? En tant que créateur de contenu éthique, comment abordez-vous ces enjeux ?
M. Morgan Lechat. Je suis pleinement conscient de la nécessité d’être vigilant face aux relations parasociales qui peuvent se développer, où des personnes s’attachent à vous sans vous connaître réellement. Je maintiens ainsi une certaine distance sur les réseaux sociaux, ce qui limite naturellement ce type d’interactions. Je réponds toujours aux questions publiquement dans les commentaires et j’adopte systématiquement une posture similaire à celle que j’aurais en tant qu’enseignant face à mes élèves. Je m’autorise parfois quelques plaisanteries, tout en restant dans les limites de ce que je considère comme approprié dans un cadre scolaire.
Néanmoins, je peux occasionnellement me permettre une répartie plus directe face à des critiques manifestement malveillantes, tout en m’efforçant de rester bienveillant, que ce soit envers les jeunes ou les moins jeunes. Il est à noter que les commentaires les plus agressifs ne proviennent généralement pas des jeunes utilisateurs.
Mme Claire Marais-Beuil (RN). Avez-vous remarqué si le moment de publication de vos vidéos influence significativement leur succès, ou constatez-vous une performance similaire quel que soit l’horaire ou le jour de diffusion ?
M. Morgan Lechat. Certains créateurs accordent une grande importance à l’heure de publication, prétendant avoir identifié des créneaux optimaux. Les plateformes, notamment Instagram, offrent effectivement des outils d’analyse permettant de visualiser les pics d’activité des abonnés. Sur TikTok, le système d’échantillonnage rend cette question moins pertinente. Une vidéo publiée à cinq heures du matin pourrait très bien atteindre son pic d’audience plusieurs heures plus tard, le temps que l’algorithme la diffuse.
À titre personnel, je ne me focalise pas excessivement sur l’heure de publication, m’efforçant plutôt de synchroniser mes contenus avec l’actualité ou des événements pertinents. Par exemple, j’ai délibérément attendu Roland-Garros pour publier mon contenu sur les raquettes de tennis. Bien que je reconnaisse qu’une publication en fin de journée, lorsque les gens sortent du travail ou des cours, peut potentiellement toucher une audience plus large, ce n’est pas un facteur auquel j’accorde une importance primordiale dans ma stratégie de publication.
Mme Laure Miller, rapporteure. Compte tenu de vos observations sur l’utilisation des réseaux sociaux par les jeunes dans votre classe, quelles recommandations formuleriez-vous pour mieux encadrer leur usage ? Avez-vous expérimenté la pause numérique dans votre établissement ? Quel est votre avis sur cette pratique qui va se généraliser dès la rentrée prochaine ? Souhaitez-vous formuler d’autres suggestions pour renforcer la protection des jeunes sur ces plateformes ?
M. Morgan Lechat. Je m’oppose fermement à l’utilisation des téléphones dans les établissements scolaires, car leur présence constitue invariablement un prétexte pour les utiliser en classe.
Quant aux plateformes et aux limitations de temps d’utilisation, je considère que ces mesures peuvent être pertinentes. Il est en effet essentiel de maintenir un équilibre car, si les réseaux sociaux peuvent constituer un passe-temps agréable, ils ne doivent pas occuper une place prépondérante dans la vie quotidienne. Bien que je réalise personnellement une veille sur les réseaux sociaux et produise du contenu, ces activités ne représentent pas la majeure partie de ma journée car je suis conscient qu’une utilisation excessive serait préjudiciable à ma santé. Il est préoccupant de constater que certains jeunes, en passant trop de temps sur les écrans et les réseaux sociaux, risquent de négliger d’autres aspects essentiels à leur développement personnel tels que le sport ou la lecture.
Je pense qu’au-delà de l’école, il est primordial de sensibiliser les parents et le grand public. À l’image des campagnes menées sur les dangers du téléphone au volant ou les risques liés à l’alcool, il serait judicieux de lancer des campagnes d’envergure sur l’usage des réseaux sociaux et des écrans. Cette problématique étant relativement récente, je ne crois pas que de telles initiatives aient été largement déployées jusqu’à présent. Des campagnes gouvernementales pourraient s’avérer particulièrement bénéfiques, car j’observe une grande disparité dans le rapport aux écrans selon les familles. Certains parents sont extrêmement vigilants, allant jusqu’à priver leurs enfants de téléphone avant un certain âge, tandis que d’autres les y exposent très tôt. Cette différence d’approche engendre inévitablement des conséquences, notamment lorsque des enfants sont confrontés à des contenus qu’ils ne sont pas nécessairement en mesure de comprendre.
Dans le cadre scolaire, il serait judicieux d’intégrer un module de formation sur ce sujet pour les enseignants. Bien que les professeurs documentalistes abordent déjà cette question, il serait pertinent de consacrer quelques heures à la formation des enseignants en alternance.
Par ailleurs, étant donné que nous évoquons également la santé mentale, je préconise d’allouer davantage de moyens aux psychologues de l’éducation nationale, aux assistants d’éducation et aux conseillers principaux d’éducation, qui sont des interlocuteurs privilégiés des élèves. Cette mesure pourrait contribuer efficacement à la prise en charge des problématiques de santé mentale.
M. le président Arthur Delaporte. Une proposition actuellement débattue consiste à interdire l’accès aux réseaux sociaux aux moins de quinze ans. Quel est votre avis sur cette question ?
M. Morgan Lechat. Je n’ai pas de position tranchée sur cette proposition. Je souligne néanmoins la difficulté pratique de sa mise en œuvre, sachant que certains élèves de sixième, qui ne sont théoriquement pas autorisés à utiliser les réseaux sociaux, y ont déjà accès. Il serait judicieux de consulter des spécialistes en neurosciences pour évaluer les conséquences potentielles sur le développement cérébral en fonction de l’âge.
M. le président Arthur Delaporte. Nous avons effectivement abordé ces questions avec des experts. Cependant, en tant qu’enseignant travaillant également sur l’éveil et l’émancipation par les médias, comment envisageriez-vous la situation si les mineurs de moins de quinze ans n’avaient plus accès à ces contenus ?
M. Morgan Lechat. Je reste neutre sur cette question, principalement en raison des difficultés pratiques que je perçois dans la mise en œuvre d’une telle mesure. L’établissement d’un cadre réglementaire, même sans interdiction formelle, permettrait néanmoins de souligner les dangers, comme pour les classifications par âge pour les films.
Je tiens également à souligner l’importance de la présence d’experts légitimes sur les réseaux sociaux, pour contrer la prolifération d’individus se présentant comme experts sans posséder les qualifications requises. En tant qu’enseignant, je considère qu’il est pertinent d’être présent sur ces plateformes, d’autant plus quand certaines personnes s’arrogent le statut d’enseignant sans en avoir les diplômes.
La présence de professionnels qualifiés sur ces plateformes est légitime et nécessaire, sous peine que ce vide soit comblé par des personnes non qualifiées. Il faut noter que de nombreux élèves sont non seulement consommateurs mais également créateurs de contenu sur TikTok, proposant par exemple du tutorat ou partageant leurs fiches de révision. Bien que cette initiative soit louable, elle peut parfois comporter des erreurs. C’est pourquoi un contenu élaboré et vérifié par des professionnels constitue un gage de qualité, permettant de limiter la diffusion d’informations erronées.
Je citerai l’exemple de mon collègue M. Yann Bouvier en Histoire-Géographie. Sa capacité à susciter l’intérêt pour des situations historiques, en les reliant à l’actualité politique ou à des sujets d’actualité brûlants, est remarquable. Les créateurs de contenu qui produisent un matériel de haute qualité offrent ainsi un accès gratuit à de l’information et à des réflexions pertinentes.
M. le président Arthur Delaporte. Nous avons souhaité initier cette démarche d’audition des producteurs de contenu précisément parce que nous refusons d’adopter une vision manichéenne, en considérant que tout est néfaste ou que tous les acteurs présents sur ces plateformes agiraient avec malveillance. Il existe également des créateurs qui s’inscrivent dans une démarche éthique, avec la volonté sincère d’établir une relation avec les jeunes qui ne repose ni sur l’exploitation, ni sur l’instrumentalisation, ni sur toute autre forme d’opportunisme mais qui participe, au contraire, d’un rôle d’émancipation qui nous semble utile.
M. Morgan Lechat. Je souhaite, pour terminer, souligner un point important concernant la professionnalisation récente des acteurs de l’influence. En tant que créateur de contenu professionnel, je collabore désormais avec des équipes techniques et d’auteurs. Or il est intéressant de noter que si mon métier d’enseignant est bien compris du public, notamment des élèves, mon activité de créateur de contenu reste souvent mal appréhendée. Cette dernière peut pourtant constituer un emploi à temps plein. Nous devenons de véritables médias, avec une influence non négligeable, car notre audience est attentive à nos propos.
M. le président Arthur Delaporte. Cette question de la professionnalisation dépasse le cadre strict de notre commission d’enquête mais, lors de l’élaboration de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, nous l’avions déjà prise en compte, conscients que notre travail sur ce sujet est loin d’être achevé. Nous assistons à l’émergence d’un véritable continent de nouveaux métiers qui va se structurer dans les années à venir, accompagné de nombreux enjeux économiques. Nous ne sommes qu’au début de ce processus et l’Assemblée nationale aura certainement un rôle central à jouer dans ce domaine émergent. Notre mission ne se limite donc pas uniquement à l’étude des effets psychologiques de TikTok sur les mineurs, mais s’inscrit dans une réflexion plus large.
N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.
Enfin la commission auditionne Mme Anna Baldy.
M. le président Arthur Delaporte. Nous entamons notre dernière audition de l’après‑midi avec Mme Anna Baldy, connue sous le pseudonyme de « Grande Bavardeuse ». Je vous invite à nous expliquer la raison de ce surnom et à nous présenter vos activités.
Je vous remercie de nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations. Je vous rappelle également que cette séance est retransmise en direct sur le site internet de l’Assemblée nationale. L’enregistrement vidéo sera ensuite disponible à la demande. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(Mme Anna Baldy prête serment.)
Mme Anna Baldy, activiste humanitaire et créatrice de contenu (Bavardage). Je perçois effectivement des revenus reversés par TikTok sur la base des audiences de mes vidéos.
Le sujet de votre commission d’enquête me concerne particulièrement en tant que jeune adulte, ancienne utilisatrice intensive de TikTok (il m’est arrivé de devoir désinstaller l’application pour limiter le temps passé dessus) et désormais créatrice de contenu. J’ai commencé à produire du contenu sur TikTok dans le but d’apporter de la contradiction dans le paysage informationnel des réseaux sociaux. Bien que n’étant pas journaliste, mes études en sciences politiques m’ont fourni des outils d’analyse précieux, et je suis convaincue que chacun peut contribuer au débat démocratique. Pour pallier d’éventuelles crises de légitimité, j’étaye systématiquement mes propos par des sources d’experts et de chercheurs.
Si cette plateforme, comme toute innovation majeure, suscite des inquiétudes légitimes concernant son impact sur notre cerveau, la qualité de l’information diffusée et l’opacité de ses algorithmes, je refuse toutefois de dépeindre une jeunesse passive et crédule. Ce sont aujourd’hui les jeunes qui s’engagent activement dans la vie politique, associative et citoyenne, nourrissent le débat public et portent un regard critique sur l’usage des réseaux sociaux, y compris celui fait par les politiques.
Je ne souhaite pas non plus partager un propos exclusivement alarmiste, puisque TikTok présente également de nombreux aspects positifs. Il s’agit d’un espace d’accessibilité à l’information gratuit, permettant l’expression d’un contre-discours fort. Il offre une tribune aux jeunes et à ceux dont les idées, le style ou l’identité ne trouvent pas leur place dans des médias traditionnels parfois jugés trop élitistes. Dans un contexte de concentration médiatique préoccupant et de perte de confiance, TikTok contribue au pluralisme de l’information.
Je ne saurais toutefois faire l’éloge de TikTok sans exprimer les profondes inquiétudes que cette plateforme suscite chez moi. Je m’interroge sur la propagation de contenus mensongers ou excessivement simplifiés, souvent sortis de leur contexte, conçus pour cliver, pour instiller la peur, en jouant de ressorts cognitifs et rhétoriques proches de ceux qu’ont manipulés les plus grands propagandistes de nos heures les plus sombres. Je m’inquiète à l’idée que des enfants de treize ans puissent avoir un accès direct à de telles informations. Je m’inquiète aussi des bulles algorithmiques, qui enferment progressivement les utilisateurs dans une spirale de pensée nuisible, tant pour eux-mêmes que pour les autres. Et, plus encore, je m’inquiète de l’impunité totale qui règne dans cette immense cour de récréation virtuelle, où circulent sans modération des vidéos et des commentaires empreints d’un racisme assumé et d’une misogynie insidieuse.
J’aurais préféré que les mots que je prononce au sein de cette Assemblée soient plus beaux que ceux que je m’apprête à partager, mais il me semble que certaines explications, pour être marquantes, nécessitent d’être accompagnées d’illustrations choquantes.
Voici trois des commentaires reçus sous l’une de mes vidéos, dans laquelle je rappelais une statistique de l’Institut national de la statistique et des études économiques (Insee), inquiétante mais exacte, selon laquelle 82 % des personnes mises en cause pour des actes violents sont des hommes. Parmi ces commentaires, certains provenaient notamment d’un utilisateur se présentant sous le pseudonyme de MissilePétaniste. Je cite : « T’es un torchon à foutre inculte, reste dans le domaine des gorges profondes », « réservoir à foutre lobotomisé », « essaie plutôt d’apparaître dans un fait divers le vide-couille du tiers-monde ».
Ce qui m’inquiète profondément, c’est que ces commentaires ont probablement été écrits par des personnes mineures et que de tels propos sont vraisemblablement formulés quotidiennement sous les vidéos de créatrices et de créateurs mineurs. Et surtout, c’est qu’ils ne représentent qu’une forme, déjà ignoble, d’une violence bien inférieure à celle que subissent d’autres jeunes femmes dont l’identité, pour ces mêmes individus, pose encore davantage de problèmes que la mienne : des jeunes femmes qui ne sont pas blanches, qui se situent à la croisée de multiples discriminations et qui, pour cette raison, font l’objet d’un cyberharcèlement d’une ampleur exponentielle.
J’aimerais comprendre ce qui semble, dans notre espace public numérique, rendre admissible la tenue de tels propos. Est-ce le climat actuel, marqué par la montée d’idées fascisantes ? Est-ce l’absence d’une régulation concrète ou bien d’une éducation adaptée à un usage respectueux des réseaux sociaux ?
Je m’inquiète également de ne pas comprendre le fonctionnement d’un algorithme qui détermine pourtant, avec une rapidité extrême, les contenus que nous consommons et, par là même, les opinions que nous formons. Comment expliquer, par exemple, qu’une vidéo dans laquelle je mentionne simplement le mot « Palestine » génère dix fois moins de vues qu’une autre ? Comment expliquer qu’un contenu abordant l’éducation sexuelle et affective de manière responsable soit quasiment invisible, dès lors que l’algorithme y détecte le mot « viol », alors que, quatre swipes plus loin, une vidéo dans laquelle un jeune homme humilie une femme dans la rue en raison de son « body count » rencontre un retentissement spectaculaire ?
Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Pourriez-vous nous décrire votre utilisation quotidienne de TikTok ? Dans votre démarche de promotion de contenu, tentez-vous d’exploiter l’algorithme, que vous avez qualifié d’opaque, pour accroître la visibilité de vos publications ? Le cas échéant, comment procédez-vous ?
Mme Anna Baldy. L’opacité de l’algorithme de TikTok est un fait reconnu par de nombreux créateurs de contenu. Cette absence de transparence semble délibérée afin d’empêcher toute manipulation du système. J’ai néanmoins pu observer que les premières secondes d’une vidéo sont cruciales, ce qui influence considérablement la structuration de nos contenus, puisque nous cherchons systématiquement à placer l’information la plus accrocheuse au début afin de capter l’attention des utilisateurs.
Par ailleurs, une tendance croissante parmi les créateurs consiste à contourner la détection algorithmique de certains termes sensibles en les remplaçant par des euphémismes ou des abréviations compréhensibles par les initiés. Ainsi, « viol » devient « V », « agression sexuelle » se transforme en « AS » ou « SA ». Ces stratégies visent à éviter le déréférencement des vidéos, sans pour autant parler de censure à proprement parler.
Mme Laure Miller, rapporteure. J’aimerais maintenant aborder la question des contenus problématiques. Procédez-vous systématiquement au signalement de ces commentaires difficiles à gérer et de leurs auteurs ? En tant qu’utilisatrice, êtes-vous confrontée à des contenus choquants que vous signalez ? Avez-vous le sentiment que la plateforme prend des mesures efficaces pour assainir son environnement ?
Mme Anna Baldy. Je signale rarement les commentaires car TikTok dispose d’un système de filtrage initial très performant. La plateforme détecte rapidement les commentaires insultants et les place dans une section spécifique nécessitant une validation. Par souci de préservation personnelle, j’évite généralement de consulter cette section. Cependant, certains commentaires parviennent à passer outre ce filtre. La problématique majeure concernant le signalement réside dans l’absence de suivi. Nous ne recevons aucune information sur les actions entreprises à la suite de nos signalements. Bien que je ne ressente pas nécessairement le besoin d’être informée de la suppression d’un compte spécifique, il serait pertinent, dans le cas de messages privés ou de menaces, de savoir si l’auteur a toujours accès à notre contenu ou si son accès à la plateforme a été restreint en raison de son comportement.
M. le président Arthur Delaporte. Concernant spécifiquement la modération, lorsque vous signalez des contenus ou des propos haineux, quel est le taux de retour que vous obtenez ? Par ailleurs, en tant que créatrice de contenu, bénéficiez-vous de contacts privilégiés avec les équipes de modération ?
Mme Anna Baldy. Il existe effectivement une adresse électronique dédiée, que j’ai eu l’occasion de contacter une fois pour un cas d’usurpation d’identité. L’équipe de TikTok s’est montrée très réactive dans ce cas précis.
Cependant, j’ai récemment échangé avec une créatrice de contenu féministe qui subit actuellement un cyberharcèlement intense. Malgré ses nombreuses tentatives de contact sur cette même adresse électronique, elle n’a reçu aucune réponse.
Concernant le retour de la plateforme à la suite des signalements, comme je l’ai mentionné précédemment, je n’ai personnellement jamais été informée des suites données.
Mme Laure Miller, rapporteure. Depuis quand êtes-vous active sur TikTok ?
Mme Anna Baldy. J’ai débuté la création de vidéos en juin dernier, il y a donc un an. Mon activité a coïncidé avec la période électorale, initialement celle des élections européennes, puis celle des élections législatives.
M. le président Arthur Delaporte. Combien d’abonnés avez-vous accumulés en l’espace d’une année ?
Mme Anna Baldy. Je suis actuellement suivie par 160 000 abonnés sur TikTok. Cette croissance exponentielle est caractéristique de la plateforme, son algorithme fonctionnant de manière très différente des autres applications. Nous sommes en effet principalement amenés à consommer du contenu de personnes que nous ne suivons pas, ce qui permet d’une part de diversifier le contenu visionné et, d’autre part, de mettre rapidement en lumière des créateurs de contenu parfois peu préparés à une telle audience. Il est essentiel d’être conscient de cette éventualité, particulièrement pour les mineurs qui peuvent se retrouver à s’adresser à des dizaines de milliers de personnes sans y être préparés.
M. le président Arthur Delaporte. Vous avez mentionné vos études en sciences politiques. Avez-vous terminé votre cursus ? Êtes-vous désormais influenceuse à temps plein ?
Mme Anna Baldy. J’ai achevé mes études il y a deux semaines. Pour l’instant, je me consacre pleinement à mon activité d’influenceuse pendant la période estivale, puis je prévois de reprendre mes études à la rentrée prochaine.
M. le président Arthur Delaporte. Avec 160 000 abonnés, parvenez-vous à générer des revenus mensuels confortables ?
Mme Anna Baldy. Pour les créateurs de contenus similaires aux miens, les revenus sont essentiellement liés au nombre de vues. TikTok utilise un système de revenu par mille vues (RPM) pour les vidéos dépassant une minute de visionnage et apparaissant sur la page « Pour toi ». Seules les vues générées par l’algorithme de TikTok sont rémunérées, excluant ainsi les vues des abonnés directs. Cette rémunération constitue la majeure partie de mes revenus, les collaborations étant plus difficiles à obtenir pour du contenu éducatif comparé à du contenu lifestyle plus facilement commercialisable. Ces derniers mois, mes revenus ont oscillé entre 900 et 1 400 euros, avec une forte variabilité mensuelle.
M. le président Arthur Delaporte. Combien d’heures de travail par semaine cela représente-t-il ?
Mme Anna Baldy. La réalisation des vidéos à elle seule me prend environ quatre heures par jour. Les après-midis sont généralement consacrés à des rendez-vous avec des associations, des institutions, des journalistes ou des sociétés de production. Si je décidais d’y consacrer tout mon temps, cela pourrait facilement représenter un emploi à temps plein.
M. le président Arthur Delaporte. Le modèle de rémunération basé uniquement sur la mise en avant par l’algorithme est particulièrement problématique, dans la mesure où des contenus choquants peuvent s’avérer plus rémunérateurs que des contenus de qualité nécessitant un important travail de préparation et d’éditorialisation.
Mme Anna Baldy. Cette situation est également liée au fait que les grandes marques, souvent perçues comme apolitiques dans l’opinion publique, sont celles qui rémunèrent le plus généreusement les collaborations. En parallèle, les institutions culturelles, les musées ou les médias indépendants n’ont pas les moyens d’allouer une part importante de leur budget à la communication. Il est évident que plus le contenu est politisé ou éducatif, plus il devient difficile d’obtenir des collaborations rémunérées.
Mme Laure Miller, rapporteure. Vous publiez depuis environ un an, mais êtes utilisatrice de TikTok depuis plusieurs années. Avez-vous constaté une évolution dans les contenus que vous voyez en tant qu’utilisatrice ?
Concernant votre relation aux réseaux sociaux, vous semblez indiquer qu’il ne faut pas tout rejeter en bloc, qu’il existe des contenus pertinents et des communautés dans lesquelles on peut se reconnaître. Cependant, vous êtes parfaitement consciente des contenus extrêmement problématiques, tels que les contenus racistes ou misogynes, et de la violence omniprésente sur les réseaux sociaux. Vous avez évoqué une relation problématique aux réseaux sociaux lorsque vous étiez mineure. Qu’est-ce qui vous pousse aujourd’hui, malgré tout, à y consacrer autant de temps ? Quels facteurs pourraient vous amener à considérer que le rapport coût-avantage est défavorable et vous inciter à quitter TikTok ?
Mme Anna Baldy. Ma consommation personnelle de TikTok a indéniablement évolué, mais j’attribue ce changement principalement à ma propre maturation et à l’évolution de mes centres d’intérêt. TikTok excelle dans sa capacité à cibler précisément les préférences de l’utilisateur, au point qu’un simple like sur une vidéo peut déclencher un flux considérable de contenus similaires. Néanmoins, je suis parfois confrontée à des contenus que je juge choquants, tels que des micros-trottoirs aux propos sexistes ou des analyses pseudo-sociologiques établissant des liens fallacieux entre délinquance et origine ethnique.
Bien que ces expériences suscitent en moi une profonde aversion, je reconnais être une utilisatrice assidue de TikTok. Je tente de justifier cette utilisation intensive en la rattachant à mon activité professionnelle, mais force est d’admettre que, même à vingt-deux ans, je reste sensible à un algorithme conçu pour générer une forme d’addiction. Cette réalité s’étend d’ailleurs à un large spectre d’âges, mes parents étant eux-mêmes utilisateurs de l’application.
Ma position vis-à-vis de TikTok est empreinte de contradictions, puisque je critique ouvertement son algorithme tout en l’utilisant comme outil de travail. J’estime, dans une approche qui s’inspire de la philosophie gramscienne, qu’il est nécessaire d’investir les espaces culturels accessibles. Actuellement, TikTok représente pour moi la plateforme la plus propice à l’expression de mes idées. Je n’exclus pas la possibilité de diversifier mes canaux de communication à l’avenir, notamment si des opportunités se présentent dans des médias indépendants. Pour l’heure, TikTok me permet de préserver mon indépendance éditoriale et d’atteindre une audience que je peinerais à rassembler par d’autres moyens, comme un blog écrit par exemple.
M. Thierry Sother (Soc). Je souhaite approfondir la question de votre relation complexe avec TikTok. Vous avez mentionné avoir désinstallé puis réinstallé l’application. Pourriez-vous expliciter les raisons de ces fluctuations dans votre utilisation de la plateforme ? Par ailleurs, qu’est-ce qui motive votre décision de mener ce que vous qualifiez de « combat culturel » sur TikTok, alors que de nombreux chercheurs ont démontré les limites de cette approche en raison des bulles cognitives inhérentes aux réseaux sociaux ? Comment appréhendez-vous cette problématique ?
Mme Anna Baldy. J’ai effectivement désinstallé TikTok à deux reprises pour des périodes prolongées. Ma première phase d’utilisation intensive puis de désinstallation remonte à mes années de lycée, une période particulièrement éprouvante, surtout pour une jeune fille. TikTok, du fait de son fonctionnement algorithmique, tend à exploiter le mal-être et le désespoir ressentis par ses utilisateurs, en particulier les adolescents. Il est indéniable que les personnes en dépression, confinées chez elles, constituent une cible privilégiée pour ce type de plateforme.
Plus tard, durant mes études de droit, j’ai à nouveau supprimé l’application, prenant conscience de son caractère chronophage. Je me suis rendu compte que je pouvais y passer des heures alors que je n’avais initialement prévu d’y consacrer que quelques minutes. À vingt ans, j’ai réalisé que mes doigts cherchaient instinctivement l’icône de TikTok avant même que mon cerveau n’en formule consciemment le désir.
Aujourd’hui, tout en restant critique envers les dérives de TikTok, je reconnais son potentiel éducatif. En tant que jeune adulte en pleine construction intellectuelle, j’y trouve des réflexions de militants et des recommandations de lectures que je n’aurais probablement pas découvertes par d’autres canaux. Ces contenus contribuent significativement à mon évolution personnelle.
Pour revenir à la pensée de Gramsci, je suis consciente que mon utilisation de TikTok légitime en quelque sorte son modèle économique et son omniprésence dans nos vies. Cependant, face aux messages politiques inquiétants véhiculés par certains médias traditionnels, TikTok me semble être le moyen le plus efficace de partager une vision alternative de l’information.
M. le président Arthur Delaporte. Dans le cadre des réflexions actuelles sur la régulation des réseaux sociaux, une proposition fréquemment avancée concerne l’interdiction de création de compte pour les moins de quinze ans. Quel est votre point de vue sur cette perspective ?
Mme Anna Baldy. La question de l’accès des mineurs aux réseaux sociaux soulève effectivement des interrogations légitimes. Il est évident qu’un adolescent de dix-sept ans et un enfant de treize ans ne devraient pas être exposés aux mêmes contenus. L’enfance est un processus continu et l’accès à l’information devrait idéalement suivre une progression adaptée à chaque âge.
Cependant, forte de mon expérience auprès d’acteurs de la protection de l’enfance, je reste prudente quant à l’efficacité des interdictions pures et simples. L’histoire nous montre que les adolescents trouvent généralement des moyens de contourner les restrictions, comme on le constate actuellement avec l’accès aux sites pornographiques.
Je suis par ailleurs convaincue que l’apprentissage du tri et de l’analyse de l’information ne peut se faire en privant totalement les jeunes de l’accès à celle-ci. L’éducation joue un rôle crucial dans la formation de l’esprit critique des enfants face à l’information. Les contenus créés par des vulgarisateurs comme Monsieurlechat, par exemple, peuvent avoir un impact positif sur la compréhension du monde par les jeunes.
Ainsi, bien que je comprenne les arguments en faveur d’une interdiction, je reste critique envers cette approche et suis persuadée que la prévention et l’éducation constituent des leviers plus efficaces pour protéger les mineurs.
Mme Laure Miller, rapporteure. De nombreuses vidéos sur ces plateformes ne relèvent pas de l’information éducative mais propagent des contenus extrêmement choquants, sans filtre, auxquels les enfants peuvent être exposés malgré les explications préalables que nous pourrions leur donner.
Considérant les difficultés actuelles à réguler efficacement des plateformes comme TikTok, notamment en ce qui concerne la modération des contenus problématiques tels que les SkinnyTok, ne devrions-nous pas envisager l’application d’un principe de précaution pour les plus jeunes ? Malgré les efforts d’éducation au numérique, ces derniers restent particulièrement vulnérables face à des contenus inappropriés. Dans un contexte où la modération semble insuffisante et où les contenus problématiques persistent malgré les tentatives de suppression, ne serait-il pas judicieux d’adopter une approche plus protectrice, en complément des mesures de sensibilisation et de prévention ?
Mme Anna Baldy. Je partage votre point de vue et m’oppose également à une responsabilisation excessive des enfants, qui ont besoin d’une protection particulière. Cette réflexion me rappelle une expérience vécue dans le cadre de mon travail au sein d’une association de protection de l’enfance. Nous avions participé à une rencontre organisée par le ministère de l’économie, réunissant des représentants de plateformes de réseaux sociaux et des mineurs témoignant de leur expérience en ligne. J’avais alors interrogé ces jeunes sur leur exposition à des images sexuellement explicites non sollicitées, phénomène que j’avais moi-même expérimenté au collège. Tous ont confirmé avoir vécu cette situation. Un représentant de Snapchat a tenté de rejeter la responsabilité sur les enfants en suggérant que cela résultait de l’ajout de contacts inconnus. Cette attitude de déresponsabilisation des plateformes, motivée par des intérêts économiques et favorisée par un manque de régulation, me semble particulièrement critiquable.
Concernant la question de l’interdiction d’inscription sur les réseaux sociaux pour les mineurs, je ne me considère pas comme la plus qualifiée pour trancher. Ce sujet soulève des interrogations complexes sur les limites à fixer et l’accès au contenu. Je suis convaincue qu’un enfant doit pouvoir accéder à l’information pour se préparer à participer à la vie démocratique, mais les modalités de cet accès restent à définir par des experts du domaine.
M. le président Arthur Delaporte. Vos propos reflètent parfaitement la complexité du débat que nous menons au sein de cette commission. La pluralité des points de vue souligne la difficulté de trouver un équilibre entre l’établissement d’une norme et son appropriation sociale.
Au-delà de ces considérations, votre intervention soulève la question centrale du rapport aux mineurs dans la production de contenu. En tant que créatrice, pourriez-vous nous éclairer sur la composition de votre audience ? Disposez-vous de statistiques précises ? Bien que l’identification directe des mineurs soit impossible sur TikTok, une estimation peut être déduite en analysant l’ensemble des données démographiques. Quelle est la proportion estimée de mineurs dans votre public ? Comment abordez-vous la question de la réception de vos contenus par ce jeune public ? Avez-vous reçu des témoignages de mineurs concernant vos contenus ou signalant des contenus problématiques rencontrés ailleurs ?
Mme Anna Baldy. Selon les dernières statistiques consultées, mon audience se compose de 28 % d’hommes et de 71 % de femmes, avec une prédominance de la tranche d’âge dix-huit à vingt-quatre ans à hauteur de 58,7 %. En tentant de compiler les données disponibles, j’arrive à une proportion de mineurs d’environ 0,5 %, ce qui me semble sous-estimé au vu des commentaires reçus mentionnant des expériences lycéennes ou des demandes liées à des projets scolaires.
Concernant mon approche du traitement de l’information pour un public incluant potentiellement des mineurs, je m’attache à aborder des sujets que je juge essentiels pour la sensibilisation des jeunes. J’ai, par exemple, collaboré avec une association luttant contre la prostitution des mineurs et réalisé plusieurs vidéos sur ce thème, consciente de l’impact potentiel sur de jeunes spectateurs vulnérables.
Ma démarche de vulgarisation ne vise toutefois pas à simplifier excessivement le contenu pour le rendre accessible à tous, y compris aux plus jeunes. Je m’efforce plutôt de condenser en quelques minutes des sujets complexes, tout en utilisant une terminologie précise et scientifique. Je considère en effet que les mineurs sont capables de comprendre ces termes et qu’il est bénéfique pour eux de les maîtriser. Cette approche permet de traiter des sujets approfondis de manière concise, sans pour autant sacrifier la rigueur scientifique.
M. le président Arthur Delaporte. Les données liées aux statistiques d’audience soulèvent des interrogations quant à leur fiabilité, particulièrement dans le contexte de notre réflexion sur le contrôle de l’âge et la vérification de l’identité. À ce propos, pourriez-vous nous préciser si vous avez déclaré votre âge réel lors de votre première inscription sur TikTok ?
Mme Anna Baldy. Effectivement, lors de la création de mon premier compte, j’ai déclaré mon âge réel qui était, si je me souviens bien, de quinze ans à ce moment-là.
M. le président Arthur Delaporte. Votre témoignage suggère qu’il existe probablement des statistiques plus précises concernant les utilisateurs déclarant sincèrement leur âge.
N’hésitez pas à nous transmettre par écrit tout document, information ou réponse que vous jugerez utile de porter à notre connaissance.
La séance s’achève à dix-huit heures cinquante-cinq.
Présents. – Mme Christelle D'Intorni, M. Arthur Delaporte, M. Emmanuel Fouquart, Mme Anne Genetet, M. René Lioret, Mme Claire Marais-Beuil, M. Kévin Mauvieux, Mme Constance de Pélichy, M. Thierry Sother, M. Stéphane Vojetta