Compte rendu
Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs
– Audition commune, ouverte à la presse, réunissant des responsables de TikTok France 2
– Présences en réunion.................................3
Jeudi
12 juin 2025
Séance de 14 heures
Compte rendu n° 26
session ordinaire de 2024-2025
Présidence de
M. Arthur Delaporte,
Président de la commission
— 1 —
La séance est ouverte à quatorze heures dix.
La commission auditionne conjointement Mme Marlène Masure, responsable du contenu États d’Europe, du Moyen-Orient et de l’Afrique, directrice exécutive du développement commercial et marketing, et Mme Marie Hugon, responsable des enquêtes réglementaires européennes, responsables de TikTok France.
M. le président Arthur Delaporte. Nous poursuivons notre série d’auditions des responsables de TikTok en recevant Mmes Marlène Masure et Marie Hugon. Dans la mesure du possible, nous vous demanderons d’être aussi concises que possible et d’éviter de répéter les informations qui auraient été portées à la connaissance de la commission d’enquête ce matin. Nous vous prions également de nous déclarer, dans votre propos liminaire, tout intérêt public ou privé de nature à influencer vos déclarations ; si, par exemple, vous êtes rémunérées par TikTok, il faudra le préciser.
L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.
(Mmes Marlène Masure et Marie Hugon prêtent successivement serment.)
Mme Marlène Masure, responsable du contenu États d’Europe, du Moyen-Orient et de l’Afrique, directrice exécutive du développement commercial et marketing de TikTok. Mon rôle, chez TikTok, est d’accompagner, avec mon équipe, une sélection de partenaires, de créateurs et de personnalités publiques dans leur stratégie de contenu sur la plateforme. Nous travaillons également à l’élaboration de partenariats avec des acteurs de la culture, du sport et des médias. Notre objectif est d’encourager la création de contenus créatifs, éducatifs, divertissants et de qualité au service d’une communauté très engagée de 25 millions d’utilisateurs chaque mois en France.
Plus de 250 médias sont aujourd’hui présents sur la plateforme, parmi lesquels Le Monde, France Info, France Télévisions, Le Figaro, Le Parisien, Arte, l’AFP (Agence France-Presse) ou encore Brut. Notre mission consiste à les aider à développer leur audience en favorisant l’interaction avec de nouveaux publics. Nous avons récemment travaillé avec « Le masque et la plume », l’émission emblématique de critique cinématographique, théâtrale et littéraire diffusée sur France Inter, en permettant à ses intervenants de partager leurs impressions à chaud à la sortie des projections du festival de Cannes. Ce dispositif leur a permis de toucher une nouvelle audience grâce à un format innovant et immersif.
Dans le domaine sportif, nous sommes partenaires du Tour de France pour la troisième année consécutive, dans l’objectif commun d’amplifier la ferveur et la liesse populaire autour de cet événement mythique.
Je citerai également notre soutien à la promotion de films comme L’Amour ouf et Le Comte de Monte-Cristo, notre dispositif exceptionnel pour les Jeux olympiques et paralympiques de Paris 2024 ou encore notre partenariat avec l’Institut national de l’audiovisuel (INA). Nous sommes particulièrement fiers de ces initiatives qui favorisent la diffusion de contenus culturels de qualité et mobilisent une diversité d’acteurs sur l’ensemble du territoire.
Mes équipes accompagnent également les créateurs de contenu. TikTok est un véritable tremplin pour des milliers de créateurs et de professionnels qui vivent aujourd’hui de leur passion et de leur créativité dans tous les domaines : la musique, le cinéma, la danse, l’agriculture ou encore l’enseignement. Ces créateurs partagent quotidiennement des contenus inspirants et pédagogiques qui permettent aux utilisateurs de découvrir de nouveaux univers. Par exemple, une trentaine de créateurs enrichissent le fil Stem, un nouveau flux que nous avons lancé en avril 2024 et qui propose une sélection de contenus pédagogiques et éducatifs dans les quatre domaines qui forment en anglais l’acronyme Stem – sciences, technologie, ingénierie et mathématiques. Pour inciter les plus jeunes à découvrir ces sujets, les utilisateurs de moins de 18 ans voient le fil Stem par défaut ; en France, 27 % d’entre eux le consultent une fois par semaine.
Nous créons également des programmes qui facilitent la découverte de contenus utiles à notre communauté. Parmi eux, le programme #ApprendreSurTikTok, dont l’ambition est de valoriser toutes les formes de savoir et qui permet à des scientifiques, des experts, des professeurs, des acteurs culturels de partager leur savoir auprès d’une très grande communauté, a rencontré un vif succès et a généré, à travers ses 250 000 vidéos éducatives, plus de 5 milliards de vues depuis son lancement en 2023.
En quelques années, TikTok est devenu une véritable vitrine sur le monde. Chaque mois, plus de 175 millions de personnes à travers l’Europe se rendent sur TikTok. Le foisonnement créatif de sa communauté et la liberté d’expression qu’elle y trouve façonnent une nouvelle culture populaire.
Conscients que les tendances et les sujets sociétaux qui émergent sur TikTok, comme sur l’ensemble des plateformes numériques, résonnent dans la vie réelle, nous nous engageons à agir en responsabilité en accompagnant les utilisateurs, créateurs, entreprises, partenaires et institutions, en soutenant les contenus utiles et positifs et en veillant à la sécurité et au bien-être de notre communauté. Cet engagement guide chacune de nos actions au service d’un espace numérique inclusif, encadré et porteur de sens. Il s’inscrit dans le strict respect des réglementations en vigueur, à commencer par le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act, le DSA, un texte pionnier qui couvre des enjeux cruciaux en matière de protection des mineurs. Sur ce point essentiel, je laisse la parole à ma collègue Marie Hugon, qui pilote ces sujets au sein de TikTok.
Mme Marie Hugon, responsable des enquêtes réglementaires européennes de TikTok. Au sein de l’équipe juridique, je suis responsable des enquêtes réglementaires européennes, notamment dans le cadre du DSA. Mon rôle est de faciliter un dialogue constructif et transparent avec les autorités réglementaires.
Garantir la sécurité de notre communauté est une priorité essentielle pour TikTok : c’est sur la sécurité que repose la confiance des utilisateurs qui font vivre la plateforme en créant quotidiennement du contenu positif et inspirant. TikTok s’engage pleinement à respecter les cadres réglementaires en vigueur dans tous les pays où nous opérons. Nous cultivons une collaboration étroite et proactive avec les régulateurs en plaçant la transparence, la responsabilité et l’intégrité au cœur de nos interactions. Cette approche nous permet non seulement de protéger nos utilisateurs mais aussi de participer activement à l’évolution des meilleures pratiques du secteur.
TikTok a été désigné en tant que « très grande plateforme en ligne », ou VLOP, par la Commission européenne le 28 avril 2023, en application du DSA. TikTok est convaincu que ce nouveau cadre juridique au niveau européen constitue une avancée majeure pour l’ensemble des plateformes numériques en établissant de nouvelles exigences en matière de transparence, de responsabilité et d’atténuation des risques. TikTok a toujours soutenu ces progrès et continuera à s’adapter à mesure que le droit évolue.
En plus des paramètres de sécurité et de confidentialité pour nos utilisateurs âgés de 13 à 17 ans, qui existaient avant août 2023, TikTok a pris de nombreuses mesures pour se conformer au DSA, notamment la réalisation d’évaluations détaillées des risques systémiques et, plus précisément, des risques liés à la protection des mineurs, ainsi que la mise en œuvre de mesures d’atténuation raisonnables, proportionnées et efficaces, dont l’ajustement des conditions d’utilisation et des fonctionnalités de la plateforme, le renforcement des politiques de modération, la modification des systèmes de recommandation ou encore la promotion de l’éducation aux médias. De plus, TikTok établit annuellement des audits externes et indépendants publiés sur son site.
Conformément au DSA, TikTok publie également des rapports de transparence portant sur ses efforts de modération de contenu dans les vingt-sept pays membres de l’Union européenne ; ces rapports détaillés et exhaustifs sont aussi disponibles en ligne. Ils incluent notamment le nombre d’utilisateurs actifs mensuels dans chaque État membre de l’Union européenne ou encore le nombre de suppressions proactives et de signalements de contenus illégaux qui enfreignent nos règles communautaires. Par exemple, aujourd’hui en France, 91 % des contenus problématiques sont supprimés avant même qu’ils n’aient été vus sur TikTok. En plus des technologies de modération, des milliers de collaborateurs en Europe œuvrent à la sécurité de la plateforme, dont 509 modérateurs en langue française. Seul 1 % du contenu publié est retiré ; cela se justifie par le fait qu’il enfreint les règles communautaires.
Notre engagement en matière de transparence s’applique également au fonctionnement de notre système de recommandation. Nous expliquons de manière claire comment les contenus sont sélectionnés et proposés dans le fil de nos utilisateurs, mais également comment ces derniers peuvent personnaliser et gérer eux-mêmes leur expérience.
En ce qui concerne la sécurité des mineurs, notre approche repose sur un engagement ferme et global combinant des politiques de tolérance zéro, des technologies innovantes, des fonctionnalités de contrôle intégrées à l’application ainsi que des ressources pédagogiques destinées à sensibiliser et à accompagner les jeunes utilisateurs et leurs parents. Face à l’évolution rapide du paysage numérique et à la complexité croissante des enjeux liés à la protection des mineurs, nous continuons à nous adapter. C’est tout l’objet du travail que TikTok mène en collaboration avec d’autres acteurs du secteur, avec des associations, les chercheurs, les régulateurs, les gouvernements afin de mettre en œuvre des solutions pour mieux protéger les mineurs sur internet.
C’est dans le cadre du DSA que TikTok a participé aux réunions de travail organisées par la Commission européenne avec l’ensemble des très grandes plateformes pour la préparation des lignes directrices relatives à la protection des mineurs qui viennent d’être publiées. TikTok rendra ses observations concernant ces lignes directrices d’ici quelques jours.
Je me tiens à votre disposition pour répondre à vos questions concernant ces enjeux réglementaires, en particulier le DSA. J’ai également apporté nos rapports de transparence et nos rapports de risques.
M. le président Arthur Delaporte. Je vous remercie. Nous les avons lus.
Mme Laure Miller, rapporteure. Ma première question est générale : avez‑vous – vous ou vos équipes – suivi nos auditions depuis le début de la commission d’enquête ? Si oui, cela vous a-t-il inspiré des pistes d’évolution ?
Mme Marlène Masure Il est un peu tôt pour proposer une analyse car vous avez auditionné une centaine de personnes. Bien entendu, nos équipes se sont mobilisées pour écouter toutes les auditions. Notre entreprise a une vraie culture du feed-back : elle est à l’écoute des avis et des expériences ; nous avons l’humilité de penser que nous pouvons toujours faire mieux. L’application a été lancée en France et à l’échelle mondiale en 2018 ; elle rassemble aujourd’hui une communauté de 1 milliard d’utilisateurs. L’enjeu de la sécurité est au cœur de nos actions. Nous avons des équipes mobilisées. C’est une obsession du quotidien que de toujours faire mieux et d’apporter le plus de sécurité possible aux utilisateurs. Nous grandissons avec le soutien de tous les partenaires qui nous accompagnent : des signaleurs de confiance, des experts, des associations engagées à nos côtés en matière de sécurité. Nous sommes très à l’écoute des recommandations qui émergeront de la commission d’enquête et qui peuvent être utiles à l’ensemble des plateformes numériques.
Mme Laure Miller, rapporteure. Vous avez dit dans votre propos liminaire, comme vous l’aviez affirmé il y a deux ans devant nos collègues sénateurs, que vos contenus « contribuent au dynamisme de notre société » et que vous avez « la responsabilité d’offrir le meilleur contenu possible dans un espace sûr et inclusif ». Nous avons entendu les mêmes mots ce matin. Confirmez-vous ces propos ? Estimez-vous qu’ils sont conformes à la réalité des contenus de TikTok ?
Mme Marlène Masure. TikTok rassemble 1 milliard d’utilisateurs autour d’un principe, qui est de permettre à chacun de s’exprimer. Cela apporte une liberté d’expression à des minorités, à des personnalités isolées qui auraient besoin de soutien. La force de TikTok est d’être une somme de microcommunautés qui se rassemblent pour échanger autour d’un sujet qui les passionne – par exemple, la natation, les comics ou les livres.
L’enjeu est d’apporter un maximum de sécurité en encadrant, grâce à tous les efforts dont nous avons parlé ce matin, l’usage de la création sur la plateforme. Chacun a le droit de s’y exprimer ; notre responsabilité est d’instaurer des règles communautaires qui encadrent le travail de modération.
Avec mon équipe, nous travaillons à l’échelle locale avec une sélection de créateurs, environ un millier en France, qui parlent de sujets éducatifs ou utiles ; nous avons aussi 400 partenaires, dont j’ai déjà parlé. L’enjeu est de lancer des programmes qui créent l’engouement sur des sujets qui nous semblent importants ; c’est, par exemple, le rôle des programmes #S’informerSurTikTok ou #ApprendreSurTikTok.
Mme Laure Miller, rapporteure. Affirmeriez-vous que TikTok est aujourd’hui un espace sûr et sécurisé ?
Mme Marlène Masure. Qui suis-je pour l’affirmer ? Je suis une salariée collaboratrice d’une très grande entreprise. Ce que je peux vous dire, c’est que nos équipes Trust and Safety, dédiées à la sécurité des utilisateurs, sont mobilisées et emploient des outils technologiques très puissants. Si ce n’est pas déjà fait, nous vous invitons à visiter notre centre de transparence à Dublin pour voir comment nous procédons à la modération des contenus ; c’est une tâche pour laquelle nous mobilisons 6 000 personnes. Les procédures sont en place. Je ne peux pas vous dire que le système est infaillible. Aucune plateforme ne pourrait avoir la prétention de dire que son système de modération est infaillible, mais nous avons des procédures très solides que nous continuons de faire évoluer. Nous sommes preneurs de retours, de conseils et de recommandations, si vous pensez que nous pouvons faire mieux.
Mme Laure Miller, rapporteure. Je comprends que vous n’êtes pas en capacité de me dire que TikTok est un espace sûr et inclusif. Vous affirmez que TikTok contribue au dynamisme de notre société. Je me permets donc de vous lire certains témoignages que j’ai sélectionnés parmi le flot de messages qui sont parvenus sur l’adresse mail de la commission d’enquête. Les prénoms ont été changés.
Thibaut, qui a 20 ans aujourd’hui : « J’ai moi-même été pris dans la spirale de TikTok à partir de 2020. Je suis tombé dedans comme beaucoup d’autres, d’abord par curiosité, puis par habitude, puis par automatisme. Ce swipe infini a été plus addictif que tout ce que j’avais connu auparavant. Pendant plus d’un an et demi, j’ai été pris dans ce flux. Ce n’est qu’en entrant dans une période de dépression que j’ai pleinement mesuré la violence de ce système. L’algorithme a amplifié mon état en m’inondant de contenus en lien avec ma détresse. Il savait exactement ce que je ressentais et il me le servait en boucle. Ce qui était un divertissement est devenu un piège. J’ai mis des mois à m’en sortir. »
Manon, qui a 20 ans aujourd’hui, a commencé à se rendre sur TikTok à 15 ans. Elle dit : « Lorsque j’ai découvert TikTok, c’était une application pleine de bonne humeur, de créativité, d’humour, de bienveillance. C’était un endroit où on se sentait léger, compris, parfois inspiré. Mais au fil des années, cette atmosphère s’est peu à peu dégradée. Aujourd’hui, TikTok est saturé de contenus violents, dégradants, sexualisés ou tout simplement toxiques. On y voit des vidéos où des personnes sont dénudées, des propos racistes, sexistes, discriminants, des violences verbales ou physiques souvent tournées en dérision, des tendances qui prônent des standards irréalistes de beauté. Personnellement, le flot constant de contenus centrés sur le corps, l’apparence, la compétition sociale m’a profondément affectée. J’ai développé des complexes, une mauvaise image de moi-même et même des idées noires. Ce n’est pas une influence positive, c’est devenu une pression constante. »
Pierre, qui est aujourd’hui père de deux adolescentes, nous explique : « Je vois bien comment TikTok et son écosystème sapent la motivation, l’ambition, l’esprit critique de nos filles. Tout est lié : les publicités pour les vapoteuses, l’hyperconsommation avec Shein, le langage appauvri, les comportements violents, le désintérêt pour l’effort. Elles finissent par vivre par procuration à travers des mises en scène déconnectées du réel. Cela les rend profondément malheureuses. Ce sont des modèles de vie toxiques qui colonisent l’imaginaire de nos enfants. »
Aurore, elle, a 20 ans. Voilà ce qu’elle nous raconte : « Je suis passée par une période compliquée après mon hypokhâgne. TikTok est devenu un endroit où je pouvais éteindre mon cerveau. Je ne voulais pas penser et réfléchir et donc j’avais constamment TikTok devant les yeux. J’ai même des amis qui mettent le défilement automatique pendant qu’ils se brossent les dents. »
Sylvie, qui est enseignante dans un collège, explique : « Comme mes collègues, je voulais juste faire entendre notre voix pour signaler qu’il est urgent de protéger nos enfants de cette addiction, leurs parents n’étant pas toujours au courant ou conscients de l’emprise de TikTok sur leur façon de penser – ou de ne plus penser – par eux-mêmes. »
Jeanne explique : « TikTok a détruit une partie de ma vie. Voir toutes ces filles si belles me faisait tellement complexer, voir les jeunes de mon âge sortir, faire tant de choses… Je les enviais tellement ! Je passais ma nuit dessus, beaucoup, beaucoup de temps. La prise de conscience est difficile, cela requiert de la maturité. Maintenant, j’ai 17 ans, je passe moins de temps dessus la nuit, je me sens mieux dans mon corps. Alors, avec beaucoup de recul, je pense que TikTok devrait être limité à ceux ayant plus de 14 ans, par exemple, mais avec des sessions de discussion en classe à ce propos, pour voir leur ressenti, pour leur faire prendre conscience des risques de TikTok. »
Matthieu a 15 ans. Il explique : « Mon avis : je pense que TikTok devrait être supprimé ou limité aux moins de 16 ans en France. Tous les jeunes sont sur TikTok, ils sont influencés par ce réseau social. Ils perdent tout leur potentiel à scroller des heures et des heures. Cela nous rend complètement faibles mentalement. Nos relations sociales sont impactées car nos discussions sont fondées sur TikTok grâce aux références, donc si tu n’as pas TikTok, ça reste difficile de sociabiliser avec les autres. Aujourd’hui, je vous demande de faire quelque chose de concret sur l’accès limité de TikTok. »
Nadège est Tiktokeuse depuis cinq ans. Elle dit : « Jusqu’à il y a trois ans, TikTok était une plateforme plutôt sympathique. Mais depuis deux ans, l’argent a pris le contrôle et il se passe des choses graves : blanchiment d’argent, prostitution, doxing, harcèlement, intimidation. »
Enfin, Émilie, professeure au collège, dit : « Nous sommes sur le point de former une génération d’adultes dont la réflexion est réduite à néant. Actuellement, nous ne sommes plus en capacité de former des citoyens face à l’ensemble de ces réseaux. Ils ne deviennent que de simples consommateurs qui, par ailleurs, se dirigent de plus en plus vers des extrêmes tant ils sont influençables et en quête de sens. N’oublions pas que ce sont eux qui feront le monde de demain. »
À l’aune de ce florilège, considérez-vous toujours que votre contenu contribue au dynamisme de notre société ?
Mme Marlène Masure. Ces témoignages sont importants et nourriront sans doute les recommandations de votre commission. Je crois néanmoins que le sujet dépasse TikTok : il s’agit de l’usage du digital et du numérique au sens large. De même, le sujet de la santé mentale déborde le cadre des plateformes.
Vous avez reçu ces témoignages : c’est le rôle de cette commission d’enquête. Pour notre part, nous recevons, tous les jours, des témoignages formidables de créateurs qui nous disent combien TikTok les a aidés à trouver des communautés pour les soutenir, à créer des business, etc. Les auditions de ce matin ont abordé la question de la valeur économique des emplois qui ont été créés grâce à la plateforme. Vous avez aussi reçu en audition des créateurs, comme M. Lechat, qui vous a expliqué comment on pouvait éduquer à travers la plateforme.
Il n’y a pas de réponse binaire. La situation est plus complexe. Quoi qu’il en soit, nos équipes sont mobilisées pour créer les contenus les plus intéressants et ludiques possible grâce au portefeuille de 400 partenaires et de 1 000 créateurs à l’échelle du pays.
Mme Laure Miller, rapporteure. En effet, il est important de nous dire ce qui fonctionne et je ne doute pas que la plateforme abrite de nombreux contenus positifs. Ce qui nous intéresse, toutefois, c’est de comprendre pourquoi subsistent autant de contenus négatifs. Assumez-vous qu’une partie de la jeunesse soit sacrifiée au bénéfice de jeunes qui, eux, vivent bien la plateforme ?
Mme Marlène Masure. Jeunesse sacrifiée, personnellement, je n’y crois pas, mais cela mériterait de longues heures de conversation.
Nous avons 25 millions d’utilisateurs chaque mois en France. Beaucoup d’entre eux y trouvent du divertissement et du plaisir. Depuis 2018, nous travaillons avec des associations et des ONG, sur la base d’études, pour développer et faire évoluer des outils, disponibles sur la plateforme, pour mieux maîtriser son expérience. TikTok a été la première plateforme à proposer une limite de 60 minutes de temps d’écran pour les mineurs. Nous avons aussi développé une adaptation des notifications push et sophistiqué les outils de contrôle parental. Aujourd’hui, un parent peut contrôler quasiment toute l’expérience de son enfant : le temps d’écran, le type de personnes qui peuvent interagir avec ses contenus et laisser des commentaires, les horaires, qui peuvent être personnalisés au jour le jour ; il peut bloquer des créneaux horaires durant lesquels l’enfant ne pourra pas se connecter à la plateforme. L’enjeu est avant tout de continuer à faire connaître ces outils de contrôle parental. Nous avons probablement la possibilité d’aller plus loin.
Mme Marie Hugon. Je vous remercie d’avoir partagé ces témoignages avec nous. Comme l’a dit ma collègue, nous accueillons tout témoignage, tout ressenti, et nous nous éduquons car nous sommes une entreprise relativement jeune.
Depuis 2020, le cadre juridique est totalement différent, grâce au DSA, qui est directement applicable en France. La France a participé à la construction de ce cadre juridique, notamment grâce à Monsieur le commissaire Thierry Breton. Nous avons mis en place de nouvelles règles avec l’ensemble du secteur.
Nous sommes identifiés comme une très grande plateforme en ligne, ce qui implique une responsabilité et des obligations assez importantes. Plus de 1 000 personnes au sein de la société travaillent sur le DSA. Nous nous engageons sur l’analyse de risques systémiques et sur leur atténuation.
Nous dialoguons en permanence avec notre autorité de tutelle, qui est la Commission européenne, mais également avec l’autorité de régulation des médias d’Irlande, la Coimisiún na Meán ; nous avons des échanges quasi hebdomadaires avec elles.
Aujourd’hui, on a un cadre. Comme vous le savez pertinemment, des enquêtes sont en cours. Il faut laisser un peu de temps au droit pour s’adapter, s’établir. Nous n’oublions en aucun cas les témoignages.
Je ne vais pas reparler des sujets qui ont déjà été évoqués, mais il n’y a plus de publicité personnalisée pour les personnes âgées de 13 à 17 ans, ce qui est une grande avancée. Nous allons continuer en ce sens. Alors que les lignes directrices relatives à la protection des mineurs viennent juste d’être publiées, toute l’industrie œuvre ensemble pour établir un cadre et un standard pour l’Europe entière. Il est très important de laisser le droit s’appliquer.
Mme Laure Miller, rapporteure. Lors de votre audition, en juin 2023, par la commission d’enquête du Sénat sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence, vous avez dit, madame Masure : « Bien entendu, on ne prendra pas de risque ni sur le respect du RGPD (règlement général sur la protection des données) ni du DSA. Tous ces sujets ont forcément été pris en compte […] Des équipes travaillent depuis plus d’un an sur le sujet du DSA. Nous sommes donc confiants quant à notre capacité à nous conformer à ce règlement au mois d’août. Nous n’avons, à ma connaissance, aucune inquiétude sur la question ».
Malgré tout, le mois dernier, vous avez été doublement épinglés : d’une part, pour non-respect du RGPD par l’Autorité de protection des données irlandaise et, d’autre part, pour non-respect du DSA par la Commission européenne. J’ai pleinement conscience que ces procédures sont en cours ; vous disposez évidemment d’un droit de réponse. Cela dit, alors qu’il paraissait si simple, à vous entendre en 2023, de se conformer à ces règles, on constate que ce n’est finalement pas le cas.
Par ailleurs, vous venez de dire qu’il faut laisser un peu de temps au droit pour s’adapter. Or personnellement, lorsqu’une nouvelle règle est votée, je ne dispose pas d’un délai de deux ans pour m’y conformer. Comment expliquez-vous que la situation actuelle contraste autant avec les propos optimistes que vous teniez il y a deux ans ?
Mme Marie Hugon. Nous avons tout mis en œuvre – des moyens, des ressources humaines – et nous nous sommes vraiment adaptés. Nous ne sommes pas les seuls à nous être fait « épingler », pour reprendre votre terme – qui ne me paraît d’ailleurs pas adapté car des enquêtes et une instruction sont en cours.
La Commission européenne peut poser des questions et ouvrir des enquêtes pour améliorer la transparence et la collaboration. C’est dans ce cadre que s’applique pleinement le DSA. M. Breton l’a dit lors de son audition : il faut laisser un peu de temps pour que les enquêtes puissent se dérouler. Ce sont des sujets complexes, sur lesquels travaillent non seulement des juristes, mais aussi des ingénieurs et des personnes chargées du Trust and Safety et des politiques internes. Il faut un peu de temps pour que la Commission européenne puisse faire son travail et appliquer ce règlement.
M. le président Arthur Delaporte. On nous a dit également qu’il fallait des procédures solides parce que vous avez des camions d’avocats.
Mme Marie Hugon. Je ne suis pas sûre que nous ayons des camions entiers ! Je suis seule à gérer ce sujet à Paris. J’ai une petite équipe.
M. le président Arthur Delaporte. Peut-être vos équipes ne sont-elles pas suffisantes…
Mme Marie Hugon. On s’adapte.
M. le président Arthur Delaporte. TikTok a été condamné à une amende de 530 millions d’euros car il n’a pas été capable de démontrer que les données personnelles des Européens, accessibles à distance en Chine, bénéficient dans ce pays d’un niveau de protection équivalent à celui de l’Union européenne. TikTok va-t-il payer l’amende ?
Mme Marie Hugon. Je ne travaille pas sur cette procédure spécifique ; elle est traitée par mes collègues chargés de la protection des données personnelles. Nous avons fait appel de la décision ; l’instruction est toujours en cours.
Dans le cadre du projet Clover, nous avons mis en place des mesures significatives en matière de sécurité des données pour que celles-ci soient bien hébergées en Europe. Nous continuons à œuvrer dans ce cadre.
Mme Marlène Masure. Le projet Clover vous a-t-il été expliqué ? Souhaitez-vous qu’on vous en expose les grandes lignes ?
M. le président Arthur Delaporte. Vous pouvez développer.
Mme Marlène Masure. Le projet Clover repose sur le principe de souveraineté numérique. L’idée est de créer une enclave numérique au sein de laquelle seraient hébergées les données personnelles des utilisateurs. Le même projet existe aux États-Unis – vous l’avez peut-être lu dans la presse –, c’est le projet Texas, qui sécurise les données sur le territoire américain.
L’ambition est identique en Europe. Un budget de 12 milliards d’euros d’investissement a été validé pour sécuriser les données. Concrètement, il s’agit d’ouvrir des data centers en Europe pour héberger les données personnelles des utilisateurs situés en Europe. Ce travail est en cours. Un certain nombre de data centers ont été ouverts à Dublin, en Finlande, en Norvège. Ce travail est réalisé en toute transparence ; nous en avons discuté avec toutes les autorités compétentes.
Nous sommes très innovants en la matière : aucune autre plateforme n’est allée aussi loin. Pour prouver notre bonne foi, nous travaillons avec un tiers de confiance, NCC Group, qui valide toutes les procédures de transfert de données. Ce projet très ambitieux montre notre engagement et notre volonté d’aller encore plus loin que la référence du marché en matière de sécurisation des données.
M. le président Arthur Delaporte. Reconnaissez-vous là, implicitement, qu’aujourd’hui les données ne sont pas suffisamment sécurisées ni suffisamment souveraines, – je fais référence à leur hébergement sur le continent européen ? À l’heure actuelle, ce projet n’étant pas encore abouti, la protection des données reste un enjeu.
Mme Marlène Masure. Non, le contrat avec NCC est en cours d’exécution. Les données sont hébergées de manière sécurisée dans des pays – les États-Unis, Singapour – avec lesquels l’Europe a conclu des accords.
Une grande partie des données ont été transférées vers ces nouveaux data centers. Ce transfert prend du temps mais sera sans doute bientôt finalisé. C’est une question très technique. Si vous souhaitez entrer dans le détail, je ne suis pas la meilleure experte. En revanche, on peut organiser une session d’échanges ou vous envoyer des éléments écrits sur la mise en œuvre du projet Clover. Sachez qu’il va plus loin que ce que nous impose la norme.
Mme Laure Miller, rapporteure. Nous avons de nombreuses questions à vous poser qui font écho aux témoignages que je vous ai lus tout à l’heure. L’un des sujets qui revient régulièrement est l’algorithme de recommandation, qui est très spécifique à TikTok. Pourriez-vous nous en expliquer le fonctionnement ? Comment réagissez-vous à ce que certains jeunes décrivent, à savoir une forme d’enfermement dans une bulle de contenus ? Certains contenus peuvent être positifs, mais on peut vite se retrouver enfermé dans des contenus tristes. Y a-t-il des règles spécifiques pour les mineurs ?
Mme Marlène Masure. Le principe de TikTok, c’est d’être une plateforme qui propose du contenu basé sur les centres d’intérêt. La différence avec d’autres plateformes qui seraient plus connues ou présentes sur le marché depuis plus longtemps, c’est qu’on ne va pas vous proposer des contenus sur la base de vos connexions ou de vos amis, mais en fonction de ce que vous consommez sur la plateforme.
Par exemple, si deux utilisateurs ont regardé deux contenus similaires, et que le deuxième utilisateur regarde un troisième contenu, nous suggérerons au premier utilisateur de regarder ce troisième contenu, car nous supposons qu’ils ont les mêmes centres d’intérêt. L’algorithme est basé sur une préférence de contenu, et c’est sur cette base que nous vous recommanderons du contenu. Mettons que je regarde un contenu cinéma et foot ainsi qu’un contenu livre. Si Mme Hugon a regardé un contenu cinéma et foot, l’algorithme considérera qu’elle sera aussi intéressée par le contenu livre. Le principe du fonctionnement de l’algorithme, c’est de vous proposer des contenus qui vous intéressent a priori.
Ensuite, il y a des enjeux relatifs à des contenus que nous allons considérer comme sensibles, qui peuvent être classés comme « matures », par exemple. Ces contenus sont soumis à des règles de classification, ce qui permet d’éviter qu’ils soient proposés aux mineurs. S’ils sont classés comme « non recommandés », ils ne seront pas proposés aux mineurs ; ils peuvent ne pas apparaître non plus dans le flux « Pour toi », qui est le plus consommé sur la plateforme. C’est un point très important.
Nous appliquons en outre un principe de dispersion des contenus : pour les contenus pouvant être considérés comme sensibles, nous veillons à ce qu’ils n’apparaissent pas de manière répétée dans le flux « Pour toi », afin d’éviter la formation de bulles et de prévenir tout risque d’enfermement.
Mme Marie Hugon. Je vais apporter un complément au sujet du renforcement des mesures de sécurité, notamment pour les jeunes utilisateurs. De nombreux contenus ne sont visibles que par des adultes. Les mineurs ne verront que des contenus visionnables par tous. Le contenu créé par des personnes de moins de 16 ans n’est pas éligible aux recommandations dans le cadre du système de classification ; il n’apparaîtra donc pas dans le fil « Pour toi ».
Nous œuvrons à rendre notre système de recommandation vraiment transparent. D’ailleurs, le DSA prévoit une obligation de transparence. Les signaux – le temps passé sur une vidéo, le fait d’aimer une vidéo, les raisons pour lesquelles on voit une vidéo… – font l’objet d’une grande transparence sur notre site, qui concerne également la manière dont ces signaux sont intégrés dans les algorithmes qui sont à la base du système de recommandation. Nous essayons d’avoir de plus en plus de transparence et d’éducation sur ces sujets. Cela étant, il y a vraiment des pare-feu pour protéger les mineurs.
Mme Marlène Masure. Des outils sont disponibles sur la plateforme. On peut notamment utiliser le mode « restreint », qui permet de s’assurer que l’on ne sera pas exposé aux contenus les plus complexes. On peut également procéder à un filtrage en indiquant le type de contenus – par exemple sportifs ou culturels – qu’on a le plus envie de voir : on peut, à cette fin, changer les paramètres au sein de l’application. Aujourd’hui, de nombreuses fonctionnalités sont disponibles pour personnaliser son expérience.
M. le président Arthur Delaporte. Nous allons aborder la question de la mise en avant des contenus par l’algorithme en fonction de certaines règles éditoriales.
Mme Sophie Taillé-Polian (EcoS). Il y a toujours un contraste entre la manière dont vous décrivez TikTok, qui serait un lieu sûr où la créativité s’épanouirait, et ce que l’on constate lorsqu’on ouvre l’application.
J’ai été attentive à ce que vous avez dit concernant le système de recommandation, notamment la classification des contenus « non recommandés » qui ne sont pas diffusés sur le fil « Pour toi ». Ne faut-il pas inverser la logique ? Vous avez évoqué les partenariats avec les médias, qui sont nombreux à essayer de trouver des formats pouvant correspondre aux utilisateurs et aux utilisatrices de TikTok. S’agissant de la jeunesse, ne serait-il pas pertinent de faire des recommandations éducatives afin de parvenir à cet environnement sûr ?
Vous avez parlé de certains programmes qui relèvent presque de l’éditorialisation. Pour éviter que les jeunes ne soient enfermés dans une boucle où il leur serait proposé toujours les mêmes types de contenus en lien avec leurs centres d’intérêt, ne pourrait-on pas offrir des contenus à visée éducative labellisés ? Je pense notamment à la norme JTI (Journalism Trust Initiative) proposée par Reporters sans frontières. L’idée serait de proposer dans le fil « Pour toi » – quand bien même les jeunes n’ont jamais consulté de contenus similaires auparavant – des contenus adaptés à la jeunesse émanant de certains médias qui garantissent la sécurité de l’information.
L’avenir des plateformes, c’est peut-être aussi de proposer, en association avec des partenaires fiables, des contenus intéressants, intelligents et sûrs pour les enfants et les jeunes, sans avoir besoin de les soumettre à des milliers de filtres ou de vérifications.
Mme Marlène Masure. Absolument. Je pense que c’est le sens de l’histoire. J’ai évoqué le programme #ApprendreSurTikTok. Soixante-dix ambassadeurs, parmi lesquels figurent les plus grands médias de France, créent du contenu éducatif en utilisant ce hashtag, ce qui nous permet de le faire émerger plus facilement. Certains contenus ont reçu le label officiel, ce qui leur confère une forme de caution supplémentaire. C’est tout le travail éditorial que nous faisons aujourd’hui.
S’agissant du hashtag #S’informerSurTiktok, nous travaillons avec de nombreux partenaires, tels l’AFP et Le Monde, qui vont aider les utilisateurs à développer leur esprit critique. Même si la raison d’être de TikTok est de divertir, on est confronté à une réalité : les événements que nous vivons au sein de la société sont commentés sur la plateforme. Donc, collectivement, toutes les plateformes doivent travailler à l’éducation à l’esprit critique. Aussi, dans le cadre d’une campagne que nous avons lancée avec l’AFP en novembre 2024, crée-t-on des ressources pour expliquer comment décoder des vidéos engendrées par l’intelligence artificielle ou des fake news.
L’enjeu, pour nous, est de continuer à travailler là-dessus et à faire émerger, sur les sujets d’actualité, les partenaires reconnus ; c’est la direction que nous prenons. Pour ce faire, nous avons besoin que les médias s’engagent. Aujourd’hui, nous disposons d’une base solide de 250 médias. Notre travail au quotidien est de leur expliquer que c’est une audience intéressante, utile, et que, collectivement, nous avons la responsabilité de créer du contenu intéressant, utile et véridique.
Mme Marie Hugon. #BookTok est une excellente trend, qui a été reprise partout en Europe, où de nombreux critiques littéraires parlent de littérature. Ce genre de trends positives, très intéressantes culturellement, sont mises en avant.
Mme Sophie Taillé-Polian (EcoS). Ma question était plutôt la suivante : recommandez-vous ces contenus, même si l’algorithme qui définit les centres d’intérêt ne le ferait pas ? Les poussez-vous, ou attendez-vous qu’ils soient poussés ? Si vous ne les mettez pas en avant, les contenus resteront en marge. La question est de savoir comment l’algorithme les fait émerger directement dans les fils.
Mme Marlène Masure. Différents outils sont à disposition au sein de l’application. Je vais en détailler les aspects techniques.
Prenons l’exemple de Roland-Garros, de Paris 2024 ou du Festival de Cannes. Lorsqu’on travaille sur des évènements de cette ampleur, on développe un search hub qui permet de traiter, de façon qualitative, toutes les requêtes faites au sein de l’application sur un thème particulier. Durant le Festival de Cannes, nous avions un search hub dédié qui permettait de faire émerger, de manière bien structurée, sur une page très bien construite, les contenus officiels – ceux du festival, du diffuseur, des studios. Cela permet de traiter un certain nombre de requêtes spécifiques relatives à de grands événements culturels et sportifs qui nous paraissent importants et qui sont de grands carrefours d’audience.
Si vous envoyez la requête #ApprendreSurTiktok, une page dédiée s’affichera avec des contenus labellisés officiels. Ce label leur donne une caution, qui favorise un meilleur engagement naturel et permet de les faire émerger sur la plateforme.
Les soixante-dix partenaires du programme #ApprendreSurTiktok travaillent à la création d’un contenu éducatif intéressant, qui crée de l’engagement. Il n’y a pas de façons – entre guillemets – « d’abuser » du système. Nos utilisateurs sont très intelligents : ils vont regarder les contenus qu’ils trouvent engageants. Nous sommes toujours à la recherche de la qualité, d’histoires. Il faut que le contenu soit intéressant. S’il ne l’est pas, il ne sera pas vu.
L’enjeu, pour nous, n’est pas de pousser des contenus pour pousser des contenus, mais d’utiliser ces carrefours d’audience pour pousser des contenus utiles. À titre d’exemple, nous avons travaillé avec France Inter sur l’astronomie. Nous avons organisé la visite des studios de la radio pour Zebroloss, un créateur qui a produit un contenu hyper intéressant sur l’astronomie, vu près d’un million de fois. C’est cela, notre travail. Nous nous assurons que, sur des questions un peu complexes, on travaille avec les médias, mais aussi avec des créateurs qui peuvent raconter une histoire de manière adaptée à l’audience.
Les créateurs et les personnalités publiques mènent un travail d’éducation permanent. M. Thomas Pesquet est venu sur la plateforme. Les équipes l’ont onboardé – comme on dit dans notre jargon : elles lui ont présenté la plateforme et les bonnes pratiques. Aujourd’hui, il y publie un contenu absolument passionnant pour tous les passionnés d’astronomie.
Évidemment, on n’aura jamais fini. On peut toujours faire mieux. Mais, dans chaque pays, les équipes accomplissent un travail colossal pour créer des contenus qui nous paraissent utiles, sérieux et qualitatifs.
M. le président Arthur Delaporte. Je rebondis sur BookTok, qui a fait l’objet d’un certain nombre d’articles et d’enquêtes. Je vous livre le témoignage d’une créatrice très active sur la tendance : « Aujourd’hui, on trouve quasiment tout le temps des trigger warnings. On prévient les gens s’il y a des thèmes compliqués.[…] Le réseau BookTok a […] évolué, je vois clairement la différence ». Cela concerne notamment le fait qu’on y trouverait beaucoup de dark romance, qui met en scène des relations hypersexualisées, parfois de l’inceste. Est-ce là le BookTok dont vous parlez ?
Mme Marlène Masure. Absolument pas. Comme l’a dit Mme Hugon, BookTok est une tendance, née sur la plateforme en 2020. Nous n’avons pas la capacité d’influencer des tendances ; la communauté va décider des sujets dont elle a envie de s’emparer. La communauté BookTok est née naturellement sur la plateforme ; elle a été créée par des passionnés de livres. Comme je l’expliquais tout à l’heure, la plateforme est une somme de microcommunautés qui se passionnent pour des sujets. La communauté BookTok a crû de manière exponentielle de façon très rapide. Elle partage des moments de lecture, des extraits, des façons de vivre ou exprime sa passion pour tel ou tel environnement.
Je vous invite à interroger les maisons d’édition, qui peuvent témoigner de l’impact de BookTok sur les succès en librairie. BookTok permet de donner une deuxième vie à certains titres. Les auteurs vont raconter l’histoire, livrer les coulisses, expliquer l’intention qui se trouve derrière chaque livre, donner envie de découvrir une œuvre. De la même manière, dans le monde de la musique, les artistes utilisent la plateforme pour raconter leur univers, donner à comprendre l’histoire sous-jacente à une œuvre. BookTok est une communauté de passionnés de livres qui partagent des moments de lecture, qu’il s’agisse d’œuvres littéraires classiques ou plus modernes.
M. le président Arthur Delaporte. Comment analysez-vous ce phénomène, qui est évoqué dans de nombreux articles. Quelles sont, à vos yeux, les tendances ? L’IA permet d’analyser les évolutions et d’orienter les maisons d’édition vers ce qui marche ou ce qui ne marche pas. La dark romance fait-elle partie de ce qui cartonne ?
Mme Marlène Masure. Bien sûr, la dark romance fonctionne. Les directeurs d’édition – je suis mal placée pour en parler car je ne suis pas directrice d’édition – expliquent que ce qui les intéresse, c’est d’identifier des créateurs qui performent sur TikTok pour développer leurs contenus et leurs livres. Par exemple, Paulo le Sportix, un expert du sport qui crée des contenus très intéressants et décode les grands événements sportifs, a été récemment publié.
Certains chefs, grâce au succès rencontré sur la plateforme, remplissent leur restaurant et publient leurs livres de recettes.
M. le président Arthur Delaporte. Attention, nous ne nions pas que la plateforme puisse avoir des effets positifs en matière d’accès à l’information et à la culture – nous ne conduisons pas cette commission d’enquête de manière manichéenne. Cela étant, nous essayons d’identifier ce qui peut être source d’effets négatifs sur les mineurs. En l’occurrence, certains jeunes peuvent être choqués par des contenus très explicites pouvant être mis en valeur dans le cadre de la tendance BookTok.
Mme Marlène Masure. Je ne sais pas. Je vous invite à regarder le compte @entouteslettres de Valentine.
M. le président Arthur Delaporte. Vous citez des exemples. Reconnaissez-vous que cette tendance peut également exister, à côté de ces comptes ?
Mme Marlène Masure. Je suis prête à recevoir toutes les critiques mais BookTok, c’est une si belle histoire ! C’est une histoire formidable : les maisons d’édition sont très heureuses de ce qui s’est passé sur la plateforme. Des créateurs organisent des temps de lecture, qui sont des moments de rencontre avec leur communauté et qui vont donner envie de relire des grands classiques.
Je crois donc qu’il ne faut pas opposer les mondes. L’audience sur TikTok permet de recréer du lien. Grâce au phénomène BookTok, on crée des expériences autour du cinéma, notamment le book to screen – du livre à l’écran. Il existe plein d’histoires autour de succès BookTok qui ont donné lieu à des films ou à des séries à succès. Je crois que c’est globalement une très belle communauté.
M. le président Arthur Delaporte. Je vais citer un article du Temps : « Les livres de dark romance remportent un grand succès en librairie tout comme en ligne, sur TikTok en particulier. L’engouement pour ces histoires de la part de jeunes filles entre 12 et 15 ans interpelle en raison de leur contenu sexuellement explicite et violent. Les récits y mettent en scène des relations amoureuses toxiques, majoritairement hétérosexuelles et souvent situées dans l’univers interlope du crime organisé. La soumission, l’emprise et le viol en sont des thèmes récurrents. » C’est cela dont je parle, et c’est présent sur la plateforme. Agissez-vous sur l’algorithme pour que ces sujets soient un peu moins visibles ?
Mme Marlène Masure. Je peux citer La Femme de ménage ou des poèmes qui rencontrent du succès.
M. le président Arthur Delaporte. Ce n’est pas ma question.
Mme Marlène Masure. La plateforme ne diffuse pas exclusivement des contenus de dark romance. Et non, nous ne manipulons pas l’algorithme sur BookTok. C’est la communauté qui va décider quels sujets et thématiques de livres sont intéressants.
Mme Laure Miller, rapporteure. L’algorithme soulève une vraie problématique : lorsqu’on va sur TikTok, l’algorithme nous propose non pas ce qui correspond à nos intentions profondes mais ce qui capte notre attention. C’est une différence majeure. Pour reprendre la métaphore de la voiture : je roule sur l’autoroute où un accident s’est produit, je regarde comme n’importe qui, enfant ou adulte, parce que ma curiosité, sur le moment, me pousse à regarder, même si ce n’est pas mon intention profonde ; je ne suis pas intéressée par le fait de voir un accident, mais mon attention est captée par le carambolage. L’algorithme tient compte de cela et non de notre véritable intention. N’y a-t-il pas un problème évident concernant cet algorithme qui pousse, peut-être, certains à être entourés de contenus qu’ils aiment, mais qui enferme aussi beaucoup d’autres dans une boucle de contenus qu’ils n’apprécient pas, au fond, et qui peut nuire à leur santé mentale, sujet qui est au cœur de nos travaux ?
Mme Marie Hugon. C’est une question clé que la Commission européenne est en train d’examiner, dans le cadre des enquêtes en cours. La question des systèmes de recommandation est relativement nouvelle ; les algorithmes, c’est de l’intelligence artificielle qui connaît une évolution rapide. Nous avons vraiment une politique de transparence concernant ces systèmes de recommandation. L’utilisateur peut ne pas avoir de personnalisation du tout : on lui propose alors un fil très générique, comportant du contenu général, sur ce qui se passe en France aujourd’hui – cela peut être, par exemple, Roland-Garros, le Festival de Cannes ou encore la fête de la musique. En revanche, si l’on veut personnaliser son flux, on peut le réactualiser : si, par exemple, je visionne beaucoup de tennis mais, qu’à un moment donné, je veux regarder autre chose, il me suffit de cliquer sur la fonction « réinitialiser son flux », qui réinitialise l’algorithme.
Vous avez évoqué la notion de contenu répétitif. Sans entrer dans le détail, il existe des systèmes de dispersion précis, pour ne pas voir le même contenu à répétition et ne pas tomber dans cette bulle, en particulier pour les jeunes de moins de 18 ans.
Pour replacer cette question dans le cadre du DSA, on peut continuer à évoluer. D’ailleurs, les lignes directrices de la protection des mineurs comportent une partie entière sur la transparence des systèmes de recommandation ; nous avons envoyé nos observations et je pense qu’on peut aller encore plus loin. C’est un effort du secteur. Y aura-t-il plus de standards, plus de transparence ? Nous y travaillons, avec les autorités européennes.
Mme Laure Miller, rapporteure. Pour continuer sur ce sujet, un jeune nous expliquait, il y a quelques semaines, qu’il passait toutes ses soirées à nettoyer le fil de sa petite sœur – il était plus âgé qu’elle, bien qu’encore mineur –, et à cliquer sur « pas intéressé », « pas intéressé » pour les contenus qu’il estimait problématiques pour elle ; il racontait qu’il était obligé de renouveler l’opération le lendemain, le surlendemain, et ainsi de suite. Est-ce à dire que la mise à jour des contenus ne fonctionne pas ? Est-on obligé de refaire chaque jour la même chose, alors que, normalement, l’algorithme est censé s’adapter à ce qu’on lui dit et à ce qu’on fait ressortir comme centres d’intérêt ?
Mme Marlène Masure. Je ne connais pas cet exemple en particulier ; cela mériterait que l’on y regarde de plus près. Ce qui est intéressant, c’est qu’à travers le mode « connexion famille », vous avez la possibilité de filtrer des mots-clés – qui sont conservés. Si vous voulez supprimer des mots-clés parce que vous estimez qu’ils appellent des contenus inappropriés, vous pouvez les inscrire. Vous pouvez inscrire ces mêmes mots-clés dans les commentaires. Vous pouvez activer le mode restreint. Vous pouvez faire un tas de choses dans le mode « connexion famille ». Au-delà de faire un refresh et de réadapter, ou de « réannuler », la personnalisation des contenus, il me semble plus pertinent d’utiliser toutes les fonctionnalités du mode « connexion famille ».
Mme Claire Marais-Beuil (RN). J’ai bien entendu qu’il y a sur TikTok de très nombreux contenus intéressants, de nature à faire grandir nos jeunes. Cependant, vous avez certainement conscience que de nombreux contenus sont aussi dérangeants, voire perturbants, et qu’ils peuvent entraîner des dégâts sur des jeunes en construction. Comment voyez-vous le fait que les parents doivent faire la démarche pour leurs enfants, afin qu’ils n’aient pas accès à certains contenus ? Tous les parents ne sont pas forcément derrière eux pour cliquer toutes les trente secondes. Comment, en tant que plateforme, pouvez-vous faire en sorte qu’ils n’aient pas accès à ces contenus dérangeants qui risquent de perturber complètement leur développement sexuel, intellectuel et leur construction. Car oui, il y a du bien sur TikTok, mais aussi du moins bien.
Mme Marlène Masure. C’est absolument essentiel et c’est tout l’enjeu de nos règles communautaires, qui vont instruire la façon de modérer nos contenus. Ces règles communautaires permettent de programmer les outils de modération. La majeure partie de la modération est effectuée par des outils de modération ; cela permet de s’assurer que 100 % des contenus sont vus. Ensuite, nos modérateurs vont utiliser ces mêmes règles communautaires pour appliquer des restrictions sur ces contenus. Évidemment, des contenus matures, je l’ai déjà dit, seront labellisés comme tels et ne seront pas visibles par les mineurs.
Ce qui est important, c’est que cet effort de modération s’exerce à trois niveaux. Le premier niveau est celui de nos outils de modération, que nous continuons de sophistiquer. L’intelligence artificielle a cela de bon qu’elle va nous permettre d’aller plus vite et d’être plus efficaces ; nous continuerons donc de faire évoluer ces outils, qui permettent aussi de protéger nos modérateurs humains devant des contenus qui seraient complètement inappropriés. Nous avons ensuite des modérateurs humains qui étudient les contenus dits problématiques ou ceux que l’algorithme identifie comme étant problématiques. Enfin, nous avons surtout cette communauté de 1 milliard d’utilisateurs qui représente un outil formidable, parce que chacun peut signaler un contenu. Moi, tous les jours, je peux dire : tel ou tel contenu pose question, je ne suis pas complètement sûre qu’il soit conforme aux règles communautaires, donc je me permets de le signaler.
M. le président Arthur Delaporte. Nous en reparlerons tout à l’heure.
Mme Marlène Masure. Je peux signaler ce contenu. Parfois j’ai raison, parfois non. Nous avons une communauté très engagée, qui peut nous aider à faire émerger…
M. le président Arthur Delaporte. Pour l’instant, la communauté que nous avons auditionnée est très sceptique sur sa capacité à agir véritablement sur la limitation – mais nous y reviendrons. Je propose qu’on reste sur le fonctionnement de l’algorithme, qui fait l’objet de nos questions pour l’instant.
Vous avez expliqué qu’on ne pouvait pas altérer l’algorithme pour promouvoir certains contenus et que c’étaient les expériences des utilisateurs qui conduisaient à les mettre en avant. De manière générale, les influenceurs que nous avons auditionnés, que ce soit ceux entendus cette semaine et qui nous avaient été signalés comme problématiques, ou ceux que nous avons auditionnés la semaine précédente dont on pensait qu’ils produisaient un contenu de qualité et pédagogique, nous ont tous dit la même chose : pour performer, pour capter l’attention, il faut être dans le clash, il faut être dans la recherche du choc dès les premières secondes. N’y a-t-il pas là un problème intrinsèque à la construction de l’algorithme, qui valorise la radicalité au détriment de la raison, de la culture, de l’émancipation ?
Mme Marlène Masure. Je vais me permettre un pas de côté. J’ai travaillé dans l’industrie du cinéma auparavant, sur des bandes-annonces de films. L’enjeu était, de la même façon, de créer de l’intérêt. Si vous voulez faire découvrir la bande-annonce d’un film, il faut que l’histoire que vous racontez tienne debout et qu’elle soit intéressante. Si vous êtes super ennuyeux les trois premières secondes, vous n’avez aucune chance d’être vu. C’est tout l’enjeu des contenus audiovisuels de manière générale : il faut raconter une histoire qui…
M. le président Arthur Delaporte. Y a-t-il des dérives liées à ce fonctionnement ?
Mme Marlène Masure. La dérive, c’est si le contenu n’est, au fond, pas très intéressant ou que cela crée de l’engagement sur un contenu peu intéressant – je n’ai pas forcément d’exemple en tête. Mais il me semble assez logique que, lorsqu’on crée un contenu, le début de l’histoire doive être intéressant.
M. le président Arthur Delaporte. Mais n’y a-t-il pas une mise en valeur du contenu provoc au détriment du contenu posé ? Si je fais une vidéo dans laquelle j’explique le fonctionnement des institutions et de l’Assemblée nationale, je ne ferai que 500 ou 1 000 vues sur TikTok. Si je fais une vidéo dans laquelle je commence par manger un yaourt, cela cartonne tout de suite. N’y a-t-il pas des effets de biais algorithmiques ? C’est quand même moins intéressant de manger un yaourt ; pourtant, cela a l’air d’être plus provocateur.
Mme Marlène Masure. Il y a effectivement ce qu’on appelle des trends, qui sont des phénomènes culturels. Vous avez parfois des musiques qui vont devenir tendance et si vous créez un contenu en utilisant l’une d’entre elles…
M. le président Arthur Delaporte. En gros, la bouffe, ça marche, c’est choc ; le droit constitutionnel, un peu moins.
Mme Marlène Masure. Votre sujet n’est pas facile.
M. le président Arthur Delaporte. Même lorsqu’on essaie de le rendre intéressant. De manière générale, on nous a expliqué que cela marche lorsqu’on fait du buzz ou qu’on fabrique du drama. C’est l’une des conséquences de tout cela : les gens vont fabriquer du drama parce que cela engendre des vues et que, derrière, un modèle fonctionne.
Mme Marlène Masure. Il y a aussi Brut, qui a 12 millions d’abonnés et qui fait des cartons d’audience parce qu’il raconte ce qui se passe dans la société. HugoDécrypte, que vous avez auditionné et qui produit des contenus hyper intéressants, éducatifs et éclairants, cartonne sur la plateforme et a 7 millions d’abonnés. Pour reprendre l’exemple donné par notre directeur créatif qui accompagne les marques sur la création des formats publicitaires, il faut « faire son intéressant », il faut être intéressant et avoir une histoire à raconter. Si vous n’avez pas d’histoire à raconter et que vous n’êtes pas authentique sur la plateforme, vous ne performez pas. On n’est pas dans le beauty shot, comme on dit, dans la jolie image sophistiquée, mais dans l’histoire. C’est ce qu’on explique à toutes les personnalités publiques, comme les athlètes, qui veulent venir sur la plateforme : ce qui intéresse les gens, c’est leur préparation ou la façon dont ils ont vécu leur compétition, c’est-à-dire les moments authentiques. C’est effectivement ce qui fonctionne, plus que tenter de jouer une trend avec le risque, assez majeur, que cela ne soit pas repris.
Mme Laure Miller, rapporteure. Pour en venir à la santé mentale des mineurs, qui est l’objet de notre commission d’enquête, vous expliquez, dans le questionnaire que vous nous avez renvoyé, que TikTok dispose d’un réseau varié d’équipes internes, qui comprennent des experts en matière de psychologie. Pouvez-vous nous confirmer que ce sont, ou que ce ne sont pas, des psychologues ou des psychiatres ? En effet, la réponse n’est pas claire.
Mme Marie Hugon. Je ne connais pas toutes les équipes. À ma connaissance, ce sont des experts qui travaillent avec des chercheurs externes.
M. le président Arthur Delaporte. Qu’est-ce qu’un expert ?
Mme Marie Hugon. Vous avez rencontré ma collègue Nicky Soo, qui est une ancienne chercheuse et une experte sur ces sujets du numérique et de la santé mentale. Dans le cadre du DSA, les très grandes plateformes ont l’obligation de mettre à disposition des chercheurs une API – une interface de programmation d’application. Désormais, plus de 600 chercheurs peuvent effectuer des recherches sur le contenu de TikTok, parmi lesquels certains travaillent spécifiquement sur les enjeux de santé mentale. Nous travaillons aussi avec des associations externes sur ce sujet.
Mme Laure Miller, rapporteure. Dans votre rapport de 2024, vous admettiez qu’il y avait de véritables risques associés à la santé mentale. Ne pensez-vous pas qu’il serait pertinent d’employer dans vos équipes des psychologues ou des psychiatres ?
Mme Marlène Masure. Nous pourrons revenir vers vous sur la nature même des expertises. Ce qui est certain, c’est que nous travaillons avec beaucoup d’associations. Par exemple, nous avons réalisé des études avec Internet Matters sur différents territoires en Europe, qui nous ont permis de faire évoluer plusieurs fonctionnalités, telles que les horaires d’envoi des notifications aux plus jeunes. Nous avons aussi travaillé avec l’hôpital pour enfants de Boston, ce qui nous a permis de faire émerger l’idée de limiter à soixante minutes le temps d’écran des mineurs. Nous avons donc tout un tas d’experts qui nous permettent de remettre en cause les outils à notre disposition. Nous avons, effectivement, des personnes en interne : Mme Nicky Soo est titulaire d’un PhD – un doctorat – et est bien sûr très compétente. Elle n’est pas seule : nous avons bien sûr d’autres experts – nous pourrons vous préciser cela.
Nous travaillons aussi avec un panel d’associations qui nous aident. Sur l’anorexie, les recommandations et les ressources ont été écrites par la Fédération française anorexie boulimie, qui s’y est employée pour nous. C’est hyper important, sur chacun des sujets, d’aller chercher les meilleurs experts. Certes, il est important d’avoir des psychologues et j’imagine que nous en avons – nous allons le vérifier. Néanmoins, chaque sujet est très spécifique et chaque problématique singulière – quand on parle d’anorexie, on ne parle pas de suicide, etc. La pertinence des associations et des ONG avec lesquelles nous travaillons fait que nous sommes meilleurs dans la rédaction des ressources qui sont mises à la disposition des utilisateurs.
M. le président Arthur Delaporte. Vous évoquez les experts. Je voudrais qu’on fasse un point aussi sur les usagers. Vous avez créé, à l’échelle mondiale, un comité des usagers qui intègre des jeunes – vous l’évoquez dans votre rapport de transparence. Pourquoi ne compte-t-il pas de jeunes Français ? N’envisagez-vous pas de créer un comité par pays, pour recueillir l’expérience des utilisateurs de la manière la plus fine possible ? Le comité que vous avez créé rassemble une quinzaine de jeunes issus d’une dizaine de pays dans le monde, mais qu’y a-t-il de commun entre l’expérience d’un utilisateur indien et celle d’un jeune utilisateur français ? N’y a-t-il pas des sujets ou des tendances spécifiques selon les pays ? Ne serait-il pas utile de mettre en place ce type de structures ?
Mme Marie Hugon. Cela peut faire partie de retours d’observations, dans le cadre des lignes directrices de la Commission européenne, afin de mettre en place cela au niveau sectoriel. Nous pourrions avoir – c’est une proposition que je fais, en réfléchissant avec vous – un hub européen, de jeunes Européens.
M. le président Arthur Delaporte. C’était un peu ma question : avoir un hub français. Plusieurs millions de jeunes Français sont sur TikTok. Cela ne vaudrait-il pas le coup de créer un comité des usagers ? En effet, ils savent ce qu’ils voient.
Mme Marlène Masure. Cela me semble être une excellente idée de suggérer d’avoir un Français au sein du comité – cela n’engage que moi, car je ne le gère pas, mais nous suggérerons cette idée. Je pense qu’il y a quand même une représentativité européenne dans ce comité des jeunes. Mais, oui, il pourrait être intéressant de choisir un ambassadeur qui pourra représenter la France.
M. le président Arthur Delaporte. Il ne s’agit pas d’avoir des ambassadeurs : l’idée est plutôt que des jeunes partagent leur expérience. Avec un seul jeune, vous ne bénéficierez pas d’une diversité de points de vue et d’âges.
Mme Laure Miller, rapporteure. Amnesty international a publié, fin 2023, des rapports sur la santé mentale des jeunes – vous avez dû les voir. J’aimerais savoir si la lecture de ces études vous a conduits à procéder à certains changements. J’ai bien entendu que vous aviez déjà quelques éléments d’information, comme la limitation du temps d’écran à soixante minutes, mais avez-vous des chiffres là-dessus ? Dans quelle mesure les outils de contrôle parental et de contrôle de l’utilisation de TikTok par un jeune sont-ils utilisés ? Une chose, en effet, est de les mettre en place, une autre est de les rendre très visibles et peut-être même un peu plus contraignants pour un jeune.
Mme Marie Hugon. Je ne peux pas vous donner de chiffres aujourd’hui, mais c’est un point que l’on peut creuser. Je voudrais revenir sur le rapport des risques systémiques de 2024, dont vous avez repris une ligne. Nous travaillons justement sur l’analyse des risques et de leur atténuation pour cette année ; elle sera rendue à la Commission européenne fin août, puis publiée. Nous essayons d’extraire des données, à la fois sur la gestion des risques et l’atténuation de ceux-ci, en particulier concernant la santé mentale des mineurs mais pas seulement. C’est un sujet sur lequel nous travaillons actuellement. Nous sommes conscients qu’il s’agit aussi d’un sujet sectoriel. Je vous invite à poser les mêmes questions à d’autres plateformes car il serait intéressant d’avoir un ensemble de retours sur ce sujet.
M. le président Arthur Delaporte. Il y a quelque chose que je ne comprends pas : vous dites que vous êtes en train d’y travailler alors qu’il y avait déjà des éléments clairs l’an dernier, voire l’année précédente, permettant d’identifier ces sujets. Pourquoi faut-il toujours attendre six mois pour que vous travailliez de nouveau ? On a l’impression que, chaque fois que vous identifiez une problématique, il faut attendre. Il y a un an, nous avons adopté des mesures pour empêcher la promotion de corps idéalisés et la publication dans les for you de contenus assurant cette promotion ou celle de questions liées au poids, etc. Nous avons été proactifs. Or, un an plus tard, avec SkinnyTok, j’ai l’impression que vous êtes encore à nous dire que vous le ferez l’an prochain. En tout cas, ces sujets ne sont pas réglés.
Mme Marie Hugon. Comme je l’ai expliqué dans mon propos liminaire, c’est un travail continu, une évolution permanente, sur la manière dont la plateforme et les communautés évoluent. Nous répondons à ces risques par différentes mesures d’atténuation, telles que de nouveaux contrôles pour que les utilisateurs aient davantage de maîtrise sur le produit, des changements de nos politiques internes, des spécificités ou des éléments que nous allons changer dans nos règles communautaires. Nous ne faisons pas des annonces sur chaque changement, mais je sais que nos règles de communauté sont en perpétuelle évolution. Ce rapport est annuel, et nous travaillons dessus de manière permanente, comme nous travaillons en permanence sur les modalités d’atténuation des risques.
Mme Marlène Masure. Nous faisons beaucoup de choses. Nos équipes de modération travaillent à la suppression des contenus qui enfreignent les règles communautaires. Ainsi, entre octobre et décembre – c’est spécifié dans le rapport de transparence – 1,7 million de vidéos ont été retirées s’agissant de la France. De mémoire – mais nous pourrons revenir vers vous si je me trompe sur le chiffre – 400 000 vidéos concernaient des sujets de santé mentale. L’action et les procédures sont donc en place.
Cependant, il est difficile d’anticiper une tendance avant qu’elle n’émerge. Pour nous, l’enjeu est d’identifier collectivement, le plus rapidement possible, ces tendances, avec les associations avec lesquelles nous travaillons, les autorités publiques – puisque nous travaillons aussi avec la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (Pharos) – et les ONG, et d’y répondre.
Mme Laure Miller, rapporteure. Nous vous avons interrogé, dans le questionnaire, sur les Kentucky Files. Vous avez écrit : « Les affirmations avancées étaient inexactes car il ne s’agissait pas d’une étude interne de TikTok, mais d’un résumé d’une étude Pew datant d’avril 2018, qui porte de manière générale sur “l’usage intensif du téléphone et d’internet” et non spécifiquement sur TikTok ou même l’usage des réseaux sociaux ». Confirmez-vous la réponse que vous nous avez communiquée par écrit ?
Mme Marlène Masure. C’est l’information que j’ai. TikTok est arrivé sur les différents marchés en 2018. Je ne connais pas cette étude en détail et cela mériterait qu’on la regarde plus précisément, mais la chronologie me semble étonnante sachant que TikTok arrivait tout juste. Pardonnez-moi mais je n’ai pas le détail de cette étude et je ne dispose pas de plus d’informations.
Mme Laure Miller, rapporteure. Par ailleurs, nous lisons dans la presse, je cite : « Nous devons avoir conscience “des conséquences que peut avoir l’algorithme sur” le sommeil, la nutrition, le fait de se déplacer dans la pièce ou de regarder quelqu’un dans les yeux ». C’est un cadre de l’entreprise qui l’expliquait dans les documents révélés par la Kentucky Public Radio, et cela a été publié notamment dans Libération le 12 octobre 2024. On lit encore : « Les communications internes indiquent que TikTok reconnaissait que son algorithme pouvait influencer le sommeil et la nutrition des utilisateurs, et qu’une utilisation excessive pouvait mener à une dépendance après seulement 260 vidéos visionnées ». Confirmez-vous vos propos et le fait que vous n’avez pas le sentiment que ce soit propre à TikTok ?
Mme Marlène Masure. Je ne connais absolument pas cette étude ni ne sais d’où viennent ces propos. Il est donc compliqué pour moi de me prononcer là-dessus. Ce que je peux vous dire, c’est que, si nous continuons de faire évoluer nos outils de gestion du temps, c’est parce que nous sommes conscients de l’enjeu, qui est de permettre à chacun de contrôler sa gestion de temps numérique. Ce n’est pas un sujet propre à TikTok : il concerne les plateformes digitales au sens large. Je n’ai pas de chiffres et ne connais pas cette étude mais ce qui est certain, c’est que les équipes sont mobilisées pour faire évoluer ces outils de gestion du temps. Elles examinent toutes les études qui pourraient émerger et nous apporter des éclairages ou des informations supplémentaires pour continuer à faire évoluer la plateforme.
Mme Laure Miller, rapporteure. Comprenez-vous quand même que nous soyons étonnés : les éléments qui ont été divulgués ont fait l’objet d’un énorme scandale aux États-Unis. Vous êtes responsable du contenu, certes pas aux États-Unis, mais il s’agit d’une seule et même société. Comprenez-vous que nous trouvions très étrange que vous n’ayez pas eu la curiosité de vous pencher sur ce sujet, d’autant que nous l’avons évoqué dans le questionnaire écrit qui vous a été transmis avant cette audition ?
Mme Marlène Masure. En 2018, je ne faisais pas partie de l’entreprise et, à ma connaissance, on n’est pas complètement aligné avec ces propos ou ces déclarations. Il y a aussi beaucoup de désinformation au sujet de TikTok. Vous avez probablement noté la complexité de la situation aux États-Unis en ce moment. Donc je pense qu’il faut replacer ces propos dans leur contexte – contexte qui nous dépasse, nous, équipe France. Je ne suis pas certaine que la nature de ces propos soit véridique et que cette étude ait réellement existé. Je ne peux pas vous en dire plus.
Mme Marie Hugon. Cela fait partie d’une procédure qui a lieu aux États-Unis, en ce moment ; il y a diverses procédures. Je ne travaille pas dessus. Cela fait partie de documents qui n’avaient pas le droit d’être divulgués en externe et que des journalistes ont en effet repris. Dans ce cadre, il y a une enquête en cours, des réponses en cours et des équipes qui y travaillent. Vous savez sans doute que la Commission européenne mène aussi actuellement une enquête, notamment sur certains points que vous avez évoqués. Ce sont des éléments qui font partie d’une enquête. On ne peut pas se prononcer davantage.
M. le président Arthur Delaporte. Non, mais tous les sujets ne font pas l’objet d’enquêtes. Même si des enquêtes sont en cours, cela n’empêche pas de se poser des questions sur le rapport des jeunes à la plateforme, sur les questions d’âge, etc. Sinon, à partir du moment où il y a une enquête, vous ne répondez plus à rien !
Mme Marie Hugon. Nous sommes ici pour répondre de manière diligente à vos questions mais ce texte précis fait partie d’un contentieux en cours aux États-Unis. Je n’en ai pas connaissance, ma collègue non plus ; donc on ne peut pas en dire plus.
En revanche, si on parle, de manière générale, des limites de temps d’écran, nous avons effectivement mis en place des systèmes pour limiter le temps d’écran des mineurs, notamment la nuit : pour les adolescents âgés de 13 à 15 ans, les notifications push sont automatiquement désactivées entre 21 heures et 8 heures ; pour les adolescents âgés de 16 à 17 ans, elles sont désactivées entre 22 heures et 8 heures. On a des temps d’écran limités pour les mineurs. La question du temps d’écran est donc gérée par beaucoup de paramètres sur la plateforme.
M. le président Arthur Delaporte. Ces notifications sont automatiquement désactivées, mais le mineur peut-il, de façon proactive, les réactiver ? Le mineur peut-il décider, alors que la plateforme limite le temps d’écran, de faire sauter cette limite ?
Mme Marie Hugon. À ma connaissance, ces paramètres par défaut ne peuvent pas être modifiés par les utilisateurs, ce qui garantit des périodes de repos et d’interruption numérique.
M. le président Arthur Delaporte. Vous évoquez les mineurs âgés de 13 à 15 ans, mais il faudrait être plus précis et parler des mineurs dont l’âge renseigné sur la plateforme est entre 13 et 15 ans. En effet, de nombreux mineurs mentent sur leur âge. Le reconnaissez-vous ?
Mme Marlène Masure. En 2024, nous avons supprimé, en France, 642 000 comptes d’enfants qui n’avaient pas l’âge d’en posséder un.
M. le président Arthur Delaporte. Dont 130 000 à l’échelle française, je crois.
Mme Marlène Masure. Non, 642 000 en France.
M. le président Arthur Delaporte. Ces mineurs peuvent ouvrir de nouveaux comptes.
Mme Marlène Masure. Non, car si l’ouverture d’un compte est refusée, la personne ne peut pas retenter sa chance. On renseigne une date et ensuite on est bloqué. Les 642 000 comptes supprimés ont été identifiés sur la plateforme comme appartenant à des mineurs âgés de moins de 13 ans car ils n’ont pas été capables de prouver le contraire.
M. le président Arthur Delaporte. Reconnaissez-vous que de nombreux jeunes mentent sur leur âge pour pouvoir s’inscrire sur la plateforme ?
Mme Marlène Masure. À notre connaissance, ils étaient 642 000 en 2024.
M. le président Arthur Delaporte. C’est beaucoup, non ?
Mme Marlène Masure. Oui, mais nous les avons attrapés.
M. le président Arthur Delaporte. Combien de mineurs ont un compte TikTok ?
Mme Marlène Masure. Nous vous avons communiqué ce chiffre par écrit, je ne suis pas certaine que nous puissions le divulguer publiquement.
M. le président Arthur Delaporte. Je vais le faire : parmi vos utilisateurs, 4,5 % sont âgés de 13 à 17 ans.
Mme Marlène Masure. Ce n’est pas moi qui l’ai dit !
M. le président Arthur Delaporte. Selon Médiamétrie, qui opère des mesures sur les téléphones des jeunes, 64 % des enfants âgés entre 11 et 17 ans vont sur TikTok tous les mois et 40 % tous les jours. Contestez-vous ces données ?
Mme Marlène Masure. À ma connaissance, nous n’avons pas d’accord avec Médiamétrie, donc j’ignore dans quelle mesure ils peuvent mesurer nos audiences.
M. le président Arthur Delaporte. Lors de leur audition, les responsables de Médiamétrie nous ont expliqué qu’ils mesuraient les comportements des utilisateurs sur leur téléphone, notamment la consultation des médias. Il n’est pas nécessaire d’avoir un accord spécifique pour procéder à de telles évaluations.
Mme Marlène Masure. Je connais un peu le fonctionnement de Médiamétrie : cela reste de l’échantillon. Les accords sur les mesures d’audience rendent les études plus fiables ; or Médiamétrie n’en a pas avec TikTok.
Le chiffre que nous vous avons communiqué résulte de nos statistiques internes. Comme il s’agit de données non publiques, je n’étais pas à l’aise pour vous communiquer ce pourcentage.
M. le président Arthur Delaporte. J’ai effectué un calcul : 75 % des 11-17 ans fréquentent la plateforme, soit 3,2 des 5 millions de jeunes ayant cet âge en France. Or vous déclarez 25 millions d’utilisateurs en France. Ce ne sont donc pas 4,5 % mais près de 13 % des mineurs âgés de 11 à 17 ans qui utilisent l’application, soit trois fois plus que votre estimation. Les chiffres de Médiamétrie comportent une marge d’erreur, mais celle-ci n’est pas de 50 %, elle est tout au plus de quelques points ; ils montrent qu’environ deux tiers des mineurs mentent sur leur âge.
Mme Marlène Masure. Je ne connais pas cette enquête de Médiamétrie : il faudrait que j’étudie la méthodologie pour comprendre la taille de l’échantillon et la méthode de collecte des données. Leurs chiffres semblent en effet diverger des nôtres, mais, encore une fois, nous n’avons pas d’accord avec cette société.
M. le président Arthur Delaporte. Au-delà de ces chiffres scientifiquement fondés, nous pouvons nous fier à notre expérience : Mme la rapporteure et moi-même avons constaté qu’environ 40 % des élèves d’une classe de CM2 levaient la main lorsque nous leur demandions qui avait un compte TikTok. Nous avons répété l’exercice à de nombreuses reprises.
Mme Marie Hugon. Vous ne pensez pas qu’ils utilisent le compte de leurs parents ?
M. le président Arthur Delaporte. En tout cas, ils ont accès à TikTok. Ils connaissent les influenceurs AD Laurent et Alex Hitchens, que nous avons auditionnés mardi dernier, et, pour certains d’entre eux, HugoDécrypte.
Mme Marlène Masure. J’ai travaillé dans l’industrie du divertissement : beaucoup d’enfants connaissent l’univers Star Wars sans jamais avoir vu un film de la saga. Ils peuvent entendre parler dans la cour de récréation de certaines choses dont ils ignorent le contenu. Une telle expérience n’a pas la valeur d’une étude.
Je rejoins Mme Marie Hugon : de nombreux mineurs utilisent le compte de leurs parents. Nous n’avons pas la prétention de dire que les 642 000 comptes supprimés représentent l’ensemble des cas ; il y en a peut-être d’autres.
M. le président Arthur Delaporte. En l’occurrence, vous n’avez traité qu’un tiers de cette population, donc une minorité.
Mme Marie Hugon. Le débat actuel sur la vérification de l’âge est important. Je ne participe pas aux nombreux forums portant sur cette question technique, mais certains de mes collègues le font. Il n’existe pas de mécanisme standardisé à l’échelle européenne.
En revanche, la Commission européenne vient de publier une nouvelle méthodologie très intéressante, fondée sur une approche graduée des risques et de vérification de l’âge. La mesure doit être proportionnée à la plateforme et à ses contenus. La confidentialité, la sécurité et la protection des mineurs sont prises en considération, mais également les droits fondamentaux, la liberté d’expression, etc. Il est essentiel que l’ensemble des acteurs du secteur trouvent un standard de vérification applicable à toutes les plateformes.
Mme Laure Miller, rapporteure. Avez-vous la capacité technique de vérifier l’âge d’une personne qui s’inscrit sur TikTok ?
Mme Marie Hugon. L’âge est déclaratif. Sans entrer dans des détails techniques dont je ne suis pas spécialiste, il existe des modèles, comme celui de Médiamétrie, j’imagine, qui étudient le comportement et les signaux des comptes. Ces modélisations visent à établir l’âge du mineur.
Mme Laure Miller, rapporteure. Je vous demande si vous possédez un dispositif capable de vérifier l’âge au moment de l’inscription, pas a posteriori.
Mme Marie Hugon. Nous évoluons dans le cadre législatif européen, lequel n’impose pas aux plateformes de vérifier l’âge des détenteurs des comptes. Ces lignes directrices sont absolument cruciales pour l’industrie. Nous sommes très actifs sur le sujet. En fonction de la gradation du risque, nous déploierons différents systèmes de vérification de l’âge. La réflexion est en cours à l’échelle européenne et le texte qui en sortira sera crucial pour la suite.
Mme Laure Miller, rapporteure. Vous mettez beaucoup en avant, dans votre intervention liminaire comme dans le « à propos » publié sur le site de TikTok, votre capacité à accueillir les utilisateurs sur une plateforme sûre. Or bien que vous puissiez, techniquement, installer un système de vérification de l’âge, vous préférez ne pas le faire, en prétextant, au moyen d’une argumentation assez faible, que les autres ne le font pas. Vous dites que vous le ferez tous ensemble. Votre plateforme pourrait pourtant sortir grandie de se montrer plus responsable que les autres en déployant dès maintenant un tel outil.
Mme Marie Hugon. Quelle serait la méthode proportionnée et adaptée ? C’est la question cruciale qui se pose dans le cadre du DSA.
M. le président Arthur Delaporte. Vous employez une méthode d’estimation de l’âge que vous considérez comme adaptée au cadre existant. Cette méthode, qui ne prévoit pas de possibilité de recours au e-wallet, est imparfaite mais néanmoins préférable à une simple déclaration. Si elle était installée sur la plateforme au moment de l’inscription, vous auriez peut‑être un peu moins de détections a posteriori à effectuer.
Mme Marie Hugon. Les autorités européennes travaillent sur le e-wallet, qui n’est pas encore disponible. Il s’agit d’une proposition technique très intéressante. Il y en a d’autres comme celle qui consiste à procéder à la vérification dans les magasins d’applications. Tous les acteurs de l’écosystème doivent se pencher sur le sujet.
M. le président Arthur Delaporte. Ce n’est pas ma question. Vous disposez d’une solution de contrôle, que vous avez décidé d’utiliser a posteriori : pourquoi ne pas l’appliquer a priori, sans attendre l’harmonisation européenne ?
Mme Marie Hugon. Nous en discutons en interne, car ce sujet se situe au cœur des réflexions européennes. L’action doit être collective : toutes les plateformes doivent utiliser un outil standardisé.
Mme Laure Miller, rapporteure. Nous avons auditionné la semaine dernière des personnes qui travaillent dans l’administration de l’éducation nationale : elles nous ont expliqué qu’une réunion s’était tenue avec les différentes plateformes au printemps 2024, au cours de laquelle elles vous ont proposé le dispositif ÉduConnect, qui permet de vérifier l’âge des utilisateurs. Or vous avez refusé l’installation de cette solution. Là encore, ne trouvez-vous pas regrettable de ne pas prendre les devants en vous montrant plus responsables que les autres ?
Ou alors, dites-nous que vous avez tout intérêt à ce que des enfants n’ayant pas l’âge requis pour s’inscrire sur la plateforme l’utilisent ! Au moins, nous comprendrions votre logique, ce qui n’est pas le cas actuellement, d’autant qu’on nous a dit lors de précédentes auditions que l’enjeu n’était pas économique car ce ne sont pas les enfants qui consomment et qui vous rapportent de l’argent. Par conséquent, pourquoi ne les protégez-vous pas davantage ?
Mme Marie Hugon. C’est un sujet en cours de discussion. Nous nous adapterons en fonction…
M. le président Arthur Delaporte. Ce n’est pas ce que nous vous avons demandé !
Mme Marie Hugon. …des lignes directrices européennes.
Je ne connais pas la proposition du ministère de l’éducation nationale.
M. le président Arthur Delaporte. Madame Masure, je vous pose la même question car vous pouvez déployer des politiques proactives. Avez-vous déjà envisagé d’instaurer un contrôle a priori de l’âge de la personne dès que celle-ci installe l’application ?
Mme Marlène Masure. Cette question dépasse mon champ de compétences. Je ne travaille pas sur ces aspects. L’enjeu de la commission d’enquête est de poser les fondements de l’encadrement de l’usage des plateformes au sens large. Cette réflexion est intéressante mais elle doit englober l’ensemble des plateformes. Comme dans les autres domaines, nous nous conformons à la loi. Nous disposons d’outils de détection des mineurs. Nous avons la prétention de penser que nous faisons un assez bon travail, même s’il n’est en effet pas parfait.
M. le président Arthur Delaporte. Nous vous entendons défendre votre bilan, mais je vous ai montré qu’au moins deux tiers des mineurs n’étaient pas identifiés. Parmi les 600 000 comptes que vous avez supprimés, certains pouvaient appartenir à une même personne. Lorsque nous discutons avec des jeunes, ils nous disent posséder deux, trois voire quatre comptes TikTok. Les jeunes titulaires de ces 600 000 comptes ne sont peut-être donc que 200 000 ou 300 000.
Il y a la démarche que vous dites suivre et il y a la réalité que nous constatons. Tout votre discours se fonde sur l’absence d’accès des mineurs à l’application, la limitation du temps d’écran et la restriction des contenus qu’ils peuvent consulter, mais, dans les faits, les mineurs ont un accès complet à l’application parce que deux tiers d’entre eux sont inscrits comme des majeurs.
Mme Marlène Masure. Certains outils permettent d’identifier les mineurs.
M. le président Arthur Delaporte. Ils ne fonctionnent pas.
Mme Marlène Masure. Nous utilisons la technologie de Yoti pour la vérification de l’âge : cette solution française, éprouvée, est utilisée par la Française des jeux. Nous pouvons identifier, grâce à des mots-clés, plusieurs indices permettant de détecter les mineurs. Ces opérations continueront de se perfectionner, sous l’effet des progrès technologiques. Faut-il interdire ou prévenir ? Cette question se pose à tout le secteur, pas uniquement à TikTok.
Mme Laure Miller, rapporteure. Votre réponse ne nous satisfait pas. Nous regrettons votre manque de proactivité dans ce domaine, alors que vous avez la capacité technique d’agir. Si vous le faisiez, vous pourriez vous targuer d’être une plateforme plus responsable que les autres. Meta diffuse actuellement des publicités incitant à la création d’une réglementation européenne. On se demande pourquoi aucune plateforme ne se montre plus responsable que les autres.
Puisque l’âge réel des mineurs n’est pas véritablement vérifié, certains jeunes mentent sur leur âge et passent entre les mailles du filet. Dès lors, il faut protéger tout le monde, puisque les personnes qui devraient être exclues de la plateforme ne le sont pas. Vous nous parlez beaucoup des outils que vous avez déployés pour détecter les mineurs, mais confirmez-vous que le dépassement du plafond de temps passé sur la plateforme par les mineurs, fixé à 60 minutes quotidiennes, n’entraîne pas de blocage d’accès à l’application ?
Mme Marlène Masure. Si le contrôle parental est activé, le mot de passe est renouvelé chaque jour et seul le parent peut permettre au mineur de dépasser le plafond de 60 minutes. Si le contrôle parental n’est pas activé, l’enfant peut prolonger son expérience et recevra un deuxième rappel après 100 minutes passées sur la plateforme.
Mme Laure Miller, rapporteure. Le questionnaire grand public que nous avons publié sur le site de l’Assemblée nationale a donné lieu à 30 000 réponses, qui évoquent très peu l’installation d’un dispositif de contrôle parental sur les téléphones. Pensez-vous qu’un enfant qui a entre 13 et 17 ans – voire moins puisqu’on peut supposer que certains mentent – puisse restreindre son usage, quand on connaît – j’emploie des guillemets – le caractère « addictif » de la plateforme ? Pensez-vous qu’il puisse de lui-même activer des dispositifs de limitation du temps passé sur l’application ?
Mme Marlène Masure. La question est de savoir s’il vaut mieux interdire ou accompagner et éduquer à l’usage des plateformes. Personnellement, j’estime qu’il faut sans cesse améliorer la communication sur les fonctionnalités et les outils. L’outil de contrôle parental est très facile à utiliser : il y a lieu de le faire connaître et d’encourager les familles à se l’approprier.
Le plafond de 60 minutes permet de prendre conscience du temps passé sur la plateforme. Le jeune se dit : je me suis mis une limite de temps d’écran, car les contenus qui me sont proposés m’intéressent. Quand je suis en vacances et que j’ai du temps libre, je peux rester longtemps sur la plateforme et le plafond de 60 minutes agit comme un avertissement. Il est également possible de connaître la durée d’utilisation hebdomadaire de la plateforme. Ces outils permettent une prise de conscience qui n’empêche rien mais qui encadre l’usage.
Mme Laure Miller, rapporteure. Il y a quelques années, le patron de Netflix disait ceci : « Nous sommes en compétition avec le sommeil et nous sommes en train de gagner. »
Une lycéenne nous a expliqué les conséquences de son utilisation de TikTok au collège : « J’ai ressenti une sorte de désintérêt général pour tout ce qui ne relevait pas de TikTok. Troubles du sommeil, fatigue chronique, l’utilisation de TikTok a eu un impact majeur sur mon sommeil malgré les consignes de mes parents de ne plus utiliser mon téléphone après 21 heures. J’avais beaucoup de mal à résister et je me disais " juste une vidéo de plus " et je me retrouvais à regarder l’application jusqu’à 1 heure ou 2 heures du matin. Cette privation de sommeil se répercutait directement sur ma journée : j’étais fatiguée en cours, j’avais du mal à me concentrer, j’étais souvent irritable, mes résultats scolaires ont commencé à baisser significativement au deuxième trimestre. Difficultés de concentration, procrastination : un autre problème majeur que j’ai rencontré concernait ma capacité à me concentrer sur mes devoirs. (…) »
Le témoignage montre que, si les adultes peuvent se restreindre pour préserver leur temps de sommeil, les enfants ne le peuvent pas. Il y a un décalage entre vos intentions et la réalité : vous installez des outils qu’écartent les enfants souffrant d’addiction aux vidéos. N’est‑il pas nécessaire de déployer des dispositifs plus contraignants pour les mineurs, compte tenu de l’ensemble des études et des rapports montrant les troubles qu’engendrent ces pratiques sur le sommeil et la capacité d’attention de nos enfants, écueils que vous reconnaissez vous‑mêmes ?
Mme Marlène Masure. Je ne me permettrai pas de faire un commentaire sur les troubles du sommeil car je n’ai aucune compétence en la matière. Les questions que vous soulevez concernent l’ensemble du secteur et de la consommation digitale. Nous avons pour habitude de respecter la loi : si celle-ci évolue, nous nous adapterons.
Mme Marie Hugon. La gestion du temps d’écran est une question pour l’ensemble de la filière. Il s’agit du temps passé sur notre téléphone à consulter de nombreuses applications. Vous avez d’ailleurs évoqué Netflix : nous savons tous que le binge watching existe. Nous menons régulièrement des campagnes de prévention à destination des familles, afin de les sensibiliser au bien-être numérique. Nous construisons un centre de sécurité pour les adolescents en collaboration avec notre Conseil mondial de la jeunesse, qui pourra accueillir, potentiellement, des enfants français.
M. le président Arthur Delaporte. Ce n’est pas ce que j’ai dit : nous n’avons pas besoin d’ambassadeurs mais d’un conseil indépendant.
Mme Marie Hugon. La culture du feed-back est très importante chez TikTok. Nous proposons des contenus destinés à éduquer les enfants. Certains dispositifs de contrôle parental sont logés dans le téléphone, d’autres dans l’application. Nous allons œuvrer collectivement pour que les choses aillent dans le bon sens.
M. le président Arthur Delaporte. Vous reconnaissez tout de même que des mécanismes de captation de l’attention sont présents sur TikTok ?
Mme Marlène Masure. La proposition faite aux utilisateurs est fondée sur les contenus, sous la forme d’un flux de vidéos correspondant à leurs attentes. Si notre travail est bien fait, les vidéos proposées à chaque utilisateur correspondront à ses centres d’intérêt. Si une série m’intéresse sur Netflix, je vais la regarder jusqu’au bout.
M. le président Arthur Delaporte. Des experts nous ont affirmé que la singularité de TikTok réside dans l’efficacité et la puissance de son algorithme. D’après certains témoignages, l’algorithme sait mieux que l’utilisateur ce que celui-ci veut voir. Voilà pourquoi il parvient à le capter et à le maintenir devant son écran. Ne trouvez-vous pas qu’il y a quelque chose de vertigineux là-dedans ?
Mme Marlène Masure. Ce qui fait la force de TikTok, c’est sa communauté et tous les gens qui créent des contenus. Nous restons une plateforme.
M. le président Arthur Delaporte. Les gens sont venus par appétence pour la plateforme et tombent parfois dans une forme d’addiction. Avant la communauté, il y a un mécanisme viral de captation de l’attention.
Mme Marlène Masure. Nous ne sommes rien sans les gens qui créent du contenu, nous ne sommes qu’une plateforme technologique.
M. le président Arthur Delaporte. C’est de la langue de bois !
Mme Marlène Masure. Je suis une utilisatrice convaincue.
M. le président Arthur Delaporte. De la langue de bois ou de TikTok ?
Mme Marlène Masure. De TikTok ! Je peux vous montrer mon flux, il est hyper intéressant.
M. le président Arthur Delaporte. Le mien est un peu pollué par M. Jordan Bardella à cause de mon appétence pour la politique.
Mme Marlène Masure. C’est parce que vous regardez beaucoup ses contenus !
M. le président Arthur Delaporte. Non. J’ai indiqué que je n’aimais pas ses contenus, mais la plateforme continue de me les proposer. C’est un biais.
Dans la masse des témoignages que nous avons reçus, énormément de jeunes nous ont dit qu’ils ne parvenaient pas à s’en sortir, qu’ils passaient leurs nuits sur la plateforme et qu’ils cherchaient à contourner les mécanismes de limitation de temps parce qu’ils étaient happés et qu’ils ne pouvaient plus se passer de TikTok. Ce qui nous obsède dans cette commission d’enquête, c’est que c’est évitable.
Mme Laure Miller, rapporteure. Vous ne cessez de dire que l’algorithme capte les centres d’intérêt de l’utilisateur : c’est faux, j’en ai fait l’expérience. J’ai été ensevelie sous des contenus que je n’avais pas choisis et qui m’ont été imposés parce que j’avais eu le malheur de rester plusieurs secondes sur certaines vidéos dont le sujet était la tristesse. Mon intention profonde n’était pas de tomber là-dessus, je n’ai tapé aucun mot dans la barre de recherche ni renseigné le moindre centre d’intérêt. Il est fondamental de distinguer un algorithme qui met en avant les centres d’intérêt de l’utilisateur et un autre dont la fonction est de retenir l’attention.
Nous avons le sentiment, en vous écoutant, que vous avez allumé un gigantesque incendie que vous tentez d’éteindre avec un verre d’eau. Les dispositifs que vous déployez n’éteindront jamais le feu de la très forte dépendance à la plateforme, ce qui est sans doute ce que vous recherchez, au fond, puisque c’est évidemment un moteur de croissance économique – les gens consomment lorsqu’ils sont vraiment dépendants. Vos dispositifs ne sont pas à la hauteur de la très grande dépendance des mineurs à l’égard de la plateforme.
M. le président Arthur Delaporte. Dans les auditions que nous avons menées, l’une de vos spécificités, désormais copiée, a été mise en avant : celle de l’infinite scrolling – autrement dit, les contenus ne s’arrêtent jamais. C’est vous qui l’avez inventé, n’est-ce pas ?
Mme Marlène Masure. Cela existe sur de nombreuses plateformes aujourd’hui. Nous ne sommes pas les seuls à faire des vidéos verticales.
M. le président Arthur Delaporte. C’est vous qui l’avez inventé, puis vous avez été copiés.
Mme Marlène Masure. Il est vrai que TikTok est arrivé avant.
M. le président Arthur Delaporte. Réfléchissez-vous à l’élaboration d’algorithmes moins addictifs ?
Mme Marlène Masure. L’enjeu est d’offrir une palette de moyens et de solutions à chaque utilisateur. Les besoins et les envies divergent selon que l’on a 18 ou 45 ans. Nous voulons continuer de développer des fonctionnalités qui permettent de contrôler son expérience. Les utilisateurs peuvent supprimer la personnalisation du flux, mais les contenus ne seront alors plus liés à leurs centres d’intérêt et leur apparaîtront probablement moins intéressants.
L’algorithme me propose parfois des contenus visant à diversifier mon flux, qui ne sont pas nécessairement liés à mes centres d’intérêt. Si vraiment je ne les aime pas, je peux l’indiquer, pour m’assurer qu’ils ne me soient plus proposés. L’éducation à l’usage de la plateforme est importante pour que les utilisateurs contrôlent mieux leur expérience. Les outils de gestion du temps sont, me semble-t-il, la meilleure solution.
M. le président Arthur Delaporte. L’algorithme utilise notamment le temps de visionnage d’une vidéo pour déterminer si elle nous intéresse. Or un contenu choquant crée un effet de sidération ; même si l’utilisateur ne l’aime pas, l’algorithme nous en proposera de plus en plus.
Mme Marlène Masure. Cela m’est déjà arrivé à l’occasion de certains événements géopolitiques : je n’avais pas envie d’être exposée à de tels contenus et je me suis assurée qu’ils ne me seraient plus proposés. Il m’arrive également de bloquer des créateurs dont je n’aime pas les contenus. Il faut promouvoir ces fonctionnalités pour que chaque utilisateur puisse mieux contrôler son expérience.
M. le président Arthur Delaporte. Vous ne communiquez donc pas assez bien !
Mme Marlène Masure. Peut-être.
Mme Laure Miller, rapporteure. J’entends ce que vous dites, mais vous êtes adulte, responsable et, de surcroît, vous connaissez très bien l’algorithme. Notre préoccupation concerne les enfants, qui ne sont pas des adultes miniatures : ils sont en pleine croissance, n’ont pas le même cerveau ni les mêmes capacités que les adultes. S’ils voient un contenu qui les sidère, ils ne vont pas nécessairement le bloquer et le regarderont jusqu’au bout. Ils vont ainsi se trouver face à des contenus totalement inappropriés pour leur âge. On ne va pas leur dire qu’ils auraient dû bloquer la première vidéo sidérante. Penser cela, ce n’est ni sérieux, ni à la hauteur de l’enjeu.
Tout le monde vous demande – la société entière vous demande – pourquoi vous ne protégez pas concrètement les mineurs sur votre plateforme. Nous recevons des tonnes de mails, de témoignages d’enfants, dans les écoles, qui viennent nous voir, à chaque fois, pour nous dire qu’ils voient des contenus inappropriés de scarification. Ma nièce a vu, sans le demander, des contenus de scarification et de suicide.
M. le président Arthur Delaporte. À plusieurs reprises !
Mme Laure Miller, rapporteure. C’est inacceptable ! Vous n’avez pas une obligation de moyens mais de résultat. C’est la protection de nos enfants qui est en jeu ! Il m’est insupportable de vous entendre dire que vous mettez en place des outils, que vous faites votre maximum, que vous êtes de bonne volonté et que le DSA va arriver, alors qu’aujourd’hui, on trouve encore une grande quantité de contenus inacceptables pour les enfants.
Mme Marie Hugon. Je comprends votre point de vue et votre témoignage personnel. Nous avons fait preuve d’une grande transparence et nous vous avons donné beaucoup d’éléments techniques. Nous vous avons expliqué les systèmes d’algorithme, ceux de dispersion, de variété, de contrôle, etc. Nous continuons d’œuvrer pour améliorer les algorithmes. Nous avons en outre installé des modérations de contenu. Le DSA et les lignes directrices européennes ne semblent pas répondre à vos attentes, mais nous continuons de travailler dans le cadre existant pour la protection des mineurs.
M. le président Arthur Delaporte. Les témoignages que nous recevons vous touchent-ils un peu ? Je suppose que vous en avez également lu dans la presse. Ils sont tout de même assez glaçants.
Mme Marie Hugon. Je suis un être humain et, bien que je n’aie pas d’enfant, je suis touchée quand des drames se produisent.
M. le président Arthur Delaporte. Ne vous dites-vous pas que ces drames sont évitables ? Je me souviens de cette maman qui nous a raconté lors d’une audition que son fils se scarifiait derrière une porte et qu’elle ouvrait les armoires pour prendre des lames de rasoir et les donner à son fils. Elle attendait parce qu’elle n’arrivait pas à le priver de TikTok et à le contrôler, car il était obsédé et ne pouvait pas s’empêcher de se scarifier. Vous pourriez agir contre ça !
Mme Marie Hugon. Nous continuons à agir. Comme vous le savez, certains mots comme « suicide » sont interdits dans le moteur de recherche. De nombreuses vidéos sont retirées. Nos règles communautaires obéissent à une politique très précise. Je ne peux pas me prononcer sur certains éléments, car une procédure judiciaire est en cours en France.
M. le président Arthur Delaporte. Ce que j’ai évoqué ne fait pas forcément l’objet d’une procédure. J’ai rencontré des parents de jeunes qui se scarifient : ils parlent de Tiktok, ils ne parlent pas d’autres plateformes. C’est votre application qui est mise en cause ! Il s’agit d’un phénomène, pas simplement d’une procédure judiciaire qui concerne quelques personnes. Nous vous demandons quelles mesures vous mettez en place.
L’audition est suspendue de seize heures quinze à seize heures trente.
M. le président Arthur Delaporte. Pourriez-vous nous apporter des éléments sur les différences entre la version chinoise de TikTok et la version monde ?
Mme Marlène Masure. L’application chinoise, qui s’appelle Douyin, diffère complètement des autres versions. Elle est opérée en Chine par des équipes chinoises. Je n’ai pas eu l’occasion de la tester, donc il m’est très difficile de répondre à votre question. Ce sont deux produits différents.
M. le président Arthur Delaporte. L’entité mère possède les deux filiales, n’est-ce pas ?
Mme Marlène Masure. Tout à fait. ByteDance est un très grand groupe technologique, qui développe de nombreux produits et solutions. On y trouve des solutions de logiciel en tant que service (Saas), du cloud, des applications de montage vidéo, des applications de streaming de musique. Certains produits sont développés pour le marché chinois et d’autres pour l’international. En Chine, on accède au cloud par Volcano Engine, alors que la solution internationale est BytePlus.
TikTok est l’entité la plus connue du groupe ByteDance, car il s’agit d’un produit B2C – commerce entre une entreprise et des particuliers – alors que les autres solutions sont plutôt B2B, c’est-à-dire qu’elles sont dédiées aux entreprises.
M. le président Arthur Delaporte. On entend souvent dire que Douyin protège davantage les mineurs que TikTok : vous êtes-vous renseignés à ce sujet ?
Mme Marlène Masure. Cette opinion a été avancée lors de la commission d’enquête sénatoriale il y a deux ans. J’ai également lu des commentaires allant dans le même sens, mais n’ayant pas expérimenté l’application, je ne peux pas avoir d’avis tranché. Je ne prétends pas connaître tous les produits de la galaxie ByteDance, même si ce serait sûrement très satisfaisant sur le plan intellectuel.
M. le président Arthur Delaporte. Comptez-vous vous renseigner à la suite de nos questions écrites ?
Mme Marlène Masure. Nous pouvons les transmettre à nos collègues chinois si vous êtes intéressés par le marché chinois.
M. le président Arthur Delaporte. Ce qui nous intéresse, c’est de savoir s’il existe des mécanismes de protection des mineurs, des corrections algorithmiques sur le marché chinois sur lesquels nous pourrions nous appuyer, en Europe, pour avancer dans ce domaine.
Mme Marie Hugon. Ni ma collègue ni moi ne nous occupons du marché chinois. Nous ne connaissons pas Douyin et je n’ai pas de contacts avec les équipes responsables de ce produit, donc nous ne sommes malheureusement pas en mesure de répondre à votre question. Si vous souhaitez nous la transmettre par écrit, nous vous répondrons.
M. le président Arthur Delaporte. Nous vous l’avons adressée il y a douze jours dans le questionnaire. Si vous avez besoin d’un délai supplémentaire pour y répondre, prenez‑le.
Mme Marie Hugon. Nous avons répondu au questionnaire.
Mme Marlène Masure. Douyin est une entité complètement à part. TikTok SAS n’a pas de lien avec Douyin. Mon patron est à Londres, le sien est à Los Angeles et le patron de celui-ci est à Singapour. Nous travaillons avec des équipes internationales, mais pas avec les équipes de Douyin. Celles-ci opèrent sur un marché dont les régulations sont très différentes.
Je ne sais pas s’il est possible de dresser un parallèle entre la régulation chinoise de l’usage digital et celle qui s’applique en France. Les deux pays sont très différents, notamment sur le plan culturel.
Encore une fois, n’ayant jamais utilisé cette plateforme et n’ayant aucun contact avec Douyin, il m’est très difficile de répondre à votre question.
Mme Laure Miller, rapporteure. Ce matin, les responsables de TikTok que nous avons auditionnés nous ont apporté des explications sur la manière dont la modération fonctionnait. Nous avons obtenu en partie les réponses à nos questions. Aujourd’hui, de nombreux moyens – hashtags ou mots-clés détournés, lettres en moins remplacées par des émoticônes, etc – permettent de contourner les dispositifs de modération. En avez-vous conscience ? Consacrez-vous les moyens nécessaires, en matière de modération, pour faire face à ces contournements ?
Mme Marie Hugon. Nos collègues vous ont en effet déjà apporté beaucoup de réponses ce matin. Comme vous le savez, nous supprimons tous les contenus qui enfreignent la loi locale mais aussi nos règles communautaires, lorsqu’ils nous sont signalés ou lorsque l’algorithme les détecte. Tous les contenus sont modérés.
Vous avez soulevé un point particulier sur le détournement des hashtags qui est parfois appelé algospeak – il arrive aussi que l’on mette un zéro à la place du « o ». Nous rééduquons en permanence nos algorithmes à l’aide des nouveaux éléments dont nous disposons. Nous modérons et scrutons en permanence la plateforme et incorporons ces données.
Mme Laure Miller, rapporteure. Dans ce cas, comment expliquez-vous, par exemple, qu’en tapant le mot « scarificacion » au lieu de « scarification » dans le moteur de recherche ou en tapant l’émoticône zèbre – alors qu’on connaît ce moyen de détournement depuis un certain temps – on obtienne encore des contenus relatifs à la scarification ? Ma collègue a fait le test tout à l’heure.
Mme Marie Hugon. C’est un travail continu ; nous allons évidemment reparler de ces éléments avec nos équipes.
M. le président Arthur Delaporte. Aviez-vous entendu parler de l’émoticône zèbre ?
Mme Marlène Masure. Oui, mais je ne voudrais pas parler à la place de nos équipes de modération. Plus largement, d’après ce que nous avons compris du fonctionnement de la modération, celle-ci réagit en fonction de la taille de la communauté qui va publier avec ce hashtag. Un hashtag en soi ne veut rien dire ; il faut un certain nombre de contenus et de vues associés à celui-ci.
Quand on s’aperçoit qu’une communauté grandit autour d’une thématique qui, potentiellement, peut être problématique, on ira jusqu’à supprimer le hashtag. S’agissant du SkinnyTok, par exemple, certains créateurs nous ont contactés car ils considèrent que c’était un vrai sujet et souhaitaient créer des contenus éducatifs sur la question. Quand on cherchait un contenu SkinnyTok, on trouvait des contenus positifs qui expliquaient qu’il fallait faire attention. Le fait de supprimer le hashtag empêche de trouver les ressources et les vidéos bienveillantes qui permettent d’éveiller les consciences.
M. le président Arthur Delaporte. À moins de supprimer les seules vidéos problématiques sans retirer les bonnes.
Mme Marlène Masure. Il a fallu supprimer le hashtag #SkinnyTok pour qu’aucune recherche ne soit possible car la communauté grandissait autour de cette problématique. Après discussion avec les associations et les ONG, on a décidé d’aller jusque-là. En réalité, ce qu’il faut regarder, c’est le nombre de publications et de vues en lien avec un hashtag pour déterminer s’il est réellement problématique. Cela étant, s’agissant du terme « scarification », il n’y a pas de débat : il est problématique. D’ailleurs, il est interdit dans nos règles communautaires.
M. le président Arthur Delaporte. On nous a signalé l’utilisation de l’émoticône zèbre il y a un mois lors d’une audition. À cette occasion, j’avais fait passer un message aux responsables de TikTok en leur disant que, s’ils nous regardaient, il fallait qu’ils pensent à supprimer cette émoticône.
Aujourd’hui, lorsqu’on tape l’émoticône zèbre dans la barre de recherche, on tombe sur des contenus problématiques. Nous allons vous les montrer : ils ont été signalés, mais aucune mesure de modération n’a été prise.
Mme Laure Miller, rapporteure. Dans les réponses à notre questionnaire, vous avez indiqué : « Lorsqu’un utilisateur recherche des contenus liés au suicide ou à l’automutilation […], les résultats de recherche sont bloqués et nous affichons le message suivant avec le numéro d’appel d’urgence pertinent selon le pays. » C’est effectivement ce qui apparaît pour les recherches « suicide » ou « scarification ».
Cependant, comment justifiez-vous que les recherches « je veux mourir », « j’ai envie de mourir » et « je veux me pendre » ne donnent lieu à aucun blocage ni à aucun message de prévention ? Comment justifiez-vous que les recherches « comment se pendre » ne donnent lieu à aucun blocage ? Comment justifiez-vous que la recherche « mes parents me battent » ne donne lieu à aucun blocage ni à aucun message de prévention ? (La commission projette des captations d’écran de l’application TikTok correspondant à ces recherches.)
Mme Marie Hugon. Je n’ai pas de réponse à vous donner aujourd’hui sur ces points. Si vous le voulez bien, vous pouvez les reprendre en détail dans un questionnaire écrit auquel nous répondrons avec nos équipes de modération.
Mme Marlène Masure. Ce qui est important, c’est de regarder la nature du contenu. Ces mots sont problématiques. On peut évidemment faire la recommandation – et la faire remonter – qu’une ressource doit être affichée avant les vidéos.
Actuellement, l’équipe de modération travaille contenu par contenu. Donc, parfois, des vidéos apparaissent à la suite d’une recherche qui est potentiellement problématique alors que leur contenu en lui-même ne l’est pas. Il est nécessaire de regarder les quatre vidéos en question et de vérifier si elles concernent réellement le sujet lié à la recherche.
M. le président Arthur Delaporte. Les premiers contenus sur lesquels je tombe lorsque je recherche « mes parents me battent » sont humoristiques alors que ces mots sont aussi un appel à l’aide. Lorsque je fais la recherche « comment se pendre » sur Google, le premier résultat est : « aide disponible », accompagné du numéro national de prévention du suicide.
En fait, vous êtes capables de le faire – nous l’avons constaté pour SkinnyTok. Pourquoi ne le faites-vous pas alors même que TikTok devient, notamment pour les jeunes, un moteur de recherche pour toutes ces questions liées au mal-être ?
Mme Marlène Masure. Encore une fois, cela n’engage que moi, mais je pense qu’il peut être utile de se demander, en effet, comment on peut aller plus loin sur les ressources liées aux requêtes. Il est hyper important de remettre les choses dans le contexte et de dire que les contenus ne sont pas, potentiellement, problématiques – s’ils n’ont pas été modérés, c’est qu’a priori ils ne le sont pas. Il faut regarder vidéo par vidéo et, le cas échéant, les signaler. Ces ressources existent ; il est donc assez facile de les associer à ces requêtes.
M. le président Arthur Delaporte. Sur l’une des quatre vidéos qui sont à présent affichées à l’écran, on peut lire « trois manières de se $uicider sans douleur » – le $ remplaçant le s de suicide –, ce qui est quand même problématique. Or ce sont les premiers résultats qui ressortent, c’est le top des résultats : autrement dit, c’est ce que vous mettez en avant.
Mme Marlène Masure. J’ai très envie de prendre mon téléphone pour regarder, mais je vais vous faire confiance.
M. le président Arthur Delaporte. Allez-y, faites-le, car vous n’aurez peut-être pas le même algorithme, ce serait intéressant de voir. Ces captures ont été obtenues à partir d’un compte classique.
Mme Marlène Masure. Déjà, la formule « comment se pendre » n’apparaît pas sur mon flux. J’obtiens les résultats suivants : « comment se pendre les cheveux sans gant », « comment se pendre la barbe », « comment se pendre sur Spider-Man ». Il est nécessaire de regarder vidéo par vidéo ce qui apparaît sur les interfaces.
Mme Laure Miller, rapporteure. En effet, il y a les suggestions. Mais nous vous demandions simplement de taper la phrase in extenso : « Comment se pendre » ; sinon, cela peut suggérer autre chose.
J’ai évoqué tout à l’heure la recherche avec le mot « scarification », pour laquelle il suffit de changer une lettre. Je voulais vous montrer quelques vidéos à ce sujet. Il est difficile de justifier pourquoi, si on modifie quelques lettres et que l’on tape « sacrificacion » ou que l’on remplace, dans ce dernier mot, les « a » par un 4, il n’y a aucun blocage ni message de prévention. Si l’on effectue la recherche avec le mot « zèbre », on tombe également sur des contenus de scarification, comme nous l’ont signalé les membres du collectif Algos Victima que nous avons reçus il y a un mois. Cela ne fait toujours pas l’objet d’une modération ni d’un message de sensibilisation.
Par ailleurs, nous avons effectué quelques recherches sur le thème de la santé mentale et sommes tombés sur des contenus à ce sujet. Mais comment expliquez-vous que lorsqu’on tape « comment » dans la barre de recherche – cela rejoint ce que vous avez essayé de faire – les premières suggestions soient « comment se scarifier ? » ?
Mme Marlène Masure. Je n’ai pas de réponses à ces questions. Encore une fois, cela mériterait que l’on regarde cela en détail. Ce qui est certain, c’est que le sujet de la scarification est interdit dans nos règles communautaires et que ces contenus font l’objet d’une modération. Les premières vidéos que vous avez montrées sur la scarification me semblaient plutôt être des contenus positifs, qui avaient pour objet de sensibiliser. En tout cas, dans leur nature, dans les messages qui étaient portés, cela semblait plutôt être…
M. le président Arthur Delaporte. Ce qui veut dire qu’il peut y avoir une volonté de mise en avant de certains contenus ?
Mme Marlène Masure. Non, ce que je dis, c’est que les contenus qui ont été montrés semblaient expliquer pourquoi ce n’est pas une bonne chose. Un mot-clé, en lui-même, ne présage pas la négativité absolue de l’ensemble des contenus qui y sont liés. C’est la raison pour laquelle nos règles communautaires s’appliquent contenu par contenu.
Mme Laure Miller, rapporteure. Si cela dépend de ce qu’on peut trouver derrière un mot-clé en tant que tel, pourquoi avez-vous censuré « suicide » ?
Mme Marlène Masure. « Scarification » l’est aussi, à ma connaissance.
M. le président Arthur Delaporte. Les exemples à l’écran ont été obtenus en tapant « sacrificacion ». La lettre « c » a été déplacée, et le « t » remplacé par un « c ».
Mme Marlène Masure. On doit effectivement continuer à faire évoluer le travail de modération sur chacun des hashtags. Les outils nous permettent d’identifier à quel moment les communautés, autour d’un hashtag, commencent à devenir significatives et présentent un problème. Je ne sais pas combien de contenus sont associés à « sacrificacion » ; vous en avez quatre, potentiellement, et peut-être les contenus en eux-mêmes ne sont-ils pas problématiques. C’est compliqué pour moi de vous répondre sans regarder les vidéos.
M. le président Arthur Delaporte. N’est-ce pas, déjà, quatre de trop ?
Mme Marlène Masure. Encore une fois, je ne sais pas si ces vidéos sont…
M. le président Arthur Delaporte. Vous nous expliquez qu’il faut que cela devienne significatif.
Nous avons effectué une recherche avec l’émoticône zèbre, pour laquelle nous avons sélectionné plusieurs vidéos. Voici la première. Il est écrit : « la première fois où je me suis [émoticône zèbre] », ce qui veut dire scarifié. Cela n’a l’air de rien, comme ça, mais cela veut dire que l’on a commencé, puis que l’on n’a jamais arrêté. Nous avons signalé cette vidéo, mais elle n’a pas été retirée, parce qu’elle n’a pas été considérée comme problématique. Pourtant, on voit bien qu’elle l’est !
Mme Marlène Masure. Cela mérite que l’on échange avec nos équipes de modération pour avoir leur retour. Il faudrait savoir combien de fois cette vidéo a été vue. A-t-elle été supprimée du fil « Pour toi » ? A-t-elle été définie comme Non recommended ? Nous avons une gradation dans la modération – Marie l’a évoqué ; Mmes Nicky Soo et Brie Pegum en ont parlé également ce matin. C’est un peu l’enjeu. Derrière une vidéo, on ne connaît pas nécessairement son niveau d’exposition. C’est cela qu’il faut regarder.
M. le président Arthur Delaporte. Même avec un faible niveau d’exposition, on peut considérer que c’est déjà problématique. Comme nous avons fait une recherche par mot-clé et que ce mot-clé a été signalé, vous auriez pu faire une recherche proactive de ces contenus problématiques. Ce qui nous intéresse, c’est aussi de comprendre quels moyens vous consacrez à ce type de recherches, même lorsqu’il ne s’agit pas encore de tendances très marquées. Il serait préférable d’arrêter la tendance dès le départ, surtout sur ces sujets, identifiés par Google. Je veux bien admettre que Google est bien plus fort que TikTok, mais vous êtes quand même assez forts en algorithmes. Puisque vous avez su mettre en place, pour SkinnyTok, le petit numéro SOS suicide ou « T’as besoin d’aide », cela devrait être possible aussi pour « Comment se pendre » ou « zèbre ».
Regardons les vidéos suivantes. On voit à l’écran une femme qui pleure ; il est écrit : « Quand tu te rend encore compte que tu rechute/quand tu pensais t’en être sorti ». Venons-en à la troisième vidéo, obtenue toujours avec la recherche « zèbre » : « Cet été tu vas devoir assumer des traces tu es prête ? » – il s’agit des traces de scarification puisqu’en été, on retire ses vêtements, ou ils sont plus courts, et on dévoile ses marques de scarification sur les bras. Toutes ces vidéos ont été signalées récemment, mais nous avons reçu une réponse négative de la modération. Nous avons fait appel et nous avons reçu une réponse négative de l’appel.
Mme Marlène Masure. Est-ce que je peux me permettre de vous demander les raisons qui vous ont été opposées ?
M. le président Arthur Delaporte. Elles s’affichent à l’écran : « 5/6/2025 : Signalement envoyé. Tu as signalé la vidéo […] pour cause d’infraction aux règles de la communauté. 5/6/2025 13 h 18 : Nous étudions ton signalement […]. 5/6/2025 13 h 48 : Aucune infraction trouvée. » Là, nous avons fait appel. « 6/6/2025 12 h 02 : Nous t’enverrons une notification […] ». « 6/6/2025 12 h 32 [donc, c’est assez rapide] : Aucune infraction trouvée. Nous avons examiné la vidéo […] et déterminé qu’elle n’enfreint pas nos règles de la communauté ».
Mme Marie Hugon. Pouvez-vous préciser la manière dont vous avez signalé ce contenu ? Avez-vous eu la possibilité d’avoir une explication ? Parfois, il y a des encadrés dans lesquels on peut expliquer un peu plus le contexte de la vidéo.
M. le président Arthur Delaporte. Avions-nous expliqué le contexte de la vidéo ? Non, peut-être pas.
Mme Marie Hugon. Dans le contexte, comme l’expliquait Mme Masure, il y a des personnes qui trouvent aussi le moyen de parler de ces sujets difficiles à d’autres personnes, parce qu’elles ne peuvent pas le faire dans un environnement familial. Je ne connais pas la vidéo, je ne l’ai pas vue. Je dis juste que, comme on l’a expliqué dans le cadre de SkinnyTok – puisque vous allez sans doute nous poser des questions à ce sujet –, il y a aussi des explications sur certaines notions qui sont potentiellement taboues.
M. le président Arthur Delaporte. Je précise que toutes ces vidéos étaient visibles depuis un compte mineur. Nous nous sommes créé un compte mineur ; nous avons respecté les règles et n’avons pas cherché à tricher sur l’âge – ou, au contraire, nous avons triché dans l’autre sens.
Nous avons fait la même chose avec le mot « suicide » – nous passerons rapidement dessus. Nous avons tapé également l’émoticône du drapeau de la Suisse – Suisse, suicide –, comme cela nous avait été indiqué également lors de l’audition des représentants du collectif Algos Victima, il y a un mois. Je pensais que des équipes de TikTok regardaient forcément cela. Mais, visiblement, cela n’est pas remonté jusqu’à vous. Je suppose que cela vous a été signalé par ailleurs, par d’autres moyens, car c’est connu.
Regardons une première vidéo correspondant à notre recherche avec l’émoticône du drapeau suisse. Il est écrit : « Car à qui je manquerai si je m’en vais [ces mots étant suivis du drapeau de la Suisse] » – cela n’a pas grand-chose à voir avec les glaciers de la Suisse. Sur la deuxième vidéo, on peut lire : « Des fois je me dit que le [drapeau suisse] est la seule solution ». Autre vidéo : « Fin du chapitre, j’ai de nouveau des idée de [drapeau suisse] ». Vidéo suivante : « Profites bien de moi ma date de [drapeau suisse] arrive bientôt ». Ou encore « Pk pleurer quand j’ai juste a me [drapeau suisse] » ; « Le [drapeau suisse] est le chemin le plus court » et « Le [drapeau suisse]ides est le chemin le plus court ».
Nous n’avons pris que deux exemples, « zèbre » et « Suisse », parmi tous ceux qui nous ont été transmis, tous les mots-clés et toutes les manières de contourner le système. Une action sera peut-être menée concernant ces contenus – tout comme il y en a eu une sur SkinnyTok, parce qu’il y a eu une mobilisation politique en France, il faut le dire –, mais pourquoi attendre autant avant d’en arriver là, alors même que des témoignages de jeunes qui se suicidaient sont arrivés il y a au moins un an de cela ? Pourquoi ne pas avoir cherché à discuter avec les jeunes pour savoir, de façon proactive, quels étaient les contenus qu’ils regardaient lorsqu’ils n’allaient pas bien, quels hashtags ils tapaient ?
Ils ont des stratégies ; ils nous ont expliqué ce qu’ils faisaient et raconté comment. Lorsqu’on ne va pas bien et qu’on est dans une communauté pro-ana – pro anorexie –, on se refile les recettes ou les hashtags. Ce n’est donc pas simplement une question de volume. C’est une petite communauté – mais vous savez très bien que les petites communautés, ça marche – qui a ses codes, sur laquelle vous devriez agir de façon proactive.
Mme Marlène Masure. Je mesure l’importance du sujet ; nos équipes sont mobilisées et on ne peut pas dire que rien n’est fait. En 2024, 6,6 millions de vidéos ont été supprimées en France grâce au travail de modération effectué par nos équipes. De plus, les signaleurs de confiance nous aident à identifier ces tendances et ces risques. Nous travaillons aussi avec Pharos et de nombreux autres partenaires qui nous aident à aller le plus vite possible. Vous avez raison, ces nouvelles tendances émergent trop vite et à une grande fréquence. Collectivement, nous avons envie de faire toujours mieux, mais on ne peut pas dire que rien n’est fait.
M. le président Arthur Delaporte. On ne peut pas dire que rien n’est fait, mais des jeunes sont morts à cause de ces tendances. Vous dites qu’elles émergent trop vite, mais les tendances dont nous parlons datent d’il y a un ou deux ans, pas d’une semaine. Elles ont un impact sur la vie des gens qui va bien au-delà de l’exposition à la vidéo d’un chaton dans un mixeur – qui peut aussi être traumatisante. Ce que disent les jeunes lorsqu’on discute avec eux des contenus qui les choquent sur les réseaux sociaux, c’est que les images leur restent longtemps en tête.
Pourquoi ne vous êtes-vous pas donné une obligation de moyens illimitée et de résultat ? Vous avez une responsabilité sur la vie des gens : on ne parle pas d’une simple marge d’erreur concernant certains contenus.
Ces morts sont la cause originelle de la création de cette commission d’enquête. Or vous donnez le sentiment de ne parler que de chiffres et de statistiques. Vous dites que vous avez retiré 6 millions de contenus en France et 21 millions à l’échelle de l’Europe au cours des six derniers mois. C’est très bien, mais s’il reste 1 million de contenus problématiques, c’est toujours 1 million de trop ; s’il en reste 100 000, c’est toujours 100 000 de trop. Il nous suffit de nous pencher un peu sur la question pour en trouver : pourquoi ne le faites-vous pas ?
Mme Marie Hugon. Encore une fois, nous sommes collectivement et personnellement sensibles à ce sujet.
Ce matin, déjà, par la voix de nos collègues, et depuis plus de deux heures maintenant, nous vous avons expliqué tous les dispositifs de modération et de mise à jour de nos algorithmes. Nous faisons partie d’un collectif et nous devons nous conformer à la réglementation européenne. Nous continuons d’œuvrer pour tenir compte de ces enjeux très importants.
Nous sommes ici pour discuter avec vous de potentielles solutions. Nous travaillons avec des associations, avec les pouvoirs publics ; nous sommes en contact permanent avec nos autorités de tutelle et avec d’autres institutions comme l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) – M. Martin Ajdari, son président, vous l’avait dit lors de sa propre audition.
Il y a des systèmes de signalement, mais il existe aussi des moyens de les contourner : aujourd’hui, ce sont les émoticônes du zèbre ou du drapeau suisse – je découvre ce dernier ; demain, une autre émoticône sera détournée.
Permettez-moi de dresser un parallèle – peut-être un peu tiré par les cheveux – avec la cybersécurité : les attaques contre les autorités publiques, en particulier les hôpitaux, sont permanentes. Nous sommes une entité privée et nous avons également des failles ; pour y remédier, nous mettons à jour nos systèmes de signalement en permanence, nous y consacrons des moyens et nous sommes en discussion continuelle avec les pouvoirs publics.
Mais nous avons besoin des régulateurs et des différentes communautés, aussi petites soient-elles, pour discuter des trends. Nous souhaitons poursuivre notre dialogue avec tous ces partenaires et continuer de travailler avec eux sur tous ces sujets essentiels, sans être systématiquement placés en position d’accusés. Certes, cette commission d’enquête n’est pas un tribunal mais nous nous sentons un peu dans cette position.
Mme Laure Miller, rapporteure. Je comprends vos propos et je vous confirme que nous ne sommes pas un tribunal. Je suis désolée que vous ayez cette impression, mais il est vrai que nous avons du mal à comprendre certaines choses et qu’il nous est très utile de vous interroger à leur sujet ; vous êtes des personnes-clés.
Vous dites dialoguer avec les autorités. Il y a quelques jours, des responsables de TikTok ont été reçus par la ministre Aurore Bergé, qui leur a signalé des contenus. En avez‑vous fait quelque chose ?
Certaines auditions publiques de cette commission d’enquête ont permis de faire connaître des tendances particulièrement nocives, qu’il faudrait de toute évidence bannir. Ces tendances ne datent ni d’hier ni d’avant-hier ; elles existent depuis plusieurs mois, voire plusieurs années, et ne sont toujours pas bannies.
Par conséquent, nous avons le sentiment que vous ne tenez pas compte de ce qui est dans l’air du temps. Si nous savons que l’émoticône du zèbre ou celui du drapeau suisse sont détournés, vous êtes forcément au courant puisque vous êtes TikTok !
Trouvez-vous normal qu’il faille attendre l’interpellation d’un ministre, Aurore Bergé en l’occurrence, pour qu’AD Laurent soit finalement banni ? S’il faut en passer par là, on n’y arrivera jamais. Vous parlez beaucoup du DSA. En principe, ce n’est pas comme cela que ça doit fonctionner : ce n’est pas l’intervention d’un ministre à propos d’un influenceur parmi tant d’autres qui doit déclencher son bannissement. Ou alors il va nous falloir endosser un nouveau rôle, consistant à vous signaler tous les influenceurs problématiques !
J’entends ce que vous nous dites : vous ne pouvez pas contrôler tous les contenus dans un tel océan, mais pour rester sur cet exemple, AD Laurent a des millions de followers. Il n’est pas si difficile d’identifier les influenceurs les plus suivis, de retirer les contenus inappropriés, voire de bannir ceux qui contreviennent aux règles, a fortiori lorsqu’ils ont déjà été exclus d’autres plateformes – AD Laurent avait été banni par Snapchat et Instagram, d’après ses propres déclarations sous serment.
Mme Marlène Masure. À ma connaissance, nous prenons ces sujets très au sérieux. SkinnyTok, qui est apparu il y a quelques mois, a été lancé par une toute petite communauté ; ses contenus, d’après ce que je comprends, ne contrevenaient pas nécessairement à nos règles communautaires. Puis la communauté a grossi et la tendance est devenue suffisamment problématique pour que nous supprimions ce hashtag.
Cette solution n’a pas notre préférence, parce qu’elle fait aussi disparaître les contenus positifs visant à combattre cette tendance, qui peuvent – j’emploie des guillemets – « contrebalancer » les autres.
La tendance « CP Pizza » a aussi été supprimée. Nous avons plutôt été félicités par les autorités. Nos équipes pourraient probablement donner des exemples plus étayés, mais en matière de rapidité de retrait des contenus problématiques, nous sommes plutôt de bons élèves par rapport aux plateformes numériques au sens large.
En tout état de cause, nous prenons note de votre feed-back. Nous pouvons probablement aller plus loin et nous améliorer sur certains sujets.
M. le président Arthur Delaporte. Ce matin, vos équipes ont indiqué travailler avec l’association Stop Fisha sur les questions de sexisme. Des membres de cette association nous ont signalé AD Laurent et Alex Hitchens, que nous avons auditionnés mardi ; ils ont dû vous les signaler aussi. Comment se fait-il que vous ayez maintenu le compte d’AD Laurent, alors qu’il vous a été signalé par les experts avec lesquels vous travaillez ? Pourquoi avoir attendu le signalement d’Aurore Bergé pour le supprimer ?
Mme Marie Hugon. D’après nos recherches, des signalements ont bien été faits et des contenus retirés. Comme vous l’ont expliqué nos collègues ce matin, on ne peut pas bannir un compte en raison d’un seul contenu. Je ne connais pas les contenus de cette personne en particulier, mais le bannissement d’un compte est un processus graduel : il intervient après un, deux, trois ou quatre contenus problématiques.
M. le président Arthur Delaporte. Après combien de contenus, précisément ? On nous a dit qu’on nous transmettrait l’échelle d’estimation.
Mme Marie Hugon. Nous vous la transmettrons, bien sûr.
Mme Aurore Bergé est intervenue, mais sur ces sujets-là, je crois que nous pouvons avoir un dialogue qui ne soit pas médiatisé. Nous répondons à toutes les demandes de rendez-vous des pouvoirs publics.
Dans le cadre du DSA, vous pouvez transmettre ces sujets à l’Arcom ou à Coimisiún na Meán ; celle-ci nous les transmet en cas d’urgence. Nous avons donc une ligne directe de communication avec notre autorité de tutelle, qui a notamment servi pour retirer certains challenges ou hashtags.
Médiatiser un sujet permet certes de mettre un coup de pression, mais il existe un processus réglementaire, dans le cadre du DSA, qui fonctionne.
M. le président Arthur Delaporte. Le compte d’Alex Hitchens avait été signalé par beaucoup de monde. Pourtant, alors que nous l’avions auditionné mardi, il a fallu attendre ce début d’après-midi pour qu’il soit supprimé. L’un de ses comptes a été supprimé il y a quelques minutes, parce que nous avons indiqué ce matin à vos collègues que nous vous demanderions des comptes, cet après-midi, sur des contenus comme : « Le jour où vous abandonnerez l’égalité, on en discutera. Par contre, tant que vous allez nous parler d’égalité, nous faire chier avec ça, tu mets une gifle, je t’en remets une et je te jure qu’avec la taille de ma main, je ne suis même pas sûr que tu vas te relever. »
Ces contenus ont été signalés plusieurs fois ; des vidéos ont été supprimées, à la suite des signalements que nous avons effectués ce matin pendant l’audition de vos collègues, mais on les retrouve sous d’autres formats. Pourquoi ne pas les avoir supprimées lorsque nous les avons signalées, voire dès mardi, quand nous avons reçu Alex Hitchens ?
Vous semblez assez réactifs quand on vous en parle, s’agissant de son compte principal ; mais il nous a dit en avoir quarante-trois ou quarante-six. Il ne sait pas lui-même exactement combien il en a, parce qu’outre les comptes qu’il détient en propre, d’autres comptes, sous contrat avec lui, reproduisent ses contenus et font de la promotion de ses formations masculinistes.
Ce n’est pas un sujet anodin : nous parlons de quelqu’un dont les vidéos dénigrant le travail de notre commission ont fait des millions de vues et ont fait parler d’elles hier dans les collèges et les lycées.
Je suis issu de la communauté enseignante et l’on m’a rapporté qu’un gamin était venu voir un professeur de sciences économiques et sociales que je connais pour lui dire qu’il avait vu l’audition d’Alex Hitchens : pour un jeune à qui il a été possible d’expliquer ce qu’il en était, combien ont été convaincus qu’Alex Hitchens avait raison, qu’il était trop fort, qu’il avait fait apparaître la commission comme minable et qu’il était tout à fait légitime de dire, comme il l’a fait, qu’une femme ne peut pas se balader après vingt-deux heures dans la rue ou que, si ta femme fait une bêtise, il faut la punir, sans quoi elle recommencera ? Voilà en effet ce qu’il professe à des millions de jeunes collégiens et lycéens. Il a fallu attendre ce matin pour que son compte soit banni, alors que son nom est public et que de nombreux articles ont été publiés. Peut-être avez-vous un service de veille ou d’affaires publiques qui voit les comptes de ce genre…
Ce cas est symptomatique d’un sentiment d’impuissance collective : il faut que vous soyez mis devant le fait accompli et que nous vous recevions, alors que nous ne devrions pas avoir à nous saisir de cette question et que cet influenceur aurait dû être banni depuis longtemps.
Mme Marlène Masure. J’imagine que vous avez vu que ce créateur est présent sur l’ensemble des plateformes.
M. le président Arthur Delaporte. Nous questionnerons les autres plateformes.
Mme Marie Hugon. Nous avons été les premiers à retirer ce compte après des signalements. Où sont les autres plateformes ?
Mme Laure Miller, rapporteure. Nous les auditionnerons, mais nous renvoyer vers les autres plateformes est un argument assez faible. Vous êtes aujourd’hui la plateforme la plus attractive pour la jeunesse et, à la limite, nous nous moquons de savoir ce que font les autres : c’est à vous d’être le plus responsable possible.
Nous avons lancé sur le site de l’Assemblée nationale une enquête qui nous a permis de recueillir un peu plus de 30 000 réponses, dont plus de la moitié de la part de lycéens et collégiens, parmi lesquels une majorité de lycéens. Environ 20 000 de ces réponses expriment un manque de confiance dans la fiabilité des informations véhiculées sur votre plateforme en particulier. Cette information vous fait-elle réagir ?
Mme Marlène Masure. Un chiffre doit être situé dans un contexte. Il faudrait que nous examinions cette étude en détail pour essayer de comprendre les réponses et que nous en examinions la méthodologie avant de revenir vers vous. La question de la désinformation est très importante et n’est pas propre à TikTok. C’est un sujet sectoriel, auquel nous attachons beaucoup d’importance. Nous avons d’ailleurs travaillé avec l’Agence France-Presse (AFP) sur une campagne portant sur cette question en novembre 2024, et avons créé des ressources dédiées, des grilles de lecture de contenus, pour apporter des explications. Nous essayons de nous associer aux meilleurs, raison pour laquelle nous travaillons avec 250 médias sérieux, qui publient du contenu sur la plateforme. Le travail sur la désinformation est permanent et nous avons évidemment à cœur de toujours faire mieux.
Mme Marie Hugon. En matière de lutte contre la désinformation, nous sommes impliqués dans des efforts plus larges. Nous avons travaillé très longuement sur le code de conduite de l’Union européenne sur la désinformation et restons actifs sur tous les meetings. Ce code a été récemment intégré dans le DSA. Nous présidons des groupes de travail sur les élections et sur la transparence institués pour préparer ce code.
Comme l’a dit Mme Masure, nous travaillons également avec des partenaires indépendants pratiquant la vérification de faits, qui évaluent si l’information est vraie ou fausse et peuvent signaler ce qu’il en est. Il s’agit d’un processus permanent. Nous restons actifs dans ce domaine au niveau européen, avec d’autres plateformes – dont certaines, à la différence de la nôtre, ne participent plus à ce processus.
Mme Marlène Masure. J’ai signalé tout à l’heure que nous avons développé un programme intitulé « S’informer sur TikTok », dont l’objectif est précisément d’emmener avec nous tous les acteurs sérieux, les médias, qui produisent un contenu éducatif intéressant. Nous avons la volonté de continuer à nourrir et à faire grandir ce programme.
Mme Claire Marais-Beuil (RN). Ce matin, j’ai interrogé vos collègues à propos des challenges, et en particulier à propos du dernier d’entre eux, qui a entraîné la mort d’une Américaine. On m’a répondu que ce challenge, qui consistait à inhaler du spray anti-poussière, n’avait pas été lancé sur TikTok. J’ai cherché des informations à l’heure du déjeuner et j’ai vu que si vous n’êtes, en effet, pas à l’initiative du challenge, vous relayez toutes les vidéos des gens qui y participent – il suffit de taper #DustChallenge pour les trouver. Vous en êtes donc partie prenante, et responsable de ce qu’il peut provoquer – or il y a quand même un mort.
Mme Marie Hugon. Je n’ai eu connaissance de ce challenge que ce matin. Les challenges sont un sujet que nous regardons avec intérêt. Notre autorité de tutelle irlandaise, avec laquelle nous en avons discuté récemment, nous fait remonter des informations, parallèlement à la modération que nous assurons sur la base de ces trends. Nous avons plusieurs moyens d’agir, par exemple en retirant le mot-clé ou le hashtag, ou encore les vidéos qui semblent problématiques et celles qui peuvent conduire à refaire un challenge même si elles ne sont pas à l’origine de la trend. Je vais examiner cette question. N’hésitez pas à revenir vers nous.
M. le président Arthur Delaporte. Je vous propose de taper « challenge » dans la base : nous allons trouver pas mal de choses. J’ai entré « TikTok » dans une autre application, dénommée Google Alertes, et je reçois maintenant, dès qu’il y a un problème avec TikTok, des articles de presse consacrés aux nouvelles tendances apparues sur TikTok. Si on entre le mot « challenge », on reçoit également des Google Alertes faisant état du travail de vérification par les médias et des tendances mises en avant. Il pourrait être utile d’abonner au moins les services de modération à des systèmes d’alerte ou de veille de ce type.
Mme Marlène Masure. Je crois qu’ils sont abonnés. Ce sont des gens sérieux et nous travaillons avec de nombreux partenaires qui nous signalent les tendances qu’ils voient émerger, notamment pour les mineurs – e-Enfance est un très bon partenaire dans ce domaine. Pour ce qui est des tendances, il vaut la peine de regarder les contenus qui sont liés et de voir ce que les gens sont réellement en train de faire : s’ils participent à un challenge dangereux, il y a une faille de modération ; s’ils n’y participent pas, il n’y en a pas. Encore une fois, la question mérite d’être remise dans son contexte ; il faut voir si les contenus en eux-mêmes sont problématiques.
M. Stéphane Vojetta (EPR). Nous avons l’habitude de vous entendre, vous et vos concurrents. En vous écoutant avec attention depuis le début, je trouve l’exercice assez frustrant. Mme la rapporteure a dit tout à l’heure que vous aviez allumé un incendie et que vous essayiez de l’éteindre, mais je pense que, si vous, réseaux sociaux, collectivement, avez bien allumé un incendie – il n’est que de voir l’impact de votre activité sur la santé mentale et les choix des mineurs –, il semble bien, malheureusement, que vous n’essayiez pas de l’éteindre. Vous venez déguisés en pompiers, avec un joli camion, mais ce camion de pompiers est bien petit ! Vous dites que vous êtes prêts, que vous avez tous les outils et qu’il suffit que les enfants, les parents ou les éducateurs s’en emparent mais, en réalité, ces outils ne sont pas utilisés.
Même si l’identification des comptes appartenant à des mineurs est très imparfaite et si les comptes identifiés comme tels ne représentent qu’une minorité de ceux qui le sont réellement, quel pourcentage de ces comptes représentent ceux qui activent les outils de contrôle parental, de modération et de temps d’usage ? Je souhaiterais vraiment que vous puissiez nous donner un chiffre, car je l’ai demandé plusieurs fois à vos prédécesseurs, à Instagram et à Snapchat, mais on ne nous le donne pas. Je vous saurais gré de faire aujourd’hui, pour la première fois, cet effort.
Je vous vois dans l’attitude de représentants d’une corporation ou d’une entité privée qui recherche les profits et qui est engagée dans une course aux parts de marché avec d’autres concurrents dont aucun ne veut être le premier à prendre – ce qui devrait pourtant être l’évidence – la mesure la plus juste et la plus protectrice des mineurs, identifiés ou non comme tels, présents sur vos réseaux. Vous avez de bonnes excuses, que vous offrez à AD Laurent ou à d’autres, qui peuvent dire que le fait que leurs contenus ne soient pas accessibles à des mineurs ne relève pas de leur responsabilité de créateurs de contenus, mais de celle de TikTok ou de Meta. Quant à vous, vous dites qu’il appartient à l’Union européenne ou à un régulateur quelconque de vous obliger à vérifier l’identité des personnes qui se connectent ou de vous imposer un véritable contrôle parental par défaut.
Je souhaitais exprimer cette frustration. Ma seule question est donc de savoir quel est le pourcentage des comptes de mineurs qui sont réellement protégés par les outils de contrôle parental que vous nous avez décrits.
Mme Marie Hugon. Je ne suis pas en mesure de vous répondre sur ces points techniques. Je vous signale en revanche, même si vous allez dire que je me retourne à nouveau vers Bruxelles, que la Commission mène actuellement une enquête assez importante sur certaines de ces questions. Nous répondons régulièrement à de multiples questionnaires en fournissant de nombreuses données. Ces instructions font l’objet d’une certaine confidentialité. La Commission européenne, rendra, à terme, les conclusions de cette enquête dans le cadre du DSA. Nous pourrons revenir vers vous avec certaines données sur ces points particuliers si vous nous adressez vos questions par écrit.
Mme Marlène Masure. Nous ne disposons pas, en effet, de ces données aujourd’hui, mais cela fait partie des efforts que réalisent nos équipes chargées du marketing et de la communication pour développer des campagnes de promotion de ces outils, notamment en matière de safety et de contrôle parental. On a bien en tête qu’il est important…
M. Stéphane Vojetta (EPR). Je suis désolé de vous interrompre, mais nous sommes en commission d’enquête. Nous avons d’ordinaire des conversations avec des gens bien élevés qui nous reçoivent – j’ai été reçu, par exemple, à Washington, par le responsable mondial Children Safety de Meta. Mais, en commission d’enquête, vous avez l’obligation de dire la vérité. Or je ne vous crois pas lorsque vous dites que vous ne savez pas quel est le pourcentage de comptes officiellement identifiés comme étant mineurs sur lesquels a été installé votre outil de contrôle parental. Je ne parviens pas à vous croire car, si c’est vrai, c’est hallucinant.
Mme Marlène Masure. Permettez-moi de préciser à nouveau le cadre de nos fonctions. Je suis, pour ma part, chargée du contenu, c’est-à-dire de la création des contenus organiques sur la plateforme pour la zone EMEA – États d’Europe, du Moyen-Orient et de l’Afrique. Ma responsabilité consiste à travailler avec des créateurs, des personnalités publiques et des partenaires dans leur stratégie éditoriale sur TikTok. Dans mon périmètre d’action, je n’ai pas la responsabilité de la modération de tous ces sujets. C’est un fait que je ne dispose pas de la donnée que vous demandez. Je ne dis pas que nous ne pouvons pas vous la fournir : nous allons évidemment la demander mais nous ne disposons pas, aujourd’hui, de cette information.
M. le président Arthur Delaporte. Êtes-vous en mesure de nous dire qui a cette information ?
Mme Marie Hugon. Il faudrait que l’on fasse des recherches en interne auprès de nos équipes, notamment des équipes Trust and Safety, auxquelles vous avez parlé ce matin, monsieur Vojetta. Pour ma part, je suis juriste dans le cadre des enquêtes réglementaires sur le DSA, mais certaines équipes ont en effet accès à ces données, notamment à Dublin.
Mme Marlène Masure. Assez logiquement, nous pouvons également interroger nos équipes en charge du marketing produit, qui travaillent précisément à la promotion de ces fonctionnalités. Il est probable que, lorsque nous lançons une campagne pour développer la notoriété de ces fonctionnalités, nous savons d’où nous partons. J’ai donc bon espoir que nous ayons ces informations et soyons en mesure de vous les donner.
M. le président Arthur Delaporte. Nous comptons sur vous.
J’en reviens aux dispositifs de signalement. Rémunérez-vous les signaleurs de confiance ? Avez-vous une politique de financement et subventionnez-vous des associations comme e-Enfance ?
Mme Marie Hugon. Pas à ma connaissance.
Mme Marlène Masure. Pas à ma connaissance non plus. Encore une fois, ce n’est pas dans notre périmètre, et nous pourrons revenir vers vous par écrit. Nous concluons des partenariats et versons des subventions à des ONG ou à des associations qui défendent une cause que nous jugeons importante. Je ne crois pas que ce soit au titre de leur rôle de signaleurs de confiance qu’elles sont rémunérées, mais il est certain que nous soutenons des associations et des ONG au moyen de ce que nous appelons des crédits publicitaires, pour pousser des campagnes de sensibilisation à certains sujets.
M. le président Arthur Delaporte. On voit bien que se pose la question de l’accompagnement en amont, de la détection et du lien. E-Enfance et Génération numérique, parmi d’autres, qui sont au contact des élèves et confrontées au quotidien à ces tendances et à leurs effets, pourraient être de très bons canaux, mais il y a une question de moyens. Les subventions annuelles que vous versez à e-Enfance représentent quelques milliers ou dizaines de milliers d’euros, soit même pas ce que vous versez en un mois à Julien Tanti. N’y a-t-il pas là une certaine disproportion entre le niveau de subventionnement par la plateforme des acteurs qui agissent pour avoir un internet plus sain et les financements dont bénéficient ceux qui participent à entretenir le buzz, le clash, et pas forcément à créer du contenu positif ?
Mme Marlène Masure. Je manque d’éléments de contexte pour répondre précisément à cette question, car je ne sais pas exactement quel budget est versé à ces associations. Nous pouvons tout à fait prendre acte de vos recommandations à ce propos et les mettre en débat interne. Quand nous vous disons que nous investissons 12 milliards d’euros sur la sécurité et que nous construisons un espace de sécurité à l’échelle européenne, il s’agit de moyens significatifs, et non pas de subventions à des ONG. Nous avons vraiment une ambition sérieuse en la matière.
M. le président Arthur Delaporte. Ces 12 milliards qui vont à la technique ne remplacent pas l’humain, le travail de terrain de tous ces acteurs. Si vous investissiez ne serait-ce que 500 millions d’euros par an, ce qui ne serait pas beaucoup, par rapport au budget global, pour soutenir toutes ces organisations, peut-être y aurait-il plus de contrôle et de remontées. Quelle proportion représente le budget investi en faveur de toutes ces associations de protection de l’enfance par rapport aux dons versés dans les lives ? Ce qui me choque, c’est la facilité avec laquelle on peut se faire de l’argent, alors que nous avons dû nous battre, au Parlement – je me tourne vers M. Vojetta – pour trouver 1 million d’euros pour e-Enfance, ce qui ne représente pas même ce que gagne Julien Tanti chaque année grâce à TikTok. La mise en parallèle de ces montants est sidérante.
Mme Marie Hugon. Dans le cadre du DSA, chaque très grande plateforme est obligée de payer un supervisory fee, c’est-à-dire un certain pourcentage destiné à la supervision et à la mise en conformité avec le DSA. Certaines redevances sont donc, dans ce cadre, versées aux autorités publiques.
M. le président Arthur Delaporte. Donc à la Commission européenne.
Mme Marie Hugon. Laquelle est notre autorité de tutelle, qui s’occupe de la mise en conformité avec ce règlement sur la sécurité en ligne en Europe.
M. le président Arthur Delaporte. Concernant e-Enfance, nous avons vérifié, c’est 70 000 euros par an. N’hésitez pas à multiplier cette contribution par dix : cela permettra d’augmenter de 20 % le budget de l’association. Pour la protection des enfants, ils seront preneurs.
Comprenez-vous la frustration, que nous avons évoquée ce matin, éprouvée par exemple par les membres de Stop Fisha en constatant que les signalements documentés effectués à titre individuel ne sont pas traités, tandis que ceux qui le sont au titre d’une organisation sont traités rapidement ? De fait, les réponses sont négatives à 100 % lorsque l’appel émane d’un individu et sont plus favorables, dans la plupart des cas, lorsqu’il émane d’une organisation. Il existe certes quelques organisations, dont nous venons de parler, mais la capacité des utilisateurs eux-mêmes à être des vigies s’épuise lorsqu’ils constatent que la plupart de leurs signalements ne sont pas concluants. Comment renforcer l’efficacité de la prise en compte des signalements par les utilisateurs, à l’image de ceux que l’on a évoqués tout à l’heure lors de la projection des captures d’écran ?
Mme Marie Hugon. Nous vous remercions du temps que vous avez pris pour faire remonter tous ces points. Je serais curieuse de connaître certaines des observations qui vous seront remontées à la suite de l’appel que vous avez lancé, pour que nous puissions connaître tous les éléments et témoignages que vous avez pu recueillir. Nous sommes engagés dans un processus de gestion de risques, d’amélioration et d’atténuation des risques, et allons continuer à travailler sur ce sujet dans le cadre du DSA, d’autres lignes directrices s’il en existe et de la loi applicable localement, avec les pouvoirs publics, les trusted flaggers, ou signaleurs de confiance, les chercheurs et les associations.
Mme Laure Miller, rapporteure. On a le sentiment qu’il y a une marge d’erreur : vous voulez atténuer les risques, mais ceux-ci subsisteront toujours. Considérez-vous que la réglementation européenne vous impose simplement une obligation de moyens, ou avez-vous une obligation de résultat en matière de protection des mineurs ?
Mme Marie Hugon. D’après ce que je lis dans le texte, le cadre n’est pas celui d’une obligation de moyens ou de résultat. Comme dans le cas de la cybersécurité, le texte prévoit une analyse de risques, avec évidemment une certaine subjectivité. Nous faisons aujourd’hui nos analyses de risques systémiques mais le DSA ne prévoit pas officiellement de standardisation des risques en la matière. Nous observons les systèmes d’analyse et de gestion du risque existants, comme la norme ISO ou l’Online Safety Act (OSA), au Royaume-Uni, qui émet lui aussi de très bonnes recommandations. Nous regardons tout ce qui existe dans ce domaine et analysons tous les risques, qu’il s’agisse des grands risques systémiques ou de points qui peuvent le devenir ultérieurement, et nos équipes adaptent continuellement les mesures d’atténuation de ces risques. Il s’agit donc plutôt d’une obligation de moyens, au titre de laquelle nous nous efforçons d’obtenir le meilleur résultat possible. Comme toutes les plateformes, nous ne parviendrons pas à avoir zéro contenu potentiellement problématique, mais nous continuerons à travailler sur ces questions. Tous les partenariats et tout l’engagement de l’écosystème sont très importants.
Mme Laure Miller, rapporteure. Je regrette que vous sembliez considérer que tout ce qui n’est pas, à vos yeux, massif est sans gravité. Peut-être la connaissance des tendances n’est-elle pas suffisante pour en retirer un maximum de contenu. Vous considérez qu’une marge d’erreur est possible et acceptable. De fait, en temps réel, vous ne pouvez pas anticiper les tendances de demain, mais lorsqu’elles arrivent, vous semblez ne pas pouvoir toutes les arrêter et les retirer. Or, pour nous, cette marge d’erreur, c’est la vie de nos enfants.
Mme Marlène Masure. Cette marge d’erreur, nous ne l’acceptons pas et nous travaillons dur, avec nos équipes de modération, à l’amélioration de nos systèmes de modération, de nos outils, et continuons à former nos modérateurs et à nous entourer des meilleurs, des associations, des partenaires, pour aller plus vite et être plus efficaces. Nous essayons de lutter contre des contenus qui peuvent créer des drames. Nous sommes tous mobilisés sur ces enjeux.
Nous sommes aussi, je tiens à le rappeler, très fiers des opportunités qu’offre la plateforme et de ce qu’elle apporte à sa communauté d’utilisateurs. Si la communauté grandit aussi vite et est aussi engagée, c’est parce que la plateforme propose beaucoup de belles choses, que l’on crée de la valeur, de l’engagement, qu’on y raconte de belles histoires et qu’on y crée des carrières. Il faut aussi penser à cela lorsqu’on se livre à des analyses et que l’on dresse le bilan.
Mme Laure Miller, rapporteure. Je vous assure que si vous mettez en place avant les autres un système technique efficace de vérification de l’âge, vous serez encore plus fiers de vous.
M. le président Arthur Delaporte. La création de cette commission d’enquête sur TikTok s’explique par deux raisons principales. D’abord, TikTok est l’application la plus utilisée par les mineurs pour ce qui est du temps d’utilisation, avec une heure vingt-sept par jour, en moyenne, pour les 11-17 ans, c’est-à-dire notamment pour les moins de 13 ans. Ensuite, des jeunes sont morts. Certains ont certes été exposés à des contenus sur d’autres plateformes, mais la plupart des remontées étaient liées à la vôtre. C’est la raison pour laquelle nous avons choisi de centrer notre investigation sur les mineurs, sachant que les adultes peuvent aussi être exposés à des contenus problématiques, et qu’il ne suffira donc pas de restreindre aux mineurs la protection algorithmique ou la recherche des biais.
Nous pensons en outre que la régulation que nous pourrons imposer pour les uns profitera aussi aux autres. Il s’agit d’un modèle global dans lequel vous êtes en concurrence avec d’autres plateformes, mais il faut améliorer les choses. Si tel n’est pas le cas et que, demain, d’autres jeunes se suicident, ce sera la fin de votre modèle, qui risquera l’interdiction. Si l’on se rend compte que des jeunes meurent parce qu’ils sont surexposés à ces contenus, cette menace est bien réelle. Face à ces drames, les législateurs et les États membres de l’Union européenne finiront en effet par dire que ça suffit.
Cela ne signifie pas pour autant que ce soit la seule question. Notre commission s’est efforcée d’être aussi nuancée que possible, mais nous savons tout de même pourquoi et pour qui nous travaillons. Nous partons de l’échelle de l’individu, de l’utilisateur, et non pas de celle du million, qui est celle de la plateforme. Nous nous battons pour des jeunes en chair et en os, qui sont les enfants de tout le monde. C’est ce qui nous motive – et qui, je l’espère, vous motive également. C’est aussi ce qui nous laisse un peu sur notre faim, ce que vous comprendrez peut-être si vous vous mettez à notre place.
Nous attendons maintenant toutes les réponses écrites à toutes les questions qui restent en suspens. Nous avons eu ce matin peu de réponses sur la question du modèle et nous ne savons toujours pas, à titre d’exemple, ce que représentent les lives en pourcentage de vos ressources, ni l’ordre de grandeur des revenus publicitaires. Certains des influenceurs que nous avons reçus nous ont dit que seule une part minime de leurs revenus provenait de TikTok ; nous souhaiterions savoir si c’est vraiment aussi faible qu’ils l’ont dit. De nombreuses questions méritent encore des réponses de votre part. Si nous estimons que les éléments fournis ne sont pas suffisants – et ils ne l’étaient pas encore totalement dans vos réponses aux
questionnaires –, nous n’hésiterons pas à vous réinviter autour du 15 juillet.
Je vous remercie, mesdames.
La séance s’achève à dix-sept heures quarante.
Présents. – M. Arthur Delaporte, Mme Claire Marais-Beuil, Mme Laure Miller, Mme Sophie Taillé-Polian, M. Stéphane Vojetta