Compte rendu

Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs

– Audition commune, ouverte à la presse, sur le commerce et la monétisation sur TikTok :  2

– Audition commune, ouverte à la presse, réunissant les responsables de la modération TikTok : 25

– Présences en réunion................................55


Jeudi
12 juin 2025

Séance de 9 heures

Compte rendu n° 25

session ordinaire de 2024-2025

Présidence de
M. Arthur Delaporte,
Président de la commission

 


  1 

La séance est ouverte à neuf heures cinq.

 

La commission auditionne conjointement M. Mehdi Meghzifene, responsable lancement TikTok e-Commerce France, et M. Arnaud Cabanis, responsable de l’activité commerciale France & BeNeLux sur le commerce et la monétisation sur TikTok.

 

M. le président Arthur Delaporte. Avant d’entamer cette journée consacrée aux auditions des représentants de TikTok, je tiens à revenir sur l’ampleur médiatique prise par notre commission d’enquête, notamment sur les réseaux sociaux mardi dernier.

Depuis deux mois, nous avons auditionné une centaine de personnes – chercheurs, spécialistes, médecins, enseignants, collectifs de victimes, juristes, administrations. Pour disposer d’un panel de points de vue différents, nous avons auditionné neuf influenceurs et créateurs de contenu, ce qui représente moins de 10 % de l’ensemble. Sensibles aux résultats de la consultation citoyenne que nous avions lancée, nous avons trouvé utile d’entendre leurs retours, parfois choquants ou pédagogiques. Je regrette que l’on ait davantage parlé d’une audition que des autres, qui revêtaient pourtant un intérêt certain et témoignaient du sérieux et de la volonté d’exhaustivité de notre commission.

Je regrette aussi l’attitude de certaines personnes auditionnées, qui ont manqué de respect envers la représentation nationale et notre commission d’enquête, dont le seul objectif est l’intérêt général.

Néanmoins, je déduis de la résonance de ces auditions qu’elles étaient attendues et que le modèle économique des influenceurs et leur utilisation de l’algorithme avec des contenus choc appellent des réponses qui dépassent le cadre de cette commission.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires dispose que la personne qui ne comparaît pas ou refuse de déposer ou de prêter serment devant une commission d’enquête est passible de deux ans d’emprisonnement et de 7 500 euros d’amende, que cette convocation ait été effectuée par mail simple, par voie d’huissier ou en ayant recours à la force publique.

Nous accueillons aujourd’hui des responsables de la plateforme.

Le questionnaire écrit que nous avions transmis à TikTok le 28 mai nous a été retourné avant-hier soir, le 10 juin. Avec Mme la rapporteure, nous avons pris connaissance de ce document de soixante-deux pages avec la plus grande attention et adressé à TikTok des questions complémentaires, puisque certaines étaient restées sans réponse. Nous espérons que les auditions de ce jour permettront d’y répondre.

Nous allons d’abord nous intéresser au commerce et à la monétisation sur TikTok en auditionnant M. Mehdi Meghzifene, responsable lancement TikTok e-commerce France, et M. Arnaud Cabanis, responsable de l’activité commerciale France et Benelux. Messieurs, je vous remercie de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations – par exemple si vous êtes rémunérés par une plateforme.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Arnaud Cabanis et M. Mehdi Meghzifene prêtent successivement serment.)

M. Mehdi Meghzifene, responsable lancement TikTok e-commerce France. J’ai pris mes fonctions de responsable du développement économique de TikTok Shop en France il y a six mois, en amont du lancement de TikTok Shop sur le marché français le 31 mars 2025. Mon rôle consiste notamment à accompagner les marques, les vendeurs et les créateurs dans l’utilisation de la plateforme, pour les aspects tant administratifs que commerciaux, afin d’optimiser leur performance.

TikTok Shop est une toute nouvelle solution d’e-commerce, intégrée à la plateforme TikTok. Cet outil inédit et unique permet aux utilisateurs de découvrir des produits au fil de leur navigation, à travers des contenus proposés par des créateurs qu’ils apprécient, en lien avec leurs centres d’intérêt. TikTok Shop remet ainsi l’interaction entre commerçant et consommateur au cœur de l’expérience d’achat, en recréant la proximité et l’échange du commerce traditionnel.

TikTok Shop offre une nouvelle opportunité commerciale aux marques et aux créateurs. Nous travaillons avec des marques de tous les secteurs – de la beauté au bricolage, en passant par le sport – et des entreprises de toutes les tailles, des grandes sociétés aux PME. Et ce, sur tout le territoire français.

TikTok Shop est une plateforme de découverte de produits. Nous l’avons constaté dans les quinze marchés où elle est déjà disponible, c’est un accélérateur pour les marques qui souhaitent se lancer. Le potentiel est significatif pour les PME françaises, déjà nombreuses sur TikTok. En 2024, les revenus générés par l’activité des PME sur TikTok ont apporté une contribution de 1,4 milliard d’euros à la valeur ajoutée brute du PIB en France et participé à la création d’environ 12 500 emplois.

À l’instar de TikTok, les contenus et l’expérience TikTok Shop opèrent au sein d’un environnement sûr et sécurisé. Nous aurons certainement l’occasion d’y revenir, mais je tiens à préciser deux points importants relatifs au fonctionnement du Shop.

Premièrement, TikTok Shop n’est pas accessible aux moins de 18 ans. Cela signifie que les personnes de moins de 18 ans n’ont pas accès aux contenus comportant des liens vers des produits de TikTok Shop. Nous sommes l’une des seules plateformes à avoir instauré, de manière proactive, plusieurs mesures permettant d’identifier et de supprimer les comptes d’utilisateurs soupçonnés d’être mineurs. La vérification de l’âge est une question importante et un défi pour l’ensemble du secteur. Mes collègues auront certainement l’occasion de revenir sur ces points.

Deuxièmement, TikTok Shop fait l’objet d’une modération particulièrement rigoureuse. Les règles appliquées sont identiques à celles de TikTok : chaque contenu doit respecter strictement nos règles communautaires, qui tiennent lieu de véritable code de conduite en définissant précisément ce qui est autorisé ou non sur la plateforme. En plus, TikTok Shop se conforme aux réglementations applicables aux plateformes d’e-commerce, notamment en matière de droit de la consommation.

Ces deux engagements structurants – l’interdiction faite aux mineurs d’accéder au Shop et la rigueur de notre politique de modération – reflètent la priorité que TikTok Shop accorde à la sécurité, à la conformité et à la qualité de l’expérience utilisateur dans un environnement d’achat en ligne à la fois sûr, transparent et responsable.

M. le président Arthur Delaporte. Je suppose que si vous n’avez pas déclaré de conflit d’intérêts de manière directe, c’est parce que vous êtes salarié de TikTok.

M. Mehdi Meghzifene. En effet, je suis salarié de TikTok.

M. Arnaud Cabanis, responsable de l’activité commerciale France et Benelux. Je dirige la régie publicitaire de TikTok en France et au Benelux. À l’instar de toutes les régies publicitaires, notre mission consiste à proposer des solutions permettant aux annonceurs d’atteindre des publics et des objectifs marketing, de se faire connaître de manière ludique et divertissante et de créer des campagnes visibles, performantes et efficaces.

Avec près de 600 grands comptes et des milliers de PME actives, TikTok est désormais l’un des acteurs majeurs du paysage publicitaire français.

Mon équipe est structurée autour de verticales thématiques telles que le sport, l’automobile, la beauté, la grande distribution ou le divertissement. Elle soutient non seulement des marques, mais aussi des agences média et des agences créatives, leaders dans l’écosystème digital français.

Les objectifs marketing que nous aidons à atteindre sont variés : développer la notoriété d’une marque, toucher un nouveau public, soutenir des campagnes de recrutement ou de sensibilisation.

La plupart de nos annonceurs sont des entreprises privées – des grandes marques du CAC40 et d’Euronext Paris. Des PME et de nombreuses licornes françaises sont aussi représentées sur la plateforme. Cependant, nous accompagnons également de nombreuses institutions publiques : le ministère de la santé pour une campagne antitabac, le ministère des armées pour ses campagnes de recrutement, ou encore le service civique pour faire découvrir son dispositif auprès des jeunes.

TikTok est aussi un accélérateur de croissance et un vecteur d’inclusion numérique. La moitié de nos annonceurs sur le marché français sont des PME qui ont connu un essor particulier grâce à TikTok après la pandémie de covid-19.

Les entreprises n’ont pas toujours le temps ni les ressources pour investir dans un projet marketing d’envergure. C’est pourquoi nous accompagnons aussi les marques dans la création de contenus organiques, c’est-à-dire produits grâce à des outils gratuits.

La force de TikTok réside précisément dans sa capacité à valoriser des contenus authentiques et spontanés, permettant à toutes les marques de se démarquer, quels que soient leur nature, leur maturité, leur budget et la taille de leur communauté.

Sur TikTok, les marques peuvent s’appuyer sur un vivier de petits et moyens influenceurs qui rayonnent dans leur région. Par exemple, nous disposons de très nombreux témoignages positifs de PME, dans le monde de la restauration et des services à la personne, qui ont bénéficié de l’essor de TikTok pour relancer leur activité.

Cette proximité avec les créateurs de contenu offre une occasion unique de toucher un nouveau public, partout sur le territoire. Si aucune marque n’est obligée de travailler avec des créateurs, la créativité de ces derniers et leur capacité à engager des communautés font de cette profession encore émergente un véritable levier de croissance pour les entreprises.

Une attention particulière est portée à la protection des mineurs. La sécurité des plus jeunes est une question importante pour l’ensemble de notre secteur.

Le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act, le DSA, permet de mieux faire comprendre aux utilisateurs le travail que nous accomplissons pour accompagner leur communauté et de leur fournir des outils supplémentaires pour adapter leur expérience en ligne. TikTok a d’ailleurs été pionnier dans certaines initiatives, comme l’instauration par défaut d’une limite de soixante minutes de temps d’écran quotidien pour les moins de 18 ans.

Notre engagement vis-à-vis des jeunes utilisateurs de la plateforme s’applique aussi aux marques et à la régie publicitaire. Conformément au DSA, des politiques strictes sont mises en œuvre pour garantir que les publicités diffusées sur notre plateforme sont adaptées à l’âge des utilisateurs. Du reste, nous ne diffusons pas de publicité ciblée auprès des moins de 18 ans. Concrètement, cela signifie que les annonceurs n’ont pas accès à certaines options de ciblage – par sexe ou par centre d’intérêt, par exemple – pour les audiences âgées de moins de 18 ans. Par ailleurs, plusieurs catégories de produits et services font l’objet de restrictions spécifiques et ne peuvent s’adresser qu’à une audience adulte. Comme l’ensemble du contenu sur TikTok, la publicité est soumise à une modération rigoureuse. Aucun écart aux restrictions publicitaires visant à protéger les mineurs n’est toléré.

Mme Laure Miller, rapporteure. Vous n’avez pas cité de chiffres. Pouvez-vous détailler les types de partenariats commerciaux que TikTok privilégie avec les marques ? Quelle est la part des revenus publicitaires de TikTok provenant de partenariats directs avec des marques ?

M. Arnaud Cabanis. Pour la quasi-totalité de nos clients, PME ou grandes entreprises, on parle de campagnes média. Ces dernières sont organisées soit directement par les annonceurs, soit par des agences représentant les intérêts de ces derniers. Seuls certains grands comptes présents sur la plateforme depuis longtemps souhaitent nouer un partenariat plus avancé, notamment pour bénéficier d’outils de mesure et d’un accompagnement commercial sur le marché français.

M. le président Arthur Delaporte. Quel volume de chiffre d’affaires représentent ces campagnes ?

M. Arnaud Cabanis. Je ne peux pas répondre à cette question dans le cadre de la présente audition, pour des raisons tenant principalement à la confidentialité, mais je vous transmettrai ces données.

L’activité économique de TikTok est principalement publicitaire, puisque la régie publicitaire existe depuis 2020. Mon équipe est ainsi la plus importante au sein des effectifs français implantés à Paris. L’activité publicitaire est historique.

Pour ce qui est de notre fonctionnement, nous sommes comme les grandes régies publicitaires : nous vendons la même chose et les mêmes espaces, en l’occurrence des intercalaires publicitaires qui se trouvent dans le flux « Pour toi » de l’application TikTok. Dans l’écosystème digital, nous sommes un média classique.

M. le président Arthur Delaporte. Sans entrer dans le détail, les montants investis chaque année dans la publicité sur TikTok représentent-ils plusieurs milliards d’euros, ou moins ?

M. Arnaud Cabanis. Je ne pourrai pas répondre à cette question concernant le marché français.

M. le président Arthur Delaporte. Avez-vous une idée, malgré tout ?

M. Arnaud Cabanis. Je ne pourrai pas répondre à cette question.

M. le président Arthur Delaporte. Je vous demande si vous avez une idée.

M. Arnaud Cabanis. Oui, j’ai une petite idée.

M. le président Arthur Delaporte. Vous ne pouvez pas nous indiquer si ces montants représentent plus ou moins de 1 milliard ?

M. Arnaud Cabanis. Je pourrai vous répondre par écrit, l’objectif étant d’être transparent.

M. le président Arthur Delaporte. Nous avons besoin de connaître le volume des revenus issus de la publicité afin de comprendre à quoi nous avons affaire et de comparer ce montant avec celui des revenus générés par les utilisateurs, par le biais des lives, par exemple. En d’autres termes, quelle est la part respective des utilisateurs et de la publicité dans les revenus de la plateforme ? Nous espérons que vous pourrez nous éclairer sur votre modèle économique.

M. Arnaud Cabanis. Le modèle économique de TikTok France est représenté par nos deux équipes. Il s’agit d’un modèle publicitaire orienté vers l’e-commerce – TikTok Shop –, dont M. Mehdi Meghzifene pourra vous parler plus en détail.

Mme Laure Miller, rapporteure. Quelles sont vos priorités stratégiques pour les années à venir ? Quels sont vos leviers de croissance en matière publicitaire ?

M. Arnaud Cabanis. La priorité stratégique de la régie est d’accompagner tous les secteurs représentés au sein du CAC40 et d’Euronext Paris. Des équipes dédiées, basées à Paris, accompagnent les marques et annonceurs au quotidien en les aidant à développer des campagnes et des projets marketing. Lorsqu’ils sont arrivés sur TikTok en 2020, la plupart des annonceurs ont testé le dispositif, pour voir si nos bassins d’audience les intéressaient. Il se trouve que 70 % des PME affirment que TikTok leur a permis d’accéder à de nouveaux clients.

Nous accompagnons aussi les marques dans leur stratégie à l’international. En la matière, 30 % des TPE et PME affirment que TikTok leur a permis d’accéder à de nouveaux territoires, en Europe principalement. Il en est de même pour les grands comptes, que nous accompagnons déjà en France et que nous commençons à accompagner dans des projets d’envergure internationale, principalement en Europe et aux États-Unis.

Mme Laure Miller, rapporteure. Vous expliquez que vous accompagnez tous azimuts les grosses boîtes du CAC40, mais constatez-vous, au travers de votre chiffre d’affaires, que certains secteurs investissent plus que d’autres sur TikTok ?

M. Arnaud Cabanis. Certains secteurs ont mis plus de temps à arriver sur la plateforme. Je pense notamment à la bancassurance, qui a souhaité attendre un peu avant de se lancer sur TikTok, principalement pour des raisons de sécurité.

Il a aussi fallu que nous fassions grandir nos audiences, car la quasi-totalité des annonceurs souhaitent cibler du pouvoir d’achat. Or les utilisateurs de TikTok sont souvent âgés de 25 à 45 ans. Nous avons eu besoin de temps pour augmenter nos audiences, mais nous comptons aujourd’hui plus de 25 millions d’utilisateurs en France.

Pour en revenir à votre question, le secteur du divertissement est arrivé assez tôt – en particulier les studios de cinéma, mais pas seulement. Tous les secteurs sont désormais représentés, y compris l’automobile, qui a mis un peu plus de temps que d’autres à se lancer sur TikTok car ses acheteurs sont, par essence, plus âgés que les 25-45 ans.

M. le président Arthur Delaporte. Pouvez-vous nous donner un ordre de grandeur de la croissance des revenus publicitaires ces dernières années ?

M. Arnaud Cabanis. Puisque nous partions de zéro, nous avons enregistré une croissance à deux chiffres au cours des cinq dernières années.

M. le président Arthur Delaporte. Chaque année ?

M. Arnaud Cabanis. Chaque année.

M. le président Arthur Delaporte. Et cela continue ?

M. Arnaud Cabanis. Oui, cela continue de croître.

M. le président Arthur Delaporte. Toujours à deux chiffres ?

M. Arnaud Cabanis. Oui.

M. le président Arthur Delaporte. Je poserai les mêmes questions au sujet de TikTok Shop, qui est plus récent. Quel volume de chiffre d’affaires cette plateforme d’e-commerce représente-t-elle ?

M. Mehdi Meghzifene. Vous l’avez dit, TikTok Shop est très récent.

Le modèle économique est le suivant : TikTok Shop prend une commission sur le montant des ventes effectuées.

Il est un peu tôt pour avoir des chiffres de croissance, puisque l’activité a été lancée il y a deux mois et demi. La croissance est actuellement à trois chiffres par mois, précisément parce que nous sommes partis de zéro.

M. le président Arthur Delaporte. Combien de références proposez-vous ? Combien d’achats enregistrez-vous au quotidien ?

M. Mehdi Meghzifene. TikTok Shop a bénéficié d’un véritable engouement après son lancement. Les petites entreprises sont généralement plus agiles, mais des plus grosses se sont aussi lancées. En France, quelque 20 000 entreprises se sont enregistrées sur la plateforme, dont environ 6 000 ont du stock et peuvent déjà vendre – les autres sont en train de finir les démarches pour pouvoir le faire. Par ailleurs, nous comptons environ 300 000 références.

M. le président Arthur Delaporte. Vous avez parlé de la structure TikTok France et Benelux, mais quelles sont vos relations avec TikTok Monde ?

M. Arnaud Cabanis. Ces relations sont relativement simples. Un hub, situé en Angleterre et piloté par un manager allemand, est chargé de déterminer au niveau central la stratégie applicable à l’intégralité du marché européen. Pour mes activités, en France ou au Benelux, je me réfère donc à ce qui est décidé en Angleterre.

M. le président Arthur Delaporte. Avez-vous des contacts uniquement à ce niveau, ou plus globaux ?

M. Arnaud Cabanis. La quasi-totalité des contacts se font au niveau européen. Nous remontons aussi notre bilan annuel à Singapour, auprès du siège, en espérant pouvoir modifier notre politique commerciale et intégrer à notre offre de nouveaux produits publicitaires pertinents pour les marques – car c’est le cœur de notre métier.

M. le président Arthur Delaporte. Quelle est la part de la France dans le chiffre d’affaires mondial de TikTok ?

M. Arnaud Cabanis. Je n’ai pas la réponse à cette question. J’aurais tendance à dire que la France se situe dans le top 10, mais nous vous répondrons par écrit.

M. le président Arthur Delaporte. Vous vous y engagez formellement devant la commission d’enquête, d’autant que les réponses apportées à notre questionnaire écrit étaient un peu floues. Nous espérons obtenir des réponses plus précises concernant le chiffre d’affaires et les volumes financiers.

Mme Laure Miller, rapporteure. Votre modèle économique repose sur la publicité, mais quelle est la part de vos revenus provenant des cadeaux virtuels, envoyés notamment lors des lives ?

M. Arnaud Cabanis. Nous représentons tous les deux des activités business tôt business (B2B), qui sont celles de la monétisation. Les lives ne relèvent ni de notre domaine de compétence ni de nos responsabilités ; ils concernent plutôt les créateurs de contenu, et donc la partie « users » de la plateforme, dont vous auditionnerez les représentants après nous. Il nous revient, quant à nous, de monétiser des espaces – les espaces publicitaires et la partie « experience shopping ».

M. Mehdi Meghzifene. Il existe des lives TikTok Shop, qui visent à vendre des produits épinglés ou présentés par le créateur, mais ils ne donnent pas lieu à du gifting.

Mme Laure Miller, rapporteure. Dans le cadre de vos activités, avez-vous des liens avec les agences de créateurs de contenu et d’influenceurs ?

M. Arnaud Cabanis. Non. Nous avons une place de marché, la TikTok Creator Marketplace, à laquelle les agences et les marques peuvent se connecter afin de voir le nombre de créateurs référencés pour travailler avec elles. Ces créateurs, au nombre de 2 millions dans le monde, ont été certifiés et peuvent être triés par ordre, par catégorie, par tranche d’âge et par territoire – cette dernière possibilité est la plus importante, car la plupart des créateurs travaillent à un niveau très local. Cette plateforme permet donc aux marques de trouver des créateurs référencés, d’échanger et de contractualiser directement avec eux. Nous ne sommes qu’un intermédiaire : le contrat est signé entre la marque et le créateur de contenu.

M. le président Arthur Delaporte. Nous avons auditionné une agence TikTok. Gérez-vous le lien avec les agences qui accompagnent les tiktokeurs dans leur création de contenu ?

M. Arnaud Cabanis. Parlez-vous toujours du gifting ?

M. le président Arthur Delaporte. Non. Je parle d’une agence référencée, organisée par TikTok, dont nous avons auditionné les représentants il y a une semaine.

M. Arnaud Cabanis. Je ne connaissais pas cette agence. Je ne travaille pas avec elle, et je ne pense pas que mon équipe le fasse. Pour ce qui est des créateurs de contenu, nous renvoyons les marques vers la TikTok Creator Marketplace, mais notre rôle essentiel est d’accompagner les agences média et les agences créatives – celles qui construisent les formats publicitaires et les postent sur la plateforme.

M. le président Arthur Delaporte. Qui gère ces agences ?

M. Arnaud Cabanis. Je ne pense pas que notre métier premier soit d’accompagner les agences de créateurs de contenu. Peut-être les équipes live pourront-elles vous répondre.

Mme Laure Miller, rapporteure. L’agence de créateurs de contenu que nous avons auditionnée a expliqué qu’il existait des scores de santé, dont elle ne connaissait pas le détail, et que des amendes pouvaient être infligées aux agences lorsque le contenu n’est pas d’assez bonne qualité. Confirmez-vous que ce ne sont pas vos équipes qui gèrent les relations avec ces agences ?

M. Arnaud Cabanis. Non seulement ce n’est pas mon équipe, mais surtout, je n’ai pas connaissance de ces scores de santé. C’est la première fois que j’entends parler de cela.

M. le président Arthur Delaporte. Un modèle existe, malgré tout. Ne vous êtes-vous pas renseigné pour préparer cette audition ?

M. Arnaud Cabanis. Nous en avons discuté hier, mais personne, dans mon entourage ou dans les équipes publicitaires, ne savait à quoi cette agence faisait référence.

M. le président Arthur Delaporte. Vous n’avez pas pris contact avec vos supérieurs à Londres pour essayer d’en savoir plus ?

M. Arnaud Cabanis. Je sais que ce score n’existe pas pour la partie publicitaire. S’il existe pour d’autres équipes, c’est à elles qu’il faudra en référer.

M. le président Arthur Delaporte. Vous avez dit que vous en entendiez parler pour la première fois à l’instant, mais vous l’avez donc au moins appris hier en préparant cette audition…

Comprenez notre frustration : il est dommage que l’information soit aussi fragmentée. Nous ne pouvons donc pas vous demander quels sont les critères pris en compte pour justifier les amendes infligées à certains créateurs. C’est la plateforme qui le fait, mais pas vos équipes, puisque vous faites plutôt du marketing, mais pas avec les agences de créateurs.

M. Arnaud Cabanis. Ce n’est pas mon domaine de compétence et je crains d’être imprécis. Ma réponse est très sincère : je ne connaissais pas cette pratique.

Mme Laure Miller, rapporteure. Je reviens sur le traitement des données et le ciblage publicitaire des mineurs. Vous expliquez que le cœur de cible des marques n’est pas le public mineur, mais plutôt celui des 25-40 ans. Confirmez-vous qu’il n’y a aucun ciblage publicitaire à destination des mineurs ? Je vous rappelle que vous êtes sous serment.

M. Arnaud Cabanis. Je confirme que toute la publicité ciblée et contextualisée – par genre, par sexe et par centre d’intérêt – n’est pas disponible dans l’application pour les moins de 18 ans.

Le seul moyen de toucher des moins de 18 ans dans l’application consisterait à déparamétrer les ciblages dans nos systèmes d’information, pour toucher l’intégralité de la base française, soit les 25,1 millions d’utilisateurs. Ce cas bien précis n’est pas coutume : personne ne fait cela. Les marques vont sur le média digital pour cibler leurs campagnes, pas pour ne pas les cibler. Mais dans ce cas très précis, donc, les 15-17 ans pourraient être exposés au premier format publicitaire, Top View, qui se trouve en entrée d’application – c’est la première vue avant d’entrer dans le couloir des contenus organiques de TikTok. Je le répète, c’est uniquement dans ce cadre qu’un utilisateur de moins de 18 ans pourrait être exposé à de la publicité. Mais nous parlons là de revenus infimes par rapport au reste de nos revenus sur le marché français.

Mme Laure Miller, rapporteure. Pouvez-vous les chiffrer ?

M. Arnaud Cabanis. Depuis l’entrée en vigueur du DSA, je ne pense pas qu’on puisse le faire. Dès juillet 2023, nous avons informé les annonceurs qu’il n’était pas possible de cibler les moins de 18 ans sur l’application. Encore une fois, la plupart des annonceurs ne souhaitent pas cibler les plus jeunes. La plupart de leurs campagnes lancées sur l’application s’adressent plutôt aux parents.

Mme Laure Miller, rapporteure. Si je comprends bien, cette pratique est très limitée, mais possible. Vous ne respectez donc pas le DSA stricto sensu.

M. Arnaud Cabanis. Nous respectons le DSA, bien sûr. J’ai essayé de vous montrer quelque chose d’infime. Le DSA traite des capacités de ciblage, donc de la possibilité de cibler, en particulier les moins de 18 ans. Je vous confirme qu’il est impossible de cibler les moins de 18 ans sur l’application. Cela peut uniquement arriver dans le cas où vous décideriez de tout décocher, dans les systèmes d’information, pour vous adresser à toute la France.

M. le président Arthur Delaporte. Vous avez indiqué que cette règle était instaurée depuis juillet 2023.

M. Arnaud Cabanis. Avec une application en août.

M. le président Arthur Delaporte. Avant juillet 2023, il était donc possible de cibler les mineurs ?

M. Arnaud Cabanis. Uniquement les 15-17 ans, qui ont la majorité numérique. Le ciblage était uniquement fondé sur des critères sociodémographiques, donc l’âge.

M. le président Arthur Delaporte. Quels étaient les types de publicité qui ciblaient les mineurs ?

M. Arnaud Cabanis. L’application en était à ses débuts. Je pense donc qu’il s’agissait principalement de publicités émanant du monde du divertissement, et peut-être de la grande distribution. Je vous répondrai précisément.

M. le président Arthur Delaporte. Connaître les types de publicité qui ciblaient les mineurs avant juillet 2023 nous intéresse : cela nous permettrait d’essayer de comprendre les stratégies publicitaires de marques qui pourraient, incidemment, cibler les mineurs aujourd’hui, même en ciblant les 18-25 ans puisque, comme vous le savez, de nombreux mineurs mentent sur leur âge.

M. Arnaud Cabanis. Nous reviendrons vers vous pour vous donner plus de précisions.

Mme Laure Miller, rapporteure. Vous avez indiqué que les mineurs n’avaient pas accès à TikTok Shop. Le confirmez-vous ? Comment pouvez-vous en être certains ? Quels dispositifs instaurez-vous pour leur empêcher cet accès ?

M. Mehdi Meghzifene. Les comptes qui correspondent à des mineurs ne pourront pas visionner un contenu TikTok Shop, c’est-à-dire un contenu proposant un lien vers un produit pouvant être acheté. Ils ne pourront visionner ni l’onglet boutique, ni la totalité des produits disponibles, ni les lives TikTok Shop.

S’agissant des consommateurs, la vérification de l’âge sur TikTok Shop est la même que celle appliquée sur TikTok en général. On demande la date de naissance de l’utilisateur ; ensuite, un algorithme peut détecter un comportement susceptible de caractériser un mineur. Le cas échéant, le compte sera suspendu. Si l’utilisateur ne fait pas appel, le compte finira par être supprimé. S’il fait appel, des vérifications seront lancées pour s’assurer qu’il a plus de 18 ans. Mes collègues pourront préciser ultérieurement la façon dont ces vérifications fonctionnent.

S’agissant des vendeurs, une vérification est effectuée dès le départ, pour s’assurer qu’ils ont plus de 18 ans. Il en va de même pour les créateurs qui veulent promouvoir des produits disponibles sur TikTok Shop.

Mme Laure Miller, rapporteure. De quelle nature est cette vérification ?

M. Mehdi Meghzifene. Dans un premier temps, on demande la date de naissance. Dans un deuxième temps, en cas de doute sur l’âge de l’utilisateur, des algorithmes peuvent détecter des comportements propres aux moins de 18 ans. Le cas échéant, le compte est suspendu, comme je l’ai expliqué. Si l’utilisateur fait appel, des vérifications sont effectuées. Je sais que l’on demande une preuve. Mes collègues pourront vous expliquer plus en détail la procédure exacte.

M. le président Arthur Delaporte. Vérifiez-vous la conformité des produits vendus avec les règles sanitaires et commerciales de l’espace européen ?

M. Mehdi Meghzifene. Bien sûr. Tous les produits vendus sur TikTok doivent être conformes aux règles européennes. Lorsque nous n’avons pas la capacité de tout vérifier, et même au moindre doute, nous n’autorisons pas la vente. Par exemple, nous avons complètement fermé la possibilité de vendre sur TikTok Shop des produits de nettoyage, dont nous ne pouvons pas vérifier la conformité aux règles européennes.

M. le président Arthur Delaporte. Que pensez-vous de l’omniprésence de produits issus de sites à très bas prix, comme Temu ou AliExpress ?

M. Mehdi Meghzifene. Il faut bien comprendre la différence entre TikTok Shop et un site d’e-commerce classique.

Si je veux acheter une chemise sur un site d’e-commerce classique, le parcours typique consiste à écrire « chemise » dans la barre de recherche. Plusieurs produits s’affichent alors, avec leur prix. La première chose que je vois est donc le prix, ainsi qu’une petite image correspondant au produit. Si le prix m’intéresse, je clique sur le produit pour voir sa description.

Pour sa part, TikTok Shop est un site d’e-commerce fondé sur le contenu. L’utilisateur ne voit pas d’abord le prix, mais un contenu dans le flux « Pour toi ». Ce contenu pourrait correspondre à une chemise, qu’un créateur pourrait présenter en parlant d’autres choses que du prix. S’il est intéressé, l’utilisateur pourra cliquer sur un lien pour voir le produit en détail et connaître son prix.

Sur un site d’e-commerce classique, si je vends des produits à très bas prix, j’aurai un avantage par rapport aux autres vendeurs, puisque les utilisateurs voient le prix en premier lieu. Sur TikTok Shop, en revanche, si j’ai envie d’avoir un avantage par rapport aux autres, je dois avoir du contenu de qualité et coopérer avec des créateurs qui aiment mon produit et veulent le présenter à leur audience. Le prix n’est pas un levier majeur pour concurrencer les produits similaires sur TikTok Shop.

Mme Laure Miller, rapporteure. Vous avez affirmé que les produits ne respectant pas les normes de l’Union européenne étaient bannis. Dès lors, comment expliquez-vous que des produits contenant des colorants interdits dans l’Union européenne soient vendus ? La presse française a notamment évoqué des bonbons, des céréales, des pâtes à tartiner ou des boissons importés de Chine ou des États-Unis, qui n’appliquent pas les mêmes règles que nous.

M. Mehdi Meghzifene. Il faut faire la différence entre les produits présentés sur TikTok et ceux qui y sont réellement vendus. Il est possible qu’un créateur parle d’un produit –d’une pâte à tartiner, par exemple – sans qu’il soit vendu sur TikTok. Ce cas de figure ne relève pas de TikTok Shop. En revanche, les produits directement vendus sur TikTok Shop –en d’autres termes, ceux que l’on peut acheter directement sur la plateforme – doivent respecter les règles. Tous les ans, nous empêchons l’accès à TikTok Shop d’un grand nombre de marchandises. Ainsi, en 2024, environ 100 millions de produits n’ont pas été autorisés avant même d’être enregistrés sur la plateforme.

Mme Laure Miller, rapporteure. Certains de ceux que j’évoquais sont pourtant en vente sur magic-candy. Je pourrais donc acheter des produits qui ne respectent pas les règles de l’Union européenne.

M. Mehdi Meghzifene. Je ne suis pas nécessairement au courant de chaque produit vendu sur TikTok Shop.

Tout ce que je peux vous dire, d’un point de vue statistique, c’est qu’en 2024 – avant que TikTok Shop ne soit disponible en France –, les produits que nous avons bannis de manière proactive ont été trente-quatre fois plus nombreux que les produits signalés. Nous essayons de nous améliorer, mais dès lors que nous savons qu’un produit n’est pas autorisé, nous le bannissons de la plateforme.

Concernant les bonbons, certaines allégations se sont révélées fausses. Alors que nous avions suspendu ces produits dans un premier temps, nous les avons réautorisés quand il est apparu qu’ils l’étaient par la réglementation européenne.

Je ne peux pas vous répondre tout de suite concernant les produits précis que vous avez évoqués. Cependant, je le répète, notre démarche consiste à minimiser ce risque et à être le plus réactif possible.

M. le président Arthur Delaporte. Quel volume représentent ces produits – bonbons, pâtes à tartiner – destinés aux jeunes ?

M. Mehdi Meghzifene. Je n’ai pas de catégorisation exacte des produits potentiellement destinés aux plus jeunes. Notre présence en France étant très récente, il est encore trop tôt pour savoir ce qui se vend le plus ou le moins dans notre pays. Cela dit, encore une fois, TikTok Shop n’est pas accessible aux moins de 18 ans. Je ne peux donc pas répondre précisément à votre question.

M. le président Arthur Delaporte. Avez-vous des retours d’expérience d’autres TikTok Shops dans le monde ?

M. Mehdi Meghzifene. Je ne dispose pas de chiffres, mais les catégories les plus représentées sur TikTok Shop sont la beauté, la mode, les produits électroniques et les produits de consommation que l’on peut trouver en supermarché.

M. le président Arthur Delaporte. Lesquels ont le plus de succès ?

M. Mehdi Meghzifene. Cela dépend. Il faut garder en tête que TikTok Shop est une plateforme de contenu. En général, les produits qui se vendent bien sont des produits de découverte. TikTok Shop est vraiment une plateforme de découverte. Si plusieurs influenceurs ou créateurs de contenu sont intéressés par un produit, ils pourront en parler, et ce produit sera alors visionné plusieurs fois.

M. le président Arthur Delaporte. Encouragez-vous l’utilisation de l’intelligence artificielle (IA) dans les publicités ?

M. Arnaud Cabanis. Nous avons des outils d’aide à la création de contenu, qui permettent de faire appel à l’IA, mais ils sont très peu utilisés par les marques, pour la simple et bonne raison qu’elles ont l’habitude de travailler avec leurs agences créatives et de développer des contenus qui correspondent à des films publicitaires. Même si elles ont tendance à les raccourcir pour venir sur des plateformes digitales comme TikTok, on parle souvent de grands films publicitaires, qui sont ensuite découpés pour être redistribués sur les plateformes.

L’IA créative est principalement utilisée pour la traduction et l’ajout de sous-titres insérés par défaut dans les publicités.

Nous avons également un moteur de recherche qui permet d’aller chercher des insights, souvent des insights marketing, pour aider les marques à appréhender rapidement les outils TikTok, à savoir quel est le créateur le plus connu ou la musique la plus écoutée du moment, et donc à comprendre comment développer une campagne publicitaire sur la plateforme.

M. Mehdi Meghzifene. Sur TikTok Shop, le plus important est qu’un produit soit présenté par un créateur de contenu. L’utilisation d’une IA générative aura donc forcément moins d’impact que la présentation d’un vrai produit par un vrai créateur de contenu. Ce qui fonctionne bien, c’est la relation de confiance entre un créateur de contenu et son audience.

Nous encourageons les créateurs de contenu à être les plus authentiques possible, en disant qu’ils n’aiment pas un produit, le cas échéant, ou en expliquant pourquoi ils en aiment un autre. L’intelligence artificielle générative n’a pas vraiment sa place dans ce contexte.

M. le président Arthur Delaporte. Le cas échéant, vérifiez-vous la conformité entre le discours de l’IA et la réalité du produit vendu ?

M. Mehdi Meghzifene. Que ce soit par de l’IA ou par un créateur de contenu, il faut toujours que le produit présenté corresponde au produit vendu, dans son apparence ou dans ses effets.

M. le président Arthur Delaporte. Monsieur Cabanis, vous avez annoncé il y a onze mois le lancement de TikTok Symphony, une IA chargée de parler des tendances.

M. Arnaud Cabanis. En effet. Elle a été renommée TikTok One. Le projet Symphony répond à la volonté de permettre aux marques, toujours sous un angle marketing, de découvrir TikTok et nos programmes éducatifs relatifs à la construction d’une campagne.

Le paramétrage des campagnes est directement opéré par les marques ou les agences. Autrement dit, TikTok ne fait pas de paramétrage pour les marques. C’est donc à ces dernières de prendre leurs responsabilités en matière de paramétrage des ciblages. Les outils que nous leur proposons les aident à construire des bassins d’audience et à élaborer leurs campagnes marketing.

M. le président Arthur Delaporte. Dans un post, vous expliquiez que les vidéos générées par l’IA augmentent l’engagement de 35 % par rapport aux vidéos traditionnelles. Qu’est-ce que cela signifie ?

M. Arnaud Cabanis. Je ne parlais pas de la création de contenu, mais des outils permettant d’améliorer le contenu ou sa visibilité, de traduire les publicités et, surtout, d’aller chercher des insights donnant des indications sur ce que l’audience a envie de consommer.

M. le président Arthur Delaporte. Ce ne sont donc pas des vidéos générées par l’IA qui augmentent l’engagement de 35 %, mais des vidéos créées en s’appuyant sur l’IA et des insights.

M. Arnaud Cabanis. En effet.

M. le président Arthur Delaporte. Comment traduiriez-vous « insight » ?

M. Arnaud Cabanis. C’est une donnée.

M. le président Arthur Delaporte. Confirmez-vous que l’IA est donc endogène et que le recours à cette technologie ne permet pas d’être particulièrement boosté ?

M. Arnaud Cabanis. Absolument. L’algorithme publicitaire fonctionne de la même manière selon que la vidéo comprend du contenu créatif traditionnel ou du contenu généré par IA. En général, le recours à l’IA dans les marchés autres que la France vise principalement à décliner une vidéo publicitaire traditionnelle afin d’adapter l’expérience utilisateur – par exemple, en changeant la couleur de la chemise, pour reprendre l’exemple cité tout à l’heure par mon collègue.

Mme Laure Miller, rapporteure. Il existe des contenus problématiques sur TikTok. J’imagine que les annonceurs formulent des exigences vis-à-vis de ces contenus, car ils n’ont pas forcément envie que leur produit apparaisse entre deux contenus traitant du suicide ou du mal-être. Comment parviennent-ils à bien positionner leurs publicités ?

M. Arnaud Cabanis. Les vidéos comportant du contenu problématique ne représentent que 1 % de toutes les vidéos postées quotidiennement par nos communautés.

Nos outils de modération sont très efficaces : 80 % des vidéos considérées comme problématiques sont bloquées par nos algorithmes, et 15 % le sont par des hommes – soit, au total, un taux de couverture de 95 %.

Les 509 modérateurs français qui travaillent pour nous sont chargés de modérer ces contenus, mais aussi de revoir les publicités avant qu’elles ne soient postées sur la plateforme. Les outils de modération que nous proposons de façon organique, pour les vidéos postées, sont donc également utilisés pour les contenus publicitaires.

Sur l’application TikTok, les contenus qui sortent en premier proviennent des top creators, ces créateurs de contenu avec lesquels nous avons l’habitude de travailler et qui sont certifiés par nos services, des marques ou des grands publishers, français ou internationaux, qui publient aussi sur TikTok des pages d’information. C’est dans ce couloir que se trouve la publicité.

Les marques ont confiance dans nos outils de brand safety, c’est-à-dire de sécurité pour les marques.

Nous proposons aussi des outils permettant de comparer les contenus exposés de façon organique, avant une annonce, et ceux diffusés à l’issue de celle-ci. Des rapports peuvent être téléchargés, généralement en fin de campagne, par le biais du partenaire qui encadre l’opération – l’annonceur direct, ou l’agence qui l’accompagne dans sa démarche publicitaire.

M. le président Arthur Delaporte. Encouragez-vous spécifiquement les créateurs de contenu à aller sur TikTok Shop ?

M. Mehdi Meghzifene. Plusieurs critères nous permettent de déterminer si un créateur de contenu peut aller sur TikTok Shop. D’abord, il doit avoir plus de 18 ans ; ensuite, c’est plus ou moins du cas par cas.

Plusieurs créateurs de contenu parlent déjà de produits – pour les comparer, par exemple, dans le domaine de l’électronique. S’ils sont experts dans leur domaine, ils ont tout intérêt à aller aussi sur TikTok Shop.

M. le président Arthur Delaporte. On nous a signalé qu’on encourageait les créateurs de contenu à multiplier les vidéos sur TikTok Shop, et qu’il y avait moins de shadowban sur TikTok Shop que sur TikTok en général, en particulier en cas de multiplication des contenus. Le confirmez-vous ?

M. Mehdi Meghzifene. Comme je vous l’ai expliqué, nous recommandons aux créateurs d’être les plus authentiques possible : plutôt que d’essayer d’embellir les choses au maximum, nous leur demandons de faire une vidéo très authentique, sans nécessairement passer des heures à trouver les bons filtres. Ce message a peut-être été mal interprété.

S’agissant du shadowban, les créateurs de contenu ne sont pas privilégiés sur TikTok Shop. Au contraire, tout contenu appelé à être diffusé sur TikTok Shop fait l’objet de deux modérations séparées, effectuées en parallèle : d’une part, comme mon collègue l’a expliqué, quelque 500 modérateurs francophones sont chargés de vérifier la conformité du contenu au code de conduite ; d’autre part, 100 modérateurs vérifient le respect de la réglementation en matière de consommation.

M. le président Arthur Delaporte. Ces équipes sont-elles situées au même endroit ?

M. Mehdi Meghzifene. Non. Elles sont complètement séparées et travaillent en parallèle. Si un contenu est considéré comme mauvais, soit par les équipes qui vérifient la conformité au code de conduite, soit par celles de TikTok Shop, il sera supprimé et ne sera donc pas visible.

M. le président Arthur Delaporte. Où se trouvent les équipes chargées de la modération commerciale ?

M. Mehdi Meghzifene. Certaines sont au Portugal, d’autres aux Philippines.

Mme Laure Miller, rapporteure. Le DSA impose de publier un registre des publicités. Pourquoi la Commission européenne vous reproche-t-elle de ne pas respecter cette obligation ?

M. Arnaud Cabanis. Pour ce qui est de ce dossier, en cours d’instruction, mes collègues vous répondront cet après-midi – en particulier Mme Marie Hugon, chargée des relations avec la Commission européenne et donc du respect du DSA.

M. le président Arthur Delaporte. Vous n’avez pas été interrogé sur ce point ?

M. Arnaud Cabanis. Non, monsieur le président.

M. Stéphane Vojetta (EPR). Vous avez confirmé que vous ne cibliez pas les mineurs. En revanche, faites-vous un ciblage négatif ? Pour les publicités susceptibles d’être jugées sensibles, par exemple, prenez-vous l’initiative ou offrez-vous aux annonceurs la possibilité d’exclure les mineurs de l’audience ?

Par ailleurs, je comprends que l’absence de ciblage des mineurs signifie l’absence de ciblage des personnes identifiées par la plateforme comme ayant moins de 18 ans. Mais est-il possible de faire une promotion en ciblant des personnes identifiées comme adultes, mais qui s’intéressent particulièrement aux Pokémon, à One Direction ou à tout autre contenu particulièrement prisé par les mineurs ?

Enfin, existe-t-il des catégories de produits que vous refusez de distribuer sur TikTok Shop ? Dans les catégories autorisées, protégez-vous les mineurs de la publicité pour certains produits, par exemple pour des traitements par injections à visée esthétique ?

M. Arnaud Cabanis. Le ciblage par mots-clés n’est pas autorisé sur la plateforme. Vous pouvez seulement cibler les utilisateurs par centres d’intérêt – par exemple, le divertissement –, sans spécifier de marques ou de produits, mais même dans ce cas, vous ne toucherez que les utilisateurs de plus de 18 ans.

Les grandes catégories représentées sur la plateforme sont le sport, le divertissement, l’art de vivre à la française et le voyage. Toutes ces thématiques, très représentées sur TikTok de façon organique, sont mises à la disposition des marques pour cibler les utilisateurs de façon contextuelle.

Par ailleurs, de nombreux services pour adultes sont proscrits aux mineurs. Comme on ne peut pas cibler les mineurs sur TikTok, tous les services, par exemple les sites de rencontre, s’adressent uniquement à des adultes de plus de 18 ans.

M. Stéphane Vojetta (EPR). La plateforme l’établit-elle par défaut, ou est-ce une option laissée à l’annonceur ?

M. Arnaud Cabanis. Lorsqu’un annonceur se connecte à notre plateforme publicitaire et à notre système d’information pour paramétrer une campagne, il n’a pas la possibilité de cocher la case des 15-17 ans, qui correspond à la majorité numérique et que l’on pourrait voir sur toutes les plateformes.

M. Stéphane Vojetta (EPR). Cette possibilité est-elle offerte aux influenceurs qui font de la promotion commerciale organique, pas nécessairement pour TikTok Shop, mais dans les contenus qu’ils publient ?

M. Arnaud Cabanis. C’est moins mon domaine d’expertise, mais je peux vous dire que lorsque les créateurs de contenu arrivent sur la Creator Marketplace, leur identité est vérifiée et certifiée. On leur demande tout un tas de choses – leur pièce d’identité, naturellement, mais aussi leur numéro fiscal, pour s’assurer qu’ils sont bien majeurs. Il leur revient ensuite de respecter le cadre de travail qui leur est donné en se conformant aux règles communautaires de TikTok.

M. Mehdi Meghzifene. Comme je l’ai précisé, TikTok Shop ne peut pas être vu par les mineurs. Si l’on détecte qu’un créateur de contenu s’adresse à des mineurs, par exemple avec des phrases comme « Demande à tes parents de t’acheter ça ! », le contenu sera modéré. C’est donc quelque chose que l’on décourage, même si ce n’est a priori pas possible.

Par ailleurs, certaines catégories de produits sont interdites à la vente sur TikTok Shop, pour plusieurs raisons : soit les produits sont interdits, soit ils peuvent être dangereux, soit nous estimons qu’ils favorisent un environnement moins sûr. Des produits d’amincissement, par exemple, sont interdits sur TikTok Shop même s’ils sont autorisés ailleurs. J’ai aussi mentionné tout à l’heure les produits dont nous n’avons pas la possibilité de vérifier qu’ils respectent bien la réglementation. C’est notamment le cas des produits de nettoyage, car nous ne pouvons pas vérifier la conformité de leurs composants.

M. Stéphane Vojetta (EPR). Est-il possible d’acheter sur TikTok Shop des cryptoactifs ou des cryptomonnaies, ou de faire appel aux services d’une plateforme d’achat‑vente de cryptoactifs ?

M. Mehdi Meghzifene. Non. Sur TikTok Shop, on peut uniquement vendre des produits physiques.

M. Stéphane Vojetta (EPR). Les règles rappelées par la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux dite loi influenceurs sont-elles systématiquement appliquées à toutes les promotions qui mènent vers TikTok Shop ?

M. le président Arthur Delaporte. Le sont-elles, plus largement, à toutes les promotions faites sur TikTok ?

M. Mehdi Meghzifene. Parlez-vous du fait qu’un influenceur doit mentionner qu’il a été payé ?

M. le président Arthur Delaporte. Je peux vous rappeler les règles de transparence sur l’intention commerciale, l’interdiction de la publicité pour la chirurgie ou pour des procédés à visée esthétique, ou encore l’interdiction d’utiliser des filtres beauté dans une promotion pour un produit de beauté. Excluez-vous les mineurs de l’audience des publicités pour les jeux ou les paris sportifs ? Comment vous assurez-vous de la conformité de tous ces contenus aux impératifs légaux ?

M. Mehdi Meghzifene. Nous nous devons de respecter la loi, et c’est bien ce que nous faisons. Nous allons même un peu plus loin, par exemple en interdisant catégoriquement les comparaisons avant/après pour les produits de beauté, car nous ne pouvons pas toujours nous assurer que l’IA n’a pas été utilisée. Tous les autres exemples que vous avez cités font l’objet d’interdictions. À partir du moment où quelque chose est interdit par la loi, il est interdit sur TikTok Shop.

M. Arnaud Cabanis. Nous avons commencé à travailler relativement tôt avec le Gouvernement pour l’application de la loi dite influenceurs. Nous avions déjà commencé avant le 9 juin 2023, puisque nous avions proposé un bouton par défaut intitulé « contenu de marque ». Nous l’avons fait un peu évoluer depuis : il s’appelle désormais « collaboration commerciale ».

L’influenceur ou le créateur de contenu prend un risque relativement certain à ne pas respecter les règles de transparence fixées par le DSA, puisque nous allons bloquer non seulement sa vidéo, mais aussi son compte. C’est donc tout son business model qui s’écroulera !

Lorsque des vidéos nous sont signalées, nous les bloquons immédiatement, puis nous contactons le créateur de contenu pour qu’elles soient remises en ligne. Il est impossible de ne pas mettre en avant le fait qu’il s’agit d’une collaboration commerciale. Nos modérateurs sont évidemment formés sur tous ces sujets, et nous continuons de travailler avec le gouvernement et l’Autorité de régulation professionnelle de la publicité (ARPP) pour accroître la connaissance de la loi dite influenceurs par nos équipes et améliorer nos procédures pour la faire respecter sur TikTok.

J’en reviens à la politique publicitaire de TikTok. Ce que je vais vous dire n’est pas un commentaire personnel, mais l’opinion du marché publicitaire : TikTok est extrêmement strict dans l’encadrement des contenus publicitaires.

Tous les contenus touchant à l’apparence et à l’image d’une personne, quel que soit son âge, sont interdits sur la plateforme. Ainsi, on ne peut pas indiquer qu’un produit permet d’améliorer son image corporelle. La notion de comparaison avant/après, dont parlait mon collègue, est relativement large. Les contenus relatifs au contrôle du poids et à la diététique en général sont totalement prohibés. Pour ce qui est de la beauté – un secteur largement représenté sur l’application –, nous allons aussi relativement loin : par exemple, nous n’autorisons pas la publicité pour des produits contre l’acné, car nous ne voulons pas laisser penser aux utilisateurs qu’avoir de l’acné pose problème. Cela va dans le sens du travail que nous accomplissons du point de vue organique. Les notions d’esthétisme ne sont pas très représentées sur TikTok, car les utilisateurs n’y vont pas pour cela : ils y vont avant tout pour se divertir.

Enfin, pour tout ce qui touche aux troubles alimentaires – un sujet très sérieux –, nous avons mis en place un centre de sécurité, directement accessible depuis l’application, pour amener les jeunes concernés par ce type de problèmes à se faire aider.

Mme Laure Miller, rapporteure. Vos réponses sont un peu ambiguës. Vous indiquiez que le secteur de la beauté était l’un de ceux qui fonctionnent le mieux. Comment différenciez-vous une publicité relative à la beauté problématique d’une publicité qui ne pose pas de difficulté ?

M. Arnaud Cabanis. Ce secteur est relativement large. Nous parlons principalement de maquillage, de crèmes de jour ou de crèmes solaires, c’est-à-dire de produits dont les Français se servent au quotidien, pour partir en vacances ou simplement pour sortir. Notre démarche n’est pas pharmaceutique : on ne va pas présenter la composition des produits ni promettre aux utilisateurs qu’ils rajeuniront de cinq ans.

M. le président Arthur Delaporte. Alors que le marché des compléments alimentaires s’est fortement développé, avez-vous des activités commerciales dans ce secteur ?

M. Arnaud Cabanis. Nous autorisons uniquement les protéines, pour les personnes majeures et dans le cadre de ciblages en lien avec le sport. Peuvent être vendues toutes les formes de protéines non anabolisantes autorisées en France, uniquement pour la communauté des plus de 18 ans : ce champ est donc relativement restreint.

M. le président Arthur Delaporte. Qu’en est-il du thé aux vertus amincissantes ?

M. Arnaud Cabanis. Normalement, vous ne trouverez pas sur la plateforme de produits aux vertus amincissantes. Mais je vérifierai, car je ne vous cache pas que je ne connais pas nécessairement la réponse.

M. le président Arthur Delaporte. Sur TikTok, il est fait mention de produits pharmaceutiques, avec le hashtag #FrenchPharmacy. On peut ainsi trouver de l’Eafit Minceur 360 associant du Morosil, du collagène marin et de l’acide hyaluronique. Ce type de complément alimentaire fait-il partie de ce que vous recommandez ?

M. Arnaud Cabanis. Je ne suis pas au courant de cette tendance spécifique. Je sais que dans le secteur de la pharmacie, on parle principalement de masques de beauté…

M. le président Arthur Delaporte. J’ai lu cette description dans un article intitulé « Les produits de pharmacie tendance sur TikTok », publié sur le site jevaismieuxmerci.com. Nous vous le transmettrons. Assurez-vous une veille humaine pour détecter ce type de contenus, auxquels une alerte ou une recherche sur Google peuvent rapidement conduire, et engagez-vous des actions pour les faire retirer, dans la mesure où ces compléments alimentaires peuvent poser problème ?

M. Mehdi Meghzifene. D’abord, la grande majorité des contenus problématiques relatifs à des produits sont supprimés avant leur publication. Ensuite, la grande majorité de ceux qui sont quand même publiés sont retirés avant d’avoir dépassé 100 vues.

Les articles comme celui que vous avez cité concernent des produits qui ont pu être visibles sur TikTok à un instant T. Si vous allez vérifier sur la plateforme, vous verrez qu’ils ne sont plus disponibles.

Nous essayons d’améliorer nos systèmes de vérification pour retirer ces produits le plus rapidement possible. Nous avons une double vérification – d’abord par l’algorithme, pour être très rapide, puis par un humain, en cas de doute.

M. le président Arthur Delaporte. Ma question concernait davantage la modération sur TikTok que sur TikTok Shop. Vos 100 modérateurs implantés au Portugal et aux Philippines surveillent plutôt TikTok Shop, mais les influenceurs qui font de la publicité doivent respecter les mêmes règles sur TikTok. Eux sont contrôlés par les 500 modérateurs dédiés à TikTok, qui ne sont peut-être pas formés à l’application du droit de la consommation et sont peut-être plutôt chargés de la modération des contenus problématiques. Comment contrôlez-vous la publicité faite par les influenceurs ?

M. Arnaud Cabanis. Mes collègues qui gèrent la modération seront plus à même de vous répondre. Ce qui est certain, c’est que de nombreuses ONG accompagnent TikTok en France pour tenter de repérer ces tendances et de faire retirer les contenus problématiques le plus rapidement possible. C’est un travail quotidien, pour nous, d’accompagnement et d’éducation des équipes. Nous sommes dans le cœur du métier des 509 modérateurs dont je vous ai parlé. Les algorithmes permettent d’aller plus vite pour identifier les contenus litigieux. Vous avez notamment parlé des hashtags. En l’occurrence, nous vérifions, dans les vidéos, trois niveaux d’information : le texte, le son et le contenu. Ces métadonnées sont traitées et analysées par nos modérateurs.

M. le président Arthur Delaporte. Vous pourrez regarder le hashtag #TikTokPharmacie, par exemple. Il peut être intéressant à surveiller, pour les modérateurs.

Vous avez dit que vous aviez des liens avec de nombreuses ONG. Pouvez-vous citer celles qui vous accompagnent dans la détection proactive des contenus problématiques ou dangereux ?

M. Arnaud Cabanis. Les équipes de modération, qui seront auditionnées juste après nous, pourront lister précisément les ONG avec lesquelles nous travaillons. J’en connais certaines, mais pas toutes.

M. le président Arthur Delaporte. Lesquelles connaissez-vous ?

M. Arnaud Cabanis. Principalement e-Enfance.

M. le président Arthur Delaporte. Elle ne s’intéresse pas tellement au volet consommation, qui est plutôt le vôtre.

Mme Laure Miller, rapporteure. Pouvez-vous estimer la baisse des revenus publicitaires qui résulterait du choix, par tous les utilisateurs, d’un algorithme de recommandation sans profilage ?

M. Arnaud Cabanis. C’est déjà le cas dans le cadre du DSA. Les utilisateurs peuvent supprimer le profilage.

Mme Laure Miller, rapporteure. Savez-vous combien le font ?

M. Arnaud Cabanis. Je n’ai malheureusement pas cette donnée. Nous pourrons essayer de regarder.

Mme Anne Genetet (EPR). Alors que notre commission s’intéresse aux effets de TikTok sur les mineurs, je n’ai pas compris comment vous pouviez contrôler l’âge de vos utilisateurs. Vous avez évoqué différentes manières de faire, notamment un contrôle a posteriori. Vous dites que la plateforme TikTok Shop n’est pas accessible aux mineurs, mais vous venez de parler des produits de maquillage et de beauté. Dans n’importe quelle enseigne physique de vente de ce type de produits, les acheteuses sont des collégiennes. Au collège, toutes les filles sont maquillées et parlent de leur crème de jour. J’ai du mal à comprendre la cohérence de tout cela. Pouvez-vous préciser à nouveau comment vous contrôlez la minorité ?

Par ailleurs, vous avez évoqué le contrôle par les hashtags, mais plusieurs jeunes m’ont rapporté qu’il existait des mots détournés. Il suffit d’insérer une majuscule ou un symbole au sein d’un mot pour que ce dernier échappe à votre vigilance. Effectuez-vous un travail pour pouvoir agir sur ces hashtags de mots détournés ? Si oui, de quelle manière ?

M. Arnaud Cabanis. Lorsque vous vous inscrivez sur TikTok, vous déclarez votre âge par défaut. C’est le premier niveau de vérification que nous apportons.

Ensuite, tout au long du parcours de l’utilisateur, nous vérifions plusieurs points, qui sont gérés par nos équipes de modération et par la modération technologique. La première chose que nous regardons est la typologie de contenu que vous consommez. Si nous observons un décalage entre cette typologie de contenu et l’âge que vous avez déclaré, nous vous redemanderons votre âge. Si vous n’indiquez pas votre véritable date de naissance, votre compte sera suspendu.

Pour rétablir un compte, nous avons instauré une procédure très stricte. Vous devez envoyer une photographie de vous, avec votre carte d’identité à côté de votre visage. Si vous n’êtes pas en mesure de le faire, nous vous demanderons d’envoyer un selfie sur lequel figure également un parent ou un tuteur. Si vous n’arrivez pas à nous obtenir cette information, nous vous demanderons une authentification par carte bancaire, avec un micropaiement, comme le font de nombreuses applications en France.

Nous utilisons aussi la technologie Yoti, qui nous permet d’analyser les contenus des utilisateurs et de nous assurer qu’ils correspondent à l’âge déclaré.

Ce n’est pas une science exacte, et elle est loin d’être parfaite. Mais nous continuons de travailler et d’essayer d’améliorer nos outils au quotidien, grâce au travail que nous conduisons avec votre assemblée, mais pas seulement.

Pour en venir à votre question sur la beauté, je comprends que des utilisateurs mineurs se maquillent, mais cela ne signifie pas nécessairement qu’ils ont été exposés à de la publicité sur TikTok.

Mme Anne Genetet (EPR). Quelles suggestions pourriez-vous faire à notre commission d’enquête pour améliorer le contrôle de la minorité ?

Par ailleurs, pouvez-vous répondre à ma question sur les mots détournés ?

M. Arnaud Cabanis. Les éléments que je viens d’évoquer, notamment l’envoi d’un selfie ou de la photographie de la pièce d’identité de l’utilisateur, constituent la première démarche, et la plus pertinente.

Mme Laure Miller, rapporteure. Cette vérification grâce au selfie et à la pièce d’identité arrive lorsque vous suspectez que l’utilisateur est mineur. Pourquoi n’y procédez-vous pas d’emblée, au moment où l’on arrive sur la plateforme ? Cela éviterait de devoir rattraper des mineurs qui se sont déclarés comme majeurs en mentant sur leur âge.

M. Arnaud Cabanis. Nous procédons comme les autres applications sur le marché, qui demandent aux utilisateurs de déclarer leur âge dès le départ. Nous pourrons ajuster nos procédures grâce aux échanges que nous avons ce matin. Nous essayons quand même d’être très rapides dans les vérifications et le retrait des fameux hashtags détournés.

Mme Laure Miller, rapporteure. Vous dites être une plateforme sûre, sécurisée et responsable, avec une responsabilité particulière dans la protection des mineurs. Aussi avons-nous du mal à comprendre – et c’est aussi le cas du grand public – ce qui vous empêche d’opérer un contrôle plus exigeant dès le début. L’argument selon lequel les autres plateformes ne le font pas est relativement faible. Au contraire, si vous étiez la seule plateforme à le faire, cela ferait de vous une plateforme plus sûre. De surcroît, vous avez indiqué que vos revenus économiques ne provenaient pas des mineurs. Cela ne vous retirerait donc pas de revenus.

M. Arnaud Cabanis. Pour réitérer mon propos et peut-être le clarifier, je pense qu’un travail collectif doit être effectué pour l’ensemble du secteur, et que TikTok jouera le jeu.

M. le président Arthur Delaporte. Pensez-vous que si les vérifications à l’entrée étaient trop strictes, les utilisateurs risqueraient de migrer vers des plateformes concurrentes ?

M. Arnaud Cabanis. Ce n’est pas du tout ce que j’ai dit, monsieur le président.

M. le président Arthur Delaporte. Nous essayons de comprendre.

M. Arnaud Cabanis. Je ne peux pas vous répondre directement, car cette question est assez éloignée de ce que je fais : j’encadre des équipes commerciales qui accompagnent des annonceurs. J’ai essayé de vous répondre avec les éléments que je connais. Tout au long de la journée, vous auditionnerez des experts de la vérification des âges. Je pense qu’ils seront en mesure de vous répondre plus précisément.

M. le président Arthur Delaporte. Nous pourrons effectivement creuser cette question lors des auditions suivantes. Avec vous, nous nous concentrons sur le modèle économique et sur ce qui a pu être qualifié d’économie de l’attention.

Disposez-vous de notes, en interne, qui permettraient de déterminer un taux de consommation en fonction du temps passé sur la plateforme ? Confirmez-vous que plus on y passe de temps, plus on consomme ? Ce rendement est-il décroissant ? Comment oriente-t-on l’utilisateur vers l’acte d’achat ?

M. Mehdi Meghzifene. Pour ce qui est de la consommation, donc dans le cas de TikTok Shop, il faut bien comprendre que la chose la plus importante, sur une plateforme d’e-commerce, est d’établir une relation de confiance. En effet, on demande aux gens de lier leur carte bancaire à leur compte et d’acheter quelque chose. Une stratégie de court terme, qui consisterait à essayer de garder les utilisateurs le plus longtemps possible sur la plateforme et de leur vendre quelque chose lorsqu’ils ne sont pas capables de prendre une décision vraiment réfléchie, ne serait pas viable. Si quelqu’un achète un produit qui ne lui plaît finalement pas, il écrira de mauvais commentaires : cela n’arrange ni la marque ni le créateur de contenu qui en parle. Le plus important est d’être le plus transparent possible et de ne pas essayer de pousser les gens à l’achat en disant des choses fausses ou irresponsables.

M. le président Arthur Delaporte. Plus les utilisateurs sont sur la plateforme, plus on peut leur vendre d’espaces publicitaires ?

M. Arnaud Cabanis. Non. Comme sur toutes les plateformes, il existe un nombre déterminé d’expositions à la publicité par jour pour tous les utilisateurs français : ainsi, l’algorithme prévoit de livrer, en moyenne, quatre publicités par jour et par utilisateur. Nous essayons donc de limiter les couloirs publicitaires.

M. le président Arthur Delaporte. Est-ce à dire que si l’on estime que l’utilisateur aura une consommation faible, par exemple d’une durée de trente minutes, on lui délivrera quatre publicités en trente minutes, et que si l’on estime qu’il cumulera deux, trois ou quatre heures d’écran, on lui délivrera ces quatre publicités en quatre heures ?

M. Arnaud Cabanis. Cela ne fonctionne pas ainsi. La consommation des utilisateurs est une géométrie variable. On ne peut pas l’anticiper. Ce qui est sûr, c’est qu’on limite le nombre d’expositions à quatre par jour et par utilisateur.

M. le président Arthur Delaporte. Comment pouvez-vous les limiter ?

M. Arnaud Cabanis. Nous avons des systèmes de blocage, qui empêchent l’affichage d’une publicité après un certain nombre d’expositions. Le paramétrage relatif aux publicités est opéré directement par l’annonceur : ainsi, un annonceur ou une agence média sélectionne généralement un paramétrage de cinq vues pour une audience de 25-45 ans.

M. le président Arthur Delaporte. Peut-on recevoir quatre publicités en un quart d’heure, puis plus aucune ?

M. Arnaud Cabanis. Je ne peux pas vous dire dans quel laps de temps est livrée la publicité. Ce qui est sûr, c’est que vous verrez un certain nombre de contenus organiques avant de voir de la publicité.

Mme Claire Marais-Beuil (RN). Comment contrôlez-vous la sécurité des produits destinés à être ingérés ? M. Delaporte évoquait tout à l’heure les compléments alimentaires, mais une profusion d’autres produits, par exemple amaigrissants, posent problème. En tant que médecin, j’ai pu constater la toxicité de nombre d’entre eux. Même s’ils sont vendus comme étant similaires à d’autres, ils n’ont rien de comparable.

M. Mehdi Meghzifene. Sur TikTok Shop, les produits destinés à être ingérés sont extrêmement réglementés. Il faut non seulement qu’ils respectent la loi européenne et la loi française sur la consommation, mais aussi que ce soit le cas des revendications faites par les créateurs de contenu. Par exemple, un créateur qui parle d’un produit n’a pas le droit de dire qu’il est amincissant ni de montrer des photographies comparatives avant/après consommation.

Mme Laure Miller, rapporteure. La limitation à quatre publicités par jour concerne-t-elle les mineurs ou les majeurs ?

M. Arnaud Cabanis. Elle concerne les majeurs.

Mme Laure Miller, rapporteure. Nous venons de faire un test et nous avons déjà vu plus de quatre publicités en trente secondes.

M. Arnaud Cabanis. Je vous parlais de la moyenne quotidienne sur le marché français. Je ne connais pas le niveau d’exposition du compte que vous avez regardé, ni les paramétrages qui y sont appliqués. Comme je l’ai dit, cela dépend d’une géométrie relativement variable. Si vous le souhaitez, nous vous apporterons par écrit des précisions sur ce point. Comptez sur nous pour être précis dans cette réponse.

Mme Claire Marais-Beuil (RN). Vous dites que vous respectez la réglementation, mais vous vous contentez de lire des étiquettes et ne contrôlez pas la composition des produits. Un produit pourrait être assemblé en Europe sans pour autant être pur – c’est déjà arrivé !

M. Mehdi Meghzifene. Nous demandons au vendeur les documents de la direction générale de l’alimentation (DGAL) qui l’autorisent à vendre tel produit en France.

M. le président Arthur Delaporte. Des mineurs ont officiellement le statut de majeur sur la plateforme. Vous en avez conscience, puisque vous prévoyez des mécanismes de contrôle de l’âge.

M. Arnaud Cabanis. Concernant le détournement, il m’est difficile de vous répondre. Mes collègues vous répondront un petit peu mieux cet après-midi.

M. le président Arthur Delaporte. Vous vous doutez qu’il peut y avoir des failles.

M. Arnaud Cabanis. Bien sûr.

M. le président Arthur Delaporte. Les enquêtes statistiques montrent que les jeunes utilisateurs sont plus nombreux que vous ne le mesurez. S’ils sont considérés comme majeurs, sur la plateforme, alors qu’ils sont en réalité mineurs, on peut collecter leurs données et identifier leurs préférences. Le reconnaissez-vous ?

M. Arnaud Cabanis. Je ne pourrais vous donner le nombre de personnes susceptibles de tricher sur leur âge. Il m’est donc difficile de répondre à cette question.

M. le président Arthur Delaporte. Selon certaines enquêtes, 70 % des utilisateurs de TikTok ont moins de 24 ans.

M. Arnaud Cabanis. Je n’ai pas connaissance de cette étude. Ce qui est certain, c’est qu’en France, l’année dernière, nous avons supprimé un nombre de comptes relativement important – 642 000 comptes, en l’occurrence.

M. le président Arthur Delaporte. Je ne vous interroge pas sur les suppressions de comptes. Je souligne qu’une part non négligeable, voire massive, de jeunes ont plus de 18 ans selon votre plateforme alors qu’ils sont mineurs dans le monde réel. Or vous allez les cibler algorithmiquement et capter leurs préférences. Reconnaissez-vous que c’est possible ?

M. Arnaud Cabanis. Je pense que c’est possible. On voit tout le rôle qui incombe à nos équipes de modération et à nos systèmes – j’en ai évoqué plusieurs –, que nous faisons évoluer. En tout cas, je n’ai pas connaissance du chiffre que vous venez de citer.

M. le président Arthur Delaporte. Il est donc possible que des mineurs soient profilés, d’une certaine manière.

M. Arnaud Cabanis. Techniquement, c’est possible.

M. le président Arthur Delaporte. Je vous remercie d’avoir participé à nos échanges. Vous aurez noté toutes les questions qui restent en suspens. Vous voudrez bien nous transmettre les informations complémentaires que nous vous avons demandées ou que vous jugerez utile de porter à la connaissance de notre commission.

 

Enfn, la commission auditionne conjointement Mme Nicky Soo, responsable de la digitale sati, Mme Brie Pegum, responsable des aspects techniques de la régulation, et M. Vincent MogniatDuclos, responsable France - Tiktok Live sur la modération TikTok.

M. le président Arthur Delaporte. Nous reprenons nos travaux avec une audition commune des responsables de la modération de TikTok. Mmes Nicky Soo et Brie Pegum sont venues d’Irlande. Elles s’exprimeront en anglais et leurs réponses feront l’objet d’une interprétation simultanée. M. Vincent Mogniat-Duclos, responsable France de TikTok Live, est présent en visioconférence.

Je vous remercie d’avoir répondu à notre convocation et je vous demanderai de déclarer, au début de vos interventions, tout intérêt public ou privé qui serait de nature à influencer vos déclarations. En l’occurrence, je vous demanderai de nous confirmer que vous êtes salariés de TikTok.

Auparavant, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité et rien que la vérité.

(Mme Brie Pegum, Mme Nicky Soo et M. Vincent Mogniat-Duclos prêtent successivement serment.)

Mme Nicky Soo, responsable de la digital safety. Merci de nous avoir invités. Nous sommes ravis d’avoir cette possibilité d’échanger avec vous. Je suis responsable de la politique de sécurité et de bien-être au sein de la division des affaires publiques de TikTok pour l’Europe, basée à Londres. Je dirige des programmes relatifs à différentes questions de sécurité pour notre industrie comme le harcèlement en ligne, la haine en ligne et le bien-être.

Avant de rejoindre TikTok, j’ai été universitaire pendant plus de dix ans. Dans ce cadre, j’ai étudié les effets des outils numériques sur les médias, la culture et la société. J’ai un doctorat en sciences politiques et j’ai travaillé sur le développement des technologies dans les universités de Sheffield, Manchester et Cardiff.

Notre engagement le plus important, chez TikTok, est de créer un environnement accueillant et sûr pour les utilisateurs. Pour créer une expérience sûre et divertissante, nous avons instauré des lignes directrices qui s’appliquent à l’ensemble des utilisateurs et des contenus de notre plateforme. Elles comprennent des règles relatives à ce qui est autorisé sur TikTok, ainsi que les normes à respecter pour être éligible à la recommandation et au fil « Pour toi ».

Ces lignes directrices sont mises à jour en continu pour s’adapter aux nouveaux risques. Nos experts internes en matière de sécurité travaillent en collaboration étroite avec ceux du secteur ainsi qu’avec des organisations non gouvernementales, des représentants de cette industrie et des associations à travers le monde, pour tenir notre engagement de créer une plateforme sûre pour notre communauté.

Pour assurer la sûreté de la plateforme, nous devons trouver un équilibre entre l’expression créative et la protection contre les dangers. Nous utilisons pour cela une combinaison d’approches : nous supprimons les contenus qui ne sont pas autorisés par nos lignes directrices ; nous restreignons l’accès aux contenus qui ne sont pas adaptés aux 13‑17 ans ; nous bloquons les contenus qui ne suivent pas les standards recommandés pour accéder au fil « Pour toi » ; nous mettons à la disposition de notre communauté des informations, des outils et des ressources.

Les contenus ou les comptes qui enfreignent nos règles sont supprimés avant d’être visionnés ou partagés. Les contenus sont soumis à un processus d’examen automatisé. Si un contenu est suspecté de violer nos règles, il est automatiquement supprimé ou signalé pour faire l’objet d’un examen supplémentaire par nos modérateurs. Comme l’indique notre rapport sur l’application des règles de la communauté, cela nous permet de supprimer de façon proactive 98,8 % des contenus non conformes.

Nous comptons 509 modérateurs francophones, ainsi que le précise notre dernier rapport de transparence sur la modération de contenu en Europe en application du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services act (DSA).

Nous effectuons également des examens complémentaires sur les contenus qui gagnent en popularité ou qui ont été signalés.

TikTok travaille par ailleurs avec les signaleurs de confiance désignés par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), notamment e-Enfance, Point de contact et Addictions France, ainsi qu’avec des signaleurs prioritaires ayant accès à notre plateforme de signalement, la TikTok Safety Enforcement Tool (TSET), comme l’Union des métiers de l’influence et des créateurs de contenus (Umicc) et Stop Fisha.

Nous publions des rapports de transparence trimestriels pour rendre plus visible la façon dont nous appliquons les règles de la communauté. Nous sommes la première plateforme à avoir communiqué publiquement le nombre de comptes de moins de 13 ans ayant été interdits.

Outre ces rapports de transparence, nous publions de façon proactive des rapports relatifs aux demandes de retrait par le Gouvernement, aux demandes d’information, aux demandes de suppression au titre de la propriété intellectuelle, à la lutte contre les opérations d’influence et à la lutte contre les abus sexuels sur mineurs.

Comme je l’ai indiqué, nous publions également des rapports de transparence dans le cadre du DSA ainsi que du code européen de bonnes pratiques contre la désinformation.

Mme Brie Pegum, responsable des aspects techniques de la régulation. Je suis à la tête de la division chargée des programmes de gestion des risques et de la régulation au siège social de TikTok à Dublin, où se trouve également notre centre transparence et responsabilité. Mon équipe dirige les opérations stratégiques de sûreté et de sécurité. Dans ce cadre, nous assurons la gestion des risques opérationnels et liés à la plateforme ainsi que la mise en œuvre de la réglementation, notamment du DSA. Nous publions des rapports de transparence et ouvrons l’accès aux données pour les chercheurs. Cela nous permet d’être transparents quant à notre gestion des risques sur la plateforme et de montrer que nous sommes en conformité avec le DSA.

Il est de la responsabilité de TikTok de s’engager à construire une plateforme sûre et digne de confiance, pour protéger nos utilisateurs.

J’ai rejoint TikTok en mars 2023 comme responsable de la transparence et de l’authenticité des produits. Mon rôle consistait à m’assurer que le contenu était authentique, transparent et non manipulé. C’est dans ce cadre que j’ai représenté TikTok auprès du Parlement européen en décembre 2024, pour répondre à ses questions relatives à la désinformation sur la plateforme.

M. Vincent Mogniat-Duclos, responsable France  TikTok Live. Je vous remercie de m’avoir accordé la possibilité de me joindre à cette audition en visioconférence. J’occupe depuis avril 2024 le poste de responsable des opérations de TikTok Live pour la France et la Belgique, au sein d’une équipe basée à Paris.

TikTok Live est le produit de diffusion en direct de TikTok, communément appelé live streaming, qui permet aux créateurs d’échanger en direct avec leur communauté. Sur TikTok Live, les créateurs font preuve de beaucoup de créativité. Nous hébergeons ainsi sur la plateforme des lives de discussion générale, des lives portant sur les sciences, les technologies, l’ingénierie et les mathématiques (Stem), mais aussi des lives de cuisine, de musique, d’information, de jeux vidéo et bien d’autres. Pour certains créateurs, le live est aussi devenu une opportunité économique.

J’ai rejoint TikTok depuis un peu plus d’un an. Mon équipe et moi-même avons pour mission d’inciter de nouveaux utilisateurs à découvrir TikTok Live et ses fonctionnalités créatives, avec la sécurité comme priorité. Comme vous le savez, les créateurs doivent obligatoirement avoir plus de 18 ans avant de lancer un live, et compter un minimum de followers.

Concrètement, nous développons les relations avec les créateurs en veillant à ce qu’ils disposent des outils et de l’accompagnement nécessaires pour profiter de la plateforme dans les meilleures conditions.

Nous collaborons aussi avec plusieurs centaines d’agences externes spécialisées dans le live streaming. Ce nouvel écosystème permet d’accompagner et de professionnaliser les créateurs, et constitue un relais majeur pour la diffusion des règles de la communauté à respecter sur la plateforme.

Enfin, nous concevons des campagnes et nous collaborons avec des associations caritatives et des institutions culturelles, pour promouvoir des contenus à impact pour la plateforme. Nous avons ainsi collaboré avec le Comité international olympique durant les Jeux olympiques et paralympiques de 2024. Nous avons permis à des créateurs sélectionnés d’assister à certaines épreuves et cérémonies ou de visiter les coulisses et le village olympique. Au total, nous avons créé soixante-cinq heures de live pour mettre en avant les parasports dans le monde. TikTok a également contribué à hauteur de 500 000 dollars au programme de développement du Comité international olympique.

L’an dernier, pour accompagner notre démarche de promotion de l’accès à la culture, nous avons collaboré avec un grand nombre de musées, dont la Bourse de commerce, le musée Carnavalet, le Louvre-Lens et bien d’autres.

Je tenais à citer ces initiatives pour illustrer les collaborations culturelles et caritatives que nous engageons tout au long de l’année.

J’en viens à la modération des contenus, y compris en direct dans TikTok Live. Cette modération est assurée exclusivement par nos équipes Trust and Safety, qui sont en charge de la sécurité et de la sûreté de la plateforme.

Comme Mmes Brie Pegum et Nicky Soo auront l’occasion de l’indiquer, notre préoccupation constante est que TikTok soit un lieu sûr, dans lequel la créativité s’épanouit. C’est pourquoi la sécurité est au cœur de notre démarche, intégrée dès la conception pour que chacun puisse être soi-même, sans crainte. Nous comprenons que le sentiment de sécurité est essentiel pour que les utilisateurs puissent profiter de TikTok et s’exprimer.

Bien que l’exploitation technique de la plateforme et la modération des contenus soient du ressort exclusif de l’équipe Trust and Safety, mon rôle se concentre sur l’accompagnement des créateurs, la collaboration avec les agences externes et les partenariats. Je me tiens à votre disposition pour répondre à toutes vos questions sur ces sujets.

Mme Laure Miller, rapporteure. Cette commission d’enquête est très suivie par le grand public. En effet, qu’ils soient jeunes, parents, professeurs, professionnels de santé ou autre, de nombreux Français s’intéressent aux effets de TikTok sur les mineurs et sont préoccupés par ce sujet. Mes premières questions viseront à comprendre le fonctionnement de vos équipes de modération, avant d’entrer progressivement dans le vif du sujet, en l’occurrence la modération elle-même.

Combien de vidéos chaque modérateur est-il amené à traiter par heure ?

Mme Brie Pegum. Il est essentiel d’appréhender le dispositif de modération de TikTok comme un système global. Il combine des machines et des algorithmes, qui passent en revue autant de contenus que possible de façon automatique, et les équipes de modérateurs.

Nous comptons 509 modérateurs francophones. Je ne sais pas combien de vidéos ils visionnent par heure, car cela dépend du type de contenu. Nous accordons une attention particulière à la détection proactive, pour éviter que les contenus problématiques soient visionnés par quiconque. La modération humaine porte sur les contenus les plus sensibles, donc sur les vidéos dont l’analyse requiert plus de temps. Je ne saurais vous indiquer le temps moyen d’examen des contenus ; il est très variable.

Mme Laure Miller, rapporteure. Comment expliquez-vous la baisse du nombre de modérateurs francophones, que nous avons observée à la lecture de vos rapports ? Pourrez-vous nous fournir ultérieurement, par écrit, le nombre de vidéos visionnées par heure et par modérateur ?

Par ailleurs, que font concrètement les modérateurs physiques, humains, qui interviennent après une forme de modération automatique ? Comment sont-ils formés ?

Mme Brie Pegum. Je serais ravie de vous donner davantage d’informations sur la modération sur TikTok. Je souligne que 100 % du contenu de la plateforme est modéré et que moins de 1 % ne respecte pas nos lignes directrices. Ajoutons que 80 % des contenus qui enfreignent nos règles sont supprimés automatiquement, avant même que le moindre humain n’intervienne. La modération humaine intervient dans un second temps, quand le système automatique ne peut pas se prononcer avec certitude à partir des signaux visuels ou audio analysés. Nous utilisons l’intelligence artificielle (IA) pour accélérer la suppression de contenus problématiques avant que quiconque ne les voie, pour garantir une cohérence et pour avoir le processus le plus objectif possible.

Nos modérateurs suivent une formation poussée relative à nos lignes directrices. Ils font des points hebdomadaires ou mensuels avec l’équipe Policy pour s’assurer de leur bonne interprétation des réglementations locales et de nos règles internes, afin d’identifier les critères de violation des règles avec pertinence.

M. le président Arthur Delaporte. Mme la rapporteure vous a demandé pourquoi le nombre de modérateurs francophones avait baissé. Votre rapport de transparence indique qu’il est passé de 634 au premier semestre 2024 à 509 au second semestre. Y a-t-il toujours 509 modérateurs, ou ce nombre a-t-il évolué depuis la remise de votre dernier rapport de transparence il y a six mois ? Pouvez-vous expliquer cette tendance ?

Par ailleurs, comment les modérateurs sont-ils répartis à l’échelle planétaire, en volume ?

Mme Brie Pegum. J’ai oublié de répondre à votre question sur l’évolution du nombre de modérateurs francophones. La modération des contenus est très dynamique. Elle dépend des variations locales du volume de contenus.

Grâce à d’importants investissements dans l’intelligence artificielle, nous accélérons le processus de détection et de suppression automatique des contenus problématiques, pour empêcher, autant que possible, que quiconque ne les voie. Cela explique que le nombre de modérateurs ait diminué, sans affecter notre capacité à repérer les infractions – sans compter que cela protège nos équipes, en plus de nos utilisateurs, du visionnage de contenus possiblement choquants. Le nombre de modérateurs pour la France est donc appelé à évoluer ; nous détaillerons ces informations dans notre prochain rapport de transparence pour le premier semestre 2025.

M. le président Arthur Delaporte. Comment les modérateurs sont-ils répartis géographiquement ?

Mme Brie Pegum. Nous avons des modérateurs dans le monde entier. Des contenus sont publiés toute la journée, et nous recherchons un équilibre entre la modération automatique, qui concerne globalement 80 % des contenus, et la modération humaine.

M. le président Arthur Delaporte. Dans combien de site travaillent les 509 modérateurs francophones ?

Mme Brie Pegum. Nous faisons intervenir des modérateurs internes et des modérateurs externes – nous avons ainsi des partenariats avec Teleperformance au Portugal, Majorel en Roumanie ou encore Intellias en Bulgarie. Je n’ai pas ici le ratio entre les modérateurs internes et externes, mais l’objectif est de couvrir les différents fuseaux horaires européens, tout en ayant des modérateurs dans d’autres parties du monde.

M. le président Arthur Delaporte. Les 509 modérateurs francophones couvrent-ils aussi les contenus publiés en Afrique francophone, ou seulement ceux produits en France ?

Mme Brie Pegum. Les 509 modérateurs francophones dont il est fait mention dans le rapport sur l’application du DSA couvrent l’Europe. Le monde francophone étant toutefois plus vaste, d’autres modérateurs qui parlent la langue couvrent le reste du monde.

Mme Laure Miller, rapporteure. Pourrez-vous nous transmettre la répartition entre les modérateurs internes et les modérateurs sous-traitants ?

Quelle formation les modérateurs reçoivent-ils lorsqu’ils sont embauchés ? Sont-ils suivis psychologiquement, dans la mesure où ils voient du contenu problématique toute la journée ? Si vous n’avez pas la réponse, pourrez-vous nous préciser ultérieurement le nombre de vidéos qu’ils sont appelés à voir ? Certains journalistes l’estiment à une centaine par heure. Ce chiffre est-il proche de la réalité ?

Mme Brie Pegum. Le bien-être des modérateurs est pour nous une préoccupation essentielle. Nous leur apportons le soutien dont ils ont besoin. Nous nous assurons qu’ils ne soient pas constamment sur écran, qu’ils aient du temps de repos et qu’ils puissent échanger sur les contenus choquants qu’ils ont pu visionner. Une fois encore, nous voulons éviter autant que possible qu’ils voient de tels contenus, c’est pourquoi nous investissons lourdement dans des solutions techniques en complément de la modération humaine.

Lorsque les modérateurs entrent chez TikTok, ils reçoivent une formation approfondie sur notre politique globale de modération des contenus, mais aussi sur les spécificités de la région qu’ils couvrent, afin qu’ils soient au fait de certaines nuances culturelles et des réglementations locales. Cette formation initiale est complétée à un rythme hebdomadaire ou mensuel par l’envoi de directives complémentaires et par une sensibilisation à des tendances émergentes observées sur certains marchés. Les modérateurs peuvent demander des précisions à nos experts sur l’interprétation opérationnelle des lignes directrices, et partager ces informations au sein de leur équipe. Sachant que la plateforme et les contenus évoluent constamment, il est important qu’ils puissent se référer à une ligne directrice. Nous leur apportons un important accompagnement et multiplions les échanges avec cette équipe.

Mme Laure Miller, rapporteure. Vous arrive-t-il de rencontrer les modérateurs, et avez-vous parfois des liens directs avec eux ? Avez-vous visité un site de modération ?

Mme Brie Pegum. Oui. J’ai observé l’activité en immersion dans différents sites de modération, notamment en Allemagne et au Maroc – nous avons de tels sites partout dans le monde. Il est essentiel que les équipes Trust and Safety – ce sont elles qui sont autorisées à interagir avec les modérateurs, tant les sujets sont sensibles – aient une compréhension directe et concrète de cette activité, afin que nous puissions améliorer les outils et les directives. Cela représente une part importante du processus. Nos lignes directrices reposent largement sur l’expérience et sur le vécu de nos personnels.

Mme Laure Miller, rapporteure. Il sera intéressant et utile de recevoir vos réponses écrites concernant la part de modérateurs sous-traitants et la part de la modération humaine comparée à la modération automatique. En effet, certains contenus peuvent être trouvés sur la plateforme grâce à des parades, notamment des hashtags. La part de la modération humaine est sans doute essentielle pour les modérer et les supprimer. Aussi avons-nous besoin de savoir quelle place vous accordez à la modération humaine, et comment sont formés les modérateurs. Y a-t-il un temps obligatoire de formation par mois, par exemple ?

Par ailleurs, comment en arrive-t-on à supprimer un contenu ? Doit-il avoir été signalé plusieurs fois par un nombre élevé d’utilisateurs de la plateforme pour être potentiellement supprimé si vous le jugez contraire à vos règles internes ? Un flou subsiste en la matière. Faut-il plusieurs interventions de votre part avant qu’un compte soit banni ? Pouvez-vous nous donner plus de détails quant aux règles de modération et, le cas échéant, de bannissement ?

Mme Brie Pegum. Comme je l’ai précisé, la modération des contenus est un système global. Il est essentiel de prévoir de multiples couches pour atteindre un degré de sécurité maximal. Ainsi, 100 % du contenu est modéré, et moins de 1 % est considéré comme non conforme.

Dès qu’un contenu est posté, il fait l’objet de multiples contrôles qui se fondent notamment sur les violations rencontrées dans le passé. Il est traité par des centaines de modèles d’analyse qui déterminent s’il remplit les critères de confiance ou s’il doit être automatiquement supprimé, afin que personne ne puisse le voir sur la plateforme.

Parmi les contenus identifiés comme problématiques, 80 % sont automatiquement supprimés et 20 % sont examinés par des modérateurs ; s’il s’avère qu’ils enfreignent les lignes directrices, ils sont retirés. Les contenus jugés conformes et mis en ligne continuent d’être suivis : s’ils présentent un problème, nous pouvons en être alertés par des signaleurs de confiance ou par des utilisateurs ; un mécanisme de rappel peut aussi les soumettre à une nouvelle modération humaine. Quand un contenu gagne de plus en plus de vues, par exemple, il est renvoyé vers l’équipe de modération pour un nouvel examen. Nous suivons donc une procédure très solide, jalonnée par de nombreuses barrières, pour nous assurer que la plateforme reste sûre. Nous écoutons les retours de la communauté pour juger si notre interprétation est en adéquation avec la sienne – il est important de bien le calibrer. Il peut aussi être très utile de consulter des experts.

Mme Laure Miller, rapporteure. Même si la proportion de contenus problématiques est faible, l’algorithme est susceptible de les mettre en valeur davantage que les autres.

Vous qualifiez votre processus de solide. Or l’une de nos ministres a dénoncé la tendance SkinnyTok et il a fallu attendre plusieurs jours pour que de nombreux contenus concernés soient supprimés. Pourtant, plusieurs hashtags continuent à renvoyer vers ces contenus, encore très présents sur la plateforme. Comment expliquez-vous cette faille ? Comment un processus que vous décrivez comme solide peut-il laisser passer de très nombreux contenus relatifs à SkinnyTok ? Plusieurs hashtags commençant par #Skinny auraient pu vous permettre de retirer ces contenus de façon automatique ou avec l’intervention de modérateurs.

Mme Brie Pegum. Comme je l’ai indiqué, 1 % des contenus postés initialement sur la plateforme, avant modération automatique et humaine et potentielle suppression, enfreignent les règles. Il arrive malheureusement que certains passent entre les mailles du filet ; c’est alors qu’interviennent les mécanismes de rappel que j’ai décrits, qui nous permettent d’identifier une violation qui nous aurait d’abord échappé.

Concernant le #SkinnyTok, j’aimerais éclaircir la façon dont nous surveillons les contenus en potentielle infraction avec nos règles. Ainsi, quand nous trouvons des contenus qui prônent des troubles de l’alimentation, nous les retirons, car ils ne sont pas autorisés.

En janvier, lorsque la tendance SkinnyTok est apparue sur notre plateforme, notre équipe a commencé à surveiller les contenus correspondants. En l’occurrence, leur volume et leur taux de non-conformité étaient faibles. Ils n’enfreignaient donc pas nos règles. Au départ, cette tendance visait à encourager l’alimentation saine ; des utilisateurs y racontaient comment ils s’étaient sortis de leurs troubles alimentaires. De nombreuses communautés se forment en effet sur TikTok autour de contenus relatifs à la guérison.

En mars et avril, le nombre de contenus a pris de l’ampleur et il s’est avéré qu’une communauté se constituait autour de pratiques alimentaires délétères. Alors que nous ne supprimions au départ que les contenus qui valorisaient les troubles alimentaires, nous avons ajouté des barrières plus strictes tout au long de la chaîne. Nous avons fini par bloquer le #SkinnyTok en mai, afin que les nouvelles vidéos ne puissent pas l’utiliser. Cela a évité à plus de 90 000 contenus d’apparaître chaque jour sur le fil des utilisateurs français. Nous avons aussi diffusé des messages d’intérêt public pour informer les utilisateurs qui renseignaient ce hashtag qu’ils seraient mis en relation avec un organisme partenaire.

Nous avons donc multiplié les vérifications au fil du temps, avec le souci d’adopter une approche équilibrée et proportionnée. Cette tendance qui, au départ, n’enfreignait pas nos règles a pris une forme indésirable pour notre plateforme et pour nos utilisateurs. Cependant, nous voulons aussi nous assurer que nos utilisateurs disposent d’un espace où partager leurs expériences, trouver du soutien et accéder aux ressources dont ils ont besoin. Les experts extérieurs avec lesquels nous travaillons sur les questions de bien-être ont insisté sur l’utilité d’un tel espace d’expression. Notez que les moins de 18 ans ne peuvent pas interagir avec le contenu problématique. Nous avons donc pris ce problème très au sérieux.

M. le président Arthur Delaporte. Pourquoi avoir attendu d’échanger avec la ministre Clara Chappaz pour désactiver l’accès à la tendance SkinnyTok ?

Mme Brie Pegum. Nous avons accueilli la ministre Clara Chappaz à notre siège, à Dublin, où elle a visité notre centre transparence et responsabilité. Elle nous a fait part de ses préoccupations, et nous lui avons expliqué le travail que nous effectuions à cette époque, qui a conduit à la suppression du #SkinnyTok. Nous attendions alors les avis d’experts externes pour questionner notre propre perception du sujet. Nous voulions aussi avoir la confirmation que les contenus avaient évolué vers la promotion des troubles alimentaires.

M. le président Arthur Delaporte. Dès 2023, des rapports d’experts, notamment britanniques, pointaient les excès de la tendance Skinny. En avez-vous eu connaissance ?

Mme Brie Pegum. Je ne connais pas l’historique de cette tendance, car cela ne relève pas de mon rôle. Je sais toutefois que nos équipes observent la façon dont les tendances évoluent. Nous supprimons les contenus qui violent nos règles au sein de tendances non problématiques, mais c’est une mesure très sévère que de bloquer complètement une conversation dont les contenus sont majoritairement positifs – en l’occurrence, quand ils encouragent un mode de vie sain. Notre approche doit être équilibrée et préserver un espace d’expression. Quand nous constatons qu’une majorité des contenus et des conversations basculent du mauvais côté, nous pouvons prendre des mesures plus strictes comme bloquer un hashtag.

M. le président Arthur Delaporte. Les jeunes et les parents que nous avons auditionnés ont signalé que ces contenus problématiques existaient bien avant d’être médiatisés comme relevant de la tendance SkinnyTok. Cela fait des années que des contenus incitant à la maigreur excessive sont présents sur les réseaux sociaux, en particulier sur TikTok. N’avez-vous eu connaissance de la présence de ces vidéos incitant à l’anorexie qu’il y a un mois et demi ?

Mme Brie Pegum. Comme je l’ai dit, parler des troubles alimentaires pour les encourager constitue une violation de notre politique. Nous supprimons donc les contenus correspondants. En revanche, si les utilisateurs veulent discuter de leur expérience en la matière, ils peuvent le faire sur la plateforme à condition d’avoir plus de 18 ans. Telle a toujours été notre politique.

Nous suivons les tendances et, par le passé, il nous est déjà arrivé de bloquer des hashtags – je pense à la tendance pro-ana qui encourageait la formation de communautés ayant une attitude malsaine vis-à-vis de l’alimentation. Ce n’est que ces dernières semaines qu’il est apparu que le #SkinnyTok prenait une orientation similaire. Ce n’était pas le cas auparavant, comme l’ont montré nos recherches.

Mme Laure Miller, rapporteure. Vous présentez régulièrement TikTok comme un espace sûr et sécurisé, ce qui devrait vous conduire à appliquer un principe de précaution – en tout cas, c’est ainsi que je l’entends. Pouvez-vous affirmer qu’il n’existe plus de contenus relevant de la tendance SkinnyTok sur votre plateforme ? S’il en existe encore, pourquoi ?

Mme Nicky Soo. Il me semble intéressant de revenir sur la manière dont le contenu est recommandé et sur le fonctionnement du fil « Pour toi », qui reflète les préférences des utilisateurs. Nous nous fondons sur différents critères pour catégoriser les vidéos, comprendre qui est intéressé par quoi et les recommander. Lesquelles regardez-vous jusqu’au bout ? Lesquelles likez-vous ou partagez-vous ? Quels comptes suivez-vous ? Quels types de musiques utilisent les vidéos que vous aimez ? Quelle langue emploient-elles ?

Par exemple, le fait qu’un utilisateur visionne une vidéo jusqu’à la fin est un bon indicateur d’intérêt. En revanche, le fait qu’il visionne une vidéo diffusée dans la même langue que la sienne est un indicateur plutôt faible.

C’est sur ces bases que notre système de recommandation fonctionne, mais il a aussi été construit dès le départ autour de barrières de sécurité. Les règles et les procédures que Mme Brie Pegum a décrites atténuent le risque que le système de recommandation amplifie des contenus illégaux ou délétères. Pour pouvoir être recommandés, les contenus doivent remplir des standards d’éligibilité. Quand une tendance émerge, nous ne recommandons pas le contenu correspondant sans avoir procédé à des vérifications. En outre, le fil « Pour toi » contient des barrières liées à l’âge. Nos lignes directrices définissent ce qu’il est interdit de proposer sur le fil « Pour toi » des 13-17 ans : contenus destinés aux adultes ou pouvant choquer, liés notamment aux jeux vidéo.

Lorsque des contenus deviennent rapidement populaires, nous appliquons des mécanismes supplémentaires permettant de nous assurer qu’ils sont à nouveau vérifiés.

Mme Laure Miller, rapporteure. Ma question était simple : existe-t-il encore du contenu SkinnyTok sur TikTok et, le cas échéant, comment l’expliquez-vous ? Est-ce une anomalie ?

Plus largement, considérez-vous que le DSA vous confère une obligation de moyens ou une obligation de résultat ? Si c’est une obligation de résultat, elle n’est pas remplie.

Mme Brie Pegum. On trouve encore des contenus #SkinnyTok sur la plateforme dans la mesure où ils ne violent pas les règles de la communauté mais évoquent la guérison des troubles alimentaires et valorisent une alimentation saine. De plus, le système de recommandation fait en sorte qu’un utilisateur qui emploierait le hashtag #SkinnyTok se voie proposer un petit nombre de contenus correspondants. Cela permet de réduire l’exposition à ces vidéos.

Malheureusement, il arrive toujours que des contenus non conformes passent entre les mailles du filet. Nous renforçons toujours plus les contrôles proactifs et sommes attentifs aux retours des communautés avec lesquelles nous travaillons pour en capter le plus possible.

Mme Laure Miller, rapporteure. Je viens d’aller sur TikTok, où je constate que le hashtag #FearFood, qui est assez évocateur – il ne prône pas une alimentation saine, mais le fait de ne plus se nourrir –, conduit vers le compte d’une jeune fille qui explique qu’elle ne mange quasiment plus, ou uniquement de la salade. Des contenus problématiques existent toujours. Vous ne remplissez donc pas votre obligation de résultat.

Mme Brie Pegum. Nous prenons très au sérieux nos obligations au titre du DSA. Nous publions annuellement une évaluation des risques et nous améliorons notre processus en continu.

Bien sûr, nous ferons toujours des erreurs. Mais il faut comprendre que le hashtag #FearFood peut être employé par des utilisateurs qui appréhendent seulement certains types d’aliments. Il ne constitue pas en soi une violation des règles de la communauté, tant que ses contenus ne se concentrent pas sur les troubles alimentaires. Nos équipes suivent attentivement les variations des mots-clés utilisés, ainsi que les variations orthographiques des titres de vidéos, pour identifier les tentatives de contournement. Nos utilisateurs sont très créatifs, y compris dans leur façon de contourner les règles, mais il est de la responsabilité de notre équipe d’anticiper ces contournements et d’effectuer un suivi serré des nouvelles tendances au fur et à mesure qu’elles apparaissent.

M. le président Arthur Delaporte. Sans même contourner les mots-clés, il suffit de taper le hashtag #Skinny pour tomber, dès les premières vidéos, sur des contenus qui ne correspondent pas à ce que vous décrivez. J’invite chacun à prendre son téléphone, à aller sur TikTok et à taper #Skinny pour se rendre compte que parmi les dix premiers résultats, au moins la moitié est problématique. Comment peut-il y avoir une différence aussi flagrante entre votre discours selon lequel la plupart du contenu est positif, et nos expériences dont il ressort que la plupart du contenu est négatif ?

Vous indiquez que lorsqu’une tendance ou une vidéo monte en visibilité, une analyse humaine est effectuée. Quel niveau de visibilité faut-il pour déclencher cette analyse – à partir de combien de vues, par exemple ?

Mme Brie Pegum. Différents jalons sont prévus – je n’ai pas les seuils en tête –pour qu’un contenu qui gagne en visibilité soit régulièrement renvoyé vers les modérateurs humains afin qu’ils procèdent à une vérification complémentaire. Je rappelle aussi que lors de sa publication initiale, ce contenu a déjà été examiné par la modération automatique et humaine. Les utilisateurs peuvent également signaler un contenu, auquel cas notre équipe vérifie s’il respecte nos règles directrices. Ce n’est pas toujours simple, car la violation des règles n’est pas forcément évidente. Le cas échéant, le contenu n’est pas recommandé aux utilisateurs de moins de 18 ans.

Mme Nicky Soo. Nous savons que le système doit sans cesse s’améliorer. Nous utilisons par exemple des modèles de dispersion, notamment pour les contenus qui ont trait aux régimes et à la condition physique, afin qu’ils ne soient pas recommandés de manière trop concentrée. Cela vaut pour les contenus qui ne violent pas les règles de la communauté mais dont nous ne voulons pas que les utilisateurs les reçoivent de façon trop massive.

Mme Laure Miller, rapporteure. Qu’est-ce qui vous pousse à bannir un utilisateur, et après combien d’infractions ou de sanctions internes ?

Mme Brie Pegum. Notre dispositif se fonde sur la modération des contenus au cas par cas. Un utilisateur peut commettre des violations plus ou moins graves, de la petite erreur à une infraction plus conséquente – dans ce dernier cas, nous appliquons la règle de la tolérance zéro. Les sanctions dépendent du degré de gravité de la violation, mais au bout d’un moment, si un utilisateur cumule les infractions, nous interdisons son compte.

Notre plateforme est inclusive. Tout le monde est le bienvenu, et nous essayons d’éduquer nos utilisateurs au respect des règles de la communauté. C’est une partie non négligeable de notre travail. Nous constatons d’ailleurs que lorsque nous sensibilisons nos utilisateurs à nos règles, les récidives sont moins fréquentes.

Mme Laure Miller, rapporteure. Y a-t-il une forme de tolérance ? A-t-on le droit de tenir trois, quatre ou cinq fois des propos racistes ou de frapper plusieurs fois sa femme dans une vidéo avant d’être banni ?

Mme Brie Pegum. Nous disposons de tout un éventail de politiques. Nous sommes plus indulgents à l’égard d’infractions considérées comme mineures. Par exemple, il n’est pas autorisé de se montrer en train de fumer une cigarette dans une vidéo. Mais si quelqu’un le fait par inadvertance, sans savoir que c’est interdit, nous lui expliquons pourquoi sa vidéo a été supprimée et lui laissons la possibilité de s’amender. D’autres infractions sont plus graves et ne permettent aucune tolérance. Ainsi, les discours de haine ou les contenus pédopornographiques sont immédiatement interdits. Nous nous efforçons de les détecter de façon proactive afin qu’ils n’atteignent pas la plateforme.

M. le président Arthur Delaporte. Existe-t-il une gradation officielle et publique de ces infractions, qui annoncerait par exemple que l’utilisateur est banni dès le premier contenu haineux ? Combien faut-il avoir commis de violations – par exemple avoir fumé des cigarettes – pour être banni ?

Mme Nicky Soo. Ces données sont publiques. Nous pourrons vous les envoyer.

Mme Brie Pegum. Nous sommes transparents avec les utilisateurs, afin qu’ils comprennent pourquoi leur contenu est supprimé et qu’ils ne reproduisent leurs erreurs. Cette transparence et la possibilité laissée aux utilisateurs de faire appel d’une de nos décisions, qui est aussi une exigence du DSA, sont dans l’intérêt de tout le monde.

Mme Laure Miller, rapporteure. Je comprends que vous ne connaissiez pas la grille des sanctions par cœur, mais auriez-vous des exemples à nous fournir pour que nous puissions nous faire une idée ?

Mme Nicky Soo. La publication d’un seul discours de haine, par exemple, entraîne le bannissement immédiat de la plateforme. En cas d’infraction considérée comme mineure, l’interdiction peut intervenir après deux ou trois publications. Tout dépend aussi du format du contenu – vidéo ou commentaire. Je vous transmettrai cette grille.

M. le président Arthur Delaporte. Vous avez indiqué travailler avec des organisations, dont Stop Fisha et l’Umicc. Lesquelles vous font part de signalements ?

Mme Nicky Soo. Nous travaillons avec e-Enfance pour la sécurité des plus jeunes, Génération numérique pour l’éducation aux médias et Point de contact pour la lutte contre les discours de haine. Ces trois associations, qui sont des signaleurs de confiance, ont accès à un canal dédié : leurs signalements sont transmis directement à l’équipe Trust and Safety et sont traités en priorité. Point de contact a rejoint récemment notre comité européen pour la sécurité, le European Safety Advisory Council, ce qui nous permettra de collaborer plus étroitement et de bénéficier d’une expertise locale.

M. le président Arthur Delaporte. Outre Stop Fisha et l’Umicc, quelles sont les organisations qui ne sont pas des signaleurs de confiance avec lesquelles vous collaborez ?

Mme Nicky Soo. Je vous en transmettrai la liste.

M. le président Arthur Delaporte. Nous avons auditionné Mme Shanley Clemot McLaren, de l’association Stop Fisha. Elle a indiqué qu’il lui était arrivé de signaler des « chiffres qui font référence à l’Holocauste ou à des codes antisémites » et que « les retours qu’elle a reçus indiquaient qu’ils ne contrevenaient pas aux règles d’utilisation de TikTok ».

Confirmez-vous que les chiffres qui font référence à l’Holocauste ou à des codes antisémites ne contreviennent pas aux règles d’utilisation de TikTok ?

Mme Brie Pegum. Les symboles antisémites ne sont pas tolérés, car l’antisémitisme est interdit sur la plateforme. Nous faisons de notre mieux pour l’expliquer à nos modérateurs. Notre algorithme est capable de détecter des symboles et des éléments visuels qui font référence à l’Holocauste, lesquels ne sont pas autorisés sur la plateforme.

M. le président Arthur Delaporte. Le cas que j’évoquais est donc une erreur de modération ?

Mme Brie Pegum. J’ai l’impression, en effet.

M. le président Arthur Delaporte. La personne qui relate ces cas collabore avec vous. Elle est sérieuse. On ne peut donc pas remettre en cause sa capacité à identifier ces signes.

Elle nous a également indiqué que lorsqu’elle signale des contenus en tant que simple utilisatrice, ceux-ci ne sont pas supprimés. En revanche, quand elle les signale au nom de son organisation, ces contenus sont supprimés dans la plupart des cas. Comment expliquez-vous cette différence de traitement ? Ne décourage-t-elle pas les utilisateurs qui ne sont pas des organisations identifiées à signaler des contenus ?

Mme Brie Pegum. Comme l’a dit Mme Nicky Soo, nous répondons en priorité à nos signaleurs de confiance, dont les signalements sont directement envoyés à une équipe de modérateurs spécialisés. Cela étant, nous invitons tous nos utilisateurs à signaler des contenus problématiques. C’est un canal supplémentaire. Toutes les voies de signalement comptent.

M. le président Arthur Delaporte. Comment expliquez-vous cette différence, qui n’est pas seulement une question de priorité de traitement, mais aussi de nature de réponse ?

Mme Nicky Soo. Ce qui est très précieux, avec les signaleurs de confiance, est qu’ils ont l’expertise nécessaire pour nous aider à comprendre qu’un contenu viole véritablement les règles de la communauté. C’est la raison pour laquelle le traitement de leurs signalements est prioritaire : s’ils font un signalement, la violation des règles est très certainement avérée. Nous pouvons alors supprimer rapidement les contenus signalés. Je ne dis pas que nous accordons un moindre intérêt aux signalements effectués par les autres utilisateurs, mais vu le volume de contenus, accorder la priorité aux signalements les plus fiables permet de systématiser le traitement des contenus problématiques.

M. le président Arthur Delaporte. Comment expliquez-vous que quand la même personne fait deux fois le même signalement, le contenu soit considéré comme violant les règles dans un cas et pas dans l’autre ?

Mme Nicky Soo. Sans élément plus précis, j’aurai du mal à vous répondre.

Ce que je peux vous dire, c’est que lorsque nous prenons une décision de modération, nous la renseignons dans le modèle de modération automatique pour détecter des violations similaires par la suite. Cela nourrit le catalogue de signaux problématiques.

Cependant, les utilisateurs peuvent contourner ces barrières en apportant de légères modifications qui éviteront à leur contenu d’être détecté par l’outil de modération. Nous avons une marge d’amélioration dans ce domaine, nous en avons pleinement conscience.

Mme Laure Miller, rapporteure. Compte tenu du nombre de contenus diffusés chaque minute, nous pouvons entendre que la modération soit complexe. Pour autant, il arrive que des personnalités suivies par de nombreux utilisateurs, dont les comptes sont connus de tous, publient régulièrement des contenus problématiques. Nous avons reçu l’une d’entre elles mardi – je ne vais pas refaire sa publicité en la nommant. Vous dites que les discours de haine sont systématiquement bannis. Pourtant, les discours sexistes de cet influenceur pourraient être considérés par tous comme des discours de haine. Il dit qu’il faut « donner des gifles » et « punir sa femme », en employant des termes extrêmement dégradants. Son compte n’est pas marginal, il est suivi par des millions de personnes. Comment expliquer que des comptes connus de tous ne soient pas modérés, voire bannis comme ils devraient l’être de toute évidence ?

Par ailleurs, alors même que nous ne sommes pas spécialistes de TikTok, nous avons connaissance des moyens de contournement utilisés par les jeunes. Renseigner un émoji de zèbre dans le moteur de recherche, par exemple, permet d’accéder à des contenus relatifs à la scarification. Nous le savons depuis plusieurs semaines. Pourquoi n’êtes-vous pas plus réactifs pour supprimer ces contenus, lorsque vous avez connaissance de moyens de contournement utilisés massivement par les jeunes ?

Mme Brie Pegum. Nous voulons que les créateurs de contenu respectent les règles de la communauté et nous nous efforçons de les leur expliquer clairement. Nous ne tolérons pas les discours de haine sur la plateforme, et des mécanismes sont en place pour les détecter autant que possible. Toutefois, il est parfois difficile d’avoir une vue d’ensemble pour identifier qu’un compte ne respecte pas les règles ; c’est particulièrement vrai quand il s’attache à frôler les limites des règles de la communauté. Nos mécanismes s’y emploient néanmoins. Une fois encore, la modération s’effectue contenu par contenu.

M. le président Arthur Delaporte. « Le jour où vous abandonnez l’égalité, on en discutera. Par contre, tant que vous allez nous parler d’égalité, nous faire chier avec ça, tu mets une gifle. » Ces propos, tenus dans une vidéo, sont-ils acceptables ?

Mme Laure Miller, rapporteure. Pour vous, ce contenu est-il à la frontière de l’acceptable ou estimez-vous, comme c’est notre cas, qu’il aurait fallu le bannir ?

Mme Brie Pegum. Je ne connais pas ce contenu en particulier et je ne peux pas me prononcer sans connaître le contexte. Nous tenons à ce que notre plateforme permette aux utilisateurs d’échanger leurs points de vue, sachant que les contre-discours, les éléments d’information et les apports journalistiques y occupent une grande place. Il est indispensable de connaître le contexte pour se prononcer.

M. le président Arthur Delaporte. Ce sont les propos d’un influenceur qui donne des conseils et vend par ailleurs des formations. Il dit dans une vidéo : « Si ta femme s’habille comme une pute, c’est une pute. Si elle ne veut pas donner son téléphone, c’est une pute. » Ce type de propos est-il contraire aux règles de la plateforme ?

Mme Nicky Soo. Nous ne pouvons pas commenter ces propos sans avoir vu la vidéo dans sa totalité. Pouvez-vous nous l’envoyer ? Nous vous apporterons alors une réponse détaillée. De façon générale, comme l’a rappelé ma collègue, nous sommes preneurs des retours et menons des investigations en conséquence.

Mme Laure Miller, rapporteure. Ces contenus proviennent d’un compte qui a été signalé il y a plusieurs jours par la ministre Aurore Bergé. Votre absence de réaction nous conduit à nous interroger. En dix jours, TikTok aurait pu se pencher sur ces contenus et, si la modération avait considéré qu’ils contrevenaient aux règles d’utilisation de la plateforme, les supprimer. Cet exemple nous permet d’affirmer que ce que vous nous exposez est en complet décalage avec la réalité.

Considérez-vous normal qu’il faille qu’une ministre intervienne pour que des comptes de toute évidence problématiques, suivis par des millions de personnes, soient bannis ? Celui d’AD Laurent l’a été, mais celui que nous venons d’évoquer ne l’est toujours pas. Or la façon dont il parle des femmes est inadmissible dans notre pays. N’avez-vous pas une cellule de veille spécifique pour les comptes les plus suivis ?

M. le président Arthur Delaporte. Vous êtes accompagnées de votre conseil, et Mme Masure, que nous auditionnerons après vous, suit probablement cette audition. Aussi me permettrai-je de vous demander de nous apporter des réponses cet après-midi concernant les contenus et les comptes d’influenceurs que Mme Bergé a signalés, en particulier les propos précis que je viens de citer. Cela vous laisse plusieurs heures pour les analyser et essayer de nous expliquer pourquoi ils sont toujours en ligne malgré un signalement des plus hautes autorités de l’État.

Ces contenus, qui nient l’égalité entre les hommes et les femmes, sont contraires aux conditions générales d’utilisation de la plateforme selon lesquelles ne doit pas être publié tout contenu « qui contient une menace de quelque nature que ce soit […], qui contient ou promeut la violence ou la discrimination fondée sur la race, l’origine ethnique, la nationalité, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre, la maladie grave, le handicap […] ».

Si un compte promeut ce type de discours, est-il immédiatement banni ou fait-il l’objet d’un avertissement ? Il s’agit d’une question générale, qui ne concerne pas seulement le cas spécifique que j’ai cité.

Mme Nicky Soo. Nous ne manquerons pas d’analyser ce cas et nous vous fournirons une réponse. De façon générale, nous ne tolérons pas de tels propos.

M. le président Arthur Delaporte. Nous en venons aux questions des députés relatives à la modération des contenus, avant de passer à la thématique des lives.

Mme Sophie Taillé-Polian (EcoS). En vous écoutant, nous sommes frappés par une forme de paradoxe. Vous affirmez que vous œuvrez au quotidien pour faire de TikTok un lieu sûr, dans lequel la créativité s’épanouit. Or dans notre pays, le ressenti général est que TikTok n’est pas un lieu sûr dans lequel la créativité s’épanouit, mais potentiellement un lieu dangereux, en particulier pour les mineurs.

Ma question concerne les recommandations. Certains contenus contreviennent totalement et délibérément aux règles. Vous avez expliqué votre politique en la matière, avec les failles qu’ont mises en avant le président et la rapporteure.

Une exposition même unique à un contenu peut constituer un risque. En l’occurrence, une vidéo contenant des propos comme ceux qui ont été cités doit immédiatement être retirée. Une autre forme de risque pour la santé psychique tient à l’exposition régulière d’adolescents à des contenus qui traitent de sujets qui les fragilise. Comment faire pour que ces adolescents ne soient pas cloisonnés par un algorithme de recommandation qui leur propose des contenus toujours identiques, dans une vision du monde problématique pour leur santé ? Ces contenus ne contreviennent pas nécessairement aux règles, mais ils baignent les utilisateurs dans un environnement de violence ou de sexisme et leur font énormément de mal du fait d’une exposition massive, renouvelée et régulière liée à l’algorithme de recommandation.

Mme Nicky Soo. La sécurité est au cœur de notre système de recommandation, en particulier s’agissant des jeunes. Comme je l’ai déjà indiqué, certains contenus ne sont pas éligibles au dispositif de recommandation pour les jeunes.

Vous avez mentionné la santé mentale liée à l’exposition répétée à certains contenus. Nous traitons ce risque par des techniques de dispersion, alimentées par des modèles d’apprentissage automatique, de sorte que le fil « Pour toi » ne recommande pas en série des vidéos similaires qui, sans violer les règles de la communauté, peuvent avoir un impact sur le bien-être si elles sont visionnées de façon répétée.

Nous offrons aussi la possibilité aux utilisateurs d’influencer la recommandation. Ils peuvent ainsi renseigner les hashtags ou les mots-clés correspondant à des contenus qui ne les intéressent pas ou qu’ils n’aiment pas. Les parents peuvent aussi s’assurer que les contenus qui ne sont pas bons pour leurs enfants ne soient pas visibles.

En application du DSA, nous proposons désormais un fil non personnalisé. Les utilisateurs européens peuvent ainsi désactiver la fonction de recommandation personnalisée –la procédure est très facile – et découvrir les contenus qui sont les plus populaires sur la plateforme.

Nous avons lancé l’année dernière le fil Stem, consacré à des sujets scientifiques, qui mobilise une communauté formidable et rencontre un grand succès en Europe. Il est activé par défaut pour les jeunes utilisateurs. En France, plus de trente créateurs en font partie, dont Le Monde, et 27 % des adolescents le consultent une fois par semaine. Outre nos efforts pour rendre la recommandation plus sûre, nous diversifions donc les contenus proposés pour que les jeunes puissent découvrir et apprendre de nouvelles choses.

Mme Claire Marais-Beuil (RN). Certains défis et challenges, que l’on trouve à profusion sur TikTok, sont extrêmement dangereux, comme le « paracétamol challenge » ou le « blackout challenge » qui a entraîné entre vingt et quatre-vingts morts.

Outre ces challenges qui font encourir un danger immédiat, il existe des défis plus pernicieux, comme la « zizi dance ». Il a fallu un signalement de la police pour le retirer, d’autant que ces vidéos pouvaient être diffusées par des enfants de 7 à 11 ans – signe que TikTok vérifie très peu l’âge des détenteurs de comptes. C’est dangereux, avec toute la perversion que cela peut nourrir, en l’occurrence la pédocriminalité. Quant au défi « superman dance », il entraîne des risques de chute et de coma.

D’autres tendances sont tout aussi pernicieuses. Nous parlions du hashtag #SkinnyTok, or je viens de voir à l’instant un défi consistant à ne manger que des aliments classés D et E au nutri-score. C’est extrêmement dangereux pour la santé.

Quand vous voyez que le « paracétamol challenge » incite à avaler le plus grand nombre possible de comprimés de paracétamol, pourquoi vous faut-il du temps avant de le retirer de la plateforme ? Pourquoi attendez-vous qu’il y ait des décès ? Il y a quelques jours, une jeune femme est morte pour avoir inhalé un spray antipoussière, pour relever un défi.

Vous comprenez bien que ces challenges sont extrêmement dangereux. Il suffit de les regarder une fois pour le mesurer. Pourquoi attendez-vous si longtemps avant de les bannir et de les retirer ?

Mme Nicky Soo. Nous prenons ces défis et ces challenges très au sérieux ; les règles de la communauté interdisent les actes dangereux et les contenus qui les promeuvent. Nous sommes vraiment volontaristes en la matière, puisque nous retirons de façon proactive 99,5 % des contenus de ce type.

Nos équipes ont effectué des recherches sur le « paracétamol challenge » et n’en ont pas trouvé de preuve sur TikTok. Un rapport indépendant du Washington Post a également montré que certains des défis que vous avez mentionnés avaient été lancés par d’autres plateformes et qu’on ne les trouvait pas sur TikTok.

Quoi qu’il en soit, nous prenons les défis dangereux très au sérieux. Non seulement nous retirons les contenus correspondants, mais nous envoyons également aux utilisateurs qui font des recherches à leur sujet des messages articulés autour du mot d’ordre « arrête, réfléchis, décide, agis », conçus en collaboration avec le London Safeguarding Children Partnership qui a établi des procédures en matière de protection de l’enfance. Plus largement, nous avons lancé avec cette organisation un projet dans le cadre duquel nous avons sollicité plus de 10 000 jeunes pour qu’ils nous expliquent comment nous pouvons les accompagner et les soutenir.

J’ajoute que les vidéos dans lesquelles un professionnel accomplit un acte périlleux sont accompagnées de la mention « réalisé par un professionnel, à ne pas reproduire chez vous ».

M. le président Arthur Delaporte. Je propose de passer aux questions relatives aux lives. Nous reviendrons éventuellement sur la modération, puisque les deux sujets sont liés.

Mme Laure Miller, rapporteure. Une équipe de modérateurs est-elle consacrée aux lives ? Le cas échéant, combien de modérateurs y sont affectés et quel est le nombre de modérateurs de lives francophones ?

Par ailleurs, comment détectez-vous les contenus inappropriés, dégradants ou dangereux dans les lives ?

M. Vincent Mogniat-Duclos. L’équipe de modération des lives et l’équipe Trust and Safety, qui traitent l’ensemble du contenu sur la plateforme, agissent en totale indépendance. Comme je l’ai précisé dans mon propos liminaire, mon équipe et moi-même sommes là pour accompagner les créateurs. Nous ne pouvons donc pas être à la fois juge et partie. Nous sommes soumis aux règles de la modération de la plateforme et nous ne pouvons pas influer sur les sanctions ou les décisions prises au sujet d’un contenu posté par un utilisateur. Il était important de le préciser.

Je laisse ma collègue répondre à la question concernant l’existence d’équipes dédiées aux lives.

Mme Brie Pegum. Tout le contenu est modéré, quelle que soit sa forme.

Les lives sont difficiles à modérer puisque, par définition, ils sont en direct. Nous leur appliquons des modèles capables de détecter des signaux évoquant de la violence ou des propos contrevenant aux règles de la communauté. Le cas échéant, nous analysons ces contenus en direct, comme nous le faisons pour les vidéos postées sur la plateforme, et interrompons le live s’il enfreint nos règles.

Nous avons également des systèmes de détection précoce de potentielles violations des règles pendant une diffusion en live, et nous essayons de faire des retours aux créateurs pour leur faire comprendre qu’ils sont peut-être en train de diffuser du contenu problématique et pour les encourager à éviter ce genre de comportement. Notre politique de sensibilisation est essentielle pour nous assurer que nos utilisateurs respectent bien les règles de la communauté, en particulier dans un contexte aussi immédiat que la diffusion en direct.

Enfin, si l’on détecte des signaux de menace en direct, en particulier à l’encontre de la vie d’une personne, une équipe spécialisée prévient les autorités de police locales.

Mme Laure Miller, rapporteure. Quels sont les liens entre TikTok et les agences spécialisées dans les lives ? Comment TikTok les rémunère-t-il ? Nous en avons auditionné une, dont le représentant évoquait l’existence d’un score de santé pour ces agences. Pouvez-vous nous en dire plus, et évoquer également les amendes qui peuvent être prononcées ? Comment vous organisez-vous pour sanctionner les agences en fonction de la qualité de leur contenu ? Disposez-vous d’une grille objective ?

M. Vincent Mogniat-Duclos. Je vous remercie d’aborder la question des agences. Ces agences externes spécialisées dans le live streaming, avec lesquelles nous travaillons, sont importantes pour relayer les règles de la plateforme. Elles découvrent, recrutent et accompagnent les talents pour leur permettre de s’améliorer et de se professionnaliser dans le live. Ce faisant, elles nous permettent de toucher un grand nombre de créateurs et de relayer les bonnes pratiques de la plateforme.

Ces agences sont rémunérées par TikTok et peuvent recevoir des pénalités si leurs créateurs ne respectent pas les règles de la plateforme. L’objectif de ces mécanismes est de responsabiliser tout l’écosystème. La personne que vous avez interrogée la semaine dernière indiquait qu’elle veillait à ne pas être pénalisée en accompagnant correctement ses créateurs.

Par ailleurs, vous avez fait référence au score de santé, ou health score. Ce score démarre à 100 points, lorsqu’une agence commence sur la plateforme. L’agence peut perdre des points et recevoir des pénalités, y compris financières, si elle enfreint certaines règles de la communauté.

Mme Laure Miller, rapporteure. Dans ce fabuleux monde des lives, il y a aussi les live matches. Quelle est la moyenne du temps passé sur un live match ? Avez-vous une idée des montants dépensés sur ces contenus ?

M. Vincent Mogniat-Duclos. TikTok Live est une plateforme sur laquelle des dizaines de millions de personnes échangent avec leur communauté et apprécient ces interactions en direct. Cela reste un divertissement de niche. Il est assez impressionnant, et même déroutant, lorsqu’on lance son premier live, de se retrouver face à un écran noir et de simplement voir les commentaires et les réactions de son audience.

Les live matches sont une fonctionnalité créative qui permet de diviser l’écran en autant de parties qu’il y a de créateurs, ceux-ci interagissant simultanément. Un match dure cinq minutes. Les participants gagnent des points en fonction du nombre de « j’aime » ou de cadeaux virtuels offerts par le public. À l’issue des cinq minutes, celui qui a obtenu le plus de points remporte le match. Les créateurs sont libres d’en lancer un nouveau, de changer d’opposant ou de continuer un live hors match.

M. le président Arthur Delaporte. Quelle est la valeur des cadeaux ?

M. Vincent Mogniat-Duclos. Il existe des cadeaux pour tous les budgets. Le premier niveau est une rose virtuelle qui vaut une pièce, soit quelques centimes.

M. le président Arthur Delaporte. Qu’entendez-vous par quelques centimes ?

M. Vincent Mogniat-Duclos. Il me semble qu’une pièce équivaut à cinq centimes. Nous vous le confirmerons par écrit.

M. le président Arthur Delaporte. Quelle est la valeur du cadeau le plus cher ?

M. Vincent Mogniat-Duclos. Je n’ai pas cette information en tête. Certains cadeaux valent plusieurs dizaines ou centaines d’euros.

M. le président Arthur Delaporte. Quel est le montant moyen du cadeau par utilisateur et par match ?

M. Vincent Mogniat-Duclos. Je ne connais pas le montant moyen. Nous pourrons vous le préciser par écrit. Je sais qu’il est très faible, compte tenu de la diversité des cadeaux de quelques centimes disponibles sur la plateforme.

M. le président Arthur Delaporte. Nous attendons vraiment vos réponses. Si nous ne les recevons pas, nous n’hésiterons pas à vous convoquer à nouveau.

M. Vincent Mogniat-Duclos. J’ai pris note de votre question. Je ne veux pas dire de bêtise et je ne connais pas le montant moyen des cadeaux.

M. le président Arthur Delaporte. Je ne sais pas si vous allez de temps en temps sur des lives. Des captures d’écran montrent que les utilisateurs donnent parfois des lions, c’est-à-dire des cadeaux de plusieurs centaines d’euros, à leurs influenceurs préférés. Vous le voyez ?

M. Vincent Mogniat-Duclos. Oui. Je vous ai précisé qu’il y avait des cadeaux d’une valeur de plusieurs centaines d’euros.

M. le président Arthur Delaporte. Quel pourcentage percevez-vous sur ces cadeaux ?

M. Vincent Mogniat-Duclos. Dans un premier temps, les utilisateurs qui souhaitent envoyer des cadeaux rechargent leur portefeuille. Ils font donc une transaction d’achat de pièces. Ces pièces sont ensuite créditées dans leur portefeuille, et ils peuvent décider d’envoyer des cadeaux virtuels lorsqu’ils apprécient des contenus. C’est une marque d’appréciation. Le compte du créateur qui reçoit des cadeaux est alors crédité de diamants, lesquels peuvent être convertis en monnaie, en l’occurrence des euros, qu’ils reçoivent sur leur compte en banque.

M. le président Arthur Delaporte. Quand un utilisateur achète une pièce, prenez-vous une commission ?

M. Vincent Mogniat-Duclos. Nous percevons une commission au moment où le créateur convertit un diamant.

M. le président Arthur Delaporte. À combien de pièces équivaut un diamant ?

M. Vincent Mogniat-Duclos. Une pièce est égale à un diamant.

M. le président Arthur Delaporte. Une pièce et un diamant sont donc la même chose : on parle de pièce pour l’utilisateur qui donne, et de diamant pour le créateur qui reçoit. Quel pourcentage prélevez-vous quand le créateur encaisse ?

M. Vincent Mogniat-Duclos. Nous percevons 50 %.

M. le président Arthur Delaporte. Est-ce le pourcentage exact ?

M. Vincent Mogniat-Duclos. Oui, à ma connaissance.

M. le président Arthur Delaporte. Vous communiquez sur le top de la semaine ou le top France. Combien gagnent les gros créateurs lors des lives, par semaine ?

M. Vincent Mogniat-Duclos. Je n’ai pas d’élément précis par créateur, car c’est très variable. Certains peuvent faire des lives à un moment, puis se déconnecter pendant une période.

M. le président Arthur Delaporte. Quel est le montant moyen gagné par le top 10 en une semaine ?

M. Vincent Mogniat-Duclos. Il m’est difficile de vous répondre, parce que les créateurs peuvent réutiliser – ce qu’ils font souvent – ce qu’ils touchent en diamants pour envoyer des cadeaux virtuels à d’autres créateurs qu’ils apprécient. Tout n’est donc pas nécessairement transféré sur leur compte en banque. Dans tous les cas, mon équipe et moi n’avons pas accès à la donnée relative aux retraits sur les comptes en banque.

M. le président Arthur Delaporte. Peu importe combien ils redonnent à d’autres – à titre de comparaison, un salarié peut reverser une part de sa paie à un tiers, mais ce qui compte est le salaire qu’il reçoit. En l’occurrence, combien les grands créateurs de lives reçoivent-ils ?

M. Vincent Mogniat-Duclos. Nous vous répondrons précisément par écrit. Je ne voudrais pas être imprécis.

M. le président Arthur Delaporte. Nous avons déjà posé cette question par écrit.

Des systèmes permettent de se faire une idée. Quel est leur degré de précision ? Reflètent-ils la réalité ?

M. Vincent Mogniat-Duclos. Je ne sais pas à quels systèmes vous faites référence exactement. Pour préciser ma réponse, certains top livers reçoivent l’équivalent de plusieurs dizaines de milliers d’euros par mois sur TikTok Live. Ce n’est pas représentatif de tout ce qui se passe sur le live. Cela concerne les créateurs du top 10, donc des exceptions. Par ailleurs, je précise qu’ils gagnent « l’équivalent » de plusieurs dizaines de milliers d’euros, car ces montants ne sont pas nécessairement encaissés sur leur compte en banque. Ils peuvent être redistribués, conservés, ou retirés après commission.

M. le président Arthur Delaporte. Existe-t-il des systèmes de bonification pour les premiers du classement ? Le nombre de diamants des meilleurs créateurs est-il abondé ?

M. Vincent Mogniat-Duclos. En France et en Belgique, non.

M. le président Arthur Delaporte. Comprenez-vous que cette possibilité de gagner beaucoup d’argent grâce aux lives donne envie à d’autres utilisateurs de se lancer, car ils y voient une promesse d’argent facile ?

M. Vincent Mogniat-Duclos. Il est vrai qu’on peut être attiré par le live pour ses récompenses, mais je ne sais pas si c’est facile. Si vous ou moi lancions un live, nous n’aurions peut-être pas beaucoup de supporters.

Mme Brie Pegum. Permettez-moi de préciser, dans la mesure où votre commission s’intéresse aux impacts sur la santé mentale des jeunes, que les moins de 18 ans n’ont pas le droit de faire des lives. Les utilisateurs de moins de 18 ans n’ont pas non plus de portefeuille, et ne peuvent donc pas envoyer de cadeaux.

M. le président Arthur Delaporte. Reconnaissez que certains jeunes mentent sur leur âge. Ils ont moins de 18 ans, mais sont identifiés sur la plateforme comme majeurs. Cela arrive.

Mme Nicky Soo. Bien sûr, nous en avons conscience. Nous ne nous enquérons pas de l’âge uniquement à la création du compte, mais recourons aussi à différents systèmes de vérification ultérieurs, pour nous assurer que les utilisateurs sont majeurs. En cas de suspicion, les comptes sont supprimés.

M. le président Arthur Delaporte. Quand je me rends dans une classe de CM2 ou de sixième, je demande toujours aux élèves s’ils ont TikTok et la moitié d’entre eux acquiescent –cela correspond aux statistiques des instituts de sondage ou de Médiamétrie. Je leur demande aussi s’ils regardent des lives. La proportion est plus faible, mais elle peut représenter deux à quatre jeunes par classe de vingt-cinq à trente élèves. Certains ont même déjà reçu des pièces ou des coffres. Et parfois, ils utilisent le compte ApplePay de leurs parents pour acheter des pièces.

La réalité empirique, fondée sur les témoignages de mineurs qui n’ont aucun intérêt à mentir, est que des jeunes participent aux lives.

Par ailleurs, le fait que des créateurs de lives gagnent plusieurs dizaines – voire des centaines – de milliers d’euros par mois et affichent leur richesse rend encore plus accro à ce système, qui est construit sur une mécanique de gamification. Quand on regarde un live, on a l’impression d’être dans un jeu vidéo. Reconnaissez-vous ce côté addictif et gamifié ? Reconnaissez-vous que cela peut donner envie à des jeunes d’y participer ?

Mme Nicky Soo. Nous comprenons votre inquiétude concernant le temps passé sur TikTok. Nous prenons des mesures pour nous assurer que nos plus jeunes utilisateurs n’y passent pas trop de temps, grâce à différentes solutions comme la limitation à soixante minutes quotidiennes pour les 13-17 ans.

M. le président Arthur Delaporte. Vous parlez du mécanisme général de contrôle et de limitation du temps d’écran pour les mineurs, mais ce n’était pas ma question, qui portait sur le caractère addictif, le modèle de gamification et la représentation sociale que peut renvoyer un créateur de lives qui gagne plusieurs centaines de milliers d’euros par mois.

Mme Nicky Soo. Les deux sont liés. La plateforme est conçue dans son ensemble, y compris s’agissant des lives, pour tenir compte de l’âge des utilisateurs. Les mécanismes de limitation que j’ai évoqués s’appliquent aussi au visionnage de lives.

Il faut par ailleurs distinguer le diagnostic clinique d’une addiction et son acception plus commune. Les relations entre le temps passé sur les réseaux sociaux, l’addiction et le bien-être sont complexes ; la recherche n’a pas abouti à des conclusions définitives sur le sujet. La France a d’ailleurs créé une commission l’an dernier sur l’exposition des enfants aux écrans.

M. le président Arthur Delaporte. Ma question porte sur le caractère addictif entendu au sens commun, pas sur la définition clinique de l’addiction. Reconnaissez-vous que le modèle des lives et le modèle de réussite sociale de livers qui gagnent énormément d’argent peuvent engendrer des difficultés, notamment chez les plus jeunes ?

M. Vincent Mogniat-Duclos. Votre question porte sur deux éléments : l’accès aux mineurs et l’addiction. Je tiens à préciser que les mineurs ne peuvent pas lancer de live. Nous sommes particulièrement stricts en la matière. Dans tous les cas, avant tout lancement d’un live, nous vérifions la pièce d’identité de l’utilisateur, puis nous exigeons qu’il prenne un selfie en tenant un morceau de papier sur lequel est mentionné un code fourni par l’application. C’est le prérequis pour lancer un live.

J’en viens à l’autre partie de votre question, relative à l’addiction.

D’abord, l’envoi d’un cadeau virtuel n’est pas lié à un prélèvement automatique sur un compte en banque. Une première friction, ou étape, consiste à recharger son portefeuille en pièces. On voit alors le montant, en euros et en pièces, dont on sera crédité. On ne peut donc dépenser sans compter parce qu’on serait pris dans l’engouement d’un live. Ce n’est pas possible.

Ensuite, plusieurs fonctionnalités sont mises à disposition des utilisateurs, comme la possibilité de recevoir un rappel lorsqu’un certain montant de pièces a été dépensé.

En tant qu’acteur responsable, nous avons instauré un grand nombre de garde-fous. Ma collègue rappelait les règles de modération qui s’appliquent, et qui sont particulièrement strictes sur TikTok Live. Voir des créateurs gagner beaucoup d’argent grâce aux lives peut susciter des vocations, mais les mineurs ne peuvent pas devenir des streamers sur TikTok Live.

Mme Laure Miller, rapporteure. Un mineur ne peut pas lancer un live, mais peut-il participer à un live, le regarder ?

M. Vincent Mogniat-Duclos. Oui, avec certains garde-fous. En dessous de 13 ans, on ne peut pas regarder de live. Entre 13 et 17 ans, on peut regarder les lives des comptes que l’on suit, et le fil ne propose pas de lives.

En outre, si TikTok remarque qu’un live diffuse du contenu qui n’est pas approprié aux mineurs, l’accès est restreint aux majeurs.

Enfin, il faut être majeur pour donner des cadeaux virtuels.

Mme Laure Miller, rapporteure. Vous avez indiqué, dans vos réponses écrites à notre questionnaire, que vous démonétisiez les lives dont les utilisateurs mineurs étaient le sujet principal ou les principaux participants. Pourquoi n’interrompez-vous pas tout simplement ce type de lives ?

M. Vincent Mogniat-Duclos. Nous effectuons une détection permanente sur les lives. Si des mineurs y apparaissent, parce qu’un adulte filme un moment de vie anodin pendant ses vacances en famille par exemple, la modération le détecte mais nous ne mettons pas fin au live. En revanche, si un utilisateur mettait en scène ses enfants pour obtenir des cadeaux virtuels, cela irait absolument à l’encontre des règles de la communauté. Des sanctions seraient appliquées, la première consistant à couper immédiatement le live.

Mme Laure Miller, rapporteure. Comment expliquez-vous que lorsqu’un compte mineur veut participer à un live, on lui propose, voire on l’incite à modifier sa date de naissance pour pouvoir acheter des cadeaux virtuels ? Cette question reflète la réalité. Nous avons effectué ce test.

M. Vincent Mogniat-Duclos. Pourriez-vous nous transmettre ces éléments ? Cela ne me semble ni normal ni conforme à notre philosophie. Normalement, si une personne mineure change sa date de naissance, une sanction est prise et son compte est bloqué.

M. le président Arthur Delaporte. J’ai un conseil à vous donner : créez-vous un compte TikTok avec un âge inférieur à 18 ans et essayez de participer à un live. Il vous sera mécaniquement proposé de modifier votre date de naissance.

M. Vincent Mogniat-Duclos. J’essaierai. Merci de nous avoir signalé ce problème.

M. le président Arthur Delaporte. Nous avons reçu des témoignages de parents dont la fille, mineure, faisait des lives et recevait de l’argent de la part de TikTok. Ses parents ont contacté TikTok pour qu’il mette fin à ces transferts d’argent, mais la plateforme a refusé d’accéder à leur demande. Est-ce normal ?

M. Vincent Mogniat-Duclos. Avait-elle un compte d’utilisateur mineur ?

M. le président Arthur Delaporte. Ce compte était considéré comme celui d’un majeur par TikTok, mais il était en réalité utilisé par une mineure.

La mère a pris conscience que sa fille faisait des lives et recevait de l’argent de TikTok. Elle a demandé à la plateforme de bloquer l’accès de sa fille aux lives, en envoyant une copie de la pièce d’identité de l’intéressée, et de cesser de lui verser de l’argent. TikTok n’a pas répondu positivement à sa demande. Est-ce normal ?

M. Vincent Mogniat-Duclos. Si je comprends bien, un compte a été créé en présentant une pièce d’identité et un selfie ?

M. le président Arthur Delaporte. Pas nécessairement. Quand j’ai créé un compte, TikTok ne m’a jamais demandé ma pièce d’identité. Il suffit qu’un enfant crée un compte sans que son identité soit vérifiée pour qu’il soit considéré comme majeur et puisse recevoir de l’argent. C’est le cas que je relate.

Mme Nicky Soo. Sans entrer dans le détail de ce cas, car je n’ai pas les preuves sous les yeux – mais je serai ravie de les étudier –, nous utilisons les retours de la communauté pour supprimer les comptes dont l’utilisateur est suspecté de ne pas avoir l’âge requis. Nous regarderons de près la situation que vous citez, mais elle n’aurait pas dû avoir lieu. Elle ne correspond pas du tout à nos règles.

Il est vrai que certains utilisateurs mentent sur leur âge. Nous faisons notre possible pour les identifier – nos équipes donnent une priorité absolue à la sécurité. Des signalements comme celui que vous avez mentionné permettent d’identifier un compte qui ne remplit pas les critères d’âge. En outre, si la modération suspecte la présence de jeunes utilisateurs dans une vidéo, nos spécialistes procèdent à une analyse et, le cas échéant, ferment le compte.

Je regarderai de plus près le cas que vous évoquez, mais je vous affirme qu’il ne correspond pas à notre philosophie et qu’il n’aurait pas dû se produire. Nous travaillons avec plusieurs partenaires, comme Telefónica, pour améliorer notre système de détection de l’âge des utilisateurs.

M. le président Arthur Delaporte. Avez-vous une adresse e-mail dédiée au signalement en français de ce type de contenu ? Les parents qui cherchent à obtenir un contact humain pour traiter des cas parfois complexes se sentent démunis.

Mme Nicky Soo. Je vous enverrai l’adresse du site internet sur lequel il est possible de déposer des signalements. Cette fonctionnalité est également disponible sur l’application.

M. le président Arthur Delaporte. N’envisagez-vous pas de créer une adresse e-mail simple, lue par des personnes physiques, pour que les parents puissent signaler des cas complexes et inquiétants, qui ne doivent pas être trop nombreux ? Il est difficile de renseigner les formulaires de signalement, et cela donne le sentiment d’être face à des machines. De plus, comme je l’ai démontré tout à l’heure, une personne qui fait un signalement n’obtient pas la même réponse selon qu’elle est une simple utilisatrice – auquel cas elle se retrouve face à une IA – ou qu’elle est identifiée comme un signaleur de confiance.

Mme Nicky Soo. Je soumettrai votre proposition à notre équipe. Nous sommes conscients de ces préoccupations et nous échangeons beaucoup avec les parents. Nous veillons à proposer des moyens aussi simples que possible de signaler des contenus ou des comptes, que ce soit sur l’application ou sur notre site internet.

En 2024, en France, nous avons interdit 642 120 comptes dont l’utilisateur était suspecté d’avoir moins de 13 ans. Il y en a 6 millions par mois dans le monde. Nous sommes la seule plateforme à publier cette information. Nous prenons ce sujet très au sérieux, et nous savons que nous devons sans cesse nous améliorer. Nous avons la responsabilité de nous assurer que la plateforme n’est accessible qu’à partir de 13 ans.

M. le président Arthur Delaporte. Une classe d’âge compte 800 000 enfants en France, et environ la moitié des enfants de 11 ans sont inscrits sur TikTok – soit 400 000 comptes, que nous multiplions par trois ans. Cela signifie qu’il existe près de 1 million de comptes d’enfants de moins de 13 ans que vous n’identifiez pas nécessairement.

Mme Nicky Soo. La vérification de l’âge est un enjeu majeur pour notre industrie en général, et nous sommes constamment en quête de solutions innovantes en la matière, qui protègent la vie privée. Au-delà de l’âge déclaré à l’inscription, nos outils passent en revue les comptes pour détecter les utilisateurs qui n’auraient pas l’âge requis. Là encore, cela demande de s’améliorer en permanence – c’est un travail sans fin.

Quoi qu’il en soit, les chiffres que j’ai cités montrent que nous considérons cette question avec le plus grand sérieux et que nous prenons des mesures – nos partenaires, comme Telefónica, nous aident à les renforcer. Nous entretenons un dialogue soutenu avec les parties prenantes, notamment les régulateurs et d’autres plateformes, dans le cadre de WeProtect Global Alliance et du Centre for Information Policy Leadership, pour trouver des solutions de vérification de l’âge. Nous vous communiquerons les rapports issus de ces travaux, qui sont publics.

Mme Laure Miller, rapporteure. Qu’est-ce qui vous empêche de faire mieux que les autres et d’instaurer un système de vérification d’âge pour éviter que de nombreux jeunes de moins de 13 ans soient présents sur votre plateforme ? Rien !

Mme Nicky Soo. Cette question concerne toute l’industrie. Nous devons concilier la sécurité et la protection des données privées. Nous explorons toutes les solutions, y compris les plus innovantes, raison pour laquelle nous nouons des partenariats avec des acteurs extérieurs.

Mme Laure Miller, rapporteure. Des solutions existent déjà, même si elles sont imparfaites. Pourquoi n’en retenez-vous pas d’ores et déjà une pour vérifier l’âge des personnes qui s’inscrivent sur votre plateforme ?

Mme Brie Pegum. Nous utilisons différents systèmes et mécanismes de contrôle de l’âge. Nous appliquons aussi le DSA et nous attendons les nouvelles directives relatives à son article 28 sur la protection des mineurs en ligne. C’est notre responsabilité.

Dans le même temps, notre approche doit être équilibrée. Nous devons déterminer quels éléments de vérification concrets nous pouvons demander aux utilisateurs, en fonction de l’expérience qu’ils veulent vivre sur la plateforme. Les créateurs de lives, par exemple, sont soumis à une vérification formelle car nous estimons que ces contenus présentent davantage de risque. Si un utilisateur veut faire appel, au motif que nous l’aurions considéré à tort comme trop jeune, des outils lui permettent de nous communiquer des éléments personnels comme la photo de sa carte d’identité, mais tout le monde ne dispose pas d’un document d’identité officiel.

Mme Laure Miller, rapporteure. Vous ne répondez pas directement à ma question. Rien, techniquement, ne vous empêche d’appliquer une solution, même imparfaite, pour renforcer la vérification de l’âge à l’inscription. Cela n’aurait pas d’impact économique puisque, comme l’ont expliqué vos collègues lors d’une précédente audition, votre cœur de cible publicitaire est les utilisateurs majeurs, en particulier les 25-35 ans. Vous y gagneriez même l’image d’une plateforme plus fiable.

Mme Brie Pegum. Nous sommes capables d’estimer l’âge d’un utilisateur et d’empêcher qu’il soit ciblé par des publicités. Toutefois, avant de se prononcer de façon définitive sur l’âge d’une personne, il faut être sûr de son fait. C’est pourquoi nous travaillons avec différentes technologies et suivons les lignes directrices de la Commission européenne pour identifier la solution globale la plus adaptée.

M. le président Arthur Delaporte. Quelle est la marge d’erreur lorsque vous estimez l’âge à partir du comportement et de l’apparence physique ? Les comportements ne sont pas fondamentalement différents selon qu’on a 17 ou 18 ans.

Mme Brie Pegum. Nos systèmes d’estimation ne visent pas à déclarer l’âge de l’utilisateur, mais plutôt à soumettre les comptes suspects aux modérateurs humains. Si un doute persiste, nous pouvons demander à l’utilisateur d’apporter des preuves supplémentaires de son âge.

M. le président Arthur Delaporte. Si la marge d’erreur est d’un an et demi, vous pouvez considérer qu’un utilisateur de 17 ans a 18 ans et demi. Par ailleurs, il est sans doute difficile de s’apercevoir qu’un utilisateur qui se déclare majeur n’a en fait que 15 ans, ou que celui qui dit avoir 13 ans n’en a que 11.

Mme Brie Pegum. Quand nous avons le sentiment qu’un utilisateur ment sur son âge, au vu d’éléments observés sur son compte, nous demandons aux modérateurs humains de détecter son âge. Quand ces derniers ne peuvent pas se prononcer, nous bannissons le compte. Si l’utilisateur en question a bien l’âge requis, il peut faire appel de cette décision et nous fournir des preuves en utilisant une des technologies auxquelles vous faites référence, qui empiètent sur la protection de la vie privée.

M. le président Arthur Delaporte. J’en reviens à notre discussion sur le design addictif, non pas au sens scientifique du terme, mais au sens de la captation de l’attention pour donner envie aux utilisateurs de rester. Confirmez-vous que le processus du live est conçu pour capter l’attention et ressembler à un jeu ?

M. Vincent Mogniat-Duclos. Le live ne contient pas de publicité. Le modèle de monétisation est donc différent. Il est plus direct qu’un modèle publicitaire.

M. le président Arthur Delaporte. Plus on reste, plus on est accro, plus on est pris et plus et on a envie de donner. J’ai suivi plusieurs heures de live : on finit par devenir dingue ! On a envie de donner et de participer, on est dans la team ! Vous arrive-t-il de regarder des lives pendant plusieurs heures ? N’avez-vous pas envie d’entrer dans la team ?

M. Vincent Mogniat-Duclos. Mon travail et celui de mon équipe consistant à accompagner les créateurs, nous regardons bien entendu des lives. L’objectif est que les créateurs utilisent au mieux la plateforme afin de proposer un divertissement intéressant pour l’audience. Nous avons tous types de contenus – musique, sciences…

M. le président Arthur Delaporte. Nous connaissons les différents types de contenus, mais les plus grands livers ne sont pas ceux qui font de la musique. Ce sont ceux qui disent : « Allez la team, on donne ! Merci Coco Pops, Coco Pops, Coco Pops ! » Vous le voyez comme moi. Est-ce le modèle que vous encouragez ? En tout cas, c’est manifestement celui qui rapporte le plus.

M. Vincent Mogniat-Duclos. Le fait d’appeler régulièrement au don est une infraction à nos règles de monétisation.

M. le président Arthur Delaporte. Avez-vous déjà regardé un live de M. Julien Tanti ?

M. Vincent Mogniat-Duclos. Oui.

M. le président Arthur Delaporte. N’est-ce pas ce qu’il fait constamment ?

M. Vincent Mogniat-Duclos. Je ne sais pas s’il le fait constamment. J’ai déjà regardé ses lives, et je n’ai personnellement pas eu l’occasion de le voir appeler régulièrement au don.

M. le président Arthur Delaporte. Il ne s’agit pas d’appeler à donner de l’argent, mais de remercier en continu, en criant le nom des donateurs. Crier en continu le nom des donateurs et dire « Allez la team ! », est-ce un encouragement au don ?

M. Vincent Mogniat-Duclos. Je ne considère pas qu’un remerciement soit un encouragement à donner. C’est de la politesse.

M. le président Arthur Delaporte. Quand une star remercie ses fans et leur donne de la considération, n’est-ce pas une forme d’encouragement ?

M. Vincent Mogniat-Duclos. Je pense qu’un remerciement est une bonne chose. Je ne pense pas que ce soit une incitation.

M. le président Arthur Delaporte. Si je fais un cadeau à M. Kylian Mbappé, qui est l’une des plus grandes stars françaises, et s’il me remercie publiquement devant de nombreux autres fans, reconnaissez que c’est une forme de gratification. Ce n’est pas seulement de la politesse. Non seulement je fais partie de sa communauté de fans, mais en plus, il me témoigne sa considération. Je précise que M. Kylian Mbappé ne fait pas de live. Je prends cet exemple pour donner une idée de ce que peuvent véhiculer les lives.

Le remerciement n’est-il pas une forme de gratification, donc d’encouragement à donner ?

M. Vincent Mogniat-Duclos. Le remerciement est une forme de gratification, mais je ne sais pas si c’est un encouragement au don. En tout cas, sur TikTok Live, plusieurs mécanismes nous permettent d’éviter tout type d’addiction. Ainsi, il n’existe pas de lien direct entre le don de cadeaux et le compte en banque de l’utilisateur.

M. le président Arthur Delaporte. Alors que je suis plutôt protégé de ce type de contenu, je me suis senti captivé, happé, et j’ai eu envie de faire gagner la team. Ne pensez-vous pas que des utilisateurs plus vulnérables que moi auront davantage envie de donner et de faire gagner la team ?

M. Vincent Mogniat-Duclos. Si par « vulnérables » vous faites allusion aux mineurs, je précise à nouveau que les mineurs n’ont pas la possibilité de donner.

M. le président Arthur Delaporte. C’est une impossibilité théorique. Dans la réalité, des mineurs donnent. Même si un seul mineur donne, car son âge n’a pas été vérifié, c’est un mineur de trop.

M. Vincent Mogniat-Duclos. Nous tendons toujours vers le 100 %, même s’il peut arriver que la vérification de l’âge soit contournée. Nous sommes un acteur responsable.

M. le président Arthur Delaporte. Bien sûr, vous tendez vers le 100 %. Mais je vous dis que dans une classe d’école, un élève sur vingt-cinq en moyenne, soit 4 %, participe à des lives. Certes, c’est de la statistique « au doigt mouillé », mais on peut estimer que plusieurs centaines de milliers de jeunes peuvent participer à des lives. Ne sont-ils pas plusieurs centaines de milliers de trop ?

M. Vincent Mogniat-Duclos. Je ne peux pas me référer à cette statistique, mais je sais que la plupart de nos donateurs ont entre 25 ans et 49 ans, et que la moitié d’entre eux sont dans la tranche des 25-39 ans.

Mme Claire Marais-Beuil (RN). Quand quelqu’un ne boit qu’un verre d’alcool, mais le fait tous les jours, pensez-vous qu’il souffre d’une addiction ? Est-ce que regarder un live et donner deux pièces tous les jours est une addiction ?

Mme Nicky Soo. Nous ne sommes pas psychologues. Je ne peux donc pas vous répondre au sujet de la définition clinique et scientifique de l’addiction. Qui plus est, le niveau acceptable de consommation dépend de chacun. En l’occurrence, nous voulons que les utilisateurs fassent les choix qui sont les bons pour eux.

Nous faisons tout notre possible pour que le visionnage de vidéos, qu’elles soient en live ou non, crée une relation positive, et pour que le temps d’écran des utilisateurs de 13 à 17 ans soit limité à soixante minutes par jour – fonctionnalité que nous avons développée avec le Boston Children’s Hospital Digital Wellness Lab. Il existe aussi une fonctionnalité de contrôle parental qui permet de bloquer l’accès des enfants à TikTok. Il n’existe pas de consensus scientifique concernant le temps d’écran approprié, mais nous avons fixé la limite à soixante minutes pour nos utilisateurs les plus jeunes, de manière proactive.

La limitation du temps d’écran est disponible pour tout le monde, mais nous l’activons par défaut pour les 13-17 ans. Les interruptions de connexion permettent aux plus jeunes de faire autre chose et de s’éloigner régulièrement de TikTok.

M. le président Arthur Delaporte. Existe-t-il un classement des streamers en fonction des niveaux de dons obtenus dans les lives ?

M. Vincent Mogniat-Duclos. Ce classement inclut les dons et d’autres interactions.

M. le président Arthur Delaporte. Que sont ces autres interactions ?

M. Vincent Mogniat-Duclos. La mention « j’aime », par exemple.

M. le président Arthur Delaporte. Comment est effectuée la pondération ?

M. Vincent Mogniat-Duclos. Je n’en ai pas le détail.

M. le président Arthur Delaporte. Existe-t-il des badges spéciaux pour les plus gros donateurs ?

M. Vincent Mogniat-Duclos. Oui, il y a des badges pour les gros donateurs, sous la forme d’un chiffre qui s’affiche à côté de leur pseudo.

M. le président Arthur Delaporte. Avoir un badge spécial parce qu’on est un gros donateur, donc reconnu par la communauté, n’est-il pas une forme d’encouragement au don ?

M. Vincent Mogniat-Duclos. Le live est un format de divertissement direct, puisqu’il n’y a pas de publicité. Il est donc important, pour les streamers, de savoir qui se connecte à leurs lives.

M. le président Arthur Delaporte. Ils ont la liste de ceux qui se connectent, mais je parlais du classement en fonction des utilisateurs qui donnent le plus. Il suffit d’aller sur TikTok Live pour savoir qui a donné quoi et combien. Nous sommes donc dans un système dual, entre une logique de casino ou de pari, et une logique d’équipe sportive. La mécanique n’est-elle pas similaire à celle des jeux d’argent ?

M. Vincent Mogniat-Duclos. Tous les jeux d’argent ou de casino sont interdits sur TikTok Live. Il n’y a pas d’espérance de gain, contrairement au casino. On envoie un cadeau virtuel pour montrer que l’on apprécie un contenu, sans espérance de gagner de l’argent.

M. le président Arthur Delaporte. Le gain n’est-il pas la reconnaissance par la communauté et par une star ? Nous avons reçu plusieurs témoignages en ce sens.

M. Vincent Mogniat-Duclos. Quand on détecte un contenu ayant trait à des paris ou à des jeux de casino, il est retiré et des sanctions sont appliquées au compte. Ce type de contenu n’existe donc pas.

M. le président Arthur Delaporte. J’en ai pourtant vu, certes il y a longtemps. Quoi qu’il en soit, la question n’est pas de savoir s’il existe des mécanismes de jeu dans les lives, mais si le live en lui-même n’est pas assimilable à un mécanisme de jeu d’argent. En effet, les utilisateurs dépensent de l’argent et peuvent en recevoir, au travers de contre-dons et de coffres, mais surtout de la reconnaissance qui, en soi, vaut cher.

M. Vincent Mogniat-Duclos. Pouvez-vous préciser votre question ?

M. le président Arthur Delaporte. M. Tanti nous a par exemple expliqué qu’il recevait des membres de sa communauté sur un bateau à Dubaï. N’est-ce pas une forme de reconnaissance matérielle, au-delà de la reconnaissance symbolique, qui incite à participer à des jeux et à faire partie de la communauté ? Les meilleurs donateurs reçoivent des formes de gratification indirecte.

M. Vincent Mogniat-Duclos. Je l’ai appris en écoutant l’audition de M. Tanti. D’une part, il ne me semble pas que ce soit une pratique courante. D’autre part, ce qui se passe dans la vraie vie, en dehors de la plateforme, n’est vraiment pas de notre ressort.

M. le président Arthur Delaporte. C’est la plateforme qui organise le jeu et la communauté. M. Tanti l’a expliqué.

M. Vincent Mogniat-Duclos. Vous faites référence à M. Tanti, qui invite des personnes sur un bateau. Cela n’a absolument rien à voir avec la plateforme.

M. le président Arthur Delaporte. Il invite des personnes qui participent à ses lives, qui donnent et qui font partie de sa communauté. L’une des contreparties indirectes est le fait d’être reçu sur ce bateau. Puisque vous considérez que ces contenus peuvent poser problème, effectuez-vous une surveillance particulière des plus gros livers de France ?

M. Vincent Mogniat-Duclos. En tant que responsable de TikTok Live pour la France, je ne peux pas contrôler qui se rencontre dans la vraie vie ni pourquoi.

M. le président Arthur Delaporte. Surveillez-vous particulièrement les lives de M. Tanti, qui sont suivis par des millions de personnes et qui vous rapportent des milliers, voire des millions d’euros chaque année ?

M. Vincent Mogniat-Duclos. La modération s’applique à tout le monde, et 100 % du contenu est modéré.

M. le président Arthur Delaporte. Je vous demande s’il existe une surveillance particulière pour les plus gros livers.

M. Vincent Mogniat-Duclos. Pas à ma connaissance. La modération s’applique de façon égale à tout le monde.

M. le président Arthur Delaporte. Ne pensez-vous pas que cela pose problème dès que des dizaines de milliers d’euros, voire des millions, sont en jeu ?

M. Vincent Mogniat-Duclos. Je ne peux pas commenter plus que cela. La modération qui est effectuée sur la plateforme est équivalente pour tous les créateurs de contenu.

M. le président Arthur Delaporte. Qu’en pensez-vous à titre personnel ? Cela vous ennuierait-il qu’un de vos enfants participe à des lives, joue et entre en contact avec un liver en espérant recevoir des invitations spéciales ? Cela s’est déjà fait.

M. Vincent Mogniat-Duclos. Je suis sensible à votre question, étant moi-même père de famille. Comme employé de TikTok depuis un an, je remarque que nous sommes un acteur responsable et que nous avons placé des garde-fous contre l’accès des mineurs à la plateforme. Encore une fois, un mineur n’a pas accès à la fonctionnalité d’envoi de cadeaux virtuels.

M. le président Arthur Delaporte. Des parents ont pourtant indiqué dans la presse que leurs enfants avaient donné de l’argent, mais nous n’allons pas y revenir. Remboursez-vous les familles quand elles vous signalent qu’un mineur a acheté des pièces ?

M. Vincent Mogniat-Duclos. L’achat de pièces peut avoir lieu sur plusieurs plateformes, en direct sur TikTok mais aussi par l’intermédiaire de vendeurs sur des applications comme App Store ou Google Play Store, ou par le biais de cartes à gratter. Le cas échéant, les modalités de remboursement sont celles du canal de vente. Pour ce qui est de TikTok, si je ne dis pas de bêtise, il existe un délai de quatorze jours pour demander le remboursement de pièces si elles n’ont pas été consommées.

M. le président Arthur Delaporte. Des témoignages indiquent que certains livers envoient des messages privés pour inciter au don. Est-ce sanctionné ?

M. Vincent Mogniat-Duclos. Oui. L’incitation au don qui n’est pas authentique est sanctionnée. Cela inclut les commentaires et les messages.

M. le président Arthur Delaporte. Merci.

Vous n’avez pas été en mesure de nous fournir certains éléments, dont une partie était pourtant demandée dans les questions écrites que nous vous avons communiquées il y a quinze jours, comme l’évolution du nombre de modérateurs. En quinze jours, il me semble que vous auriez dû être capables d’élaborer un tableau retraçant cette évolution. C’est le cœur de votre métier.

Au cours de cette audition, nous avons également noté des divergences avec vos réponses écrites. Peut-être vous communiquerons-nous un questionnaire complémentaire.

Enfin, vous avez indiqué que vous nous communiqueriez certaines informations ultérieurement. Si tel n’est pas le cas, nous n’hésiterons pas à vous convoquer à nouveau devant cette commission, qui est d’utilité publique. Notre analyse de TikTok et les mécanismes permettant de mieux protéger les mineurs que nous espérons identifier doivent s’appliquer plus largement à l’ensemble des plateformes sur lesquelles des problématiques similaires peuvent s’observer.

 

 

La séance s’achève à treize heures vingt.


Membres présents ou excusés

 

Présents.  M. Arthur Delaporte, Mme Anne Genetet, Mme Claire Marais-Beuil, Mme Laure Miller, Mme Constance de Pélichy, M. Thierry Sother, Mme Sophie Taillé-Polian, M. Stéphane Vojetta