Compte rendu

Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs

– Audition, à huis clos, de M. X, ancien modérateur sur les réseaux sociaux 2

– Présences en réunion.................................3


Jeudi
26 juin 2025

Séance de 14 heures

Compte rendu n° 31

session ordinaire de 2024-2025

Présidence de
M. Arthur Delaporte,
Président de la commission

 


  1 

La séance est ouverte à quatorze heures.

 

La commission auditionne, à huis clos, M. X, ancien modérateur sur les réseaux sociaux.

M. le président Arthur Delaporte (SOC). Pour notre dernière audition, nous recevons à huis clos le témoignage de M. X, ancien modérateur sur les réseaux sociaux, en particulier sur TikTok.

Je vous remercie d’avoir répondu à notre invitation et je vous invite à nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. X prête serment.)

M. X. Je vous remercie de me donner la parole. Même si je réside au Portugal, je me sens concerné par les enjeux dont votre commission s’est saisie car je suis non seulement un utilisateur de TikTok, mais aussi un ancien modérateur de cette plateforme, par le biais de son sous-traitant Teleperformance.

Je suis né et j’ai grandi en France. En 2019, j’ai répondu à une offre de travail proposée par un call center au Portugal, dans lequel j’ai travaillé jusqu’en 2023. En août 2023, Teleperformance m’a proposé de travailler pour la plateforme TikTok. J’ai été affecté à une mission de modération, pour laquelle j’ai suivi une formation initiale d’une semaine et trois jours en shadowing.

Cette expérience de quelques semaines a eu un impact sur ma santé physique et mentale. J’ai visionné des contenus assez choquants.

La modération est effectuée par le biais d’un double écran, sur lequel défilent simultanément cinq à six vidéos ; ces contenus doivent être modérés en trente secondes à une minute, ce qui laisse très peu de temps d’analyse. Avec les autres modérateurs, nous subissions une pression en matière de performance, non pas de la part de TikTok mais de celle de Teleperformance.

Après ces quelques semaines, j’ai connu une période assez difficile : j’ai sombré dans une dépression dont je ne suis pas encore totalement sorti et j’ai souffert d’anorexie. Je suis suivi par un service de psychiatrie au Portugal. J’occupe désormais un nouveau poste dans une autre entreprise, mais je souffre encore de séquelles qui m’obligent à télétravailler.

J’ai souhaité témoigner parce que d’autres modérateurs et anciens modérateurs vivent ou ont vécu la même chose, même s’ils sont invisibles et silencieux et que TikTok minimise ses responsabilités à leur égard. Les modérateurs sont en première ligne, directement exposés à une forme de violence psychologique quotidienne. C’est parce qu’ils exercent un métier essentiel au bon fonctionnement des plateformes que j’ai voulu témoigner de mon expérience.

Mme Laure Miller, rapporteure. Merci de votre témoignage, qui est très utile. Pouvez-vous revenir sur la façon dont vous avez été formé à la modération à votre arrivée dans l’entreprise ?

M. le président Arthur Delaporte (SOC). Avez-vous suivi d’autres formations par la suite ? Le cas échéant, à quelle fréquence et avec quel contenu ?

M. X. Ma formation a duré une semaine et trois jours. Le premier jour est consacré à la présentation de la société Teleperformance et de ses locaux, le deuxième à ses outils internes.

Les règles communautaires de TikTok, les outils de ticket et l’utilisation de la plateforme de modération sont présentés le troisième jour. Le quatrième jour est consacré au visionnage de quelques contenus et à des jeux de rôle : il faut donner son avis sur la catégorie dans laquelle classer certains contenus – automutilation, discours politique, etc.

Le cinquième jour est consacré à une formation interne de Teleperformance sur le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) – on ne doit pas transmettre les informations des utilisateurs – et sur la PCI DSS, une norme de sécurité informatique s’appliquant aux organisations stockant et traitant des données de cartes bancaires – on ne doit pas prendre de notes sur les données personnelles des clients.

Les trois derniers jours de formation sont consacrés à du shadowing, aux côtés d’un modérateur qui nous montre comment classer les contenus et nous donne des conseils.

M. le président Arthur Delaporte (SOC). Avez-vous suivi des formations de mise à niveau ? Comment sont transmises les consignes relatives à la modération ?

M. X. Personne de chez TikTok n’est venu sur place nous présenter d’autres règles de modération. La formation initiale se fait avec un outil en ligne mis au point par Teleperformance et TikTok, constitué de slides ; à la fin de la formation, il faut valider un petit questionnaire d’une centaine de questions.

M. le président Arthur Delaporte (SOC). Ces slides sont-elles réactualisées ?

M. X. Non.

M. le président Arthur Delaporte (SOC). Combien de temps êtes-vous resté dans cette entreprise ?

M. X. J’y suis resté un mois et demi, mais certains de mes amis y travaillent encore.

En raison des nombreuses séquelles psychologiques provoquées par un mois et demi à regarder des contenus assez compliqués, je suis tombé en dépression et j’ai demandé à changer d’affectation au sein de Teleperformance.

M. le président Arthur Delaporte (SOC). Vous n’avez bénéficié d’aucun accompagnement psychologique ?

M. X. Teleperformance est une très grande entreprise. Sur le site de Cabo Ruivo, dans la périphérie de Lisbonne, où est basée l’activité de modération pour TikTok, il n’y a aucun psychologue et un seul médecin du travail pour 500 modérateurs. Une demande doit être envoyée par e-mail et approuvée pour obtenir un rendez-vous avec lui.

M. le président Arthur Delaporte (SOC). Avez-vous essayé de le voir ?

M. X. Oui, mais je n’ai pas obtenu de rendez-vous.

Ayant sombré dans la dépression, je me suis présenté aux urgences en expliquant que j’avais des idées suicidaires et que je n’arrivais plus à manger. J’ai été interné dans un service de psychiatrie dans lequel un médecin m’a dit de changer de voie professionnelle. J’ai alors quitté mes fonctions de modérateur.

M. le président Arthur Delaporte (SOC). Faites-vous un lien direct entre vos idées suicidaires et les contenus auxquels vous avez été exposé ?

M. X. Je souffrais déjà de problèmes alimentaires – j’avais du mal à me nourrir –, qui ont été accentués par ces contenus, notamment d’automutilation et de scarification, qui me rendaient très triste. Mes problèmes alimentaires se sont aggravés : j’ai perdu plus de 65 kilos, passant de 130 à 70 kilos. C’est vous dire à quel point cela m’a chamboulé.

Je continue d’être suivi ; la semaine dernière encore, j’avais rendez-vous avec ma nutritionniste. J’ai beau manger, je ne prends pas de poids et ma situation est très compliquée.

Mme Laure Miller, rapporteure. Vos propos sont difficiles à entendre. Pourriez‑vous malgré tout nous décrire la journée type d’un modérateur ? À quelle heure commence-t-elle ?

Vous avez expliqué tout à l’heure que vous deviez modérer simultanément plusieurs vidéos dans un temps très restreint : pourriez-vous décrire concrètement comment cela se passait ?

M. X. Tout dépendait du shift – de la rotation – horaire, puisque le service de modération est assuré 24 heures sur 24.

Au Portugal, la durée hebdomadaire de travail est de 40 heures ; une journée de travail dure 9 heures : 8 heures à son poste et 1 heure de pause déjeuner. Je travaillais principalement au service de nuit, de 23 heures à 8 heures. Pendant ce service, il n’y avait pas de team manager, c’est-à-dire de superviseur responsable d’une équipe.

En arrivant à 23 heures, j’allumais mon ordinateur et je me connectais aux outils. Je travaillais de 23 heures à 2 heures du matin avant la pause : quatre ou cinq vidéos défilaient sur le double écran, que je devais classer en moins d’une minute selon différentes catégories, sans possibilité de les revoir. Les vidéos s’enchaînaient automatiquement et on en traitait jusqu’à 600 ou 800 par journée de travail.

Mme Laure Miller, rapporteure. Vous n’aviez donc pas le temps de visionner les vidéos jusqu’à leur terme ? Cela signifie que dès les premières secondes, vous deviez être capable de comprendre de quoi il s’agissait pour les catégoriser ?

M. X. C’est exact : je devais les analyser et les catégoriser rapidement.

Pire encore, Teleperformance demandait à ses modérateurs un rythme élevé, jusqu’à plus de 800 vidéos par jour, sans se soucier d’eux. Cette performance n’était pas atteinte, d’où le fort turnover des modérateurs chez ce sous-traitant. De plus, le team manager faisait une analyse de notre travail trois à quatre fois par semaine, pour vérifier si nous avions bien catégorisé les vidéos.

Mme Laure Miller, rapporteure. Les vidéos qui vous étaient soumises étaient-elles issues d’une présélection en raison de leur caractère problématique, ou était-ce le flux classique des vidéos ?

M. X. C’était un flux continu, constitué de vidéos de tout type – un discours haineux, un utilisateur qui se filme en train de jouer à un jeu vidéo, etc. –, auxquelles on n’est pas préparé.

M. le président Arthur Delaporte (SOC). Comment sont sélectionnées les vidéos qui vous sont présentées ?

M. X. Je ne sais pas comment est calculé l’algorithme pour les modérateurs, mais les vidéos étaient aléatoires et le flux continu. Je travaillais à la modération générale et je n’ai pas été affecté à la modération des lives ou du gaming.

Les vidéos arrivaient sur l’écran de manière aléatoire et je devais les classer. Durant le mois et demi que j’ai passé en production, il y avait beaucoup de contenus relatifs à la guerre en Ukraine.

M. le président Arthur Delaporte (SOC). Vous nous avez expliqué qu’il y avait plusieurs services en fonction du type de contenu. TikTok est-il le seul client de Teleperformance sur ce site ?

M. X. Teleperformance a plusieurs sites à Lisbonne, un par client. Celui de Cabo Ruivo est dédié à TikTok.

M. le président Arthur Delaporte (SOC). Le site où vous travailliez était donc consacré uniquement à TikTok et les 500 modérateurs que vous avez évoqués travaillent tous pour cette plateforme.

M. X. Oui.

M. le président Arthur Delaporte (SOC). Ces 500 modérateurs travaillent-ils uniquement sur des contenus en français ?

M. X. Non, ils travaillent sur des contenus en plusieurs langues pour les marchés indien, anglais, portugais et français.

M. le président Arthur Delaporte (SOC). Vous-même, vous ne travailliez que sur des contenus francophones ?

M. X. Oui.

M. le président Arthur Delaporte (SOC). Combien de modérateurs ne travaillaient que sur des contenus francophones ?

M. X. Une trentaine pour la modération générale pendant le service de nuit, mais il y a plusieurs shifts.

Mme Laure Miller, rapporteure. Lors de nos auditions, il a souvent été question de la façon dont les utilisateurs parviennent à contourner la modération à l’aide d’émojis spécifiques et de mots-clés modifiés – un chiffre remplaçant une lettre. En étiez-vous alertés afin de vous aider à modérer les contenus ?

M. X. Nous avons reçu des alertes de la part du team leader. Par exemple, nous avions reçu une communication au sujet de l’émoji zèbre utilisé pour signifier « automutilation ».

M. le président Arthur Delaporte (SOC). Lorsque vous étiez modérateur, vous saviez donc déjà que cet émoji symbolisait l’automutilation ?

M. X. Après avoir vu plusieurs vidéos défiler avec cet émoji, nous avons fait un rapport auprès de notre équipe de supervision. Malheureusement, après avoir signalé, catégorisé ou autorisé les contenus, nous ne savons pas ce qu’ils deviennent : nous n’avons aucun suivi de la part de nos team leaders ni de la direction de TikTok.

Mme Laure Miller, rapporteure. Je vais reformuler ma question, pour être certaine de bien comprendre.

Lorsque nous avons reçu les dirigeants de TikTok, ils nous ont expliqué qu’ils n’étaient pas toujours au courant de ces contournements, notamment de l’utilisation de l’émoji zèbre. Vous dites avoir signalé certains de ces contournements. Votre hiérarchie vous en avait-elle aussi signalé l’existence et vous avait-elle demandé d’être vigilants à ce sujet ?

M. X. Oui, les signalements ont été faits dans les deux sens. Nous recevions des communications de la part de nos team leaders, mais je n’ai jamais vu aucun responsable de TikTok dans les locaux de Teleperformance.

M. le président Arthur Delaporte (SOC). Quand vous analysiez les contenus, étiez‑vous aidé par un outil d’intelligence artificielle proposant une précatégorisation ou une transcription automatique des vidéos pour vous aider à les comprendre ?

M. X. En 2023, nous n’avions pas d’outil d’intelligence artificielle ; je ne sais pas si c’est désormais le cas. Nous utilisions différentes étiquettes prédéfinies : discours haineux, discours politique, automutilations, troubles alimentaires, etc.

M. le président Arthur Delaporte (SOC). Si je comprends bien, les vidéos projetées étaient déjà catégorisées et vous deviez dire si elles correspondaient aux catégories prédéfinies ?

M. X. C’était à nous de les analyser rapidement, sur une base visuelle. Mais avec 600 à 800 vidéos par jour, nous n’avions pas le temps de faire une analyse complète.

Mme Laure Miller, rapporteure. Vous deviez donc confirmer que la vidéo correspondait à la précatégorisation établie – terrorisme, discours haineux –, mais votre mission n’était pas de la supprimer.

M. X. C’est exact. J’avais toutefois la possibilité de signaler la vidéo en question auprès de mon supérieur ou en créant un ticket s’il s’agissait d’un acte terroriste ou d’une tentative d’intimidation, par exemple, mais nous n’avions pas de suivi ; nous étions laissés à l’abandon.

M. le président Arthur Delaporte. Il s’agit d’une entreprise française ?

M. X. Oui. Teleperformance est le premier call center de service clientèle au monde en nombre d’employés.

M. le président Arthur Delaporte. Combien gagniez-vous à ce poste ?

M. X. Au Portugal, les salaires sont plus bas qu’en France. Je touchais 750 euros nets par mois, auxquels s’ajoutaient 4,14 euros par jour pour l’équivalent des tickets-restaurants, soit 130 à 150 euros supplémentaires qui étaient crédités sur une carte bancaire à la fin du mois. L’avantage de Teleperformance, c’est qu’ils fournissent aussi un logement à ceux qui arrivent de France – une chambre à louer. J’avais déjà ma maison, donc je n’en ai pas eu besoin, mais je crois que la plupart des modérateurs acceptent, même si cela les rend un peu prisonniers.

Mme Laure Miller, rapporteure. Au cours du mois et demi que vous avez passé dans cette entreprise, vous avez sans doute eu le temps de tisser des liens avec les autres modérateurs. Avez-vous ressenti le même mal-être chez d’autres salariés ou étaient-ils relativement à l’aise avec ce travail ? Y a-t-il un fort turnover ?

M. X. J’ai encore des contacts là-bas, dont une amie qui a quitté mon entreprise actuelle pour aller chez Teleperformance travailler pour TikTok Live. Elle y est depuis mai et elle s’y sent bien, même si elle considère que le contenu des vidéos de jeu ou des influenceurs n’est pas très constructif pour la société.

J’ai surtout senti un mal-être chez les modérateurs ; énormément de personnes souffrent. Pour ce qui est du turnover, le monde du call center en général attire des Français ou des gens d’autres nationalités qui viennent au Portugal un an pour tester le pays ; chaque mois, il y a cinq ou six départs.

En ce qui me concerne, j’ai décidé de quitter ma fonction au bout d’un mois et demi sur les conseils du service de psychiatrie qui me suivait et j’ai demandé un changement d’affectation comme conseiller technique au sein de Cisco, qui est une entreprise d’IT. J’y ai travaillé jusqu’en septembre 2024. J’occupe actuellement un poste dans une autre entreprise.

Mme Laure Miller, rapporteure. Arriviez-vous à discerner dans quelle mesure la précatégorisation des vidéos était réalisée par l’intelligence artificielle ? Y avait-il d’autres modérateurs avant vous ?

M. X. Nous n’avions pas d’informations sur le sujet, mais je ne crois pas qu’il y ait eu d’autres modérateurs avant nous. C’était sans doute de l’intelligence artificielle.

M. le président Arthur Delaporte. Avez-vous vu des vidéos mettant manifestement en scène des mineurs ?

M. X. Oui, bien sûr. J’ai modéré des vidéos de deux frères YouTubeurs, Néo & Swan ; le plus jeune a moins de quinze ans, mais leurs parents les laissent faire des vidéos sur TikTok.

En tant qu’utilisateur, je vois que même mon neveu de 12 ans est souvent sur TikTok alors que ma sœur, qui lui avait donné un portable pour la contacter après les cours, le lui avait interdit ; elle a fini par le lui confisquer. Les enfants sont intelligents : il suffit qu’un ami dans la cour d’école leur dise comment faire et ils installeront un moyen de contourner le système de contrôle parental.

M. le président Arthur Delaporte. Vous avez dit que vos collègues n’avaient pas eu envie de témoigner. Pourquoi ?

M. X. Oui, j’en ai parlé à mon amie, mais son français n’est pas très bon. Quand on vit au Portugal depuis longtemps, on commence à perdre la langue.

M. le président Arthur Delaporte. Elle modère aussi du contenu en français ?

M. X. Oui. Elle est capable de comprendre, c’est discuter qui est plus compliqué. J’ai une autre amie franco-portugaise qui parle français avec difficulté et qui modère du contenu en français. C’est Teleperformance qui embauche ces personnes, pas TikTok.

Mme Laure Miller, rapporteure. Avez-vous eu connaissance de l’existence de modérateurs chargés de traiter en urgence des vidéos prioritaires qui auraient fait l’objet de nombreux signalements ou qui présenteraient un contenu plus sensible que les autres ?

M. X. Malheureusement, non. C’est nous qui devions signaler ces vidéos à notre superviseur, qui les faisait remonter à TikTok, où elles étaient traitées par une autre équipe de modération. On nous demande énormément de chiffre, mais nous avons peu de formation.

M. le président Arthur Delaporte. Y avait-il une prime de résultat en fonction du nombre de vidéos vues ? Le système vous encourage-t-il à voir plus de vidéos, quitte à détériorer la qualité de la modération ?

M. X. Oui. Nous touchons une prime d’assiduité de 150 euros si nous sommes présents au travail ; elle est quasiment impossible à toucher, car elle saute au premier retard. Nous touchons aussi un bonus de 50 euros si nous dépassons 800 vidéos dans la journée, lui aussi inatteignable, et un bonus de langue de 50 euros.

M. le président Arthur Delaporte. C’est une prime à la productivité et une manière de vous faire tenir, même si j’ai cru comprendre que des sanctions s’appliquaient quand le travail était mal fait.

M. X. C’est tout le problème. Certes, la productivité est importante dans une entreprise, mais la qualité du service aussi. Là, on propose un bonus sans service de qualité. Dans mon nouveau poste, je suis analyste financier et le bonus est lié à la qualité de mon travail.

Mme Laure Miller, rapporteure. Y avait-il des contenus problématiques qui n’entraient dans aucune catégorie ?

M. X. Non. Nous avions toujours la possibilité de classer les contenus sous l’une des étiquettes prédéfinies.

M. le président Arthur Delaporte. Pourriez-vous nous donner des exemples d’étiquettes ?

M. X. Il y avait les catégories « mineurs », « terrorisme », « activités illégales », « troubles alimentaires », « violences graphiques », « violences physiques », « harcèlement », « discours haineux », « comportement dangereux », « challenge à risque », etc.

Mme Laure Miller, rapporteure. De nombreux professionnels ont expliqué en audition que le fait de regarder des vidéos TikTok pouvait dégrader la santé mentale des mineurs, mais que cela n’avait pas forcément d’effet sur les jeunes qui se sentaient bien au préalable. Sans entrer dans votre intimité, diriez-vous que votre mission d’un mois et demi a été la cause essentielle et principale de votre mal-être, ou plutôt qu’elle a participé à la dégradation d’un état qui existait déjà ?

M. X. Je pense que cela affecte forcément les mineurs et les adultes. À l’époque, j’allais avoir 25 ans. La plateforme de modération reçoit de très nombreuses vidéos sur l’anorexie ; elles m’ont fortement perturbé émotionnellement car j’avais pris beaucoup de poids à la suite d’un accident, alors que j’étais auparavant très sportif – j’avais même pratiqué la lutte gréco-romaine plus jeune. Je suis aussi tombé sur les vidéos du YouTubeur Tibo InShape, qui disait qu’il fallait perdre du poids pour se sentir bien dans sa peau. Je pesais 130 kg et j’étais essoufflé quand je me déplaçais. Cela m’a fait un électrochoc : j’ai arrêté de m’alimenter et j’ai perdu 65 kg – j’en pèse 70 maintenant.

J’en ai encore des séquelles : il m’arrive de ne pas réussir à manger et je suis suivi par une nutritionniste. Je souffre également d’insomnies, car le travail de nuit chez TikTok a perturbé mon cycle du sommeil. Ce travail a aussi joué sur ma dépression. Actuellement, je prends cinq médicaments par jour, dont un antidépresseur, un traitement à la kétamine, un somnifère et un traitement qui m’empêche de vomir.

M. le président Arthur Delaporte. Je vous remercie pour votre témoignage et d’avoir pris l’initiative de nous contacter. Nous prenons la mesure des conséquences de ce job impossible pour les modérateurs et de leur manque d’accompagnement, et nous sommes preneurs de tout témoignage complémentaire. En attendant, avez-vous des suggestions d’amélioration du système ?

M. X. Il faudrait demander une pièce d’identité pour accéder à l’application. Les mineurs ont toujours un moyen de contourner les règles avec l’aide de leurs parents ; ces derniers ont une part de responsabilité énorme. On ne va pas se le cacher, la plupart des contenus que l’on trouve sur les applications sont mauvais : par exemple, des influenceurs qui proposent des jeux d’argent.

Mme Laure Miller, rapporteure. Vous avez dit que les contenus nocifs pouvaient avoir un impact sur notre santé mentale à tous, enfants comme adultes. Pensez-vous qu’un nombre plus important de modérateurs et davantage de moyens consacrés à la modération permettraient d’aboutir à un contenu, sinon satisfaisant, du moins mieux nettoyé ?

M. X. Je ne sais pas ce qu’il en est pour les modérateurs directement employés par TikTok, mais on pourrait commencer par améliorer les conditions de travail et le salaire des sous-traitants. Au Portugal, on dit que le niveau de vie est plus bas, mais le litre d’essence coûte 1,80 euro, pour un salaire mensuel de 750 euros. Une cellule psychologique pour les modérateurs serait souhaitable, et un meilleur accompagnement par les responsables de TikTok. Enfin, il serait utile de trouver un système permettant d’interdire l’application aux mineurs.

M. le président Arthur Delaporte. Je vous remercie pour ces propos éclairants.

Il s’agissait, à ce stade, de notre dernière audition programmée, mais nous nous réservons la possibilité d’en réaliser encore quelques-unes au cours de l’été. Au total, nous avons auditionné 163 personnes durant 90 heures cumulées. C’est le fruit d’un travail intense de la part des députés, des administrateurs et de nos collaborateurs, que je remercie pour leur engagement à nos côtés.

Le rapport sera présenté aux membres de la commission dans la première semaine de septembre. Ses conclusions seront rendues publiques la semaine suivante.

 

 

La séance s’achève à quatorze heures quarante-cinq.


Membres présents ou excusés

 

Présents.  Mme Josiane Corneloup, M. Arthur Delaporte, Mme Laure Miller, M. Thierry Sother.