Compte rendu

Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs

– Audition de Mme Rayna Stamboliyska, consultante, experte en gestion des risques, cyber-sécurité et affaires européennes, présidente de RS Strategy, auteure de l’ouvrage La face cachée d’Internet              2

– Audition de Mme Océane Herrero, journaliste, auteure de l’ouvrage Le système TikTok. Comment la plateforme chinoise modèle nos vies              8

– Audition de M. Bruno Patino, président de Arte France et auteur des ouvrages La civilisation du poisson rouge, Tempête dans le bocal et Submersion              15

– Présences en réunion................................23

 


Mercredi
23 avril 2025

Séance de 9 heures 30

Compte rendu n° 4

session ordinaire de 2024-2025

Présidence de
M. Arthur Delaporte,
Président de la commission

 


  1 

La séance est ouverte à neuf heures quarante.

La commission auditionne Mme Rayna Stamboliyska, consultante, experte en gestion des risques, cyber-sécurité et affaires européennes, présidente de RS Strategy, auteure de l’ouvrage La face cachée d’Internet.

 

M. le président Arthur Delaporte. Madame Stamboliyska, je vous remercie de prendre le temps de répondre à notre invitation.

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations et je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Rayna Stamboliyska prête serment.)

Mme Rayna Stamboliyska, consultante, experte en gestion des risques, cybersécurité et affaires européennes, présidente de RS Strategy, auteure de La face cachée d’internet. Pour écarter d’emblée ce point, je n’ai aucun conflit d’intérêts à déclarer. Dans le cadre de mon activité professionnelle, je mets un point d’honneur à ne prendre aucun engagement avec des partenaires technologiques. Lorsque j’interviens auprès de différentes organisations en tant que consultante, le fait de n’entretenir aucun lien commercial avec des vendeurs de solutions technologiques me permet de m’exprimer librement, sans crainte d’être pénalisée par certaines prises de position.

Les efforts entrepris pour protéger les gens en ligne – les enfants et plus largement les mineurs n’étant qu’une partie de la population concernée – intègrent peu les dimensions de cybersécurité. Les organismes qui proposent du conseil, comme le mien, ne s’adressent pas aux particuliers. Les solutions technologiques qui existent ne leur sont pas non plus destinées. L’approche se concentre sur le volet organisationnel et laisse de côté le volet individuel, y compris lorsqu’il s’agit de l’usage personnel d’équipements professionnels. Des raisons juridiques l’expliquent, car un employeur ne peut pas tout contrôler lorsqu’il met un ordinateur à disposition d’un salarié par exemple. Néanmoins, la situation est également liée à l’absence d’outils dédiés aux particuliers et a fortiori aux personnes plus âgées ou mineures. Il existe certes le contrôle parental, mais l’ingénierie est peu mobilisée pour traduire des cadres juridiques tels que le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) au bénéfice des publics individuels.

Dans le cadre des cours que je donne à Sciences Po Paris, il est très difficile de concilier l’enseignement de cet aspect organisationnel avec les interrogations légitimes que les étudiants, dont la moyenne d’âge est comprise entre 20 et 24 ans, ont vis-à-vis de leurs propres pratiques.

Je salue votre initiative, d’autant plus qu’il s’agit d’une commission d’enquête et non d’une mission d’information. Peu de recherches sont menées sur les conséquences de la forte présence en ligne des jeunes publics. Je ne fais pas référence à des sujets polémiques ou controversés comme le temps d’exposition aux écrans. Mon propos concerne les effets et les risques psychosociaux liés au fait d’avoir une socialité majoritairement intermédiée par la technologie, en l’occurrence les réseaux sociaux et les messageries instantanées, même si ces dernières ressemblent de plus en plus à des réseaux sociaux, voire à des marketplaces.

Mme Laure Miller, rapporteure. Si les individus ont peu de solutions technologiques à leur disposition, considérez-vous que le rôle de la puissance publique – et donc potentiellement du législateur – soit de trouver les moyens de les protéger ?

Pensez-vous que les dispositifs actuels, comme le RGPD ou le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital service act (DSA), sont suffisants pour protéger les individus ? Vous sembliez sous-entendre qu’ils n’ont pas été plus loin en raison d’une impossibilité technologique. Est-ce le cas ?

Mme Rayna Stamboliyska. Certains aspects sociaux et sociétaux sont difficiles à traduire dans la technologie, surtout qu’ils percutent de manière très forte et très rapide des sujets de libertés fondamentales. Néanmoins, les incitations à décliner le cadre réglementaire dans des outils technologiques restent très limitées.

Avec le RGPD, nous avons constaté l’apparition des technologies de renforcement de la vie privée (Privacy-Enhancing Technologies ou PETs). Si j’étais taquine, je dirais que les outils de gestion des cookies pourraient y être assimilés, mais il en existe d’autres. Ces technologies ont émergé pour répondre aux nouvelles exigences en matière de responsabilité et de redevabilité qui s’imposaient aux organisations traitant des données à caractère personnel. Tout cela reste cependant balbutiant et rien n’est fait pour encourager les fournisseurs de technologies à proposer des solutions plus performantes. Dans le discours dominant, la priorité est de trouver comment donner l’impression de respecter les règles.

Le problème est beaucoup plus profond que la technologie. En tant qu’écosystème, nous avons du mal à prendre conscience de l’importance d’avoir des règles de vie en commun et de les respecter. Tout le monde pense les appliquer, mais la plupart des gens ne sont pas capables de démontrer qu’ils le font vraiment. Cette dichotomie se retrouve dans l’absence de solutions technologiques adaptées. Il en existe pour les organisations, notamment pour la collecte et le traitement des données à caractère personnel dans le cadre du RGPD. La situation est plus délicate pour les particuliers. Des contraintes peuvent vous être imposées par votre employeur pour ce qui relève de votre activité professionnelle, mais vous faites ce que vous voulez dans votre vie privée.

Je regrette l’absence de débats concernant ces sujets, dont les acteurs commerciaux ne s’emparent pas non plus. Rien n’est fait pour étendre la prise en compte des exigences du cadre légal, de ses interdictions et de ses limites, à la sphère individuelle et ainsi en améliorer la protection, au-delà de l’installation d’un antivirus sur son ordinateur. Comme ces discussions restent rares et anecdotiques, de nombreuses personnes, dont des élus, veulent interdire et verrouiller ceci ou cela et les poncifs se multiplient sur le fait que tout est la faute d’internet ou des jeux vidéo. Il faudrait au contraire approfondir la réflexion et chercher de quoi la situation actuelle est le symptôme.

Sur TikTok, nous assistons par exemple à la résurgence des phénomènes « pro-ana », qui touchent en particulier les jeunes filles atteintes de troubles du comportement alimentaire. Des sites et des forums existaient toutefois depuis plus de dix ans. Des livres ont été écrits à ce sujet, notamment par les sociologues Antonio Casilli, de Mines-Télécom, et Paola Tubaro. Ils ont expliqué qu’il ne fallait pas interdire ces espaces, car ils représentaient un élément de socialité essentiel pour les jeunes qui ont des problèmes. Ils trouvent du soutien au sein de ces communautés, même si elles ont également des aspects négatifs comme l’effet d’entraînement. Tout n’est pas blanc ou noir. J’ai également retrouvé un article  que je pourrai vous envoyer  de chercheurs italiens qui ont étudié les interactions avec les réseaux sociaux de jeunes souffrant de troubles du comportement alimentaire, qui plus est en période de confinement. Ils soulignent également le soutien que ces plateformes, y compris TikTok, peuvent apporter à la guérison.

Comment concrétiser la volonté et la nécessité de protéger les personnes qui sont en ligne, en particulier les mineurs, qui sont extrêmement influençables et dont la psyché est en formation ? L’enjeu est d’identifier la manière de répondre à un problème de société grâce à la technologie. C’est la responsabilité des vendeurs de solutions, mais également celle d’autres acteurs, notamment de santé publique.

M. le président Arthur Delaporte. S’agissant de l’exposition à différents contenus, quelle part de responsabilité est imputable aux individus ou aux acteurs publics et quelle part est imputable à la plateforme ?

Par ailleurs, les échanges qui ont lieu sur la plateforme s’inscrivent-ils vraiment dans la continuité des forums qui existaient il y a une dizaine d’années ? Intuitivement, nous avons l’impression que ce ne sont pas les mêmes types d’interactions au sein des communautés. Quelles sont les différences qui peuvent être constatées et quels sont les risques qui en découlent ?

Mme Rayna Stamboliyska. Pour moi, la responsabilité est partagée. Les parents doivent échanger en permanence avec leurs enfants, mais, bien que ces interactions soient essentielles, nous ne pouvons pas tout déléguer aux familles ou aux enseignants. C’est d’ailleurs la raison pour laquelle le législateur vote des lois qui s’appliquent aux différents acteurs.

La responsabilité des plateformes – et de la plateforme dont nous parlons en particulier –, est de mobiliser la technologie pour permettre, ou ne pas permettre, des effets d’entraînement ou certains types d’interactions qui ne devraient pas avoir lieu sans le contrôle d’un adulte par exemple. Elles agissent toutefois dans un cadre défini par le RGPD et le DSA.

Le RGPD est actuellement en révision. Le moment est donc opportun pour corriger ce qui dysfonctionne, comme l’obligation de passer par une autorité chef de file. Il s’agit pratiquement toujours de l’autorité irlandaise, puisque les grandes plateformes ont installé leur siège européen en Irlande. Or elle a tendance à se montrer conciliante à leur égard. Il devrait être possible de saisir l’autorité de protection des données à caractère personnel du pays dans lequel on réside, pour avoir des échanges dans une langue que l’on maîtrise. Il serait ainsi plus facile d’exercer ses droits fondamentaux garantis par le RGPD. En Grèce, des plaignants ont fait appel à des membres de la société civile, en l’occurrence l’association Noyb et Max Schrems, afin de saisir, par leur entremise, l’équivalent de la Commission nationale de l’informatique et des libertés (CNIL) irlandaise et de provoquer un contrôle de TikTok concernant le transfert de données à caractère personnel vers la Chine. Ce processus est très complexe, ce qui limite la capacité des individus à exercer leurs droits, pourtant garantis par le RGPD.

Sur le papier, le DSA est très intéressant. Il semble accorder beaucoup de latitude à la Commission européenne pour mener des investigations. La réalité est toutefois plus nuancée.

Le DSA définit les responsabilités des plateformes s’agissant de la diffusion de contenus problématiques en ligne. Cette catégorie est très large, puisqu’elle recouvre à la fois les contenus de nature terroriste ou les contenus relatifs à des abus sexuels sur mineurs par exemple. La Commission peut mener des investigations pour contrôler comment ces aspects sont gérés. Les plateformes doivent en outre produire des rapports de transparence et faire appel à des tiers indépendants, qui auditent, article par article, la manière dont elles se conforment aux exigences du DSA.

Le DSA étant applicable dans son intégralité depuis le 17 février 2024, les premiers rapports de transparence et d’audit ont été publiés à la fin de l’année dernière. Or parmi les grandes plateformes, seule Wikipédia a obtenu une note positive de la part d’auditeurs indépendants. X, Meta avec Instagram et Facebook, ou TikTok ont des notes négatives.

Compte tenu de mon travail, je lis ces rapports, mais ce n’est pas le cas de 99 % des gens. S’ils les lisaient, ils ne les comprendraient probablement pas et, de toute façon, n’en tireraient pas pour conséquence d’engager des actions vis-à-vis de ces plateformes. Nous sommes confrontés à une forme de plafond de verre. C’est bien de définir des règles, mais il faut aussi s’assurer qu’elles soient comprises par les principaux concernés et leur donner de véritables leviers pour les faire respecter. Selon moi, le sujet ne relève pas tant du législateur que des autorités de contrôle.

Le RGPD par exemple oblige les plateformes et les organismes qui traitent de données à caractère personnel à disposer de politiques de confidentialité compréhensibles par tout un chacun, et non seulement par des juristes. Un audit a-t-il déjà réalisé ? Les organisations qui continuent à avoir des politiques de confidentialité écrites en tout petits caractères, rédigées par des juristes pour des juristes, ont-elles été sanctionnées ? Non, ce n’est pas le cas.

Si les recommandations ne suffisent pas, il faut forcer ceux qui ne respectent pas la loi à s’y conformer. La loi n’est pas une option. J’ignore si la solution consiste à ce que le législateur renforce les sanctions. J’ai quelques idées à ce sujet, mais ce n’est peut-être pas le lieu pour les exprimer.

Mme Laure Miller, rapporteure. Au contraire, vos suggestions nous intéressent.

Un premier pas a été franchi avec diverses législations et réglementations qui permettent de mettre l’accent sur la responsabilité des plateformes. Toutefois, nous ne pouvons pas nous contenter de rapports et de recommandations. Nous devons peut-être passer un cap supplémentaire.

Vous considérez que la responsabilité est partagée et qu’elle incombe aussi aux parents notamment. De nombreux pays à travers le monde ont pris des mesures pour réguler, voire interdire, certaines plateformes. En France, nous avons constitué cette commission d’enquête à l’Assemble nationale, après une initiative similaire au Sénat. Diriez-vous que cette prise de conscience, que nous constatons au niveau des États, existe également chez nos concitoyens ? Perçoivent-ils les limites et les dangers des réseaux sociaux, précisément de TikTok ? Les pouvoirs publics devraient-ils renforcer la sensibilisation, afin de réussir à faire passer ce message dans tous les foyers français ?

Par ailleurs, établiriez-vous un lien de causalité direct entre l’utilisation de TikTok par un enfant ou un adolescent et la dégradation de sa santé mentale ?

Mme Rayna Stamboliyska. Cette prise de conscience existe. Néanmoins, des sensibilités différentes subsistent : ce qui est dangereux pour moi ne l’est pas nécessairement pour vous ou pour mes voisins, et inversement.

Quand j’ai reçu votre convocation, j’ai discuté avec mes étudiants et avec des parents d’adolescents et d’adolescentes. La prise de conscience existe, mais quels en sont les effets ? Mes étudiants ne cautionnent pas les comportements des plus jeunes. Ils essayent parfois de les aider, mais affichent surtout une forme de résignation. Je les ai également interrogés sur la réaction de leurs parents, dont la priorité semble être les études. Cette attitude se comprend. Les parents encouragent et aident leurs enfants à grandir et à se construire. En revanche, ils les laissent agir un peu comme ils le souhaitent sur leur temps libre, y compris par fatalisme.

Certaines actions pourraient être « sponsorisées » par les pouvoirs publics, tout en utilisant des canaux et des modes de communication que les publics cibles peuvent comprendre. Si les messages viennent de gens comme vous ou moi, nous n’aurons comme réponse qu’un « OK Boomer » qui n’apportera rien. Nous ne serons pas écoutés. Il faut que les messages viennent de gens qui sont reconnus et crus par les jeunes. Nous pouvons, en revanche, nous adresser aux parents, sans toutefois tenir un discours de victimisation ou de culpabilisation.

Vous m’avez interrogée sur les différences entre les forums d’il y a dix ans et les mouvements actuels, notamment dans le domaine « pro-ana ». La principale tient à la volumétrie et à la viralité des contenus, ainsi qu’à l’utilisation de l’image et de la vidéo, notamment sur TikTok. Par le passé, les échanges étaient principalement textuels et se déroulaient par l’intermédiaire de sites plus ou moins statiques. Ce changement n’est pas bénéfique, car l’impact de ce que l’on voit est beaucoup plus fort.

J’ai fait beaucoup de statistiques dans ma carrière et je suis assez réticente à parler de lien de causalité. Néanmoins, des études montrent que les représentations véhiculées par des contenus multimédias sur les réseaux sociaux affectent la perception que les personnes qui les reçoivent ont d’eux-mêmes. L’image de soi peut s’en trouver altérée.

Nous avons constaté un regain d’engouement pour la chirurgie plastique après que des influenceuses ont montré des photos de leur corps, notamment sur Instagram. Beaucoup d’études ont été publiées à ce sujet. Elles sont de plus en plus nombreuses, comme celles d’Amnesty International, à montrer que l’exposition à certains types de contenus diffusés sur TikTok entraîne une dépréciation de l’image que les jeunes ont d’eux-mêmes. Je pourrais vous envoyer les liens vers ces travaux après l’audition.

Nous ne devons pas oublier les jeunes garçons. Des études commencent à mettre en évidence les conséquences de l’exposition à des contenus émanant de la manosphère, qui véhiculent des images stéréotypées de la masculinité. Certains influenceurs, comme Andrew Tate et d’autres prônent en outre une vision très toxique des rapports entre les femmes et les hommes, des questions de genre et de la répartition des rôles sociaux.

M. le président Arthur Delaporte. Je vais laisser la parole aux députés qui souhaitent s’exprimer.

Vous pourrez nous envoyer à l’issue de l’audition les différents éléments que vous avez mentionnés, en particulier bibliographiques, pour alimenter notre réflexion. Si vous le souhaitez, vous pourrez également nous adresser des compléments sur des points que vous n’avez pas pu évoquer. Nous sommes notamment intéressés par ce qui concerne les solutions technologiques qui permettraient d’assurer la protection des usagers, en précisant éventuellement les différentes options législatives.

M. Thierry Sother (SOC). Vous avez évoqué le DSA et les avis émis par des tiers indépendants. Selon vous, quel serait l’impact d’une obligation d’affichage de la notation, dans l’esprit du nutri-score ou de la mention d’un âge minimum pour le visionnage de certains films ? Une telle mesure serait-elle perçue uniquement comme un outil de « boomer » ? Pourrait-elle avoir un effet ?

Mme Isabelle Rauch (HOR). Vous y avez déjà répondu en partie, mais l’impact des plateformes est-il différencié entre les jeunes filles et les jeunes garçons ? Est-il possible de le mesurer ? Le ciblage doit-il être différent selon le sexe et, le cas échéant, quelles adaptations seraient nécessaires ?

M. Thierry Perez (RN). Selon moi, TikTok est une catastrophe sociétale et psychologique. Néanmoins, l’application existe. Une solution technique, s’appuyant peut-être sur l’intelligence artificielle (IA), pourrait-elle au moins protéger les enfants de moins de 13 ans et les empêcher d’accéder à cette plateforme ? Nous constatons que des enfants de 8, 9 ou 10 ans en sont déjà des utilisateurs très actifs, ce qui les expose à des contenus qui ne sont pas du tout appropriés à leur âge.

Mme Rayna Stamboliyska. L’idée d’un mécanisme comme le nutri-score est intéressante. Néanmoins, lorsqu’un film est marqué comme réservé aux plus de 18 ans parce qu’il est trop violent, je le regarde quand même. Je mets juste ma main devant mes yeux pour ne pas voir certaines images. De la même façon, cessons-nous de consommer certains aliments parce qu’ils sont classés « D » ?

Faudrait-il dépasser l’incitation et faire en sorte que l’affichage soit véritablement respecté ? La solution serait-elle d’associer le marquage avec des moyens technologiques pour interdire le visionnage de certains contenus, par exemple aux moins de 13 ans ? Il n’est pas facile de savoir jusqu’où aller.

L’IA est à la mode, mais les pratiques ne sont pas toujours vertueuses, comme la prédation de contenus. Je serai donc assez prudente s’agissant de son utilisation. Nous disposons déjà de technologies, qui ne sont pas de l’IA générative comme ChatGPT, mais qui sont aussi de l’IA, et qui sont notamment utilisées dans les filtres antispam. La difficulté est, encore une fois, de parvenir à les imposer aux principaux concernés, en l’occurrence les plateformes. TikTok par exemple n’est pas très enclin à ce que des chercheurs accèdent aux données de la plateforme, alors que le DSA le prévoit. Donc, si nous fixons de nouvelles obligations, comment nous assurer qu’elles seront respectées ? C’est le véritable enjeu.

M. le président Arthur Delaporte. Je vous remercie.

 

 

 

Puis, la commission auditionne Mme Océane Herrero, journaliste, auteure de l’ouvrage Le système TikTok. Comment la plateforme chinoise modèle nos vies.

M. le président Arthur Delaporte. Madame Herrero, je vous remercie de prendre le temps de répondre à notre invitation.

Avant de vous donner la parole pour une intervention liminaire qui précèdera notre échange, je vous prie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations – par exemple si vous avez été rémunérée par une plateforme numérique – et je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(Mme Océane Herrero prête serment.)

Mme Océane Herrero, journaliste, auteure de Le système TikTok. Comment la plateforme chinoise modèle nos vies. Je n’ai pas de lien d’intérêt avec des entreprises ou plateformes dont il sera question. Je suis uniquement rémunérée par mon employeur, pour mon activité de journaliste.

J’avais commencé à m’intéresser à TikTok dans ma rédaction de l’époque et mon travail s’est poursuivi par la rédaction de ce livre, que j’ai débutée en 2022. Même si son audience se développait assez rapidement dans la société française, l’image de TikTok restait celle d’une application pour adolescents réalisant des chorégraphies. Ce n’était pas encore un sujet politique et mon thème de recherche était perçu comme un peu frivole par ceux qui suivaient de loin l’actualité des réseaux sociaux.

Trois ans plus tard, TikTok a connu une croissance exponentielle et, selon Médiamétrie, compte plus de 22,8 millions d’utilisateurs en France. Ils passent en moyenne une heure et quarante-sept minutes par jour sur l’application. Elle est devenue une plateforme où les utilisateurs se rendent pour se divertir, savoir quoi porter, quoi regarder, quoi manger et parfois même pour s’informer. C’est un espace de découverte et de formation d’identité avec un fort pouvoir prescripteur, qui concurrence la télévision, les sites d’information et les autres réseaux sociaux pour capter notre attention.

La situation politique de l’application a également évolué en trois ans, ce qui explique que nous cherchions aujourd’hui à évaluer son impact sur la jeunesse. Alors qu’elle est l’une des plus téléchargées par les adolescents, elle est également d’origine chinoise. De ce fait, elle est perçue par les autorités et les régulateurs comme représentant un enjeu à la fois de santé publique et de géopolitique, nécessitant des mesures spécifiques et souvent fortes.

TikTok tire son originalité de deux innovations principales, que sont un fil de vidéos verticales, immersif et sans fin, et un algorithme perfectionné qui trouve à tout instant la vidéo qui va plaire à l’utilisateur et l’inciter à rester plus longtemps sur l’application pour regarder toujours plus de contenus.

Au cours des dernières années, le modèle de TikTok a été largement copié et imité par ses concurrents. Il influence la manière dont nous consommons tous des contenus en ligne. Instagram et X proposent désormais l’équivalent du fil « Pour toi », avec le même type de sélection algorithmique. Ces plateformes ont mis en place des fils de vidéos verticales, comme l’ont également fait Facebook, Snapchat ou YouTube.

Nous pouvons choisir de ne pas installer TikTok, mais il est très difficile d’avoir une expérience des réseaux sociaux qui ne soit pas influencée par son modèle et par ce qu’il a pu apporter comme innovation en matière de consommation de contenus en ligne. Devons-nous nous en inquiéter ? En tout cas, les régulateurs et de nombreux professionnels de la santé mentale ou de la jeunesse se penchent sur cette question.

Au cours de la préparation de mon livre, j’ai échangé avec des utilisateurs, des psychologues et des responsables de la plateforme pour identifier les risques. Plusieurs éléments sont revenus assez régulièrement. Chez les utilisateurs, l’inquiétude la plus fréquente concerne l’impact de TikTok sur le temps d’attention. Dès qu’ils ont cinq minutes libres dans une journée, ils ont du mal à ne pas ouvrir l’application. Beaucoup indiquent que faire des tâches dans la longueur, comme lire un livre ou regarder un film, voire un épisode d’une série, devient un défi pour leur capacité de concentration. La manière dont TikTok parvient à créer une addiction est explorée par des professionnels et par la plateforme elle-même. L’application renforcerait en outre le cyberharcèlement et affecterait négativement l’image que les jeunes ont d’eux-mêmes, en particulier les jeunes filles.

 Concernant la diffusion de contenus dangereux, des manquements assez manifestes de la part de la plateforme ont pu être documentés par des confrères en France et à l’étranger et par moi-même, à la fois par le biais d’observations et d’entretiens avec des modérateurs. Certains de ces manquements ressurgissent dans l’actualité, notamment à propos des contenus liés à l’image du corps et à la promotion des troubles du comportement alimentaire, comme la tendance Skinny Tok.

Ces problèmes qui persistent depuis plusieurs années portent atteinte à l’image de TikTok, qui a déployé des stratégies de communication et d’affaires publiques pour lever les inquiétudes et tenter d’améliorer son image auprès du grand public et des régulateurs. Elles nous éclairent sur les critiques que la plateforme souhaite contrer rapidement, comme ses liens avec la Chine. Elle a également noué des partenariats culturels, notamment avec le Salon du livre à Paris ou le Festival de Cannes, et mène des campagnes de publicité en faveur de sa communauté littéraire, appelée BookTok. La crainte d’être perçue comme ayant un impact négatif sur la jeunesse et de ne pas être un espace de culture et d’apprentissage l’a donc fait réagir.

La plateforme a par ailleurs multiplié les échanges et organisé des déplacements pour la presse dans les centres dédiés à la sécurité de l’application et à la modération. Elle a renforcé sa coopération avec les autorités, notamment françaises, pour normaliser sa position dans le paysage des réseaux sociaux.

Néanmoins, TikTok continue de faire face à une pression politique sans doute plus intense que d’autres plateformes. Les États-Unis ont menacé l’application d’interdiction et d’autres pays ont déjà mis cette menace à exécution, sur fond de conflits géopolitiques avec la Chine. Elle est également visée par plusieurs enquêtes au niveau européen.

M. le président Arthur Delaporte. J’ai été très intéressé par votre livre, qui a le mérite de mettre en lumière certains éléments sur lesquels je reviendrai après l’intervention de Mme la rapporteure.

Mme Laure Miller, rapporteure. En prenant un peu de recul, on s’aperçoit que TikTok n’a aucun intérêt à modifier son algorithme, voire à modérer certains contenus. Nos efforts pour encadrer ou réguler son activité ne sont-ils pas vains ? Le bras de fer n’est-il pas plus compliqué que nous pourrions d’emblée le penser ? Quel est votre point de vue à ce sujet ? La lecture de votre ouvrage permet de réaliser la puissance de cette plateforme, qui constitue un vrai de fait de société. Puisqu’elle n’a aucun intérêt à revoir ses pratiques, comment l’y contraindre ? La solution n’est-elle pas de prendre des décisions plus radicales ?

Par ailleurs, lorsque j’ai interrogé la personne que nous avons auditionnée avant vous sur l’existence d’un lien de causalité entre l’usage de TikTok et la dégradation de la santé mentale des jeunes, elle a globalement expliqué qu’un contenu pouvait être perçu comme problématique ou dangereux par certains parents, mais pas par d’autres. Sa réponse m’a fait penser à un possible parallèle avec l’alcool ou la cigarette. Il fut un temps où leur nocivité pour la santé n’était pas si évidente. Puisque le diagnostic n’était pas clairement posé, de jeunes gens pouvaient boire ou fumer sans que cela soulève de difficulté. Pour mieux sensibiliser les parents et accélérer la prise de conscience, ne faudrait-il pas poser un diagnostic objectif et incontestable sur la nocivité de TikTok pour la santé mentale des jeunes ?

Mme Océane Herrero. Concernant la volonté de TikTok de prendre en compte la sécurité des utilisateurs dans sa politique de modération, nous constatons que les plateformes ne sont pas immunisées par rapport à une dégradation de leur image publique. Lorsque X – ex-Twitter – a modifié ses règles de modération pour autoriser une liberté d’expression à l’américaine, cela lui a valu l’ouverture d’enquêtes au niveau européen, mais aussi le départ de certains annonceurs, qui ont décidé de se retirer de ce réseau social ou en tout cas d’y suspendre leur activité. Les annonceurs choisissent les espaces dans lesquels ils estiment que leurs contenus seront les plus valorisés. Comme ils sont à l’origine d’une part substantielle des revenus de TikTok, la plateforme a intérêt à préserver son image publique.

Ce levier financier est réel, même s’il ne signifie pas que la politique de modération de TikTok est parfaite, loin de là. Beaucoup de déclarations restent au niveau des intentions. La plateforme prétend modérer les contenus qui pourraient promouvoir les troubles du comportement alimentaire par exemple. Or il est très facile de les retrouver en explorant l’application.

S’agissant des décisions qui pourraient être prises à l’encontre de TikTok, la question est de savoir sur quelle base elles s’appuieraient. Pour les Américains, le problème principal était le lien de la plateforme avec la Chine. Dans cette logique, contraindre la vente de la solution technique et de l’algorithme constitue une solution pour supprimer le risque, bien qu’elle crispe évidemment la Chine. Si le sujet est l’impact de TikTok sur les mineurs, cette application devrait-elle être la seule concernée, alors que beaucoup d’autres se sont inspirées de son modèle, ont tenté d’imiter la finesse de son algorithme et repris le format vertical des vidéos qui produit des effets similaires chez les utilisateurs ?

Mme Laure Miller, rapporteure. Vous avez rencontré d’anciens modérateurs de TikTok. Comment travaillent-ils ? Leur méthode est-elle partiellement efficace ou pas du tout ?

Mme Océane Herrero. J’ai échangé avec plusieurs modérateurs qui opéraient pour le marché français. Ils avaient des fonctions différentes, car la modération est segmentée.

Une modératrice était par exemple spécialisée dans les vidéos diffusées en direct. Ces dernières n’étant accessibles qu’à des utilisateurs de plus de 18 ans, sa principale mission était de s’assurer que cette règle était respectée et que des mineurs n’apparaissaient pas dans ces publications, qui peuvent attirer des adultes mal intentionnés. Ce travail est très intense, puisqu’il suppose de visionner plus d’une dizaine de vidéos simultanément. Il faut également s’assurer que les contenus ne comportent pas de scènes de violence ou d’actes contraires aux règles d’utilisation de TikTok.

Ces postes connaissent un turnover important, car ils sont épuisants. Pour les modérateurs avec lesquels j’ai pu échanger, ils ne sont pas un projet de carrière. Ils font ça pendant un certain temps, avant de passer à autre chose.

Un autre modérateur avait pour mission de repérer des cigarettes ou de l’alcool dans les vidéos postées sur la plateforme, ces produits étant contraires aux règles d’utilisation de TikTok. Elles n’étaient pas diffusées en direct, mais il devait passer au crible environ une centaine de vidéos par heure.

M. le président Arthur Delaporte. Dans votre livre, vous faites une différence entre Facebook et Instagram, qui montreraient la vie extérieure et la manière dont chacun se met en scène, et TikTok, qui s’intéresserait à la vie intérieure. Cette dichotomie légitime les travaux de notre commission d’enquête, qui portent précisément sur les effets psychologiques de TikTok. Considérez-vous que les spécificités de l’application demeurent, même si l’imitation dont elle a été l’objet par d’autres plateformes rend les frontières plus floues ? Vous faites également référence à des mécanismes d’addiction, comparables à ceux des casinos. Pourriez-vous développer ce point ?

Par ailleurs, les chercheurs que nous avons auditionnés ont évoqué des phénomènes de désappropriation des usages. Vous avez indiqué que des jeunes – ou d’ailleurs des adultes – se sentaient impuissants et n’arrivaient pas à modérer leur utilisation de la plateforme. Comment agir sur ces pratiques, y compris dans un contexte de stigmatisation éventuelle du réseau ?

Quelles relations la plateforme entretient-elle avec les influenceurs ? Vous avez observé qu’elle avait contacté des tiktokeurs ou des influenceurs d’autres réseaux sociaux pour les attirer sur l’application, en échange de rémunération. À votre connaissance, ces pratiques perdurent-elles ? Les modalités de rémunération sont opaques et évoluent de manière constante. Pouvez-vous néanmoins essayer de dresser un état des lieux ?

Dans votre livre, vous montrez le modèle économique sous-jacent, qui incite les utilisateurs à publier un grand nombre de contenus et à privilégier les contenus polémiques – ou dangereux –, car ils génèrent des vues. Vous avez vous-même constaté la présence de contenus pédopornographiques, voire zoophiles semble-t-il. Pouvez-vous être plus précises sur les pratiques choquantes que vous avez relevées ? Avez-vous effectué des signalements et, le cas échéant, les contenus ont-ils été supprimés ?

Enfin, s’agissant de la régulation internationale, vous mentionnez une étude de l’équivalent irlandais de la Commission nationale de l’informatique et des libertés (CNIL) lancée en 2023, mais dont les résultats n’étaient pas connus au moment de la publication de votre livre. Savez-vous s’ils l’ont été ? Quelles sont les différentes procédures engagées à l’encontre de TikTok à l’échelle européenne ?

Mme Océane Herrero. La dimension d’exploration de soi est l’un des principaux éléments qui m’ont interpellée quand j’ai commencé à m’intéresser à TikTok. On peut y voir des vidéos assez troublantes de personnes qui racontent, face à la caméra et parfois en pleurant, des évènements très intimes, comme une rupture, un deuil ou une déception professionnelle. On imagine mal ces contenus sur d’autres plateformes, comme Facebook, où ils seraient vus par leurs familles et leurs proches. L’espace semble moins s’y prêter.

Quand vous créez une vidéo, l’algorithme va la proposer aux « bonnes » personnes, c’est-à-dire à des personnes, généralement assez similaires à vous, qu’elle intéressera. Il y a un côté rassurant et réconfortant, car cela permet parfois d’obtenir une forme de soutien virtuel. Il peut néanmoins y avoir un effet boomerang, si elle est visionnée par des personnes qui ne sont pas sur la même longueur d’ondes et qui réagissent de manière agressive, pouvant éventuellement aller jusqu’au harcèlement.

Selon moi, TikTok reste une plateforme où les utilisateurs ont tendance à davantage se dévoiler que sur les autres, souvent sans en mesurer les conséquences et réaliser la puissance de l’algorithme. Quand vous postez une vidéo, vous ne savez jamais si elle va toucher 10, 10 000 ou 100 000 personnes. Pour un créateur de contenus qui s’inscrit dans une démarche professionnelle ou qui recherche activement une audience, un tel fonctionnement revient à jouer à la roulette. Il est possible d’obtenir une certaine célébrité du jour au lendemain, puis d’avoir un nombre de vues qui plafonne, apparemment sans raison. Les utilisateurs peuvent se retrouver désemparés, car ils ne savent pas pourquoi leurs contenus ne plaisent pas à la plateforme. Les influenceurs avec lesquels j’ai échangé m’ont expliqué qu’ils recherchaient des voies de contournement, en variant constamment la longueur de leurs vidéos ou la fréquence de leur publication. Certains postent jusqu’à dix vidéos par jour, en espérant que l’une d’elles rencontrera suffisamment de succès pour renforcer leur notoriété.

S’agissant de la rémunération des influenceurs, TikTok avait lancé un programme lors de son arrivée en France pour attirer des créateurs de contenus avec une audience relativement modeste. L’idée était de leur permettre d’accroître rapidement leur notoriété et de les rendre ainsi fidèles à la plateforme. J’ignore si cette démarche perdure, mais elle n’est plus forcément nécessaire, car TikTok a atteint une taille critique. De fait, elle est devenue la plateforme sur laquelle beaucoup d’utilisateurs postent leurs vidéos en premier, avant de les republier sur Instagram ou d’autres applications pour démultiplier leur audience. Il est plus rare de faire l’inverse, car TikTok a internalisé des outils de montage qui incitent les créateurs de contenus à rester dans cet écosystème de la création à la publication de leurs vidéos.

 Je n’ai pas échangé récemment avec des créateurs de contenus au sujet de la rémunération proposée par TikTok en fonction du nombre de vues. Je préfère ne pas faire d’estimations qui pourraient se révéler fausses.

M. le président Arthur Delaporte. Pouvez-vous nous rappeler les chiffres que vous avez cités dans votre livre, pour que les membres de la commission disposent au moins d’un ordre de grandeur ?

Mme Océane Herrero. Au moment de la rédaction de ce livre, la rémunération était de 20 euros pour un million de vues. Elle peut ne pas paraître énorme, mais elle est à comparer avec celle proposée par les autres plateformes.

M. le président Arthur Delaporte. J’ai retrouvé un passage où vous indiquez que les créateurs de quelques pays, dont la France, pouvaient prétendre à une tarification d’environ 1 euro par tranche de 1 000 vues pour toutes les vidéos de plus d’une minute. Ces chiffres sont cohérents avec ceux qui nous ont été mentionnés il y a quelques semaines, mais il me semble que le système a été modifié. Nous interrogerons les tiktokeurs à ce sujet lorsque nous les auditionnerons.

Mme Océane Herrero. TikTok utilise sa politique de rémunération pour orienter les créateurs vers les contenus qu’elle souhaite voir se développer. En l’occurrence, elle proposait une rémunération plus importante pour encourager la publication de vidéos de plus d’une minute, qui sont un peu plus construites et considérées comme des vidéos longues à l’échelle de la plateforme.

Lorsque j’ai constaté des contenus problématiques, je n’ai pas effectué de signalement à proprement parler. Pendant l’écriture de mon livre, mes relations avec TikTok ont été compliquées. Malgré plusieurs relances, je n’ai obtenu que des réponses écrites et assez formatées à mes questions. Depuis cette époque, la situation a évolué, notamment compte tenu de la pression régulatrice en France et dans d’autres pays. TikTok a renforcé sa communication et échange davantage avec les journalistes. Il est désormais plus facile d’avoir des informations.

Concernant la CNIL irlandaise, la procédure ne semble pas achevée s’agissant du respect de la vie privée des enfants. En revanche, Bloomberg a annoncé la semaine dernière qu’une sanction devrait être prononcée au sujet du transfert de données vers la Chine. Les procédures en cours recouvrent plusieurs aspects, dont la protection de la vie privée, l’utilisation et le lieu de conservation des données des utilisateurs européens ou les pratiques de modération. Ces différents sujets sont examinés par la Commission européenne.

Mme Isabelle Rauch (HOR). Qu’en est-il de la modération quand la démarche de retrouver certains contenus est volontaire ? Qu’est-ce qui peut inciter un jeune à rechercher des contenus problématiques ? Y est-il encouragé par d’autres jeunes ? Quand il les visionne, est-il ensuite exposé à des contenus similaires ? Ces vidéos peuvent-elles se propager auprès d’autres utilisateurs ?

Mme Océane Herrero. TikTok modère les contenus qui évoquent le suicide par exemple. Un message de prévention s’affiche lorsque vous recherchez des vidéos traitant de ce sujet. Pour contourner cette politique, les utilisateurs ont recours à des mots détournés, comme unalive, dont la signification est « qui n’est plus en vie » en anglais. Aujourd’hui, le même message de prévention apparaît si vous tapez ce mot. En revanche, ce n’est pas le cas si vous changez l’une des lettres par un chiffre.

Les utilisateurs qui souhaitent parler de sujets sensibles comme le suicide jouent au chat et à la souris avec la plateforme. Leur objectif est parfois de faire de la prévention et non d’inciter à attenter à sa vie, mais tous les contenus sont mélangés. Lorsque vous regardez plusieurs vidéos sur le même thème, l’algorithme le prend en compte pour alimenter le fil « Pour toi », sans faire preuve du recul qui serait nécessaire compte tenu de la sensibilité de ces questions, notamment auprès d’un public d’adolescents.

M. Thierry Perez (RN). Des millions de jeunes de 9, 10 ou 12 ans ont une addiction à TikTok. Si la plateforme ne connaît pas d’évolutions majeures, pouvons-nous imaginer les conséquences sur le développement de leur cerveau et leurs comportements quand ils seront devenus adultes, qu’ils seront censés faire des études, puis travailler ? Ma propre vision est assez noire, compte des problèmes de concentration, de sommeil ou de socialisation auxquels ils risquent d’être confrontés, mais quelle est la vôtre ?

Mme Océane Herrero. N’étant pas psychologue, je laisserai les professionnels se livrer à un diagnostic prospectif. En revanche, vous pouvez vous référer à une étude interne à TikTok qui date de 2019. Elle a été révélée dans le cadre d’une enquête de la justice américaine, après la plainte de plusieurs États qui accusaient la plateforme de ne pas avoir pris de mesures suffisantes et de tromper les utilisateurs sur la sécurité de l’application. Certaines informations auraient dû être caviardées, mais le document a été publié tel quel.

Dans cette étude, TikTok évalue que le visionnage de 260 vidéos est nécessaire pour que l’utilisateur développe une habitude de consommation. Ce chiffre peut paraître élevé, mais il est rapidement atteint sur une plateforme de vidéos courtes. TikTok reconnaît par ailleurs qu’une utilisation compulsive de l’application est corrélée à une série d’effets négatifs sur la santé mentale, en altérant les capacités d’analyse, de mémorisation et de compréhension contextuelle, la qualité des échanges, l’empathie et en provoquant une augmentation de l’anxiété. Ces constats sont un peu anciens, puisqu’ils datent de 2019. Il serait intéressant de savoir si TikTok continue de mener ce type de travaux, sachant que ces sujets donnent également lieu à des recherches de la part de chercheurs et psychologues indépendants.

M. le président Arthur Delaporte. La commission d’enquête souhaite comparer la version mondiale, voire française, de TikTok à la version chinoise. Selon vous, qu’est-ce qui différencie TikTok et Douyin, notamment en matière de protection des mineurs ?

Mme Océane Herrero. Le fonctionnement de Douyin est régi par les règles définies par le gouvernement chinois pour les médias sociaux et les jeux vidéo. Le temps passé quotidiennement sur l’application est limité, ainsi que son usage la nuit. La modération est effectuée conformément aux principes de la censure chinoise. Il n’y a donc pas la même liberté d’échange que sur TikTok.

S’agissant de la protection des mineurs, Douyin promeut des contenus pédagogiques, avec l’objectif de rester un espace d’apprentissage. Pour m’être rendue en Chine l’an dernier et avoir vu des enfants interagir avec l’application, j’ai néanmoins constaté qu’ils pouvaient être exposés à des contenus violents. Par exemple, une petite fille d’environ 6 ans, qui n’était pas sous la surveillance de sa mère, regardait une vidéo en partie générée par l’IA sur les morts les plus violentes de l’histoire. La question de la modération constitue donc un enjeu global.

M. le président Arthur Delaporte. Vous venez de citer un exemple, mais quels types de vidéos choquantes, auxquelles les mineurs peuvent être exposés, avez-vous pu visionner sur TikTok ?

Mme Océane Herrero. Ces vidéos concernent tous les sujets que vous pouvez imaginer. Les jeunes sont généralement intéressés par les contenus qui testent les limites et TikTok n’apporte peut-être pas une réponse suffisante en matière de modération ou de sélection des vidéos promues auprès de ce public.

Lors de la rédaction de mon livre, je mettais habituellement de côté les contenus hypersexualisés ou violents auxquels j’étais confrontée et, au bout d’un certain temps, une partie d’entre eux disparaissait. Des signalements avaient probablement été effectués par des utilisateurs ou ces vidéos avaient été détectées par l’algorithme, qui scanne tous les contenus postés.

M. le président Arthur Delaporte. Souhaitez-vous nous faire part d’un dernier élément, qui vous semble essentiel et qui n’aurait pas encore été abordé ?

Mme Océane Herrero. Non. Si nécessaire, je pourrais vous envoyer une contribution ou des réponses écrites à votre questionnaire.

M. le président Arthur Delaporte. Je vous remercie.

 

 

Enfin, la commission auditionne M. Bruno Patino, président de Arte France et auteur des ouvrages La civilisation du poisson rouge, Tempête dans le bocal et Submersion.

M. le président Arthur Delaporte. Monsieur Patino, je vous remercie de prendre le temps de répondre à notre invitation.

Avant de vous donner la parole pour une intervention liminaire qui précèdera notre échange, je vous prie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations – par exemple si vous avez été rémunéré, directement ou indirectement, par une plateforme numérique – et je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Bruno Patino prête serment.)

M. Bruno Patino, président de Arte France et auteur de La civilisation du poisson rouge, Tempête dans le bocal et Submersion. Je n’ai jamais été rémunéré par une plateforme numérique. Il y a quelques années, j’ai siégé au comité d’experts de la Digital News Initiative de Google, qui était chargé d’évaluer les projets devant être technologiquement aidés dans le domaine de l’information. Cette mission était toutefois indépendante de Google et bénévole.

La question des réseaux sociaux – au sens large, mais aussi plus spécifiquement à propos de certains acteurs comme TikTok, qui connaît aujourd’hui la plus forte croissance – me semble fondamentale pour comprendre l’évolution de notre espace public. Tous les sociologues ont montré que ces applications étaient devenues, au cours des dernières années, des outils de socialisation, qui inspirent les rapports entre les individus, en particulier les plus jeunes. Elles sont par ailleurs des outils d’information, de divertissement et de culture, qui construisent l’environnement dans lequel évolue une part grandissante de nos contemporains.

Nous sommes face à un double phénomène.

Le premier aspect, à propos duquel j’ai beaucoup écrit, est lié au fait que ces réseaux ont tous été construits par des acteurs numériques qui se rémunèrent grâce à l’économie de l’attention, c’est-à-dire par de la publicité. Du point de vue économique, leur objectif est que nous y consacrions un temps sans cesse croissant.

Un réseau social comme Facebook aurait pu être payant sur abonnement. D’autres modèles économiques auraient pu être imaginés, en s’inspirant du modèle contributif en code source ouvert de Wikipédia par exemple. L’influence du contexte historique des années 20062007, marqué par le développement de l’économie de la donnée, a toutefois été déterminante.

Les acteurs ont mis en place à la fois des outils capables de procéder à l’extraction maximale des données des utilisateurs pour les monétiser d’un point de vue publicitaire et des outils de captologie permettant de développer une certaine forme d’assuétude aux écrans. Rien de tout cela n’est un accident. C’est la conséquence directe du modèle économique de ces réseaux sociaux.

Le second aspect, qui me semble souvent sous-estimé par les analystes et qui ne dépend pas de leur modèle économique, tient à l’absence de contexte. Au cours des derniers siècles, celui-ci normait toutes les conversations. Comme le disait le philosophe espagnol Ortega y Gasset, « je suis moi et ma circonstance ». À 15 ans, quand on me demandait de définir ce qu’était l’information, je répondais par le contexte. L’information, c’était ce que je lisais dans le journal, ce que j’écoutais au journal radiophonique le matin ou ce que je voyais au journal télévisé le soir. Nos conversations ne sont pas de même nature selon que nous sommes au bistrot, en audition parlementaire, avec des amis, etc. Notre société s’est construite en ayant des conversations différentes selon le contexte.

Le contexte posait le décor du type de conversations que nous devions avoir et la manière dont nous devions les interpréter. Si quelqu’un me dit quelque chose au bistrot, accoudé au zinc, je ne le prends pas forcément aussi au sérieux que quelqu’un qui s’exprime dans un amphithéâtre universitaire. Le contexte étant différent, ma perception de ce que j’entends ou de ce que je vois l’est également. Il existe un filtre contextuel.

Les réseaux sociaux ont la particularité de ne pas proposer de contexte, ou plutôt de laisser l’utilisateur comprendre lui-même la nature de la conversation à laquelle il assiste et la nature du message auquel il est soumis. Certes, vous prenez plus au sérieux ce qui émane du compte de l’Agence France-Presse (AFP) que de celui de Toto27, mais les études sociologiques montrent que le détenteur du compte a moins d’importance que la plateforme sur laquelle on se trouve.

Le modèle de l’économie de l’attention vise à rendre les utilisateurs de plus en plus dépendants. Le mélange des contextes, des cultures et de tous les types de messages entraîne en outre une perte de repères et sape la confiance.

Toutefois, les réseaux sociaux ne sont pas des espaces sans organisateur. D’après les dernières études qui ont été publiées, les utilisateurs ont pris conscience du rôle joué par l’algorithme et ont compris que ce qu’ils voyaient n’était pas dû au hasard. Ce qui leur est proposé est défini en fonction de leurs propres données et des « intérêts » de la plateforme. Il y a dix ans, cette perception n’était pas aussi claire. Beaucoup pensaient que le contenu était aléatoire, qu’il était lié à la chronologie ou qu’il dépendait de l’activité de leurs amis. Ils savent maintenant qu’il existe un organisateur caché.

Dans le modèle de l’attention, les messages sont organisés de façon à maximiser les revenus publicitaires. Ils sont classés selon leur efficience économique. L’objectif est que vous les regardiez, même si vous êtes occupés à autre chose, et que vous les partagiez le plus rapidement possible. L’un des principaux leviers est l’émotion, mais pas n’importe laquelle. La joie ou le rire ne provoquent pas autant de viralité que la colère et la rage.

Les motivations de l’organisateur peuvent être économiques, mais M. Elon Musk nous démontre que l’algorithme peut aussi être utilisé à des fins idéologiques. Nous le constatons depuis que Twitter est devenu X.

Aux États-Unis, les réseaux sociaux se sont construits à l’abri de la section 230 du Communications Decency Act, qui distingue les éditeurs et les hébergeurs. Elle a acté ce qui a été appelé « la neutralité du net ». Des tuyaux ne peuvent pas être responsables des flux qui y circulent, comme le facteur n’est pas responsable du contenu des lettres qu’il distribue. Néanmoins, puisqu’il existe un organisateur, ce ne sont pas de simples tuyaux.

Les plateformes ne sont pas des éditeurs, puisqu’elles ne créent pas les contenus qu’elles proposent. En revanche, elles en accélèrent la diffusion et en amplifient la portée. Sachant par ailleurs que les messages sont choisis en fonction de leur efficience économique  donc de leur degré émotionnel – ou de leur posture idéologique, il est difficile de considérer qu’elles n’ont pas de responsabilité, même si la nature de cette dernière n’a pas encore été définie.

Prétendre que la neutralité existe quand vous amplifiez des messages que vous choisissez et que vous accélérez leur diffusion est une vue de l’esprit, d’autant plus quand vous créez une forme de dépendance. La difficulté est cependant de qualifier cette responsabilité. Tout tourne autour de cela.

Une Nation – ou l’Europe – a besoin d’exercer une forme de souveraineté sur les outils qui mettent en relation les individus. Même si nous sommes dans le cadre d’une audition parlementaire, je vais faire un raccourci. Je suppose que si M. Elon Musk devenait propriétaire de La Poste, les Français considèreraient que ce n’est pas à lui de décider du courrier qui est distribué. Ils demanderaient des garanties quant au respect de règles de neutralité.

Pour des raisons technologiques et capitalistiques ou par manque de volonté, les Européens n’ont pas réussi à développer d’outils qui mettent en relation les individus au cours des deux dernières décennies. Ma conviction, qui est également celle du chercheur américain Ethan Zuckerman, ancien directeur du Center for Civic Media du Massachusetts Institute of Technology (MIT), est que tant que nous ne disposerons pas de solutions souveraines, nous aurons du mal à imposer une régulation, car le rapport de force ne nous sera pas forcément favorable.

Quelques pistes sont envisageables, mais elles ne constituent qu’un optimum de second rang par rapport au fait d’avoir nos propres outils. Pour M. Ethan Zuckerman, l’Europe devrait – comme elle l’a fait au lendemain de la seconde guerre mondiale en se dotant de fréquences permettant d’assurer sa souveraineté sur la télévision et la radio – disposer de services publics en matière de numérique. Je referme néanmoins cette parenthèse.

S’agissant de l’addiction, il faudrait promouvoir la responsabilité algorithmique. Il ne s’agit pas de transparence, parce que certains aspects sont couverts par le secret des affaires et que très peu de gens sont capables de comprendre l’évolution quotidienne d’un algorithme. L’enjeu est de pouvoir mesurer les impacts de ce dernier sur la santé mentale ou sur l’attention par exemple et d’en rendre responsables les sociétés concernées, en développant des mécanismes de prévention, d’alerte, puis d’interdiction, comme nous le ferions avec des industriels qui commercialiseraient de la nourriture empoisonnant les individus ou les rendant obèses.

La responsabilité algorithmique commence à se traduire dans la législation européenne, notamment dans le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital service act (DSA). Avant l’élection du président américain Donald Trump, l’administration du président Joe Biden travaillait également sur cette piste, avec l’Algorithmic Accountability Act. Certains d’entre nous la défendent depuis assez longtemps. Elle était évoquée dans le rapport de Benoît Loutrel « Régulation des réseaux sociaux - expérimentation Facebook » il y a six ou sept ans. Je l’ai également mentionné dans un de mes livres il y a presque dix ans.

Lors des états généraux de l’information (EGI), nous avons évoqué le pluralisme des algorithmes. Le DSA contient des éléments qui permettraient une telle évolution à l’occasion de sa révision. Un procès a été intenté contre Google, parce que son outil publicitaire est totalement lié à son moteur de recherche, ce qui le place en situation de monopole. Or les algorithmes sont dans cette situation. Un réseau social devrait être contraint d’en proposer plusieurs. Cela peut paraître irréaliste, mais ce que nous avions en tête dans le groupe de travail des EGI, notamment avec M. Sébastien Soriano, c’était de permettre au Monde, au Figaro, à Libération ou à L’Humanité de proposer leur propre algorithme d’organisation du fil de X. Différents types de messages auraient ainsi été mis en avant et ils auraient pu être contextualisés.

Au-delà de la responsabilité algorithmique et du pluralisme des algorithmes, l’élément le plus important est toutefois l’éducation. Il est essentiel d’apprendre très tôt l’importance d’une connexion maîtrisée, à la fois dans le temps et dans l’espace. Certains moments doivent être consacrés à la lecture, à l’écriture ou au dialogue. Des lieux doivent aussi être préservés. Je suis partisan que ce soit le cas de l’école, voire de l’université. Ça l’est d’ailleurs parfois. À Stanford, au cœur de la Silicon Valley, de nombreux cours de master se déroulent sans connexion, afin de préserver l’attention. La situation évolue progressivement. Il est désormais interdit d’utiliser son portable au cinéma et c’est heureux !

Il faut maîtriser la connexion, mais aussi comprendre ce qu’est un algorithme et prendre conscience de l’existence d’un organisateur caché. Enfin, il est essentiel de développer la culture contextuelle et la culture du libre arbitre. Puisqu’il n’existe plus de filtres, toute une génération doit être formée à déterminer la nature et le contexte des messages.

En 2025, TikTok peut être considéré comme la version ultime des produits d’addictologie. Si on comparait les réseaux sociaux à une forme de drogue addictive, cette plateforme serait la formule parfaite. Elle vous met dans un rail de passivité sucrée. Vous pouvez visionner à l’infini des vidéos de formats courts, en accélérant et en passant ce qui ne vous convient pas. Je défie quiconque, quel que soit son âge, de ne pas entretenir ce type de relation avec TikTok.

Beaucoup de jeunes ont avec l’application un rapport qui s’apparente à la boulimie. Vous pensez regarder TikTok cinq minutes avant de vous endormir et vous y êtes toujours deux heures après, sans en avoir tiré une réelle satisfaction. Avec Arte, nous essayons d’établir des passerelles pour détourner les utilisateurs du rail dans lequel ils se trouvent, mais celui-ci est d’une efficacité absolue.

TikTok est un outil sur lequel la souveraineté nous échappe et un instrument d’addictologie majeur. En cinq ou six ans, il a provoqué une modification profonde des comportements. Ses effets sur la lecture, l’attention ou le rapport à l’autre sont inquiétants. Le fonctionnement de la plateforme s’appuie sur du calcul, avec des extractions de données qui permettent de mesurer la satisfaction en permanence, mais utilise tous les codes du jeu. La puissance du calcul et l’efficacité du jeu se combinent pour enfermer les utilisateurs dans un rail dont ils ne peuvent pas sortir.

Les réseaux à l’ancienne, comme Facebook ou Instagram, avaient accepté d’établir des codes de bonne conduite. Tant qu’ils ne mettaient pas en péril leur modèle économique, ils étaient plus ou moins respectés. Il y a un an et demi, TikTok a également proposé un dispositif de contrôle parental, etc. Toutefois, ces mécanismes sont tellement antinomiques par rapport à son modèle que j’aimerai connaître leur taux de pénétration.

Mes enfants sont grands et ne sont plus vraiment concernés, mais demander à un adolescent de vous montrer son fil TikTok est, à mon avis, l’une des questions les plus intrusives que vous pouvez lui poser. L’algorithme est tellement puissant qu’il est étroitement lié à votre intimité et donc d’une très grande efficacité pour créer une dépendance.

Mme Laure Miller, rapporteure. Vous avez souligné que les réseaux sociaux, dont TikTok, faisaient partie de nos vies, qu’ils étaient des outils de socialisation, d’information, de divertissement ou de culture. Nous reviendrons difficilement en arrière et il est vain de chercher à remettre en cause leur existence.

Notre commission s’est donc focalisée sur les mineurs et sur l’impact que ces réseaux sociaux, en particulier TikTok, peuvent avoir sur leur santé mentale. Pensez-vous que cette distinction entre le grand public et les plus fragiles d’entre nous soit pertinente pour atteindre notre objectif de régulation ou de contrôle de l’algorithme ?

Dans votre propos liminaire – comme dans La civilisation du poisson rouge , vous avez évoqué les effets des réseaux sociaux sur la patience, la capacité de concentration et sur tout ce que les jeunes délaissent au profit des plateformes, que ce soit la lecture ou d’autres formes de divertissement et de culture. Ce propos est personnel, mais j’ai le sentiment que l’usage excessif des applications, et particulièrement de TikTok, est en train d’abîmer des générations entières. Quand nous allons dans des classes ou même quand nous nous promenons dans la rue, nous constatons que les comportements des jeunes et surtout des mineurs ont fortement évolué.

Nous pouvons nous appuyer sur le DSA et d’autres initiatives se préparent, mais est-ce que nous avançons assez vite par rapport à l’ampleur du phénomène ? Ne devrions-nous pas être plus volontaristes et plus radicaux pour les protéger ?

M. Bruno Patino. Il y a quelques jours, j’ai lu une étude – j’essayerai de la retrouver – qui expliquait que la puberté numérique était à 9 ans. En moyenne, c’est à cet âge que les enfants ont leur premier smartphone ou accès à un écran de façon régulière. C’est beaucoup trop tôt.

À l’arrivée des outils numériques, ma génération a dû apprendre la vitesse et la gestion simultanée de plusieurs tâches. Aujourd’hui, les jeunes grandissent dans cet environnement, qui ne laisse pas de place à la lenteur et à la concentration sur une seule tâche.

J’ai toujours été technophile et je m’intéresse au numérique depuis très longtemps. Néanmoins, je suis convaincu que l’école doit apprendre la connexion et ne pas devenir elle-même connectée.

Selon moi, donner accès à TikTok avant 16 ans produit des catastrophes. Il y a cinq, six ans ou peut-être un peu plus, Facebook avait envisagé de créer un réseau social pour les moins de 13 ans. Une grande partie de la communauté scientifique, et pas seulement elle, s’était élevée contre ce projet. Intuitivement, je dirais que nous avons besoin d’une surprotection pour les jeunes, en tout cas avant 15 ou 16 ans, mais de telles règles seraient-elles respectées ? Nous savons aussi que l’interdit est très attirant. Par conséquent, je ne sais pas ce qu’il faudrait faire. Une partie de moi est favorable à l’interdiction de TikTok avant 18 ans et une autre se dit qu’il serait souhaitable d’avoir un outil moins létal pour tout le monde. Heureusement, je ne suis pas législateur et je n’ai pas à prendre de décision dans ce domaine.

Nous sommes dépassés, principalement parce que nous n’avons pas la souveraineté sur les outils. De nombreuses personnes se mobilisent, notamment dans le cadre d’associations citoyennes. Des élus, comme vous, sont également sensibles à ces questions. Nous savons cependant que tout se passe au niveau européen. Lors des états généraux de l’information, nous avons évoqué la prochaine réforme du DSA, mais les évolutions seront difficiles à imposer. Il a déjà été compliqué de définir ce cadre, dans un contexte géopolitique qui était complètement différent.

Aujourd’hui, toute la Tech se rassemble derrière le pouvoir américain dans l’espoir d’obtenir une dérégulation totale, qui permettrait de maximiser les chiffres d’affaires – au prix d’un développement de l’addiction complètement dingue, dont nous ne pourrions même plus évaluer les effets, puisque des laboratoires de recherche d’universités sont fermés faute de budget –, et de faire voler en éclat le cadre européen.

Je suis désolé de ne pas pouvoir vous apporter une réponse plus claire. Une partie de moi pense que ce serait souhaitable d’interdire TikTok aux moins de 16 ou 17 ans, mais une autre se demande ce que donnerait une telle mesure.

Mme Laure Miller, rapporteure. Vous avez évoqué l’éducation, qui est un aspect fondamental. Nous sommes très sensibilisés au sujet. Nous connaissons les dérives et les effets d’un réseau social comme TikTok sur les individus. De ce point de vue, nous ne sommes sans doute pas représentatifs de la population française. J’ai récemment eu l’occasion de rencontrer une médecin et une assistante sociale d’un quartier défavorisé de Reims, ville qui se trouve dans ma circonscription. Elles m’expliquaient que les mamans avaient une forme de fierté à voir leurs enfants de 2, 3 ou 4 ans naviguer sur les réseaux sociaux et connaître certaines chorégraphies, certaines musiques ou certains influenceurs.

Ne nous manque-t-il pas un diagnostic scientifique du lien de causalité entre l’usage de TikTok et la dégradation de la santé mentale des jeunes ? Il nous permettrait d’objectiver notre message auprès du grand public, comme ce fut le cas pour la cigarette et l’alcool. Ces produits ont pu être interdits aux mineurs, parce qu’il était incontestable qu’ils étaient nocifs pour eux.

M. Bruno Patino. Quand j’ai publié La civilisation du poisson rouge en 2019, TikTok n’existait pas encore. Ce n’était pas prévu, mais j’ai été invité dans de nombreuses écoles primaires et pas seulement des collèges. Je me souviens d’être allé en Bourgogne, je crois, dans une classe de CE1 ou CE2, où l’institutrice avait organisé un atelier qui s’appelait « Ne soyons pas des poissons rouges ». J’avais été surpris – positivement – par le fait que les enfants se rendaient compte du mécanisme d’addiction auquel ils étaient exposés.

Je partage votre avis sur la nécessité d’un diagnostic clair, qui permettrait de poser des mots sur un ressenti général. Certains parents sont sans doute heureux de voir leurs enfants danser sur TikTok, mais beaucoup sentent quand même que quelque chose ne va pas. Je faisais référence à la boulimie tout à l’heure. On « s’empiffre » avec TikTok. Personne n’aurait l’image d’une nourriture équilibrée et saine.

Mon avis ne fera pas forcément plaisir, mais la volonté de faire entrer le numérique au sein de l’éducation nationale a créé une ambiguïté. Il est important d’apprendre à effectuer des recherches en ligne et à utiliser Google. YouTube apporte une aide essentielle aux professeurs et aux élèves, avec des contenus très intéressants. TikTok, c’est très différent. Pour le moment, le diagnostic concernant l’impact des réseaux sociaux est posé à l’initiative d’enseignants ou d’enseignantes, mais pas de manière claire à l’échelle de l’éducation nationale.

Il est peut-être utile de faire appel à des médecins, mais le ressenti est déjà très fort. Des institutrices ou des instituteurs parviennent très facilement à faire dire à leurs élèves qu’ils aimeraient passer moins de temps sur les réseaux sociaux, et se connecter juste pendant la récréation par exemple.

Lors des EGI, il a été question d’éducation aux médias, mais ce n’est pas le sujet. L’enjeu n’est pas d’apprendre à lire le journal. Il faut apprendre à contextualiser les messages et apprendre le discernement. Dans certains pays, comme la Finlande, cet enseignement est généralisé. En France, ce n’est qu’une activité pour des bénévoles, certes formidables, mais insuffisamment structurés.

M. Thierry Perez (RN). Je partage les propos de Mme la rapporteure. Si un enfant de 10 ans était assis à la terrasse d’un café en train de fumer une cigarette et de boire une vodka, nous trouverions ça absurde – outre le fait que c’est interdit. N’est-ce pas ce modèle que nous devons reproduire pour les réseaux sociaux et TikTok en particulier ? Aucun enfant de 4, 10 ou même 15 ans ne devrait pouvoir passer ses journées sur TikTok.

Nous avons identifié une piste pour renforcer la communication et l’éducation, mais elle prendra du temps pour faire changer les comportements. Ne faudrait-il pas tout simplement interdire les smartphones aux moins de 15 ans ?

M. Bruno Patino. Quand j’étais enfant, on nous faisait faire des cendriers en pâte à sel pour la fête des pères. Aujourd’hui, cela paraît absurde.

Ce n’est pas normal de passer trente-six heures par semaine sur les réseaux sociaux et seulement quinze minutes à lire. L’interdiction est peut-être une solution, mais je ferais davantage confiance au triptyque régulation-modération-éducation, surtout pour des raisons d’efficacité. La force de la technologie est telle que toute interdiction passe par son contournement. D’un point de vue politique et philosophique, l’interdiction de TikTok me semblerait logique. Je crains toutefois qu’elle se traduise par la création d’un autre TikTok, s’appuyant sur les mêmes modèles addictifs, et nous ne ferions que passer d’interdiction en interdiction.

S’agissant de l’interdiction des smartphones aux moins de 16 ans, je ne sais pas quoi vous dire. Il me semble difficile d’aller à rebours d’un mouvement qui a commencé en 2006 ou 2007. L’apparition de la connexion permanente a tout changé dans nos vies et, bien que technophile, je le regrette. L’invention du smartphone a surtout inventé le fait d’être connecté en permanence et de devenir – pardonnez mon obsession économique – un marché pour l’économie de l’attention.

Dans une société connectée en permanence, il me semble difficile de refuser l’accès à cet aspect-là de la société avant un certain âge. Je suis favorable à ne pas autoriser le smartphone à l’école, à le ranger avant d’aller dormir, etc. En revanche, je doute de l’efficacité d’une interdiction totale. Nous partageons le même objectif, mais je m’interroge sur la méthode permettant de l’atteindre.

M. le président Arthur Delaporte. Je vous remercie pour la qualité de cette audition et pour votre engagement en faveur d’un espace numérique plus sain. J’aurais encore eu beaucoup de questions à vous poser, au sujet de l’économie de l’attention, du soulagement de la délégation – que vous évoquez dans Submersion – ou des préconisations des états généraux de l’information. Vous nous avez toutefois livré beaucoup d’éléments pour alimenter notre réflexion.

Souhaitez-vous ajouter un dernier mot ?

M. Bruno Patino. Je vous transmettrai mes réponses écrites au questionnaire de Mme la rapporteure.

Le prochain sujet qui devra certainement nous occuper est lié au fait qu’une partie croissante des jeunes effectuent leurs recherches grâce à l’intelligence artificielle. Le rapport à la réalité va s’en trouver encore plus biaisé.

 

La séance s’achève à onze heures cinquante.


Membres présents ou excusés

 

Présents.  Mme Josiane Corneloup, M. Arthur Delaporte, M. René Lioret, Mme Laure Miller, Mme Constance de Pélichy, M. Thierry Perez, Mme Isabelle Rauch, M. Thierry Sother