Compte rendu

Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs

– Audition commune, ouverte à la presse, réunissant :............2

• M. Antonin Atger, écrivain, doctorant chercheur

• Mme Audrey Chippaux, auteure de Derrière le filtre, Enquête sur le système d’influence (2025)

– Table ronde, ouverte à la presse, réunissant des professeurs de droit sur la régulation des plateformes : 15

• M. Guilhem Julia, maître de conférences en droit privé et sciences criminelles à l’université Sorbonne Paris-Nord, co-directeur du master « Droits des activités numériques »

• Mme Joëlle Toledano, professeur émérite d’économie associée à la chaire « Gouvernance et régulation » de l’université Paris Dauphine - PSL, membre du Conseil national du numérique

• Mme Célia Zolynski, professeur de droit privé à l’École de droit de la Sorbonne de l’Université Paris 1 Panthéon-Sorbonne, codirectrice du département de recherche en droit de l’immatériel de la Sorbonne

– Présences en réunion................................31


Lundi
26 mai 2025

Séance de 10 heures 

Compte rendu n° 16

session ordinaire de 2024-2025

Présidence de
M. Arthur Delaporte,
Président de la commission

 


  1 

La séance est ouverte à dix heures cinq.

 

La commission auditionne conjointement :

 M. Antonin Atger, écrivain, doctorant chercheur,

 Mme Audrey Chippaux, auteure de Derrière le filtre. Enquête sur le système d’influence (2025)

M. le président Arthur Delaporte. Nous recevons ce matin M. Antonin Atger, écrivain, doctorant chercheur, et Mme Audrey Chippaux, auteure de Derrière le filtre, Enquête sur le système d’influence (2025).

Madame, monsieur je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

 

(Mme Audrey Chippaux et M. Antonin Atger prêtent successivement serment.)

 

M. Antonin Atger, écrivain, doctorant chercheur. Outre mon travail d’écriture, je suis doctorant chercheur en psychologie sociale, notamment sur le complotisme et la désinformation, à Londres. J’ai été amené à travailler avec Mme Chippaux autour de son livre, parce qu’en élargissant ce cadre de recherche, on rencontre les réseaux sociaux et les influenceurs, avec leur impact sur la santé mentale.

En termes synthétiques, on ne connaît pas de lien de causalité directe entre l’état de santé mentale et l’usage de TikTok. Il est très difficile d’établir un tel lien sur le plan scientifique, car cela supposerait une étude longitudinale dont la réalisation est compliquée. Nous disposons en revanche, et bien que TikTok soit un média encore jeune, d’un nombre croissant d’études « de corrélation », c’est-à-dire montrant que, plus une personne passe de temps sur TikTok, plus elle présentera certains états mentaux. Apparaît ainsi un lien de corrélation entre un usage prolongé de TikTok et, par exemple, l’anxiété, la dépression, une basse estime de soi, le Fomo – peur de passer à côté (fear of missing out) – ou un mauvais sommeil. Cela ne signifie pas pour autant que l’un provoque l’autre. On peut en effet imaginer, par exemple, qu’une personne anxieuse ira plus facilement sur TikTok parce qu’elle a peur du lendemain : le lien est alors dans l’autre sens. D’autres facteurs peuvent aussi influer à la fois sur la santé mentale et sur l’usage de TikTok. Toujours est-il que nous disposons d’un bon nombre de méta-analyses et qu’un consensus entre plusieurs études montre un lien assez fort entre un usage démesuré de TikTok et des troubles mentaux anxieux. On peut donc imaginer que, même s’il n’y a pas de lien direct, l’anxiété d’une personne anxieuse peut être décuplée sur TikTok à cause du contenu qu’elle y trouve. Cela ne concerne toutefois pas seulement TikTok ni les seuls mineurs et, si TikTok peut amplifier ce phénomène, il n’en est pas nécessairement la cause.

TikTok peut avoir aussi des effets bénéfiques, comme on l’a vu par exemple durant la période du covid. De nombreuses études, notamment celle de Mme Laura Marciano et al., montrent par exemple que c’est un lieu de socialisation et de coping apprenant à gérer une situation stressante, un lieu d’identification où les adolescents peuvent, par exemple, expliquer leur quotidien. Durant le confinement, le réseau social permettait de s’identifier et de créer du lien, ce qui est très important en particulier pour les adolescents. Bien utilisé avec des professionnels, TikTok peut ainsi avoir des effets bénéfiques sur la santé mentale.

Je conclurai en évoquant le complotisme et la désinformation. Le complotisme est aussi – et je pense que Mme Chippaux en parlera – un moyen rhétorique utilisé par les influenceurs pour légitimer leur position. Un influenceur qui, par exemple, se fait bannir invoquera le complot pour expliquer ce bannissement, prétendant qu’il dit une vérité qui dérange. Ce phénomène ne se limite d’ailleurs pas aux réseaux et une personne publique pourra tout aussi bien invoquer un complot pour se tirer d’une accusation et se légitimer.

Par ailleurs, sur les réseaux, la désinformation et le complotisme se traduiront, comme le décrit M. Chris Bail dans son livre Le prisme des réseaux sociaux, par une polarisation des gens sur des groupes sociaux très différents, avec beaucoup moins de nuances. Au-delà des états mentaux individuels, c’est là un facteur de fracture de la société, fondé sur l’idée que des gens trop différents les uns des autres ne peuvent pas vivre ensemble. Il faut avoir une vision globale de cet impact social de la polarisation sur les réseaux, qui a de nombreuses explications.

Enfin, le complotisme est relié à deux thématiques très importantes : la dominance de l’orientation sociale, c’est-à-dire l’idée que certains groupes sociaux seraient supérieurs aux autres – soit une forme de racisme –, et l’anomie, qui est le sentiment de ne plus se reconnaître dans la société. Si donc les réseaux accentuent le complotisme, ils peuvent favoriser aussi, au-delà de l’état mental individuel, ce sentiment d’isolement social. C’est là une dimension à creuser pour comprendre l’impact que peuvent avoir les réseaux sociaux au niveau de la société.

Mme Audrey Chippaux, auteure de Derrière le filtre, Enquête sur le système d’influence (2025). Je suis arrivée sur les réseaux sociaux en 2019. Je ne les connaissais pas du tout et je suis très vite tombée sur des comptes d’influenceurs qui pratiquaient dans leurs stories du placement de produits frauduleux. J’ai commencé à poster des publications pour donner l’alerte à propos de ce que je voyais, en considérant que ce serait déjà bien si une ou deux personnes voyaient mes commentaires et n’achetaient pas ces produits, mais il se trouve qu’elles ont été vues beaucoup plus largement et j’ai ainsi été amenée à côtoyer beaucoup de gens qui avaient acheté des produits mais ne les avaient pas reçus, ou à qui l’on avait livré des produits défectueux ou non conformes à leur description.

Je me suis alors intéressée à la pratique illégale de la médecine – compléments alimentaires de toute sorte, injections, par exemple, d’acide hyaluronique pratiquées par des personnes qui ne sont pas médecins – et au placement de produits financiers. Peu à peu, au fil des années, j’ai vu tous les réseaux : Instagram, Snapchat et Twitter. Je pensais que ce dernier était le pire jusqu’à ce que je découvre TikTok, qui est pis encore. J’en suis ainsi venue – et c’est à ce titre que j’ai contacté M. Antonin Atger – à m’intéresser aux phénomènes d’influence, aux biais cognitifs et à notre réaction d’internautes face aux contenus. À cet égard, ce qui vaut pour les adultes est encore plus vrai pour les enfants, qui n’ont pas encore la maturité ni les acquis nécessaires pour percevoir la réalité des contenus disponibles en quantité illimitée sur les réseaux sociaux et qui, dans le cas de TikTok, conduisent très vite vers des aspects négatifs de ce que nous voulons regarder.

Mme Laure Miller, rapporteure. En quoi TikTok est-il, comme vient de le dire Mme Chippaux, pire que les autres réseaux sociaux, notamment Twitter, dans son fonctionnement, dans ses messages et dans les dérives qu’il peut véhiculer ? Quelle est la spécificité de TikTok ?

Mme Audrey Chippaux. Cette spécificité réside dans des vidéos très courtes qui s’enchaînent très vite. Twitter propose plus de textes, même si l’on y trouve aussi des vidéos sur lesquelles on peut cliquer pour faire apparaître un scrolling. Sur TikTok, ces vidéos se présentent à l’infini et une recherche y débouche très vite sur des contenus plutôt négatifs, sans que l’on ait nécessairement – et cela vaut pour tous les réseaux – l’intuition d’aller chercher du positif pour tenter de créer un équilibre. Il est donc beaucoup plus difficile, sur ces réseaux, de garder du recul et de conserver une neutralité dans les opinions que l’on se construit. Ce qui vaut pour l’adulte est pire encore pour l’enfant ou l’adolescent, qui n’ont pas ce recul et ne connaissent pas des codes que je suis moi-même encore en train d’apprendre. Je pense d’ailleurs que j’en apprendrai toujours, chaque fois que j’irai sur les réseaux sociaux. Nous ne sommes pas des psychologues et, quand nous communiquons avec quelqu’un, nous ne possédons pas tous les codes qui nous aideraient à penser, de telle sorte que nous pouvons vite être emmenés, sans forcément le vouloir, dans du négatif, dans des choses qui ne sont pas bonnes pour nous.

Je suis également très inquiète des phénomènes de collage que j’observe spécifiquement sur le réseau TikTok : un commentaire publié par un individu est repris et intégré dans une vidéo qui suscite de nombreuses réactions, ce qui donne audit commentaire une très grande visibilité. Son auteur, qui est un internaute comme vous et moi et qui n’a peut-être que cinquante abonnés, se retrouve présent dans des vidéos qui peuvent avoir trois ou quatre millions d’abonnés. C’est tout à fait anormal, car on ne connaît pas les gens ni leurs fragilités. Sur le réseau, on s’exprime vite, et encore plus en raison de la limitation du nombre de caractères, si bien que les phrases publiées ne reflètent pas nécessairement la pensée de leur auteur, mais celle que l’influenceur comprend avec ses propres filtres avant de jeter des individus en pâture sur la base d’interprétations qui peuvent être fausses, tout en livrant l’identité de ces individus lambda, sur lesquels ils ont fait des recherches. J’observe souvent ce phénomène sur TikTok, et je trouve cela dramatique.

M. Antonin Atger. Le collage est un peu l’équivalent du CoTweet sur Twitter, qui consiste à reprendre et commenter un texte. Cette particularité de TikTok est aussi responsable de son succès, pour des raisons bénéfiques et négatives. La raison bénéfique est qu’un influenceur peut citer un internaute qui le suit, ce qui peut être valorisant et créer un lien de proximité. En revanche, l’influenceur peut aussi mettre en relief, dans sa réponse, le commentaire qui énerve et polarise et, ainsi, accentuer la polarisation. Cette mécanique qui permet de prendre – évidemment pas au hasard – un message est une particularité de TikTok. On pourrait évoquer à cet égard de nombreux biais cognitifs de négativité, consistant à mettre en avant le négatif, qui nous interpelle davantage et nous énerve. Cet appel à l’émotion est très présent sur les réseaux, même si, bien sûr, l’émotion n’est pas négative en soi.

L’étude de Hendrickx et al., comparant TikTok et Instagram, réseau social un peu similaire et dont les reels ont copié le principe de TikTok, observe que le temps passé sur TikTok est corrélé avec un usage problématique des réseaux sociaux, de la dépression et des problèmes d’estime de soi, mais pas avec la solitude, tandis qu’Instagram l’est seulement avec un usage problématique des réseaux sociaux. On pourrait estimer que c’est parce qu’Instagram fait mieux, mais je pense que d’autres facteurs interviennent, comme l’âge ou la condition sociale des utilisateurs. De fait, comme je l’observe au fil de mes nombreuses interventions scolaires, ce ne sont pas les mêmes personnes qui utilisent ces deux réseaux, Instagram touchant un public un peu plus âgé. La différence évoque celle qui existe entre Android et Apple : ce sont deux mondes différents et même opposés. En outre, Instagram ne propose pas que des vidéos : on y trouve aussi des photos et des stories, qui ont un usage différent. Peut-être donc cette pluralité de moyens de poster sur Instagram se traduit-elle par une moindre viralité des reels. En outre, il n’est pas possible de répondre à un commentaire sur les shorts de YouTube ni sur les reels d’Instagram. C’est peut-être ce qui explique la différence entre TikTok et les autres réseaux. Qui plus est, le fait que les usagers de TikTok soient, selon moi, plus jeunes, peut aussi expliquer ces phénomènes.

Mme Laure Miller, rapporteure. Est-ce la viralité des vidéos ou la plus grande capacité de polarisation de leurs propos qui fait de Tiktok un outil plus attirant pour les influenceurs problématiques que vous avez identifiés ?

Mme Audrey Chippaux. Ils sont tous arrivés sur TikTok, mais ils s’étaient tous emparés préalablement de Snapchat. Le fonctionnement des deux réseaux est différent. L’avantage que je vois à TikTok est que les observateurs – dont je suis – peuvent constater que certains influenceurs fonctionnent en groupe : un sujet traité par un influenceur sera repris par dix, quinze ou vingt personnes et va très vite monter et être partagé, ce qui permet de créer beaucoup de choses. Ce n’est pas le cas avec Snapchat.

Mme Laure Miller, rapporteure. Monsieur Atger, vous avez dit qu’un usage modéré de TikTok pouvait avoir des effets bénéfiques, mais n’est-ce pas complètement antinomique ? Un usage modéré de TikTok est-il possible, compte tenu de la force de l’algorithme et du fonctionnement même de TikTok, qui incite à l’utiliser sans modération ?

M. Antonin Atger. Non. Il ne faut pas sous-estimer l’agentivité des mineurs. Des personnes souffrant de troubles anxieux auront peut-être du mal à résister à l’algorithme, mais il y a là une corrélation : ceux qui peuvent faire un usage modéré de TikTok sont des gens qui peuvent décider de s’arrêter et d’aller se coucher. Tous les adolescents ne sont heureusement pas susceptibles d’avoir un usage problématique des réseaux, même s’ils peuvent être nombreux dans ce cas.

Nous avons vu des effets bénéfiques, notamment, comme je l’ai dit, durant le covid. L’étude que j’ai déjà citée montre par exemple qu’on peut tracer des effets bénéfiques pour une utilisation d’une heure par jour, alors que ces effets sont plus problématiques pour une durée quotidienne de trois, quatre ou cinq heures. À cela s’ajoute un autre facteur très important : le manque de sommeil lorsqu’on scrolle jusqu’à deux heures du matin, alors qu’un bon sommeil est évidemment bénéfique pour la santé.

On observe aussi une disparité en fonction des milieux sociaux, les plus défavorisés ayant un usage plus problématique de TikTok. Je n’ai pas forcément d’explication à ce phénomène, qui est probablement très complexe et multifactoriel, mais cela tient peut-être au fait que ces personnes ont moins accès à un thérapeute en cas de problèmes de santé mentale. L’usage des réseaux accentue donc entre les jeunes des disparités socioéconomiques déjà existantes.

Pour citer un exemple récent d’étude montrant les effets bénéfiques de TikTok, Nancy Lau et al., analysant les cent vidéos les plus virales du hashtag #TeenMentalHealth, consacré à la santé mentale des jeunes, montre que de nombreux adolescents parlent de leur expérience, ce qui est très important pour eux et très bénéfique, car cela permet de créer un lien et de s’identifier, mais que ces vidéos mettent aussi en avant nombre de spécialistes et experts de ces questions. On pourrait penser que les mineurs n’écoutent pas les personnes référentes, mais mon expérience des classes m’a montré que ce n’était pas vrai. Dans le domaine de l’actualité, les références restent, pour les plus jeunes, les chaînes d’info ou HugoDécrypte, c’est-à-dire des gens qui ont une certaine compétence, et il en va de même pour la santé mentale. Les personnes qui se présentent comme experts en santé mentale, comme les thérapeutes, jouent sur l’humour en adoptant les codes de TikTok, avec des résultats bénéfiques. Le seul défaut est que ces informations ne fournissent pas toujours des explications fondées sur des preuves, mais les jeunes vont tout de même sur TikTok pour se renseigner sur la santé mentale et écoutent des personnes qui ont une expertise dans le domaine. Ce peut donc être un moyen d’investir TikTok en poussant des experts à s’y exprimer sur ces sujets, car leur discours peut devenir viral d’une manière bénéfique.

M. le président Arthur Delaporte. Permettez-moi de faire une petite incise. Il ne me semble pas vous avoir entendu déclarer des conflits d’intérêts. Le confirmez-vous, l’un et l’autre ?

M. Antonin Atger. Non, aucun conflit d’intérêts.

Mme Audrey Chippaux. Pas de conflit d’intérêts.

Mme Laure Miller, rapporteure. Pouvez-vous citer des pratiques abusives que vous avez observées sur TikTok de la part d’influenceurs, et nous dire si ces derniers ont, selon vous, une stratégie ciblée sur les mineurs ? Pouvez-vous également nous parler plus précisément des lives sur TikTok, qui nous semblent être une sorte de no man’s land où il se passe des choses problématiques sans que quiconque puisse faire grand-chose à ce stade ?

Mme Audrey Chippaux. J’ai pu observer toutes les dérives liées au placement de produits, au dropshipping, à la contrefaçon, à la pratique illégale de la médecine, à la promotion de produits dangereux pour la santé et aux placements financiers risqués, pour lesquels le storytelling de l’influenceur transforme l’étudiant fauché en millionnaire. C’est, en effet, souvent comme cela que ces contenus sont vendus, avec des vidéos montrant de belles voitures, de belles villas et des vêtements de luxe. Ces vidéos sont très nombreuses, et pas seulement dans le domaine du placement financier : on les trouve dans les ventes de formations et dans tout le business du sexe. Ces influenceurs vantent les comptes MYM et OnlyFans en prétendant qu’ils font de l’argent et sont devenus millionnaires grâce à ces plateformes. Cela vaut aussi pour les paris sportifs et pour les casinos en ligne, où l’on sait pourtant que ce n’est pas possible. Je vois sur la plateforme en direct des annonceurs qui passent directement par TikTok pour faire de la publicité entre deux vidéos ou recourent, d’une manière indirecte, à des influenceurs, en étant parfois couverts par certaines agences.

On observe aussi l’emploi de filtres couplés à des publicités pour des compléments alimentaires ou pour de la médecine et de la chirurgie esthétique. J’ai eu bon nombre de témoignages de jeunes faisant état de baisse d’estime de soi et de confiance en soi. On sait aussi que ce phénomène a causé certains troubles du comportement alimentaire, sur lesquels les médecins se sont exprimés, et une augmentation du recours aux médecins et chirurgiens esthétiques. Je cite d’ailleurs dans mon livre les propos du docteur Adel Louafi, président du syndicat national de chirurgie plastique reconstructrice et esthétique, qui en fait état.

En matière de désinformation, j’entends, comme M. Antonin Atger, beaucoup de choses. On affirme ainsi partout, ces derniers temps, que Mme Macron serait un homme. Le blogueur Aquabebe aurait, quant à lui, retrouvé M. Xavier Dupont de Ligonnès et s’en ouvre sur les réseaux sociaux. Selon ce modèle étonnant, cette personne aurait été retrouvée par les internautes et ce n’est pas la police qui a été prévenue, mais les réseaux sociaux. Quand bien même ce serait vrai, ce serait lunaire ! Je peux citer aussi un certain Thierry, qui explique que la chimiothérapie est toxique et inefficace, et qu’il est préférable d’être abstinent et crudivoriste.

M. le président Arthur Delaporte. On peut citer son nom : M. Thierry Casasnovas.

Mme Audrey Chippaux. Ce monsieur n’est pas condamné et, si cela peut vous rassurer, il a été conseiller municipal en 2020 et a annoncé sa candidature à l’élection présidentielle de 2027 à ses 2,7 millions d’abonnés – ce qui n’est pas peu.

M. le président Arthur Delaporte. Ils sont abonnés sur TikTok ?

Mme Audrey Chippaux. Non, sur YouTube, mais tout est repris sur TikTok, qui bénéficie d’une large publicité et qui était même présent au festival de Cannes. J’aurais encore de nombreux exemples à vous donner, mais je tiens aussi à souligner que, bien que j’aie dans mon entourage de nombreuses personnes qui ne sont pas sur les réseaux sociaux – et j’en suis ravie –, il est tout de même inévitable que ces derniers nous influencent. Moi qui suis sur ces réseaux, je vérifie ce que je regarde et je ne veux pas communiquer n’importe quoi à n’importe qui, mais une personne qui est influencée par un réseau social et qui croit ce qu’elle y voit le communiquera dans la vraie vie. Son entourage n’est pas dans le réseau, mais il l’est quand même par le biais de la communication de la personne qui y est. Ce qui se passe sur les réseaux n’est donc pas anodin, car cela modèle notre société. C’est une question qui me tient à cœur.

M. Antonin Atger. Thierry Casasnovas fait quelque chose de très important et qui fait vibrer ma fibre romanesque : du storytelling. Il raconte qu’il était un peu décadent, qu’il avait une mauvaise hygiène de vie et qu’il a failli mourir, avant de connaître une sorte d’illumination. Il est très religieux et cette foi va le guérir, à l’aide d’un régime très strict. On peut analyser cela de nombreuses manières. Sur le plan psychologique, il en appelle beaucoup à la nature, puisque ce qui est naturel est forcément bon. Ce storytelling d’outsider et de méritocratie, reposant sur l’idée que, quand on veut, on peut, est une stratégie rhétorique très utilisée par les influenceurs. Parmi ceux qui parlent d’argent, qu’évoquait Mme Audrey Chippaux, M. Yomi Denzel, par exemple, passe du statut d’étudiant fauché à celui de milliardaire, tout en jouant aussi sur un aspect communautaire, parlant de YomNation, à l’instar d’un animateur de télévision qui a lui aussi un nom pour qualifier les gens qui le suivent. Ce mécanisme fonctionne très bien, et pas seulement sur les réseaux. On en appelle aussi beaucoup à l’émotion.

Quant aux matchs, il s’agit pour moi de l’un des éléments les plus problématiques de TikTok, même s’ils ont aussi de bons aspects. Un exemple assez écœurant, et que Mme Audrey Chippaux a vu de l’intérieur, est celui d’un affrontement entre des équipes de jeunes qui doivent mobiliser des financements qu’elles reçoivent sous forme de fleurs payées préalablement par leurs followers : à la fin de la semaine, on voit qui a généré le plus de revenus en argent. Il s’agit donc d’un match où l’on donne de l’argent. L’un des matchs de ce genre les plus écœurants était un match Israël-Palestine, où l’on voyait quels soutiens donnaient le plus d’argent. Le contexte politique très anxiogène était utilisé pour générer des actions, en accentuant la polarisation que j’évoquais par l’opposition à un ennemi. Les problèmes touchent à la fois la santé mentale et la vie en société. En effet, la société est aussi faite de compromis et de consensus, ce que ne met pas du tout en lumière, sur les réseaux, cette mécanique de matchs ou de polarisation plus générale.

Il faut également évoquer les influences étrangères, qui ne sont pas seulement le fait de l’algorithme en tant que tel ou du comportement des adolescents mais il peut s’agir aussi, comme on l’a vu récemment en Roumanie sans que l’on sache vraiment qui est derrière, d’un jeu d’influence. Au début de la guerre en Ukraine, j’ai vu des influenceurs expliquer, sur fond de drapeau ukrainien et malgré leur accent français classique, qu’ils habitaient en Ukraine et se réjouissaient de l’arrivée des Russes. Les réseaux sociaux sont aussi une arme de guerre informationnelle pour modeler l’opinion et promouvoir certaines thématiques plutôt que d’autres. Le cas de la Roumanie est très intéressant, car on y parlait moins de la personne que de ses thématiques, en les gonflant artificiellement, pour que les électeurs choisissent plutôt un candidat qu’un autre.

Le jeu de pouvoir qui se joue sur les réseaux sociaux excède, bien sûr, la question de la santé mentale des jeunes, mais il a aussi un impact sur eux, car un monde anxiogène ne fait pas de bien à l’état mental.

Mme Audrey Chippaux. Ces contenus sont, en outre, visibles par des jeunes, qui peuvent tomber dessus s’ils s’intéressent à la politique. Parmi les groupes que j’observe depuis quelques mois, je constate une polarisation des influenceurs et une évolution dans laquelle les gens deviennent de plus en plus extrêmes. Je m’intéresse à un groupe de droite et un groupe de gauche, mais on peut aujourd’hui les décrire comme d’extrême droite et d’extrême gauche.

M. le président Arthur Delaporte. Pouvez-vous décrire plus précisément ce phénomène de polarisation ?

Mme Audrey Chippaux. Au début, les contenus sont présentés comme pédagogiques. Quelqu’un explique, par exemple, ce qu’est le racisme et comment il se matérialise, par exemple sous forme systémique, puis les contenus deviennent progressivement de plus en plus violents. Voilà quelques semaines ou peu de mois, il s’agissait tout simplement de retrouver certaines personnes et de ne plus se laisser faire : il fallait frapper. On ne peut pas tenir de tels propos sur des réseaux sociaux !

M. le président Arthur Delaporte. Voyez-vous des jeunes exposés à cela ?

Mme Audrey Chippaux. Bien sûr.

M. le président Arthur Delaporte. Avez-vous des moyens de le voir.

Mme Audrey Chippaux. Les republications permettent de déterminer que des jeunes se trouvent dans ces sphères. Les influenceurs qui communiquent sont relativement jeunes, et des jeunes sont forcément attirés aussi. C’est une mécanique.

M. Antonin Atger. Pour avoir beaucoup étudié cette polarisation, qui est loin d’être propre à TikTok et que l’on retrouve aussi beaucoup sur Twitter, je dirais qu’elle s’explique aussi par des raisons presque mécaniques, pas seulement par les algorithmes. Sur un sujet donné, ce sont généralement les personnes les plus militantes, dotées de fortes convictions et au bord de la polarisation, qui vont investir ces réseaux en y consacrant le plus de temps. Ces profils estiment qu’il faut militer et ils ont du temps pour ce faire. De manière naturelle, les gens qui prennent la parole sur les réseaux, en particulier sur des thématiques politiques, sont très investis, plutôt aux extrêmes et polarisés. Les personnes modérées ne vont pas se reconnaître dans ces bords-là ; elles vont peu à peu se désintéresser, moins argumenter et même abandonner parce qu’elles se font taper des deux côtés. D’ailleurs, beaucoup de personnes ne souhaitent pas du contenu politique : elles vont sur les réseaux pour se détendre.

Ces divers facteurs expliquent que ce sont en général des militants tenant des propos radicaux – ce qui n’est pas forcément mal en soi – qui vont investir les réseaux. Il y a une mécanique propre au groupe : on a tendance à aller vers la radicalité, à faire preuve de ce que l’on peut appeler de la pureté militante pour montrer que l’on appartient au bon camp. Le phénomène gagne naturellement les réseaux, alimenté par le fait qu’il est possible de faire une vidéo sur un commentaire et que c’est ce genre de contenu qui marche le mieux – le choc, les émotions et le biais de négativité en renforcent l’attrait. Pour nuancer un peu, on notera qu’il existe aussi beaucoup de vulgarisateurs sur ces sujets et qu’ils sont présents sur TikTok, où ils ont une grande audience. Il est important de faire la part des choses, mais la radicalité des propos est malheureusement un phénomène naturel et propre aux réseaux sociaux.

Mme Audrey Chippaux. S’agissant des collages, ils provoquent des vagues de cyberharcèlement. Pas un jour ne passe sans que j’assiste à ce phénomène quand je me connecte à mon réseau social. À mon avis, beaucoup de gens participent à du cyberharcèlement de manière passive, sans même s’en rendre compte, au milieu de grosses foules. Cela fait beaucoup pour une seule personne qui reçoit tous ces commentaires, sans parler des messages privés que l’on ne voit pas, des collages et des partages, parce qu’elle aura eu la curiosité d’aller voir ce qui se passe et ce que l’on dit parce que cela la touche. En janvier 2025, une altercation entre deux élèves a été postée sur TikTok et relayée des milliers de fois. Des enquêtes sont en cours. C’est l’indignation qui a provoqué cette viralité sur les réseaux sociaux : on a tendance à partager ce qui nous paraît anormal et on contribue ainsi au phénomène.

Certaines images mises en ligne peuvent être utilisées par des pédocriminels. Maddy, une influenceuse, a montré son bébé dénudé dans la piscine ou en couches à ses 3 millions d’abonnés, sans avoir conscience que ces images peuvent être utilisées par la suite. Les influenceuses avec lesquelles j’ai abordé cette thématique m’expliquent que ce ne sont pas elles qui ont un problème, mais les autres – en l’occurrence les pédocriminels –, ce qui n’est pas faux. Certains parents n’ont pas encore pris conscience de cette dimension quand ils diffusent des photos de leurs enfants.

Dans l’univers de la médiumnité et de la cartomancie, auquel je m’intéresse aussi, je peux vous citer un cas où l’utilisation de l’intelligence artificielle (IA) pose problème : après vérification, on voit que le conseil minute, vendu 180 euros par une médium, est produit par IA.

Quant aux contenus sexistes et misogynes, ils pullulent sur les réseaux – j’en reçois ma part. Dans ce registre, on trouve Alex Hitchens qui compte 477 000 abonnés et dont les propos sont franchement… Enfin, disons qu’il coche beaucoup de cases.

Dans ma liste de dérives, j’ai mis les matchs live qui se déroulent désormais à la journée. On y achète des pièces qui servent à acheter des cadeaux numériques. Au cours de ce premier jeu financier, on perd la notion de l’argent : quand il est offert, le cadeau numérique se transforme en diamants qui s’affichent au-dessus du compte de l’influenceur. On ne sait plus exactement ce que l’on a donné. Ces diamants sont ensuite transformés en euros ou en dollars, dont TikTok prélève 50 %. Le réseau a donc un sérieux intérêt à l’existence de tels matchs qui pourraient être interdits en France comme ils le sont dans certains pays.

Pour vous donner une idée de l’importance du sujet, je peux vous donner l’exemple d’un échange que j’ai eu avec la maman d’un adolescent. Le service Apple Pay étant connecté au compte TikTok, l’adolescent a dépensé plus de 4 000 euros, c’est-à-dire tout le budget des vacances, en participant à ce genre de matchs. Je ne vous décris pas l’état de la maman. Pourquoi voulait-il faire des cadeaux ? Parce qu’il voulait se faire des amis. Il souffrait d’une petite exclusion dans le milieu scolaire et, en allant sur les réseaux sociaux, il avait plutôt l’intention de se faire des amis. Dans cette affaire, l’influenceur n’est pas innocent : il fait croire à un lien d’amitié avec les personnes qui donnent. Et c’est dramatique.

M. le président Arthur Delaporte. Qui était l’influenceur ?

Mme Audrey Chippaux. Je ne sais plus parce que je ne le connaissais pas. Il faudrait que je consulte les messages directs que m’envoyait la maman.

M. Antonin Atger. À ce propos, j’aimerais intervenir sur le concept de relation parasociale. Il s’agit de gens qui ont le sentiment d’avoir une relation réelle avec une personne imaginaire – un personnage de roman – ou avec une star, une célébrité, un youtubeur, un tiktokeur ou autres. Ils ont l’impression de connaître cette personne qui, elle, ne les connaît pas. C’est donc une relation déséquilibrée qui peut être exploitée, de manière volontaire ou non, par la personne célèbre. D’où l’incompréhension en cas de rencontre : l’une disant « je sais tout de vous », et l’autre répliquant « qui êtes-vous ? » Cela étant, dans l’exemple donné par Mme Chippaux, on voit que l’adolescent avait un problème d’intégration à l’école. Le malaise existant dans la vraie vie est exploité par TikTok. Il faut donc agir sur TikTok, mais aussi sur les problèmes existant dans la vraie vie pour empêcher ensuite les dérives observées sur le réseau.

M. le président Arthur Delaporte. On nous rétorque souvent que les mineurs ne peuvent pas mettre de l’argent au cours de lives, ce que tend à infirmer l’exemple que vous donnez, madame Chippaux. En avez-vous rencontré d’autres ?

Mme Audrey Chippaux. Au début de 2023, quand j’ai commencé à constater le problème et à en parler, j’ai eu plusieurs mamans en ligne. À chaque fois, j’ai retrouvé les mêmes mécanismes et profils : des jeunes qui se sentaient isolés socialement ; une jeune fille qui pensait avoir un lien amoureux avec le créateur de contenus. Peut-on d’ailleurs les qualifier de créateurs de contenus ? Certains ne font que des matchs et ne sont pas des influenceurs, au sens habituel du terme, qui créent des contenus permanents sur les réseaux.

M. le président Arthur Delaporte. Dans ces cas aussi, les sommes étaient importantes ?

Mme Audrey Chippaux. Au minimum 1 500 euros et au maximum plus de 4 000 euros – le cas que je vous ai d’abord cité. Mais Julien Tanti, par exemple, a reçu des dons pour un montant de plus de 140 000 euros.

M. le président Arthur Delaporte. On vous a parlé de mineurs donnant de l’argent à Julien Tanti ?

Mme Audrey Chippaux. Non, on ne m’a pas parlé de mineurs dans le cas de Julien Tanti.

J’ai fait une semaine d’observation en créant des comptes. J’ai choisi une personne focalisée sur les matchs, qui ne créait pas vraiment de contenus quotidiens ou en vidéo, sachant que les matchs peuvent être une activité à part entière. J’ai choisi une personne ayant recours au marketing. Le mécanisme est toujours le même : avant de démarrer un match, pendant environ une demi-heure, on nous demande de mettre des likes au live et de partager celui-ci, alors qu’ils commencent déjà à recevoir des cadeaux. À ce stade, il s’agit d’augmenter la visibilité du live, de faire en sorte qu’il soit vu par un maximum de gens. Tout cela se fait sur fond de musiques très entraînantes. La personne en question ne démarrait jamais avant 23 heures, sans doute parce que moins de gens regardent, et elle portait un masque, de sorte que l’on ne savait jamais si l’on avait affaire à un homme ou une femme. Trouvant cela très intrigant, j’ai choisi de suivre cette personne en particulier. J’étais intéressée par la ritualisation, le marketing, et l’horaire atypique – de 23 heures à 6 heures du matin.

M. Antonin Atger. Ceux qui sont sur des réseaux au milieu de la nuit ont peut-être déjà des troubles anxieux parce qu’il y a une corrélation avec la mauvaise qualité du sommeil. À cette heure de la nuit, ceux qui sont sur les réseaux sont peut-être des victimes plus faciles.

M. le président Arthur Delaporte. Est-ce que vous avez repéré des gens qui étaient manifestement mineurs ? J’imagine que c’est difficile à voir.

Mme Audrey Chippaux. C’est difficile à voir en live. Pour ma part, j’avais créé deux comptes, dont l’un ne comportait rien qui permette d’en déduire mon âge.

M. le président Arthur Delaporte. Vous avez quand même déclaré une date de naissance en vous inscrivant sur la plateforme.

Mme Audrey Chippaux. Oui, j’avais déclaré une date de naissance me faisant apparaître comme majeure parce que je voulais que mon compte passe. De toute façon, je peux m’inscrire sur TikTok en déclarant que j’ai 13 ans.

M. le président Arthur Delaporte. En effet. C’est d’ailleurs l’un de nos sujets. Dans mon souvenir, vous avez évoqué les logiques de casino, de jeux d’argent.

Mme Audrey Chippaux. Oui, c’est vraiment du jeu d’argent. Dès lors que l’on s’inscrit dans une team, une équipe, on s’engage. Quand on donne un cadeau, notre nom est hurlé. Quand cela m’est arrivé, j’ai rigolé derrière mon téléphone. Mais j’ai pensé à l’effet produit sur quelqu’un qui n’a pas de communauté, qui ne sait pas ce que c’est, qui n’a jamais reçu de message un peu sympa. On se met à hurler son nom pendant un live où nous étions au moins 1 000. Comment le vit-il ? Ce n’est pas anodin. Tout le monde n’est pas habitué à un tel traitement. Cela crée la dépendance : on va avoir envie de redonner pour entendre encore notre nom, pour être encore mis en avant – l’influenceur demande même aux gens de s’abonner à notre compte. Pendant cette période, j’ai gagné je ne sais combien d’abonnés sur TikTok, alors que je n’y fais quasiment rien.

M. le président Arthur Delaporte. Combien d’argent avez-vous donné ?

Mme Audrey Chippaux. Pas beaucoup – 50 euros – parce que je ne donnais que dans des moments stratégiques, par exemple quand les dons étaient multipliés par quatre. Cela étant, le gain était aussi multiplié par quatre pour l’influenceur, ce qui fait que j’ai quand même donné pas mal d’argent. À la fin de la semaine, nous sommes arrivés en deuxième position. Je me suis dit : « Mince, j’aurais quand même bien voulu gagner parce que j’ai participé ! »

M. le président Arthur Delaporte. Gagner zéro, en fait.

Mme Audrey Chippaux. C’est ce qui est terrible ! Alors que je ne suis pas du tout joueuse, j’ai été contrariée de ne pas avoir gagné. Pendant toute la semaine, on est tellement matraqué sur le thème : « On est une équipe, on joue ensemble ! » En fait, on joue ensemble pour ne rien gagner. C’est quand même exceptionnel, ce truc !

M. le président Arthur Delaporte. C’est l’influenceur qui anime l’équipe ou c’est un groupe de discussion privée ?

Mme Audrey Chippaux. Non, c’est dans le live, pendant le match. Dès que l’on se connecte, on l’entend matraquer sans relâche.

M. le président Arthur Delaporte. Comment s’inscrit-on dans une équipe ?

Mme Audrey Chippaux. Il y a un bouton « rejoindre l’équipe » pour s’inscrire. Il suffit de cliquer. C’est la première étape. Une fois qu’elle est franchie, on se prend d’autant plus facilement au jeu que la musique est entraînante. Il suffit que l’influenceur gagne un match pour qu’il se mette à hurler. Alors, on est content qu’il ait gagné son match. Quand arrive la finale, on veut qu’il gagne. Tout est fait pour créer cette petite tension. Comme je n’ai jamais demandé d’argent au moyen d’un match, je n’ai pas vu l’écran auquel les influenceurs ont accès. Quoi qu’il en soit, ils ont une fonction permettant de cacher le montant des dons, ce qui fait que les gens donnent à l’aveugle et ne découvrent le résultat définitif qu’à la fin de la semaine. C’est bien fait pour capter la personne jusqu’à la fin.

M. le président Arthur Delaporte. Un influenceur peut-il faire cadeau de cadeaux à sa communauté ?

Mme Audrey Chippaux. Ils offrent des coffres à toute la communauté. Il y a un petit compteur. À la fin, on clique sur le coffre et des pièces sont distribuées en fonction de critères que j’ignore – peut-être la rapidité des clics.

M. le président Arthur Delaporte. De jeunes enfants m’ont dit qu’on leur a offert des coffres sans qu’ils aient donné d’argent. Ils ont pu redonner le contenu de ces coffres sans avoir mis d’argent ?

Mme Audrey Chippaux. Tout à fait. En cliquant sur ces fameux coffres pendant une semaine, j’ai dû avoir 150 ou 200 pièces.

M. le président Arthur Delaporte. Et vous passiez votre temps à cliquer sur ces coffres ?

Mme Audrey Chippaux. Ah oui, dès que j’en voyais un, parce que je n’avais tout de même pas trop d’argent à mettre là-dedans !

M. le président Arthur Delaporte. Combien vous ont rapporté ces 150 pièces ?

Mme Audrey Chippaux. Pas grand-chose. Il me semble qu’une pièce vaut 17 centimes. Il faudrait revoir les calculs, parce que les cours évoluent tout le temps, comme ceux de l’euro. Un peu d’argent rentre malgré tout de cette manière.

M. le président Arthur Delaporte. En gros, vous avez touché environ 25 euros en cliquant sur les coffres.

Mme Audrey Chippaux. Je ne suis plus très sûre des cours parce que le temps a passé. Une pièce valait peut-être 2 centimes.

M. le président Arthur Delaporte. Vous avez donc reçu entre 5 et 25 euros de monnaie virtuelle en cliquant sur des coffres. Vous auriez pu être mineure.

Mme Audrey Chippaux. Pire : le mécanisme est tel qu’il peut donner envie d’acheter des pièces. Avec cette monnaie virtuelle, vous pouvez commencer à acheter une fleur, une rose ou n’importe quel cadeau que vous allez offrir. Si vous offrez la totalité des pièces que vous gagnez, le cadeau peut être important. Il l’est d’autant plus si vous le faites à un moment où la mise est doublée, triplée ou quadruplée. Votre nom peut alors être scandé pendant le match, ce qui va vous donner l’envie d’acheter des pièces. Et le problème est qu’il est facile d’en acheter. Si le compte est connecté à Apple Pay, on n’est pas obligé d’avoir la carte bleue de ses parents. Dans le cas que j’ai cité, la maman belge me disait que les 4 000 euros ont été prélevés sur sa facture de téléphone.

M. le président Arthur Delaporte. Merci pour ces précisions.

Mme Laure Miller, rapporteure. Dans une interview récente, madame Chippaux, vous vous déclariez favorable à un durcissement de la législation, notamment en matière de régulation. Aviez-vous une idée précise en tête ? Quel regard portez-vous sur le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) ?

Mme Audrey Chippaux. Interrogée à ce sujet ce matin sur France Inter, j’ai répondu qu’il faudrait déjà que les lois soient appliquées. Nombre des mesures de la loi n° 2023‑451 du 9 juin 2023 visant à encadrer l'influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux ne le sont pas. Même en tant qu’internaute lambda, on le constate. Il faut des sanctions, pas de simples rappels à l’ordre. Après la communication offerte par Booba sur le business des influenceurs, il faut passer aux sanctions financières. Ils ne comprendront pas tant qu’il n’y aura pas des sanctions financières ou, pire, des peines de prison. Et encore ! Lors de contacts que j’ai eus avec la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), on m’a expliqué que les amendes étaient fixées en pourcentage du chiffre d’affaires. Il faudrait peut-être alourdir ces amendes parce qu’il n’est pas normal que des gens s’enrichissent en escroquant, en toute conscience ou pas, et en profitant de la naïveté de profanes qui ne peuvent pas imaginer tout ce qui se passe.

Nous parlons des mineurs aujourd’hui, mais les adultes sont eux-mêmes concernés. Nombre d’adultes me disent qu’ils ne sont pas influençables, alors que nous le sommes tous. M. Antonin Atger m’en donnait un excellent exemple. Si, dans une forêt, on entend soudain des gens crier au feu en s’enfuyant vers la gauche, que va-t-on faire ? On va courir aussi dans la même direction, sans avoir vu ni fumée ni feu. Nous sommes tous influençables. Oublions donc les rappels à l’ordre et passons aux sanctions prévues, surtout en cas de récidive. J’ouvre ici une parenthèse sur l’arrivée des brouteurs dans les lives, alors qu’ils agissaient jusqu’à présent par texto et par e-mail. J’ai été en contact avec des victimes – majeures – qui ont perdu jusqu’à 25 000 ou 30 000 euros. Même si on ne les voit pas forcément, ces brouteurs sont présents dans les lives. Ce n’est pas anodin.

En ce qui concerne les lois et le DSA, des mesures ont tout de même été prises, telles que la désignation de signaleurs de confiance. Moi qui observe tout cela depuis 2019, je ne peux que trouver le processus un peu long. Le délai est tellement long entre le moment où un phénomène émerge et celui où une loi est adoptée pour le combattre, que les personnes visées et les plateformes sont déjà passées à autre chose. Ce retard continuel est problématique parce que le citoyen a l’impression qu’il ne se passe rien, même s’il se passe des choses qui ne sont pas toujours visibles. On en arrive à des situations comme celle de Booba, où les tweets en rafale se succèdent sur les réseaux. Par contrecoup, ceux-ci peuvent devenir des tribunaux, au risque d’aggraver la polarisation.

M. Antonin Atger. Un guide sur l’article 28 du DSA vient d’être publié. On y parle de co-construction et d’écoute des acteurs, notamment des adolescents, sur leur rapport aux réseaux sociaux. Il est très bien, fondé sur des bases solides, et il peut avoir des effets intéressants. Le problème, c’est en effet son applicabilité.

M. le président Arthur Delaporte. Nous avons annoncé dans la presse que nous recevrions Mme Manon Tanti et M. Julien Tanti ainsi qu’AD Laurent. Avez-vous des éléments d’observation à nous donner sur ces influenceurs, notamment sur leur rapport aux mineurs ?

Mme Audrey Chippaux. Ont-ils une idée de la répartition de leur audience ? Comment font-ils pour savoir s’il y a des mineurs ? À mon avis, ils ne peuvent pas le savoir. M. Julien Tanti fait énormément de matchs TikTok. Comment sait-il qui lui donne quoi ? Est-ce que des mineurs participent à ces matchs ?

M. le président Arthur Delaporte. Avez-vous observé des choses sur leurs contenus ?

Mme Audrey Chippaux. M. Julien Tanti a un nouvel ami sur TikTok, qui lui donne 140 000 euros – montant assez stupéfiant. Chacun fait ce qu’il veut de son argent et ce n’est pas le sujet, mais je trouve cela bizarre.

M. le président Arthur Delaporte. Avez-vous un dernier élément que vous souhaitez porter à la connaissance de notre commission ?

Mme Audrey Chippaux. Depuis quelque temps, nous avons affaire à des placements de produits d’opinion. Nous en avions parlé il y a deux ans, à un moment où ce n’était pas trop le sujet. De tels placements ont été identifiés dans des contenus de Mme Magali Berdah, mais une enquête du Monde a aussi mis en cause des influenceurs TikTok qui utilisent la forme du micro-trottoir pour donner une opinion favorable de la Russie dans la guerre qu’elle mène contre l’Ukraine. Quand des gens sont payés pour communiquer, il est important que nous le sachions.

M. le président Arthur Delaporte. Mme Magali Berdah ne faisait pas état de cette collaboration commerciale de manière visible et permanente ?

Mme Audrey Chippaux. Non, cela figurait en commentaire, ce qu’on ne lit pas quand on regarde une vidéo.

M. le président Arthur Delaporte. Nous allons saisir le procureur de la République, en application de l’article 40 du code de procédure pénale, au sujet des publications que vous évoquez et qui ne respectent pas la loi dite influenceurs précitée.

Mme Audrey Chippaux. Le sujet est important puisqu’il s’agit d’opinions. Combien d’autres contenus de ce type n’ont pas été identifiés ?

M. Antonin Atger. Que peut-on faire ? Une interdiction totale sera inefficace en raison notamment des réseaux privés virtuels (VPN) ou de questions de droit. Il faut une régulation, des amendes plus fortes et de la co-construction pour limiter les dégâts, et même favoriser un usage modéré et vertueux des réseaux.

M. le président Arthur Delaporte. Avant de vous donner la parole pour une dernière intervention, je vous signale que la commission reste à votre disposition pour tout élément complémentaire que vous souhaiteriez nous communiquer. Elle est aussi à la disposition du grand public et reçoit tout éventuel témoignage sur son adresse e-mail. Nous avons aussi recueilli plus de 30 000 réponses à notre grande consultation en ligne.

Mme Audrey Chippaux. Il existe des contenus pour enfants sur YouTube. Pourquoi n’y aurait-il pas la même chose pour TikTok, en guise d’alternative ?

M. Antonin Atger. Je suis d’accord.

Mme Audrey Chippaux. Autre suggestion : puisqu’ils nous imposent leur publicité entre deux vidéos, pourquoi ne pas les obliger à diffuser aussi des contenus préventifs – et de préférence attractifs pour les jeunes ? En matière de prévention, les idées ne manquent pas.

M. le président Arthur Delaporte. Madame, monsieur, je vous remercie.

Puis la commission auditionne, conjointement :

M. Guilhem Julia, maître de conférences en droit privé et sciences criminelles à l’université Sorbonne Paris-Nord, co-directeur du master « Droits des activités numériques »

 Mme Joëlle Toledano, professeur émérite d’économie associée à la chaire « Gouvernance et régulation » de l’université Paris Dauphine - PSL, membre du Conseil national du numérique

 Mme Célia Zolynski, professeur de droit privé à l’École de droit de la Sorbonne de l’Université Paris 1 Panthéon-Sorbonne, codirectrice du département de recherche en droit de l’immatériel de la Sorbonne

M. le président Arthur Delaporte. Je souhaite la bienvenue à M. Guilhem Julia ainsi qu’à Mmes Joëlle Toledano et Célia Zolynski pour cette table ronde consacrée à la régulation des plateformes.

Je vous remercie de faire état de tout intérêt public ou privé de nature à influencer vos déclarations. Je rappelle que cette audition obéit au régime de celles d’une commission d’enquête, tel que prévu par l’article 6 de l’ordonnance n° 58-1100 relative au fonctionnement des assemblées parlementaires. Cet article impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

 

(M. Guilhem Julia, Mmes Joëlle Toledano et Célia Zolynski prêtent successivement serment.)

 

M. Guilhem Julia, maître de conférences en droit privé et sciences criminelles à l’université Sorbonne Paris-Nord, codirecteur du master droit des activités numériques. J’ai grand plaisir à être entendu par cette commission d’enquête, dont la création me réjouit. TikTok incarne en effet, à mes yeux, la quintessence des dangers que représente un réseau social, en particulier pour un public – les mineurs – vulnérable.

Mme Joëlle Toledano, professeure émérite d’économie associée à la chaire gouvernance et régulation de l’université Paris Dauphine-PSL, membre du Conseil national du numérique. Je mettrai l’accent sur deux sujets qui me tiennent à cœur : celui des modèles économiques et un autre, absent de votre questionnaire mais fortement lié à l’objet de cette commission d’enquête.

Depuis quinze ans, les réseaux sociaux relèvent, en Europe et aux États-Unis, d’un modèle économique très majoritairement financé par la publicité, parfois par des abonnements. La recherche de relais de croissance est permanente et correspond à la période actuelle. Ainsi, le social commerce, entre l’e-commerce et le réseau social, est un relais de croissance extrêmement important, venant principalement d’Asie. Le chiffre d’affaires de TikTok a dépassé les prévisions anticipées, pour atteindre 39 milliards de dollars sur l’année 2024, dont 75 % proviennent de la publicité, 15 % du social commerce et 10 % du système de monétisation dit in-app, qui contribue à financer les influenceurs. Le champion toutes catégories est Meta, avec 165 milliards de dollars de chiffre d’affaires l’année dernière, celui de LinkedIn – dont une part plus importante provient de la publicité – s’élevant à 17 milliards et celui de YouTube à 50 milliards.

Je soulignerai deux éléments importants. Tout d’abord, le modèle économique est celui de l’économie de l’attention, qui consiste à échanger la gratuité contre autre chose. Nous n’avons pas suffisamment la notion de gratuité présente à l’esprit lorsque nous envisageons des modèles de régulation alternatifs. Si l’on cherche à capter l’attention, c’est non seulement pour passer de la publicité, mais aussi, secondairement, pour pousser à des actes d’achat, plus impulsifs, et à toute autre forme de gaming. L’attention porte sur les algorithmes, mais également sur les types de contenus, la façon de scroller, les formats : l’ensemble du système vise à nous garder présents le plus longtemps possible. Le social commerce permet de déployer une variété d’outils et de rentabiliser encore plus la captation de l’attention. Il est beaucoup plus développé en Chine, où il représente 15 % de l’e-commerce, qu’aux États-Unis, où sa part est de 5 %, et en France, où, bien que sa proportion ne soit que de 2 %, il est en forte croissance – il faut y songer car il est lié à un sujet qui vous intéresse aussi, monsieur le président, à savoir celui des influenceurs et la façon dont ils sont financés.

J’en viens à mon deuxième point, qui concerne l’une de vos questions : « les obligations de modération des plateformes des réseaux sociaux sont-elles suffisantes pour protéger les utilisateurs des contenus illicites ? Sont-elles suffisamment bien appliquées ? » Cette interrogation renvoie à un sujet qui me tient énormément à cœur : de quelles informations disposons-nous pour déterminer si ces obligations sont suffisantes ?

À cet égard, j’ai porté une grande attention à l’audition du président-directeur général de Médiamétrie : interrogé par tous sur le fonctionnement interne du groupe, il a refusé de répondre, au motif qu’il ne pouvait dévoiler des éléments de contenu. C’est comme si l’enquête des consommateurs de l’Insee mentionnait les boutiques dans lesquelles se rendent les consommateurs et le temps qu’ils y passent, mais pas ce qu’ils achètent et consomment. Cette situation correspond à tout ce qui se passe sur internet aujourd’hui, si bien que nous sommes incapables d’évaluer les effets des mesures du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) ou du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA).

C’est pourquoi je plaide pour une sortie du schéma actuel, dans lequel nous espérons que les informations permettant de déceler l’existence d’effets délétères soient fournies par les acteurs du système, dont l’objectif est avant tout de défendre leur modèle économique. La problématique est d’ailleurs la même pour toutes les questions liées à internet. Je défends l’idée d’une recherche allant au-delà des panels d’URL : l’autorité publique doit élargir son point de vue, regarder sous le lampadaire et prendre connaissance des contenus afin de mesurer leurs conséquences dans la vie quotidienne. N’attendons pas des opérateurs qu’ils nous communiquent ces informations dont dépend leur rentabilité, car eux-mêmes en craindront les conséquences.

Mme Célia Zolynski, professeure de droit privé à l’École de droit de la Sorbonne de l’Université Paris 1 Panthéon-Sorbonne, codirectrice du département de recherche en droit de l’immatériel de la Sorbonne. Je vous remercie vivement de m’avoir conviée à cette audition et je salue l’important travail mené par votre commission d’enquête. Il y a un an, nous avons remis au président de la République un rapport dont le titre a été choisi avec soin : Enfants et écrans. À la recherche du temps perdu. Nous y avons rappelé que nos enfants ne sont pas à vendre : notre responsabilité collective est de préserver leurs intérêts, de leur permettre de grandir et de se réaliser en toute liberté. Nous avons proposé une réponse collective déclinée en vingt-neuf recommandations, en insistant sur l’importance de les penser comme un système et sur l’urgence à agir.

Le premier objectif est la nécessité de placer la responsabilité où elle doit être, à l’égard des acteurs économiques qui produisent des services prédateurs, à la conception délétère, notamment pour les plus jeunes. Sont concernés les services numériques dont la conception est sous-tendue par un modèle fondé sur l’engagement, dont les effets sont gravement délétères. Il faut s’attaquer franchement à ces travers et soutenir l’émergence de modèles alternatifs.

Je vais revenir sur ces propositions en les actualisant dans la perspective des travaux de cette commission d’enquête, en tenant notamment compte des dernières avancées du droit de l’Union européenne. Tout d’abord, nous avons souligné la nécessité de nous inscrire dans les premières avancées du DSA, pour assumer des positions plus fermes concernant le caractère délétère de la conception des interfaces et autres algorithmes de recommandation, dès lors qu’ils portent atteinte à la sûreté et à la sécurité des enfants, en particulier en raison de leur caractère addictogène. Il est également indispensable d’agir sur les phénomènes d’amplification, qui peuvent enfermer les utilisateurs dans une spirale de contenus toxiques, en particulier les plus jeunes. À cet égard, nous avons soutenu les propositions issues de la résolution du Parlement européen sur la conception addictive des services en ligne et la protection des consommateurs sur le marché unique de l’Union européenne, dont les discussions se prolongent dans le cadre des négociations du Digital Fairness Act.

Dans le prolongement de plusieurs autres travaux – ceux de la Commission nationale consultative des droits de l’homme (CNCDH), du Conseil national du numérique (CNNUM) et d’ONG telles que la Fondation Panoptykon et People vs Big Tech –, nous avons aussi souligné la nécessité de redonner du choix aux plus jeunes et la main aux utilisateurs sur leurs interactions numériques, par la reconnaissance d’un nouveau droit au paramétrage, afin que les utilisateurs puissent déterminer leurs sphères d’émission et de réception. Il est également important d’imposer aux plateformes un paramétrage par défaut de certaines fonctionnalités, pour que les plus jeunes bénéficient d’une protection à la hauteur des enjeux.

Saluons à cet égard le projet de lignes directrices de l’article 28 du DSA, qui reprend un grand nombre de ces propositions : limiter les travers du modèle reposant sur l’engagement et l’effet spirale de contenus toxiques ; favoriser le respect des intérêts des mineurs ; offrir aux mineurs la possibilité de faire valoir leurs intérêts, en agissant sur les différents paramètres. D’autres propositions, sur lesquelles nous reviendrons si vous le souhaitez, visent à limiter le caractère addictif et doivent être saluées.

Ces propositions doivent néanmoins être accompagnées d’un contrôle strict des opérateurs, pour en assurer le plein effet. Il est essentiel d’évaluer l’efficacité des mesures préconisées, pour qu’elles atteignent leur objectif, conformément au projet de lignes directrices, qui donne lieu à consultation des mineurs et à la réalisation de tests avec eux, en prenant leur retour d’information en compte.

Il est également déterminant d’adapter ces mesures à l’évolution des techniques et des pratiques, en associant à ce processus les représentants de la société civile et les chercheurs académiques. Plus généralement – nous l’avons souligné –, il convient de les soutenir par des actions de politique publique, pour qu’ils puissent utilement contribuer à la co-construction des lignes directrices et à la multi-régulation que nous appelons de nos vœux.

En outre, pour s’attaquer au modèle délétère et redonner du choix aux plus jeunes, il est essentiel de soutenir le développement de contre-modèles à celui de la captation de l’attention, en favorisant l’ouverture des réseaux sociaux à des acteurs tiers, pour faire émerger des modèles plus respectueux des intérêts des enfants, notamment par la promotion du pluralisme algorithmique – mesure proposée dans le cadre des états généraux de l’information. Le DMA ouvre à cet égard des perspectives intéressantes, qu’il convient de prolonger.

Mme Laure Miller, rapporteure. Nous attendions cette audition avec impatience : si nous avons déjà entendu beaucoup de spécialistes de ces réseaux sociaux, nous n’avons pas forcément obtenu de réponses sur les actions concrètes à instaurer, notamment du point de vue juridique. J’aurai plusieurs questions. Tout d’abord, TikTok, comme d’autres plateformes, a actuellement tendance à décliner toute responsabilité en matière de contenus, au motif qu’il les héberge sans les éditer : est-il possible de considérer TikTok comme un éditeur de contenus ? Cela permettrait d’engager la responsabilité de la plateforme, notamment en cas de recours devant la justice, à l’instar de celui en cours.

Par ailleurs, la volonté de rendre effectif le contrôle de l’âge d’un enfant qui s’inscrit sur les réseaux sociaux est souvent évoquée. Si l’âge minimum est de 13 ans, il est rarement respecté et l’inscription est très facile. Comment faire respecter l’interdiction de créer un compte pour les moins de 13 ans ? En matière de paramétrage des réseaux sociaux, comment supprimer l’algorithme de recommandation, notamment pour les jeunes ? Si le DSA offre certaines possibilités, les plateformes ont tendance à le contourner. Faut-il interdire l’accès au téléphone portable, principal vecteur d’accès aux réseaux sociaux ?

Enfin, quelles sont les mesures qui relèvent de notre compétence, et non du droit de l’Union européenne ? Avons-nous la possibilité d’agir en dehors du cadre du DSA, sur le sujet de la santé publique de nos enfants ?

M. Guilhem Julia. Le régime de responsabilité des grands acteurs, dont les plateformes d’internet, repose sur la distinction entre hébergeur et éditeur. Cette distinction figure dans le droit français depuis le début des années 2000 et la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique. À l’époque, les réseaux sociaux étaient beaucoup moins présents et délétères. Le législateur a donc été assez visionnaire, même si les données personnelles n’étaient pas encore exploitées comme elles l’ont été par la suite : la distinction entre hébergeur et éditeur, toujours d’actualité, est pertinente. Si le DSA ne l’a pas remise en cause, il a obligé les hébergeurs à fournir aux utilisateurs des outils de signalement des contenus illicites. Ils permettent une modération a posteriori. Ainsi, le signalement d’un contenu illicite devra conduire l’hébergeur à le retirer rapidement, faute de quoi il risque d’engager sa responsabilité.

Ce système n’est toutefois pas satisfaisant, d’abord parce qu’il faut s’entendre sur ce qu’est un contenu illicite ; sur la plateforme TikTok, les procédures de signalement ne sont pas du tout efficaces. Le problème est le même sur X, où des contenus haineux ne sont pas supprimés, malgré les nombreux signalements. Si TikTok était considéré comme un éditeur, une modération a priori serait envisageable.

Les plateformes d’intermédiation – dont les réseaux sociaux – sont traditionnellement qualifiées d’hébergeurs : elles ne font que stocker et mettre à disposition des contenus dont elles ne sont pas les auteurs. Des décisions – notamment le très important arrêt Google Adwords de 2010 de la Cour de justice de l’Union européenne (CJUE) – ont néanmoins considéré que certaines plateformes, bien qu’hébergeant ce type de contenus, pouvaient être qualifiées d’éditeurs, en raison de leur contrôle – le rôle actif de l’hébergeur – et maîtrise des contenus.

Une autre décision a sanctionné une contrefaçon : un moteur de recherche s’apparentant à YouTube permettait d’accéder gratuitement à des contenus sportifs, en principe réservés à des abonnés payants. Pour se défendre, la plateforme a décliné toute responsabilité, arguant que, en tant qu’hébergeur, elle ne faisait que mettre à disposition des liens postés par ses utilisateurs. Le juge a refusé de faire droit à cet argument et a requalifié la plateforme d’éditeur, considérant qu’elle avait un rôle actif sur les contenus, puisque les différents liens avaient été organisés selon des thématiques et des dates, et présentés d’une certaine façon par ses algorithmes. Dans le même ordre d’idées, dans le rapport de la commission d’enquête du Sénat sur l’influence de TikTok, la plateforme reconnaît son rôle éditorial, afin de pousser certains contenus ou d’en bannir d’autres : la reconnaissance du statut d’éditeur qui en découle permettrait d’engager beaucoup plus facilement sa responsabilité en cas de contenus illicites.

Mme Laure Miller, rapporteure. L’influence des plateformes sur les contenus  leur rôle d’éditeur a été décelée il y a plusieurs années : pourquoi le DSA n’a-t-il pas intégré cette évolution ? Connaissez-vous l’origine des blocages ?

M. Guilhem Julia. La distinction entre hébergeur et éditeur existe depuis 2004 en France et depuis 2000 au niveau européen, avec la directive sur le commerce électronique. Je suppose que le législateur de l’Union européenne n’a pas souhaité remettre cette distinction en cause. Le juge – au niveau national comme européen – s’est en effet sans doute approprié cette distinction et a permis à des hébergeurs de devenir éditeurs, avec une évaluation au cas par cas. Étant donné la souplesse d’appréciation dont dispose le juge quant au rôle de chaque plateforme, il ne me semble pas utile de la remettre en question.

Mme Célia Zolynski. Depuis plusieurs années, ces sujets donnent lieu à de vives discussions. L’enjeu est aussi celui de la préservation de la liberté d’expression. Le législateur a souhaité préserver l’équilibre trouvé avec la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur dite directive e-commerce lors de l’adoption du DSA : ce point a été déterminant dans les négociations. Un consensus s’est établi, intégrant quelques aménagements, comme la clause du bon samaritain – elle existe aussi dans le droit américain – et l’harmonisation de procédures de notification.

Il faut cependant souligner qu’un contrôle sera exercé par la CJUE. Un autre arrêt important – l’affaire opposant Google et YouTube à Cyando – porte sur l’impact de la recommandation algorithmique sur la qualité d’éditeur : la Cour de justice a écarté cette qualité, s’agissant du fonctionnement de YouTube. La France devra s’assurer de respecter la jurisprudence européenne.

Le deuxième point déterminant est celui du consensus pour un régime qui fasse évoluer les modèles des plateformes. L’objectif est de leur conférer une responsabilité spécifique, en lien avec la conception et le fonctionnement de leur service, de façon à sortir de la dichotomie entre hébergeur et éditeur. L’étude annuelle du Conseil d’État de 2014 avait déjà permis de faire des propositions – attendues depuis longtemps – sur ce point, tout comme les travaux du CNNUM en 2015 ; la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique avait donné lieu à une première consécration – une obligation de loyauté des plateformes –, extrêmement timide. Les avancées se sont faites par petits pas, la notion d’intérêt des mineurs étant alors moins prégnante. Ainsi, des avancées avaient été proposées par le rapport de M. Benoit Loutrel Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne, et certaines des dispositions de la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet dite loi Avia ont inspiré le DSA. On peut regretter qu’il ait fallu tant de temps pour adopter des mesures contraignantes envers les plateformes. Pour contribuer à cet effort de régulation, il faudra veiller à ce que le régulateur ait les moyens d’assurer ses missions et que les acteurs – la société civile, les académiques – soient soutenus.

Mme Joëlle Toledano. Mes propos seront un peu moins organisés que ceux de mes camarades juristes.

Une partie des discours autour de la liberté d’expression ont pour objectif de bloquer la réflexion. On le voit avec les débats avec les États-Unis, qui nous opposent l’argument de l’atteinte à la liberté d’expression sur des sujets qui nous tiennent à cœur.

Il est temps de sortir de cette ambiguïté et de vraiment responsabiliser les plateformes afin qu’elles voient la régulation comme quelque chose qui est important pour elles. Aujourd’hui, on en parle en termes de modalités et de vérification de tel ou tel point. C’est trop lent : nous sommes comme des coureurs de fond face à des sprinteurs. Cela m’inquiète beaucoup. Il suffit de regarder le bilan de l’application du DSA depuis deux ans sur l’accès des chercheurs aux données des plateformes en ligne : on en est encore à discuter sur le point de savoir comment imposer cet accès aux plateformes.

Si on ne change pas de braquet, dans cinq ans nous serons en train de discuter de la régulation des plateformes telles qu’elles existent aujourd’hui alors que, d’ici là, l’intelligence artificielle aura tout changé.

La responsabilisation est la solution. Il suffit pour s’en convaincre de voir que les acteurs américains en ont peur, ainsi qu’en témoignent les contentieux en cours devant les cours américaines.

Pour contrer l’argument de l’atteinte à la liberté d’expression, je propose que nous nous dotions des moyens pour vérifier les conséquences de telle ou telle politique. Nous sommes aujourd’hui entre les mains des acteurs américains et de tels moyens nous permettraient de limiter cette asymétrie d’informations ; faute de quoi nous en serons encore à discuter de mesures alors que la technologie aura évolué.

Mme Laure Miller, rapporteure. La question de la régulation nous concerne tous : nous avons tous des enfants, des petits-enfants, des neveux et des nièces sur lesquels nous pouvons mesurer l’impact réel, minime ou dévastateur, des réseaux sociaux. C’est la raison pour laquelle nous avons souhaité nous concentrer sur la protection des enfants, plutôt que sur la liberté d’expression. L’objectif n’est pas d’interdire les réseaux sociaux ou de renforcer le DSA, dont nous pouvons constater la lenteur de l’application.

Cette lenteur est inhérente au fonctionnement de l’Union européenne, mais nous ne pouvons pas l’admettre car les plateformes ont toujours un train d’avance sur nous. Face aux alertes sur la santé de nos enfants – et le rapport que vous avez remis l’année dernière au président de la République, madame Zolynski, en est une –, nous devons agir. Ne pourrions-nous pas le faire à l’échelle nationale et essayer d’aller plus loin grâce à notre compétence de législateur en matière de santé publique ? Cette compétence est-elle bloquée par le DSA ?

Mme Célia Zolynski. Je commencerai par questionner le niveau d’intervention souhaitable, avant d’en analyser la possibilité juridique.

On réfléchit, depuis longtemps déjà, à une meilleure responsabilisation des plateformes. Le DSA a permis des avancées significatives et intéressantes en ce sens mais, depuis son adoption, les effets délétères de ces plateformes se sont amplifiés. Je partage la frustration et la colère, y compris en tant que parent, de certains observateurs concernant les atteintes à la vie privée, à la sûreté et à la santé des enfants. Je travaille d’ailleurs beaucoup sur la pédocriminalité, sur les contenus deepfake, sur les discours de haine en ligne et sur l’exposition à des contenus toxiques.

Néanmoins, il est important d’explorer pleinement la possibilité d’agir au niveau européen, car c’est là – je crois que l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) vous l’a rappelé – que nous pouvons obtenir les avancées les plus significatives, grâce à une meilleure négociation et une meilleure pression sur les plateformes.

Il serait donc malheureux de commencer une nouvelle réflexion qui nous ferait perdre beaucoup de temps. Il est préférable d’apporter tout le soutien possible à la mise en œuvre effective du DSA. Certaines propositions pour modifier le modèle des plateformes sont d’ailleurs en train d’aboutir. On peut regretter leur temporalité et, peut-être, la mise en œuvre des contrôles, mais ne laissons pas passer ces opportunités. Je vous invite à examiner de près le projet de lignes directrices, qui vient d’être mis en consultation par la Commission européenne. Il contient en effet des mesures très pertinentes.

Nous disposons aujourd’hui de toutes les clés pour faire évoluer le modèle d’affaires des plateformes. L’édifice qui a été construit est désormais stabilisé. Il faut le soutenir afin que la France puisse accompagner sa mise en œuvre, en y associant l’Arcom, des représentants de la société civile et des chercheurs académiques.

Nous nous sommes appuyés sur le fondement de la santé publique et, plus généralement, sur celui de la protection des enfants, pour formuler des propositions concernant le droit au paramétrage, qui semblent avoir été consacrées dans les lignes directrices dont j’ai parlé. Je vous apporterai avec plaisir des informations complémentaires sur l’aspect opérationnel de ces propositions.

Je vous recommande d’auditionner des chercheurs américains, qui pourront vous livrer leur analyse des dernières décisions de justice rendues aux États-Unis sur ce point : elles ne font pas une lecture aussi caricaturale ou dévoyée de la liberté d’expression que l’on pourrait le penser. Plusieurs décisions, notamment à l’égard de TikTok, permettent d’ouvrir la voie vers une responsabilité des plateformes au regard de la conception de leurs services.

Toutes les questions que vous avez évoquées, madame la rapporteure – responsabilité des plateformes, conditions d’accès en fonction de l’âge, paramétrage et santé des enfants – rejoignent l’enjeu central de la conception des plateformes. Au moment où la Commission européenne a ouvert les consultations sur les lignes directrices, il est important que la France puisse exprimer d’une voix forte qu’il ne suffit pas de formuler des préconisations au conditionnel : elle doit exiger que ces mesures, qui sont pour la plupart très pertinentes et utiles, soient pleinement suivies d’effet.

M. Guilhem Julia. TikTok se différencie des autres plateformes de réseaux sociaux. Elle est numéro un auprès des 13-24 ans et elle est celle qui diffuse le plus de contenus dangereux, notamment pour la santé, alors que ce public est plus vulnérable.

Pour me familiariser avec cette plateforme, je l’ai utilisée pendant une matinée, la semaine dernière. C’est pire qu’un train fantôme ! Je n’imaginais pas qu’on puisse avoir accès en France à des contenus glorifiant l’automutilation, la boulimie ou le suicide. Cela m’a profondément choqué. L’accès est très facile : en quelques minutes, l’algorithme de recommandation m’a inondé de ces contenus. J’ai d’ailleurs fait des signalements, qui sont restés lettre morte. Je pense donc qu’il faut traiter TikTok comme un cas à part. Il ne me semble pas qu’Instagram et Facebook proposent des contenus aussi problématiques.

Pour être crédible face à la Big Tech, il faut absolument parler d’une seule voix harmonisée, et cette voix ne peut qu’être celle de l’Union européenne. L’exemple du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) me paraît à cet égard très convaincant. Il est en effet le fruit d’une action coordonnée entre le législateur de l’Union européenne et chacune des autorités nationales de contrôle – la Commission nationale de l’informatique et des libertés (Cnil) en France. Le texte de l’Union européenne a donné de nouveaux pouvoirs, notamment de sanction, à ces autorités, qui conservent une certaine autonomie. Elles peuvent, de leur propre chef, sanctionner Amazon, Facebook ou TikTok par des amendes, parfois de plusieurs centaines de millions d’euros. Le RGPD est donc la preuve que la coopération entre l’Union européenne et les États membres peut être efficace. Si chaque État membre conservait sa propre législation dans ce domaine, on pourrait imaginer que les plateformes fassent pression sur chaque État pour qu’il change sa législation en le menaçant de ne pas fournir ses services à ses ressortissants. L’harmonisation du droit permise par le DSA restreint ces possibilités de pression.

Il reste possible d’aller plus loin en s’appuyant sur le fondement de la santé publique. Le meilleur exemple en est la loi n° 2023-451 du 9 juin 2023 visant à encadrer l'influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux. La direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) a récemment précisé que cette loi s’appliquait à TikTok et que, au nom d’impératifs de santé publique et de la protection des mineurs, certains produits ou services ne pouvaient être proposés par les influenceurs de cette plateforme. Il peut donc être porté atteinte à leur liberté d’expression et à leur liberté d’entreprendre.

Ne pourrait-on donc pas, au nom d’impératifs supérieurs de santé et de protection de l’enfance, bannir de la plateforme certains contenus glorifiant des comportements dangereux ? La marge de manœuvre pour créer une spécificité française existe puisque le DSA parle de contenus illicites, sans les définir précisément. Il y a là une possibilité de coordination entre la législation de l’Union européenne, qui doit constituer la base, et la législation nationale.

M. le président Arthur Delaporte. Je vous remercie d’avoir souligné l’intérêt de la loi sur les influenceurs. N’y voyez aucun conflit d’intérêts ! J’en profite pour constater que, lorsque je vous ai demandé en introduction de déclarer d’éventuels conflits d’intérêts, vous avez gardé le silence. J’en déduis que vous n’en avez pas.

Mme Joëlle Toledano. La loi sur les influenceurs a montré que la coopération est un combat. Le sujet est remonté jusqu’à la Commission européenne en raison de difficultés avec le DSA, mais aussi parce qu’il existait un mouvement de régulation dans d’autres États membres. Une proposition peut être initialement considérée comme pas tout à fait compatible avec le DSA, mais elle peut aboutir si vous arrivez à convaincre trois ou quatre autres pays qui partagent les mêmes intérêts. Cela peut donc avoir du sens de faire quelque chose d’un peu borderline et d’essayer de pousser pour sa réalisation.

Je suis en désaccord assez net avec la confiance que portent beaucoup de mes concitoyens et camarades dans le DSA et dans le DMA et dans leur capacité à imposer des changements de modèle économique aux plateformes. Ces textes n’imposent en effet qu’une conformité molle, que j’ai pu analyser avec mes étudiants. Deux ans après leur entrée en vigueur, quel est leur bilan ? Aujourd’hui, on discute encore de la possibilité de leur imposer un changement, cette fois sur leurs algorithmes en leur imposant un dégroupage en fonction des différents services qu’ils proposent, à l’instar de ce qui a été fait pour les télécoms. Vous n’y arriverez pas ! Qui paiera pour pouvoir se connecter à ces algorithmes ? Peut-être telle ou telle ONG aura-t-elle envie de s’engager dans une telle voie en faisant ce qu’elle peut, mais les autres acteurs privés chercheront à maximiser leurs profits en captant le plus possible d’attention, des adultes comme des gamins. Il faut donc s’attaquer directement au modèle économique.

Madame la rapporteure, je ne suis pas sûre qu’il est possible de trouver des solutions qui ne concernent que les enfants. Même en Chine, les parents donnent un téléphone portable à leurs enfants. Il faut donc faire attention au décalage entre les annonces et la réalité des pratiques. Il me semble préférable d’évaluer ce qui se fait dans son ensemble, pour comprendre pourquoi certaines choses ne marchent pas ou prennent trop de temps plutôt que de continuer à chercher à imposer des changements partiels aux plateformes.

Mme Laure Miller, rapporteure. Monsieur Julia, vous avez évoqué le fait que les signalements ne fonctionnent pas. L’audition de l’Arcom nous a permis de mieux comprendre leur fonctionnement : dans sa mission de mise en œuvre du DSA, elle doit respecter beaucoup d’étapes avant que le signalement arrive à la Commission européenne. Il existe en outre une zone grise où se trouvent des contenus qu’il est difficile de qualifier d’illicites et donc de supprimer. Je souhaitais donc vous interroger sur l’efficacité du mécanisme de signalement.

Ma deuxième question porte sur la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne dite loi Marcangeli, qui institue une majorité numérique. Deux ans après sa promulgation, les décrets d’application n’ont toujours pas été publiés. S’agit-il d’une question de délimitation des compétences nationale et européenne ? Si le législateur français vote une loi qui ne relève pas de la compétence nationale, comment peut-elle être mise en application ? Faut-il attendre une validation de la Commission européenne ?

Madame Toledano, pourriez-vous préciser de façon plus concrète comment nous pourrions nous attaquer directement au modèle économique des plateformes ?

M. le président Arthur Delaporte. Je ne suis pas auditionné mais, concernant votre deuxième question, j’aurais pu partager mon expérience sur l’application de la loi sur les influenceurs.

Mme Célia Zolynski. Je m’intéresse de très longue date à la transposition des directives européennes en droit interne – j’y ai consacré ma thèse – et aux obligations de la France quant au respect du droit de l’Union européenne. Je comprends la démarche politique de certains députés et sénateurs, mais elle doit être coordonnée avec le respect de ces obligations. Toutefois, pour parler franchement, il faut éviter de se contenter d’une action politique forte que l’on sait vaine et qui risque de faire perdre beaucoup de temps.

Certes, il est parfois utile que la France ouvre la voie et agisse comme leader, comme cela a pu être pour la loi influenceurs ou pour la responsabilisation des plateformes, mais une coordination avec la Commission européenne me paraît essentielle. La voix de la France compte davantage quand elle s’articule avec nos obligations en droit institutionnel. Une meilleure compréhension de ces mécanismes est donc déterminante, mais je sais que c’est le cas du président. Je ne développerai donc pas davantage.

Des avancées importantes ont pu être obtenues sur le cadre juridique grâce à des actions coordonnées. Ainsi, Amazon a dû faire évoluer ses conditions problématiques de désabonnement à son service Prime sur le fondement de la directive relative aux pratiques commerciales déloyales, rappelée dans le DMA. On pourrait également citer une récente condamnation de la Cour de justice de l’Union européenne à propos du modèle pay or consent de Meta.

On peut se dire que cela prend trop de temps d’attendre une condamnation de la CJUE, mais je rappelle que des enquêtes menées par la Commission européenne sur le fondement du DSA sont sur le point d’aboutir. J’ajoute que les lignes directrices sont très prometteuses. Espérons qu’elles aboutiront à un texte final ferme sur les obligations de respect de l’article 28 du DSA imposées aux plateformes.

Encore une fois, il faut s’intéresser à la conception des plateformes et notamment au droit de paramétrage, qui devrait être imposé comme une forme d’obligation de loyauté et de prise en compte des intérêts des utilisateurs, surtout les plus jeunes d’entre eux. Je pourrai apporter des précisions sur ce point. Je pense que nous tenons ici un levier pour faire évoluer le modèle d’affaires des plateformes. Le DSA est resté timide et ne remet pas frontalement en cause ce modèle, mais on a vu que la coordination a pu le faire évoluer sur certains points. Elle devrait également porter sur le pluralisme algorithmique dans l’intérêt des médias. C’est ce que nous avions recommandé dans le cadre des états généraux de l’information.

Nous appelons à une réflexion plus globale sur l’économie de l’attention et ses effets délétères et sur le design. Mme Joëlle Toledano, qui est une grande spécialiste de ces questions sur le plan économique et moi-même, qui dispose d’une expertise juridique, nous tenons à votre disposition pour identifier les avancées à promouvoir et les marges de manœuvre de la France, dans le respect de ses obligations institutionnelles.

Mme Joëlle Toledano. La question du modèle d’affaires a été posée par un certain nombre d’économistes. Le premier levier, mis en avant par beaucoup d’entre eux, est celui de la publicité ciblée. Quelques-uns – des économistes américains qui ne sont pas les moins connus – proposent de la taxer très fortement, jusqu’à 50 %. Une autre position, développée au Parlement européen, consiste à interdire la publicité ciblée – ou non ciblée. Les influenceurs, pardon d’y revenir, sont une façon, assez géniale, de faire du ciblage sans le dire. Ce que j’ai pu lire au sujet du commerce social, c’est que les petits et les gros influenceurs ont pour intérêt de permettre de cibler un peu différemment.

L’économie de l’attention repose sur la gratuité, je l’ai dit tout à l’heure, et sur la nécessité de trouver des contreparties. Toute une économie, et c’est la difficulté du sujet, s’est construite ainsi – des commerçants arrivent à vivre parce qu’ils se sont bien positionnés dans ce cadre. La question de la publicité, qui est l’angle mort du DMA et du DSA, mais qui se trouve au cœur de ces modèles d’affaires, me paraît évidemment centrale. Ce qui est un peu perturbant au sujet des enfants, c’est que la publicité ciblée est a priori interdite à leur égard, mais qu’on trouve visiblement matière à compenser cet interdit – même si je ne sais pas exactement comment.

Une autre solution, mais j’avoue n’être pas assez subtile pour faire la différence entre la responsabilité liée à l’algorithme et la responsabilité éditoriale, serait d’engager la responsabilité des acteurs, y compris, comme on le voit aux États-Unis, les personnes chargées de fabriquer les algorithmes. Il en résulterait automatiquement, j’en suis absolument certaine, une véritable évolution des modèles d’affaires et c’est d’ailleurs la raison pour laquelle cette solution ferait l’objet d’une opposition politique extraordinaire de la part des acteurs concernés. Je pense que la liberté d’expression est prise en otage dans un certain nombre de cas.

Personnellement, je suis désolée de le dire, je n’ai pas été convaincue jusqu’à présent par la proposition relative au pluralisme algorithmique, pour les raisons que j’évoquais tout à l’heure. Puisque le modèle d’affaires de l’économie de l’attention ne serait pas remis en cause, je crains que TikTok, s’il n’existait plus, soit remplacé par TokTik. J’adorerais que ce genre de solutions fonctionne, comme on l’a vu dans les télécoms, mais, à modèle économique constant, j’ai un petit doute.

M. Guilhem Julia. S’agissant des algorithmes, il sera extrêmement difficile de contraindre les plateformes à révéler leurs secrets de fabrication. C’est le trésor d’un réseau comme TikTok. Les contenus étant très courts, leur viralité est très forte et l’algorithme se nourrit de ce que vous visionnez beaucoup plus rapidement que sur les autres plateformes : il va très vite pouvoir vous recommander des contenus similaires. Les développeurs de TikTok, on le sait, travaillent énormément sur ce point. La société ByteDance a beaucoup investi dans les algorithmes – il existe non pas un, mais plusieurs algorithmes de recommandation, qui sont mis à jour continuellement. Au niveau juridique, ils sont protégés au titre de la propriété intellectuelle. En France, le droit d’auteur protège notamment le code source et le code objet. Par ailleurs, je crois qu’une protection est également possible dans le cadre du secret des affaires – du secret industriel.

Des règles ont été adoptées en France à propos de la transparence algorithmique, mais elles concernaient les algorithmes des décisions administratives, dans l’open data mis en place par la loi de 2016 pour une République numérique. Quand un citoyen fait l’objet d’une décision prise, pour partie, sur la base d’un algorithme, on a considéré qu’il fallait lui transmettre des éléments sur le fonctionnement de l’algorithme et la façon dont la décision a été prise. Mais cette transparence ne porte que sur les algorithmes liés aux décisions administratives : je ne pense pas qu’on puisse appliquer la même règle à des algorithmes de l’e‑commerce ou des réseaux sociaux, c’est-à-dire des plateformes dont nous parlons. À mon avis, il sera très difficile d’obtenir des changements dans la conception de leurs algorithmes – c’est même complètement illusoire.

Par ailleurs, il faut bien comprendre que ce sont les conséquences des algorithmes qui peuvent être négatives et non les algorithmes en tant que tels. Quand on utilise un moteur de recherche ou un site d’e-commerce, on a affaire à un algorithme de recommandation, qui n’est pas forcément préjudiciable. La technologie permettant de recommander des contenus personnalisés n’est pas en tant que telle nocive, me semble-t-il. C’est lorsque l’algorithme recommande des contenus douteux, toxiques, qu’il existe un problème, ce qui est le cas s’agissant de TikTok quand des contenus peuvent affecter la santé mentale et physique des mineurs.

De même, on ne peut pas interdire la publicité ciblée, selon moi, et je ne suis pas convaincu que la taxer serait une bonne idée : c’est le modèle économique des plateformes. Si les services sont gratuits, c’est parce qu’en contrepartie la publicité ciblée est là, c’est-à-dire l’exploitation des données personnelles des utilisateurs. À la suite d’une décision de la Cour de justice de l’Union européenne, déjà évoquée, on a considéré que Meta ne pouvait pas imposer la publicité ciblée à ses utilisateurs, notamment sur Facebook, sans requérir leur consentement. Facebook a donc proposé le système pay or okay : si on paie tous les mois un abonnement, on n’a plus de publicité ciblée. Mais un recours a été introduit contre ce système par l’association None of Your Business, pour qui il est fou d’avoir à payer quelque chose pour que sa vie privée soit respectée. Selon cette association, c’est une espèce de monétisation d’un droit fondamental, ce qui n’est pas satisfaisant non plus.

En ce qui concerne les signalements, je commencerai par un point assez étonnant. Lorsqu’on fait un signalement, qui décide d’y faire droit ou non ? C’est la plateforme elle‑même, ce qui soulève un vrai problème de gouvernance d’internet en général. Sous prétexte que leur service touche le monde entier, des plateformes s’arrogent un peu un rôle de législateur, ou du moins de juge. C’est exactement la même chose lorsque vous faites une demande dans le cadre du droit au déréférencement : c’est Google qui examine si cette demande paraît légitime. En vérité, cela devrait être le travail d’un juge, mais la plateforme est forcément mieux placée pour le faire, notamment quand il s’agit de prendre une décision rapide. Par ailleurs, le refus de la plateforme de faire droit à une demande de déréférencement peut faire l’objet d’un recours devant un juge. Mais est-ce bien aux plateformes de juger si tel contenu est licite ou non, doit être retiré ou non ? La question de la licéité des contenus relève de textes de droit, à commencer par le DSA.

Le vrai problème, concrètement, c’est que s’il existe des outils de signalement, encore que, s’agissant de TikTok, ils ne soient pas facilement accessibles, comme le requiert pourtant le DSA – le signalement n’est pas possible dès la page de la publication, il faut déployer deux sous-menus –, on voit que les signalements restent lettre morte. J’ai ainsi contesté un refus de prise en compte d’un signalement auprès de TikTok et je n’ai toujours pas de nouvelles, alors que j’avais bien motivé ma demande, comme vous pouvez vous en douter. Mm Joëlle Toledano l’a un peu dit, en apparence les plateformes se mettent en conformité, en proposant des outils de signalement, mais la mise en œuvre de la réglementation n’est pas du tout effective. C’est pourquoi il serait plus simple, à mon avis, de bannir dès le début certains contenus, au lieu d’attendre que des signalements soient pris en compte et aboutissent enfin à un retrait. Pendant ce temps, le contenu est en ligne et il continue de causer des préjudices.

M. le président Arthur Delaporte. Pourriez-vous nous dire à quels contenus vous avez été exposé et le type de signalement que vous avez fait ? En quoi était-ce facile ou non ? Quel type de réponse vous a été apporté et avez-vous fait appel ?

M. Guilhem Julia. J’ai fait des captures d’écran des différentes étapes du signalement et des contenus litigieux, que je pourrai envoyer au secrétariat de la commission.

Je suis tombé sur une série de contenus glorifiant des comportements alimentaires dangereux, des automutilations et des comportements suicidaires. Un contenu, ou plutôt le compte entier d’une jeune fille, a particulièrement retenu mon attention. On la voit tous les jours, en plan fixe, en train de faire une crise de boulimie.

J’ai fait un signalement. Lorsque vous êtes sur la publication, il faut aller, ce qui n’est pas du tout intuitif, sur l’onglet permettant de partager le contenu, comme si vous vouliez envoyer celui-ci à quelqu’un, sur un autre réseau social. Lorsque vous avez ouvert l’onglet de partage, un nouvel écran s’affiche et, en bas à gauche, vous trouvez l’onglet « signaler ». Une série de motifs est alors proposée – en l’occurrence, celui des troubles alimentaires du comportement correspondait parfaitement. J’ai fait un signalement, mais je n’ai pas eu la possibilité de le motiver ou de dire quoi que ce soit. On m’a répondu, deux jours plus tard, qu’aucune infraction aux règles de la communauté n’avait été détectée. On m’a alors demandé si je voulais changer le motif du signalement ou refaire celui-ci, en me donnant cette fois la possibilité d’argumenter, dans un espace de discussion.

J’ai tout simplement fait une copie d’écran des règles communautaires de TikTok, qui sont limpides : TikTok n’autorise pas la présentation et la promotion des troubles du comportement alimentaire – cela figure dans l’onglet « santé mentale et comportementale » des principes communautaires de TikTok. J’ai expliqué que les vidéos d’une jeune fille filmant chaque jour ses crises de boulimie entraient, à mon sens, dans cette catégorie. Je n’ai pas eu de nouvelles après ce nouveau signalement.

M. le président Arthur Delaporte. Nous aurons l’occasion d’interroger TikTok à ce sujet. N’hésitez pas à nous transmettre les éléments que vous avez évoqués et à nous dire si une réponse est apportée par la suite.

M. Guilhem Julia. Je vous transmettrai toutes les captures d’écran et toutes les pièces dont je dispose.

Mme Célia Zolynski. Nous avons beaucoup réfléchi à ces questions. La Commission nationale consultative des droits de l’homme, au sein de laquelle je siège en tant que personnalité qualifiée, a eu l’occasion d’examiner la proposition de loi de Mme Avia relative à la lutte contre la haine en ligne. Nous avions anticipé dans notre avis la décision, de 2020, du Conseil constitutionnel. Je voudrais porter à votre attention une exigence juridique, qui concerne aussi nos valeurs démocratiques fondamentales. Bannir d’emblée certains contenus peut poser une question. Ce n’est pas le cas s’ils sont illicites, c’est-à-dire manifestement contraires au droit français et au droit de l’Union européenne – je rappelle, à cet égard, que la France a compétence pour qualifier d’illicites certains contenus, comme nous l’avons fait récemment pour des contenus dits fake à caractère sexuel, dans le cadre de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique dite SREN. En la matière, les plateformes ont une obligation de retrait « dans un prompt délai » et elles engagent leur responsabilité si elles ne s’exécutent pas. En revanche, on sait toute la difficulté que peuvent poser des contenus préjudiciables, qui ne sont pas illicites et qui, séparément, peuvent ne pas avoir un effet délétère considérable, mais qui sont extrêmement préjudiciables, notamment aux plus jeunes utilisateurs. Ce qu’a rappelé mon collègue au sujet de TikTok est tout à fait problématique et choquant. Il faut trouver le moyen d’agir contre les effets d’amplification des contenus toxiques.

Les lignes directrices – je suis désolée d’insister sur ce document mais il me semble qu’il recèle des clefs – indiquent tout d’abord, au sujet de la modération, que les plateformes doivent préciser ce qu’elles entendent par « contenus préjudiciables ». Pour éviter la difficulté à laquelle mon collègue a été confronté, il faudrait que TikTok, si on ne considère pas que cette plateforme est de mauvaise foi, identifie clairement dans ses conditions générales d’utilisation et dans ses règles de communauté, dont le respect s’impose en vertu du DSA, ce qui relève des contenus préjudiciables. Les signalements pourraient ainsi être plus efficients. S’agissant de la promotion des troubles du comportement alimentaire, par exemple, il faudrait savoir exactement quels contenus entrent dans cette catégorie, au moyen d’exemples précis. Cela permettrait non seulement d’exercer un contrôle, mais aussi de faciliter les signalements des utilisateurs.

On l’a vu, en effet, à propos de la lutte contre la haine en ligne – je travaille sur ce sujet avec bon nombre de très jeunes utilisateurs –, bien souvent ces derniers ne savent pas si un contenu relève de la haine en ligne, si c’est un contenu toxique. Ces hésitations conduisent à ne pas faire de signalement, d’autant qu’on ne veut pas dénoncer, même si c’est une autre question. Il faudrait des règles claires sur ce qui peut être signalé et ce qui ne peut pas l’être, dans le cadre des règles de la communauté et des conditions générales d’utilisation de la plateforme, afin de permettre un contrôle efficient sur le plan de la mise en œuvre.

Par ailleurs, d’autres fondements sont possibles, notamment le droit des pratiques commerciales déloyales. Quand une plateforme annonce qu’elle modère certains contenus mais ne le fait pas, on peut agir sur ce fondement, qui est extrêmement efficient.

Soyons prudents à l’égard de solutions qui paraîtraient peut-être pertinentes mais pourraient en réalité se révéler problématiques, comme un bannissement trop général de contenus qui ne préserverait pas la liberté d’expression, le droit de certaines personnes de partager certains états, certaines analyses. On a vu ce qu’il en était avec la lutte contre la haine en ligne ou l’éducation à la vie affective et sexuelle. Il faut faire attention à préserver l’ensemble de l’édifice.

M. Guilhem Julia. Je suis entièrement d’accord. Le bannissement est une solution très radicale, qui porte atteinte, notamment, à la liberté d’expression. J’imagine aussi que les jeunes filles qui partagent de tels contenus sur TikTok ont, en fait, besoin de s’exprimer. C’est peut-être une partie d’une thérapie pour elles, si tant est qu’elles soient favorables à cela et qu’elles en aient envie. J’imagine la violence que pourrait représenter pour elles l’interdiction de partager leurs contenus.

Une autre idée, plus respectueuse de la liberté d’expression, serait de rassembler dans des groupes ces publications, qui ne sont pas nécessairement illicites mais peuvent tout du moins être préjudiciables, selon l’état psychologique des personnes qui les regardent. Un avertissement permettrait de prévenir les utilisateurs de la plateforme qu’il s’agit de contenus potentiellement préjudiciables, mais il faudrait surtout que ces publications soient retirées du fil algorithmique « pour toi » de TikTok. Ainsi, la publication ne pourrait plus être soumise passivement à l’utilisateur, imposée dans le cadre de la spirale dont il a beaucoup été question. Ce serait plutôt une posture active de l’utilisateur qui le conduirait, en connaissance de cause, vers ces contenus. Une telle forme de modération permettrait peut-être de restreindre un peu la toxicité de ces contenus tout en permettant à leurs auteurs de s’exprimer, de les partager avec certains utilisateurs. Cela pourrait être une solution.

Mme Célia Zolynski. Les lignes directrices vont dans ce sens. Il doit être possible de modifier les paramètres du système de recommandations, par la reconnaissance de préférences qui influencent directement ces dernières, et de mettre en place des mécanismes de signalement et de retour d’informations pertinents, qui ont un impact rapide. Parfois, l’utilisateur indique qu’il ne veut pas voir davantage de contenus similaires, mais ce n’est pas suivi d’effets. Dès lors, on peut considérer l’interface de choix comme trompeuse, ce qui peut être sanctionné en tant que tel. La possibilité de modifier son fil de recommandations, de faire un reset – réinitialisation – lorsqu’on est enfermé dans une spirale de contenus toxiques, est déterminante, de même que la possibilité de proposer de nouveaux contenus après un certain temps d’interaction, pour éviter l’effet « trou de lapin ».

Je vous invite à œuvrer vraiment le plus possible pour limiter l’effet spirale, qui est éminemment toxique. On attend, à cet égard, les résultats de l’enquête de la Commission européenne sur TikTok et Meta, mais il est possible de travailler d’ores et déjà en vue d’imposer une conception qui interdise – j’irai jusque-là – l’effet spirale de contenus délétères. Votre audition des familles de victimes regroupées dans le collectif Algos Victima en a souligné la nécessité. Saisissons-nous de la question de la conception des services pour forcer – c’est possible, selon moi – une évolution des algorithmes de recommandations.

Mme Joëlle Toledano. Je suis évidemment d’accord avec ce qui vient d’être dit.

Au-delà des questions de la consultation des ados, des jeunes, de ce que tout cela peut signifier pour eux, du temps passé sur les plateformes et des catastrophes, bien sûr trop nombreuses, qui se produisent, je reviens sur l’idée plus générale qu’il serait bon d’avoir des éléments d’appréciation et de compréhension. J’ai été frappée de voir que des entreprises vendaient à toute une série de secteurs – acteurs de la mode, vedettes de sport... – des services consistant à suivre ce qui se passe sur les réseaux à leur propos, pour canaliser les choses et les comprendre un tout petit peu.

J’ai ainsi repéré une entreprise qui s’appelle Bodyguard. Il me semble qu’il serait intéressant que vous l’auditionniez, car elle a créé un observatoire de la haine en ligne. Si elle constituait un observatoire des jeunes, à partir d’un échantillon, cela permettrait d’avoir des éléments qui nous manquent pour rendre factuel ce qui se passe, au lieu de seulement attraper des catastrophes. À ce sujet, les enseignants nous disent que la première des catastrophes, c’est que les enfants dorment à l’école.

Pourquoi ne pas essayer de se doter d’un outil qui permettrait d’appréhender la situation d’une manière plus factuelle ? Je ne sais pas si vous aviez noté l’existence de cet observatoire de la haine en ligne – je pourrai vous envoyer un lien. Cela donne envie de faire d’autres choses qui seraient un peu dans le même esprit.

M. le président Arthur Delaporte. C’est bien noté. Mme la rapporteure sera libre de faire les recommandations qu’elle souhaite, mais cela pourrait éventuellement être intégré dans le rapport.

Mme Célia Zolynski. Bodyguard mène effectivement une action extrêmement intéressante, notamment en matière d’analyse de l’utilisation d’émojis – en forme d’arbre ou de pizza, par exemple – pour contourner les mécanismes de modération des contenus haineux et en matière de suivi, en temps réel, de l’évolution de l’ensemble des communautés, à l’imaginaire très fertile, qui mettent en avant les discours haineux. La proposition formulée par Mme Joëlle Toledano est essentielle, mais je voudrais aussi porter à votre connaissance d’autres mécanismes – c’était, je crois, l’un des derniers points de votre questionnaire écrit – qui pourraient servir de sources d’inspiration pour la France.

Nous avons formulé des recommandations dans le cadre de la mission Enfants et écrans afin de construire vraiment un dialogue avec les jeunes utilisateurs, qui sont les premières vigies des nouvelles pratiques. Ils ne les identifient pas toujours comme délétères pour eux, mais certains le font très bien – il existe, dans ce domaine, une différence de génération intéressante. Nous menons, avec mes étudiants de Paris 1, un certain nombre d’actions pour mobiliser différentes générations de jeunes sur le déploiement d’outils en la matière – je pourrai ainsi vous faire part des actions de l’association ADN sans haine. Cette question est également au cœur d’un mécanisme mis en place en Australie par l’eSafety, qui a créé un conseil de jeunes pour l’aider à élaborer les documents de sensibilisation et les lignes directrices – qui portent là-bas un autre nom – pour les opérateurs.

Il est essentiel d’assurer une telle courroie de transmission et de mettre en place des mécanismes de signalement extrêmement rapides, à l’image de l’alerte enlèvement. Quand émerge une pratique qui emporte des effets délétères, comme le SkinnyTok, et qui s’amplifie très vite, compte tenu du fonctionnement de TikTok, il me paraît déterminant que des signalements puissent avoir lieu, afin que des actions de sensibilisation des plus jeunes soient menées, y compris au sein de l’éducation nationale – on le voit bien avec toutes les mécaniques de sextorsion et la déferlante d’applications de dénudage qui arrive en France.

M. le président Arthur Delaporte. Je vous remercie. Nous sommes preneurs de synthèses, de témoignages et de tout complément que vous voudriez nous transmettre. Vous pourrez notamment nous écrire pour préciser ce que vous avez observé ailleurs en matière de bonnes pratiques – cela ne pourra qu’alimenter la dimension prospective et les propositions du rapport. Je rappelle également que nous sommes ouverts à tous les témoignages à l’adresse suivante : commission.tiktok@assemblee-nationale.fr.

 

La séance s’achève à douze heures trente.


Membres présents ou excusés

 

Présents.  M. Arthur Delaporte, Mme Laure Miller