Compte rendu

Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs

– Audition, ouverte à la presse, de M. Bernard Basset, président de l’Association Addictions France, M. Franck Lecas, responsable du pôle projets politiques publiques et Mme Louise Lefebvre-Lepetit, chargée de mission plaidoyer              2

Présences en réunion..................................9


Lundi
26 mai 2025

Séance de 14 heures 

Compte rendu n° 17

session ordinaire de 2024-2025

Présidence de
M. Arthur Delaporte,
Président de la commission

 


  1 

La séance est ouverte à quatorze heures cinq.

 

La commission auditionne M. Bernard Basset, président de l’Association Addictions France, M. Franck Lecas, responsable du pôle projets politiques publiques et Mme Louise Lefebvre-Lepetit, chargée de mission plaidoyer.

M. le président Arthur Delaporte. Je vous remercie d’avoir sollicité cette audition auprès de la commission d’enquête.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Bernard Basset, M. Franck Lecas et Mme Louise Lefebvre-Lepetit prêtent successivement serment.)

Je vous remercie également de signaler tout intérêt public ou privé de nature à influencer vos déclarations.

M. Bernard Basset, président de l’association Addictions France. L’appartenance à l’association exclut tout lien d’intérêt avec des lobbies pouvant générer des addictions, qu’il s’agisse du numérique, de l’alcool ou du tabac.

De notre point de vue, les réseaux sociaux sont particulièrement dangereux en raison d’un mécanisme addictif qui tient, d’une part, à l’outil numérique, c'est-à-dire aux algorithmes employés par les plateformes pour retenir leurs utilisateurs, et d’autre part aux produits ou aux comportements addictifs promus dans les contenus, comme la consommation d’alcool, les jeux et les paris sportifs. Les algorithmes sont basés sur le renforcement de la préférence ; la recherche de plaisir étant le point de départ des addictions, ils renforcent donc les mécanismes d’addiction. Ils ont également pour effet d’enfermer l’utilisateur dans une bulle informationnelle en resserrant les contenus proposés sur les centres d’intérêt identifiés. De ce fait, les réseaux focalisent l’attention et limitent la curiosité intellectuelle par effet d’entonnoir.

M. Franck Lecas, responsable du pôle projets politiques publiques. Le même mécanisme est à l’œuvre pour les publicités sur les plateformes de Meta, où le recueil de cookies permet de cibler de manière toujours plus précise une population donnée – il y a moins de publicité sur TikTok. Les offres de gratification des sites de paris sportifs sont ainsi destinées aux personnes utilisant les plateformes des opérateurs de jeux et identifiées comme telles.

Notre travail a commencé en 2021. Il consiste à identifier les contenus promouvant des produits dangereux sur les réseaux sociaux, comme l’alcool et les paris sportifs, et à les faire supprimer, à plus forte raison lorsqu’ils sont permanents. Au début, nous avons rencontré des difficultés. Nos actions en justice, notamment sur des contenus liés à l’alcool enfreignant la loi n° 91-32 du 10 janvier 1991 relative à la lutte contre le tabagisme et l’alcoolisme dite loi Évin, ont permis une légère amélioration. Sur TikTok, nous avons eu accès à la trustee procedure, qui préfigure la procédure prévue par le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA). Pour Meta, à partir du moment où nous avons fait condamner la plateforme, nous avons atteint un taux de retrait d’environ 70 %, ce qui est critiquable mais bien meilleur qu’au démarrage. Néanmoins, nous ne comprenons pas par quel mécanisme la procédure aboutit ou non à un retrait. Nous essuyons parfois de la part de Meta des refus non expliqués qui nous obligent à saisir la justice afin de déterminer si le contenu est bien illégal.

En outre, les contenus éphémères – les stories et les lives – passent sous les radars de la régulation. Les contenus sur TikTok sont pour l’essentiel des contenus permanents, mais il existe désormais des contenus éphémères dans la catégorie « Pour toi ». Si les modalités de contrôle a posteriori semblent s’améliorer, rien n’existe pour anticiper les infractions. Nous sommes contraints de maintenir une veille permanente pour supprimer ces contenus dont le nombre ne baisse pas avec le temps.

Mme Louise Lefebvre-Lepetit, chargée de mission plaidoyer. Les algorithmes sont au cœur de l’addiction, aussi bien aux réseaux sociaux qu’aux produits qui y sont valorisés. À nos yeux, il faut responsabiliser les acteurs du numérique plutôt que les parents.

Mme Laure Miller, rapporteure. Il ressort de nos auditions que la dépendance aux écrans reste une notion controversée dans le milieu scientifique. Dans quelle mesure considérez-vous que les réseaux sociaux relèvent de l’addiction ?

Voyez-vous une spécificité dans le fonctionnement de TikTok qui rendrait cette plateforme particulièrement addictive ?

Vous avez dit que les contenus problématiques étaient désormais plus facilement retirés sur Meta. Quel est votre taux de retrait sur TikTok ? Les choses vont-elles en s’améliorant ?

Enfin, pourriez-vous détailler les politiques de prévention que vous mettez en œuvre ?

M. Bernard Basset. Effectivement, le sujet fait débat : s’agit-il d’une addiction aux écrans ou aux contenus ? La réflexion se poursuit. Vous avez auditionné la semaine dernière les docteurs Amine Benyamina et Servane Mouton, coprésidents de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans. Ils ont adopté une position pragmatique qui consiste à remédier aux effets constatés sans prendre position sur le plan théorique.

Même si les écrans sont partout, nous avons tendance à considérer qu’il s’agit principalement d’une addiction aux contenus, favorisée par l’algorithme, qui est un facteur additionnel : quand un contenu court et éphémère produit du plaisir, on a tendance à le renouveler. C’est pourquoi nous sommes très attentifs à la fois au fonctionnement des plateformes et à ce qu’elles proposent. Elles créent un environnement qui favorise les comportements addictifs, aussi bien du fait de l’algorithme et de la vitesse à laquelle les contenus s’enchaînent qu’en raison des produits promus. Je rappelle que la promotion de l’alcool enfreint la loi Évin et que celle des paris sportifs contrevient aux recommandations de l’Autorité nationale des jeux (ANJ).

Nous réussissons davantage sur TikTok, où le taux de retrait des contenus signalés comme illégaux atteint 95 % – principalement des infractions à la loi Évin –, que sur Meta, où il n’est que de 76 %. Cela n’inclut pas les contenus éphémères, pour lesquels nous sommes dans l’incapacité de produire une preuve devant le juge car le contenu disparaît avant que nous ayons le temps de le faire constater par un commissaire de justice.

M. Franck Lecas. Je ne voudrais pas faire passer TikTok pour un bon élève, mais il est vrai que son taux de retrait est plus satisfaisant que celui de Meta. Nous rencontrons néanmoins des problèmes autour des contenus restreints, dont on ne sait pas très bien à quoi ils correspondent. Si j’ai bien compris, il ne s’agit pas d’un blocage territorial, mais d’empêcher le contenu de s’afficher sur la page « Pour toi ». Il est évident que cette réponse est insuffisante lorsque le contenu en question est illégal. Nous sommes en discussions avec TikTok pour en savoir plus.

Le délai de retrait sur TikTok a été amélioré : il est désormais compris entre un et cinq jours, contre dix au début de notre action. Cependant, le retrait des contenus n’entraîne pas nécessairement la suppression du compte et, le cas échéant, le créateur de contenus contrevenant à la loi ou aux règles de TikTok peut toujours recréer un compte ou basculer sur une autre plateforme. Cela nous oblige à multiplier les actions, ce qui entraîne une perte de temps et un gâchis d’argent public.

M. le président Arthur Delaporte. Pour rebondir sur cette question de la modération et des transferts entre plateformes, avez-vous constaté que certains influenceurs jugés problématiques sur d’autres réseaux, comme Instagram, s’étaient reportés sur TikTok ?

M. Franck Lecas. Très concrètement – et comme nous nous exprimons sous serment, je dois être exact –, nous avons observé l’inverse, c’est-à-dire des tiktokeurs bannis de TikTok qui se sont rabattus sur Meta.

Je pense par exemple à Zackii, dont le compte TikTok a été supprimé et recréé plusieurs fois. Sur ce point, nous avons d’ailleurs un peu de mal à comprendre comment fonctionne TikTok, puisque nos signalements n’empêchent pas les personnes concernées de créer de nouveaux comptes.

M. le président Arthur Delaporte. Quelle est la nature du problème posé par cet utilisateur ?

M. Franck Lecas. Ce monsieur crée des cocktails mêlant différents alcools qui contiennent souvent aussi des friandises – du Kinder Bueno, de la barbe à papa –, ce qui, au-delà du fait que cela cible de façon un peu tendancieuse une population jeune, dépeint surtout une consommation d’alcool ludique.

M. Bernard Basset. C’est illégal, tout simplement.

M. Franck Lecas. En effet : il n’y a pas vraiment de débat sur ce point. Son compte a donc été supprimé, mais il le recrée périodiquement, ce dont il se vante d’ailleurs, puisqu’il revendique, dans son palmarès, trois comptes bannis sur TikTok, ce qui est assez cynique – ou irrévérencieux, je ne sais pas. En tout cas, cet influenceur a maintenant aussi créé un compte sur Instagram, au cas où. Dans ce type de situations, signaler encore et encore les contenus problématiques n’est donc pas très efficace.

Mme Laure Miller, rapporteure. Pouvez-vous nous dire quelques mots des politiques de prévention que vous conduisez ?

M. Bernard Basset. Nous menons des politiques de prévention globale à l’intention des jeunes, en particulier à travers ce que nous appelons des programmes probants, dont l’efficacité est certifiée par Santé publique France, la HAS (Haute Autorité de santé) ou d’autres institutions. Les programmes destinés aux jeunes visent principalement à renforcer les compétences psychosociales, c’est-à-dire la capacité à dire non à une sollicitation ou à des effets de groupe de pairs qui incitent à consommer. Des programmes financés par le fonds de lutte contre les addictions sont ainsi déployés auprès des populations scolaires.

La prévention passe aussi par le fait d’avertir les plateformes quand elles proposent des contenus illégaux, de faire de la pédagogie auprès d’elles pour qu’elles retirent ceux qui sont déjà en ligne et qu’elles ne recommencent pas. C’est évidemment un peu plus difficile – vous en avez eu un aperçu.

Nous avions également milité, lors de l’examen de la proposition de loi devenue la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, en 2023, pour que ces derniers ne puissent faire aucune publicité, directe ou indirecte, pour les alcools. Cette option, qui n’a pas été retenue par le Gouvernement, serait une solution structurelle en matière de promotion des boissons alcooliques sur les plateformes.

Nous participons aussi, à l’instar d’autres associations, à des opérations de prévention générale sur les paris sportifs et d’autres thèmes, le plus souvent avec Santé publique France ou les services du ministère de la santé.

M. le président Arthur Delaporte. Vous avez indiqué disposer d’un canal de signalement privilégié auprès de TikTok, qui permet le retrait des contenus dans 95 % des cas. Avez-vous des contacts directs et identifiés pour remonter des problèmes tels que les recréations de compte que vous décriviez ?

M. Franck Lecas. Oui. C’est d’ailleurs un processus laborieux pour nous, car cela nécessite chaque fois une nouvelle démarche, et les collaborateurs de TikTok avec qui nous communiquons changent fréquemment – d’après ce que j’ai compris, la modération est assurée depuis l’Irlande. Actuellement, nous avons un contact français, même si je ne sais pas exactement où il se situe dans l’institution TikTok. Nous pouvons donc effectivement communiquer avec eux directement, ce qui n’est pas le cas pour toutes les plateformes.

M. le président Arthur Delaporte. Vous leur avez donc dit de manière explicite, et pas simplement par un formulaire, que le compte de Zackii, par exemple, a été recréé trois fois ?

M. Franck Lecas. Exactement. Plus précisément, nous l’avons fait une première puis une deuxième fois, et nous envisageons désormais d’autres solutions plus contraignantes vis-à-vis de cet influenceur, en espérant que cela le dissuade davantage : vous l’aurez compris, nous allons probablement engager une action contentieuse. Nous avons donc mis de côté les signalements le concernant, puisque les actions préventives ne fonctionnent pas avec lui. Il ne nous laisse pas vraiment d’autre choix, d’autant qu’il n’a pas été particulièrement sympathique à notre égard et nous a dénigrés dans une vidéo.

M. le président Arthur Delaporte. On parle beaucoup de la modération par les plateformes, mais, s’agissant de contenus clairement illicites, comme dans ce cas précis, se pose la question de la judiciarisation. Qu’en est-il de votre capacité à engager des actions judiciaires ? Est-il difficile d’engager de telles démarches ? Aboutissent-elles rapidement ?

M. Franck Lecas. Comme je l’indiquais, le fait d’agir en justice nous a permis de débloquer la situation avec TikTok et de nous donner accès à une procédure spécifique qui nous permet d’agir directement auprès d’eux, ce qui n’a pas été le cas pour Meta.

Au-delà de nos liens avec les plateformes, la judiciarisation apporte des résultats qui peuvent être rapides, puisqu’il existe, depuis la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, une procédure accélérée au fond qui nous permet d’agir vite et de citer rapidement des utilisateurs. Nous n’engageons cependant pas une action pour chaque contenu : nous attendons d’en avoir accumulé suffisamment pour que l’action soit rentable et efficiente, d’abord parce que nous ne sommes pas très riches – nous sommes une association –, mais aussi parce que nous ne souhaitons pas encombrer les tribunaux outre mesure, de peur de créer une saturation, de gêner le juge et d’aboutir à une décision défavorable. Nous faisons donc très attention à ne pas trop user de ce levier : c’est une stratégie réfléchie de notre part. Nous agissons avec parcimonie, sur des cas qui ne nous semblent pas poser de difficulté juridique.

Si ces procédures sont efficaces, la contrepartie est qu’elles prennent du temps. Le délai précis figure dans notre rapport intitulé Les réseaux sociaux, un nouveau Far West et il dépend du stade de la procédure auquel on se situe, mais il excède souvent deux ans : en moyenne, l’attente est tout de même assez longue.

M. le président Arthur Delaporte. Quelle est la nature de vos liens avec l’Autorité de régulation de la communication audiovisuelle et numérique l’Arcom ? Quel type de signalements lui faites-vous ?

M. Franck Lecas. J’ai lu dans le questionnaire que vous nous avez transmis que vous établissez un lien entre l’Arcom et le DSA. Ce lien existe effectivement, puisque c’est l’Arcom qui nous a accordés, en avril dernier, le statut de signaleur de confiance créé par le DSA.

Je ne saurais vous en dire beaucoup plus quant à l’efficacité de ce statut, car nous ne l’avons pas encore mis en œuvre, pour deux raisons. D’abord, nous devons nous organiser en interne pour définir quels contenus signaler et quel protocole appliquer.

Ensuite, nous n’avons pas toutes les clés pour mettre ce statut à profit. Chez TikTok, une procédure spécifique a été créée, sans que nous comprenions exactement comment elle fonctionne à ce stade : nous n’avons pas réussi à l’appliquer. Il semble qu’il y ait un blocage, ce qui n’est pas le cas pour leur ancienne trustee procedure, qui existe toujours et qui cohabitera avec la nouvelle procédure. Le même constat vaut pour les autres plateformes : YouTube et Meta ne nous ont pas répondu et, si certains réseaux sont venus vers nous pour nous enjoindre d’utiliser cette procédure et nous donner les clés, nous n’avons pas réussi à les faire fonctionner – nous n’avons pas trouvé la serrure, en quelque sorte.

Nous n’utilisons donc pas encore ce nouveau statut de signaleur de confiance, mais nous comptons le faire dans le courant de l’année. Nous pourrons alors comparer l’efficacité d’un signalement classique et celle d’un signalement DSA. Nous ferons régulièrement des comptes rendus à qui voudra les lire.

Quant à l’Arcom, chaque citoyen peut lui faire des signalements. Nous lui en adressons, y compris à propos de contenus publiés sur des réseaux sociaux, dont YouTube. Nous l’avons par exemple saisie d’un clip du rappeur SCH, bien connu à Marseille et maintenant dans la France entière, à qui elle a demandé de flouter des éléments faisant de la publicité pour l’alcool, ce qui n’est pas une sanction particulièrement contraignante. À l’occasion d’un autre signalement, l’Arcom a demandé à l’auteur d’un contenu de couper les éléments problématiques, ce qui est également une sanction relativement douce. À notre connaissance, elle n’a pas imposé de sanctions plus lourdes pour l’instant.

Mme Laure Miller, rapporteure. Avez-vous des recommandations à formuler en matière de politique de santé publique ?

M. Bernard Basset. Nous avons commencé par dénoncer l’effet pervers de l’algorithme utilisé par nombre de ces plateformes. Sans vouloir faire sa promotion, Dailymotion utilise un système différent, qui propose des contenus en dehors des préférences déjà identifiées. Or il est plus stimulant intellectuellement de ne pas être enfermé dans un entonnoir de préférences qui se renforcent chaque fois qu’on clique sur un contenu.

Se pose aussi la question du temps d’exposition aux écrans. Une solution technique consisterait à rendre le visuel moins attractif après une durée à déterminer – trente minutes, une heure –, par exemple en le passant en noir et blanc, afin que le fait de rester devant l’écran devienne moins attirant à mesure que le temps s’écoule.

Pour lutter contre le non-respect de la loi Évin sur les réseaux sociaux, en particulier par les influenceurs, nous ne voyons pas d’autre solution que d’interdire à ces derniers de promouvoir l’alcool. Cette publicité est un des moteurs les plus puissants de la consommation : parce que les jeunes s’identifient à un jeune qui leur ressemble et qui leur apparaît dans une situation valorisante, ils s’identifient aussi à son comportement et à ce qu’il promeut, que ce soient des vêtements ou de l’alcool. S’agissant des produits dangereux, en particulier pour la jeunesse – et on sait que l’alcool est dangereux pour le cerveau des jeunes –, il n’y a pas d’autre solution que d’interdire leur promotion sur les réseaux sociaux. C’est une mesure assez radicale, mais nous n’en avons pas d’autre à disposition.

Il y a enfin le problème de la vérification de l’âge minimal requis pour accéder à certains contenus. Il est difficile à résoudre et je ne suis pas compétent pour me prononcer sur les mesures techniques à prendre, mais, sur le principe, un contrôle efficace de l’âge doit être instauré avant de permettre l’accès à ces plateformes et aux contenus qu’elles promeuvent.

M. le président Arthur Delaporte. Avant que nous mettions fin à cette audition, voulez-vous porter des éléments supplémentaires à notre connaissance ?

Mme Louise Lefebvre-Lepetit. Il est très important que ce soient les acteurs du numérique qui prennent en charge la réponse à ces revendications, qu’il s’agisse de la vérification de l’âge – en demandant des justificatifs – ou des mesures techniques permettant de limiter le temps d’exposition. Les plateformes doivent mettre en œuvre ces mesures et les proposer de manière claire et accessible à tous les utilisateurs, mineurs comme adultes – car les adultes peuvent aussi être concernés par ces formes d’addiction. Elles doivent prendre en charge ces actions, et pas simplement laisser aux parents la responsabilité d’activer le contrôle parental et de vérifier ce que font leurs enfants.

M. Bernard Basset. Il ne s’agit effectivement pas de culpabiliser les parents, qui font face à des réseaux sociaux et à des plateformes redoutables. Ces acteurs doivent être régulés et ont les moyens d’instaurer toutes les mesures nécessaires pour respecter la loi.

M. le président Arthur Delaporte. Merci pour vos réponses. Mme la rapporteure et moi-même restons à votre entière disposition pour tout élément complémentaire que vous souhaiteriez nous communiquer.

M. Bernard Basset. Nous vous retournerons le questionnaire que nous avons reçu vendredi dernier.

 

La séance s’achève à quatorze heures cinquante.


Membres présents ou excusés

 

Présents.  M. Arthur Delaporte, Mme Laure Miller, M. Thierry Sother