Compte rendu
Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs
– Audition de MM. Mickaël Vallet et Claude Malhuret, sénateurs, président et rapporteur de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence (Sénat, juillet 2023) 2
– Audition commune réunissant :.........................14
• Mme Sihem Amer-Yahia, directrice de recherche CNRS, directrice adjointe du Laboratoire d’informatique de Grenoble
• Mme Lucile Coquelin, maître de conférences en sciences de l’information et de la communication, Laboratoire DyLIS, Inspé Normandie Rouen Le Havre, Sciences Po Paris
• M. Olivier Ertzscheid, chercheur en sciences de l’information et de la communication, maître de conférences à l’université de Nantes, auteur des ouvrages L’appétit des géants : pouvoir des algorithmes, ambitions des plateformes et Le monde selon Zuckerberg : portraits et préjudices
• M. Marc Faddoul, directeur et cofondateur d’AI Forensics
– Audition commune réunissant :.........................25
• M. Grégoire Borst, professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris Cité, et directeur du Laboratoire de psychologie du développement et de l’éducation de l’enfant (LaPsyDÉ - CNRS)
• Mme Sylvie Dieu-Osika, pédiatre
• M. Serge Tisseron, psychiatre, docteur en psychologie, co-responsable du diplôme universitaire de cyberpsychologie à l’université Paris Cité, membre de l’académie des technologies
– Présences en réunion...............................43
Mardi
29 avril 2025
Séance de 14 heures 30
Compte rendu n° 6
session ordinaire de 2024-2025
Présidence de
M. Arthur Delaporte,
Président de la commission
— 1 —
La séance est ouverte à quatorze heures trente.
La commission auditionne MM. Mickaël Vallet et Claude Malhuret, sénateurs, président et rapporteur de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence (Sénat, juillet 2023).
M. le président Arthur Delaporte. Messieurs les sénateurs, vous avez été respectivement président et rapporteur de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données et sa stratégie d’influence, dont le rapport a été publié en juillet 2023. Je vous remercie d’avoir pris le temps de répondre à notre invitation.
Nous aurions souhaité, par courtoisie républicaine, vous entendre en ouverture de notre propre commission d’enquête. En effet, il nous paraît important d’insister sur le caractère cumulatif des travaux menés par le Parlement et de partir de votre rapport, de très grande qualité, qui nous a servi pour lancer notre commission, en particulier pour repérer certaines personnes à auditionner et pour avoir une vue d’ensemble des enjeux liés au réseau social TikTok. Nous avons choisi de nous focaliser sur ses effets psychologiques pour les mineurs, sujet que vous avez également traité mais d’une façon plus restreinte. Nous tenons à montrer que nous pouvons, sénateurs et députés, travailler main dans la main pour nous saisir des enjeux du siècle.
Je vous remercie de déclarer au préalable tout intérêt public ou privé qui serait de nature à influencer vos déclarations. Par ailleurs, l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.
(MM. Mickaël Vallet et Claude Malhuret prêtent successivement serment.)
M. Claude Malhuret, sénateur, ancien rapporteur de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence. Je vous remercie pour votre invitation et ne peux que corroborer vos propos concernant la continuité et la complémentarité des travaux des deux chambres du Parlement, lesquels vont probablement se prolonger car les questions portant sur TikTok et l’ensemble des réseaux sociaux ne sont pas près d’être derrière nous, en France comme dans d’autres pays.
Votre commission s’attache essentiellement aux effets psychologiques sur les mineurs, ce que je trouve tout à fait bienvenu. Ce prisme réduit toutefois la contribution que nous pouvons apporter à vos travaux puisque ce sujet était certes inclus dans notre rapport mais il n’en constituait pas la pièce essentielle : nous nous sommes davantage focalisés sur les problèmes d’influence externe, notamment sur le plan politique, compte tenu de la nature chinoise de la société mère de TikTok.
Deuxième bémol, les études menées par différents instituts et spécialistes de pédiatrie, de pédopsychologie ou tout simplement de psychologie étaient beaucoup moins abondantes en 2023 – on avance à toute vitesse dans ce domaine, comme dans celui de l’intelligence artificielle et de la tech en général. Les travaux étaient très peu nombreux et fragmentaires. Depuis – mais vous avez sans doute déjà analysé cette question –, bon nombre d’études qui étaient en cours se sont conclues et d’autres ont été lancées. On dispose sans doute aujourd’hui de davantage d’éléments.
Je vous souhaite, par ailleurs, bon courage : notre rapport commençait par ce titre « La tactique TikTok : opacité, addiction et ombres chinoises ». Le terme « opacité » ne qualifiait pas tellement le contenu de l’application mais plutôt la coopération des représentants de TikTok en France. Nous n’en avons pas obtenu grand-chose, malgré des questions à répétition. Nous avons eu l’impression, et nous l’avons dit dans le rapport, d’être confrontés à de la langue de bois, et d’un bois particulièrement dur. À part la présidente de TikTok, que nous avons fini par débusquer – son nom ne figurait pas dans les documents communiqués par l’entreprise – et dont les dirigeants de la société se sont probablement aperçus qu’elle ne donnait peut-être pas la meilleure image possible dans le tableau d’ensemble, puisqu’elle était chinoise et par conséquent soumise à la loi chinoise, même si elle n’habitait pas alors, à notre connaissance, en Chine –, les principaux responsables n’ont pas changé. En ce qui la concerne, un toilettage a sans doute paru opportun aux dirigeants de TikTok, mais je suppose que vous entendrez les mêmes responsables et que vous vous attendez déjà aux mêmes réticences face aux tentatives de pénétrer à l’intérieur du système.
Autre élément qui ne facilite pas le travail, mais c’est peut-être moins important pour les questions psychologiques que pour les relations avec la Chine ou les problèmes de modération, TikTok France n’est pas grand-chose. L’activité menée dans notre pays concerne les rapports avec les pouvoirs publics, la publicité et des affaires commerciales. Le système européen de TikTok est basé, essentiellement, en Grande-Bretagne et en Irlande. TikTok avait promis de rapatrier l’application et l’essentiel de ce qui se passe en Europe, y compris en France, en Irlande, qui est dans l’Union européenne, et en Norvège. Néanmoins, l’essentiel, notamment la partie charnière qu’est l’application, est centré en Chine. Quant au business et à l’actionnariat, c’est aux Îles Caïmans que tout se joue. Les États-Unis ont obtenu que l’application américaine soit gérée dans leur pays, mais ils n’ont pas eu gain de cause pour leur deuxième demande et ils sont d’ailleurs en train de changer d’avis, puisque le président Trump exige maintenant le contraire de ce qui était demandé il y a un an ou deux. Tout cela rend encore plus difficile de décortiquer cette plateforme. Un certain nombre d’éléments sont certes spécifiques à TikTok, mais ça ne l’est pas vraiment par rapport à d’autres plateformes.
M. Mickaël Vallet, sénateur, ancien président de la commission d’enquête du Sénat. Je rejoins Claude Malhuret, dont le rapport a été adopté à l’unanimité par notre commission d’enquête. Nous sommes tombés assez facilement d’accord sur l’ensemble des analyses, des propositions et des termes du rapport à la suite de nos auditions, qui n’ont pas été de même nature selon que nous entendions des personnes qui travaillaient sérieusement, suivant une approche scientifique, et qui ont pu nous éclairer sur les questions relatives au journalisme ou à la mésinformation, ou bien j’allais dire les principaux responsables de TikTok mais ce n’était pas le cas – disons les seuls responsables que nous avons pu auditionner. Nous avons assez vite touché du doigt le fait que nous avions en face de nous des gens qui savaient très bien jouer des procédures pour éviter d’avoir à répondre aux questions aussi concrètement que si nous avions traité un sujet ayant une dimension purement nationale. Nous devons y réfléchir : ce ne sera probablement pas la dernière fois que nous aurons à nous interroger sur les limites des travaux menés dans le cadre des commissions d’enquête des parlements nationaux.
J’en viens à une réflexion plus personnelle. Lorsque la question a été évoquée au Sénat, sur proposition de Claude Malhuret, j’ai pensé qu’il était nécessairement intéressant, de manière globale, de travailler sur l’un des Gafam et autres géants du numérique dans l’époque que nous vivions – c’était il y a deux ans, dans le vrai « ancien monde », avant que les choses basculent. J’ai alors dit à mon collègue que je pensais la même chose de Facebook, de Twitter et de tout ce qui pouvait ressembler à des algorithmes ne visant pas spontanément le bien public ou un intérêt public, mais un des grands intérêts du rapport est d’avoir montré qu’on ne pouvait pas aborder tous ces acteurs de la même façon, ce qui n’enlève rien aux autres questions que l’on peut se poser au sujet des Gafam, X faisant suffisamment réfléchir en ce moment. TikTok présente une très forte spécificité du fait de sa proximité avec le pouvoir chinois. Certains spécialistes de géopolitique que nous avons auditionnés au début de nos travaux ont souligné que, selon des documents publics de doctrine, rédigés en chinois et qui ont mis très longtemps à être traduits en anglais ou dans d’autres langues occidentales – ce qui fait qu’on passe parfois à côté d’informations qu’on a pourtant sous la main – le pouvoir chinois s’est fixé un objectif clair en matière de guerre cognitive. Même si vous vous focalisez, avec raison, sur les jeunes et la santé publique, la question de la guerre cognitive ne sera probablement pas absente de votre travail. On peut notamment se demander quelle jeunesse sera la mieux armée dans le monde qui va advenir.
Je pense aussi que vous retomberez sur des questions auxquelles notre commission n’a pas pu répondre intégralement pour les raisons que j’ai évoquées. Qui commande vraiment l’algorithme ? Nous avons écrit, en creux, que TikTok n’avait jamais pu nous dire qui appuyait sur le bouton – s’agissant de X, en revanche, on le voit à peu près. Au-delà de ce que dit TikTok, qu’on est prié de croire sur parole, vous vous poserez certainement la question des moyens de contrôle et de modération et vous vous interrogerez probablement sur les limites des pouvoirs ou des moyens d’action dont disposent la CNIL (Commission nationale de l’informatique et des libertés) et l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique), selon les sujets et en fonction des législations nationales, ainsi que sur le travail de contrôle que peuvent effectuer les parlementaires.
Par ailleurs, j’appelle de mes vœux un approfondissement de la réflexion sur les questions de dépendance, d’addiction ou d’abrutissement – nous avons suivi une approche beaucoup plus transversale que vous. Comment peut-on définir des objectifs de santé publique par rapport à ce type d’application ? Je crois qu’il est possible de faire œuvre utile en la matière.
Enfin, il m’est apparu au fil de nos auditions que s’attaquer aux questions posées par TikTok était effectivement fondamental si l’on voulait travailler sur les enjeux de santé publique mais qu’il existait un second aspect, indépendant de TikTok et des autres acteurs, qui est l’éducation à la parentalité. Nous devons renforcer les politiques publiques en la matière, les modeler différemment, les financer et les faire partager, grâce à une prise de conscience.
M. le président Arthur Delaporte. Je vous remercie pour vos propos liminaires et vos pistes de réflexion, qui font en effet partie du champ de notre commission d’enquête.
Mme Laure Miller, rapporteure. Merci pour votre disponibilité et surtout pour l’énorme travail que vous avez réalisé il y a deux ans. Vous n’étiez sans doute pas totalement des précurseurs, car beaucoup s’étaient déjà interrogés sur ces questions dans le monde, mais c’était en tout cas le premier rapport dans ce domaine en France. Il nous a permis, à l’Assemblée, de faire évoluer notre propre réflexion. L’objectif de la présente commission est de se focaliser sur l’un des points que vous avez abordés, la santé mentale des jeunes et l’impact que peut avoir TikTok sur eux.
On voit bien l’opacité que vous avez évoquée, monsieur Malhuret. Avez-vous eu des contacts avec TikTok à la fin de vos travaux ? A-t-on cherché à établir un lien direct avec vous lorsque vous élaboriez vos recommandations ? Par ailleurs, comment le rapport a-t-il été accueilli par les ministres de l’époque ? Certaines de vos recommandations ont-elles attiré en particulier leur attention ?
Deux ans plus tard, quel est votre sentiment ? Vous aviez fait des propositions très concrètes compte tenu de l’attitude de TikTok – vous envisagiez même une interdiction en l’absence d’évolution des pratiques. Diriez-vous que la situation a empiré ou en tout cas que TikTok n’a pas respecté les engagements qu’il donnait le sentiment de vouloir prendre ? Quel regard portez-vous, d’une façon peut-être plus personnelle, sur la situation actuelle et sur l’opportunité d’aller plus vite et plus loin sur ce sujet ?
Votre rapport montre que TikTok nous balade, pour parler un peu franchement, qu’il s’agisse du contrôle de l’âge, de la modération, de la politique du prétendu bien-être numérique, qui paraît avoir assez peu de contenu, ou même de la description de l’application. M. Éric Garandeau, alors directeur des affaires publiques de TikTok France, a ainsi nié lors de son audition qu’on pouvait être enfermé dans une bulle de filtres. Au-delà des positions que l’on peut adopter dans le débat public au sujet de la régulation ou des incitations à plus de modération, faudrait-il aller plus loin et mener une politique beaucoup plus interventionniste pour agir de manière positive pour la santé des jeunes ?
Si nous n’arrivons pas nécessairement à atteindre nos cibles dans ce domaine, notamment en matière de sensibilisation des jeunes publics et de leurs parents, c’est peut-être parce qu’un lien de causalité n’a pas été assez clairement établi entre l’usage de TikTok, ou plus largement des réseaux sociaux, et la détérioration de la santé mentale des jeunes. Vous avez un peu évoqué la question dans votre rapport : pensez-vous qu’il manque un diagnostic plus clair concernant l’impact de l’usage de TikTok sur la santé mentale des mineurs dans notre pays ?
M. Claude Malhuret. Les questions que vous avez posées ouvrent une perspective extrêmement vaste.
Vous avez notamment demandé quelles ont été les réactions des pouvoirs publics français. Le premier constat, qui pose lui-même une question – je le dis d’une manière un peu crue, mais telle est la réalité, au-delà des apparences –, c’est que les pays européens ont aujourd’hui presque entièrement délégué leurs responsabilités, le contrôle et la réglementation, à la Commission européenne en ce qui concerne les plateformes. C’est moins vrai dans d’autres domaines, comme l’audiovisuel, dont l’Arcom s’occupe essentiellement. Deuxième réflexion, le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act, DMA et le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital service act (DSA) étaient en voie d’élaboration lors de nos travaux. Nous ne savions donc pas ce qui allait rester au niveau national. Je n’ai rien contre la Commission – je suis tout à fait pro-européen – mais ses moyens en matière de contrôle des plateformes ont eux-mêmes été largement délégués à la CNIL irlandaise.
Le premier problème est que l’Irlande est le paradis des plateformes : elles s’y sont toutes installées pour des raisons fiscales. Sans vouloir mettre en cause l’impartialité de la CNIL irlandaise, je rappelle que même si elle a été renforcée depuis quelque temps, elle n’est pas en mesure, à mon avis, de mener des enquêtes sur l’ensemble des plateformes dans tous les pays européens. Autre problème, le Gouvernement irlandais n’a pas intérêt à renforcer les moyens de ses autorités de régulation puisque les plateformes sont, avec d’autres entreprises, de véritables vaches à lait.
S’agissant de la politique, plus ou moins interventionniste, à mener, le DMA et le DSA représentent un progrès juridique par rapport au règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD). Depuis que ces textes existent, des enquêtes ont eu lieu et des sanctions commencent à être prononcées. Néanmoins, il faut avoir en tête le rythme des enquêtes de la Commission européenne sur les violations du DMA et du DSA, lesquelles sont quotidiennes de la part de toutes les plateformes, et la lenteur des décisions, qui doivent respecter toutes les normes juridiques européennes et peuvent faire l’objet d’un appel. Outre la longueur des enquêtes, les sanctions ou les conclusions doivent être soumises aux Vingt-Sept avant d’être entérinées par la Commission. Le combat est complètement déséquilibré en raison du rapport des forces en présence – les agents des plateformes d’un côté et ceux de la Commission européenne de l’autre – et de la façon dont fonctionnent les procédures. Celles-ci s’étalent sur des années alors qu’un algorithme change plusieurs fois par jour, en fonction de l’évolution des pratiques des internautes ou des desiderata des dirigeants de TikTok et des autres plateformes.
Quant à savoir si nous avons eu des contacts avec les représentants de TikTok, en parallèle de l’audition ou après la remise de notre rapport, la réponse est non. Ils ont simplement réagi par voie de presse, de façon assez neutre – ils avaient d’ailleurs tout à fait intérêt à banaliser la chose pour ne pas lui donner d’importance.
Enfin, si les liens de causalité entre l’usage des réseaux sociaux et la détérioration de la santé mentale des enfants ou des adolescents semblent établis dans certains domaines comme l’addiction, les troubles du sommeil et de l’attention, ou encore les difficultés d’apprentissage – ils étaient déjà largement documentés en 2023 et les études conduites depuis semblent le confirmer –, il me semble nécessaire de distinguer entre plusieurs sujets. Les problèmes de santé mentale, les difficultés d’apprentissage et les addictions ne sont pas exactement du même ordre et méritent de faire l’objet d’études séparées.
Les difficultés d’apprentissage, dont la lecture de divers indicateurs comme les classements Pisa (Programme international pour le suivi des acquis des élèves) suggère qu’elles deviennent un enjeu majeur en Europe et en France, touchent l’ensemble des mineurs qui utilisent TikTok. Les problèmes de santé mentale, quant à eux, ne concernent qu’une partie d’entre eux : les bulles de filtres accroissent surtout les symptômes de ceux qui en souffrent déjà. Le phénomène d’addiction est encore un troisième problème, qui peut avoir des incidences sur les deux précédents mais qui ne doit pas être confondu avec eux. Nous aurions donc intérêt à séparer ces différents aspects, qui ne relèvent pas tous du même paradigme.
M. Mickaël Vallet. Nous n’avons effectivement été contactés ni avant ni après nos travaux. Nous n’avons d’ailleurs pas eu non plus beaucoup d’interactions pendant les auditions, puisque nous avions affaire à des responsables des relations publiques dont le but était, à l’instar de certains joueurs de tennis, de renvoyer la balle sans prendre aucun risque. Ils ont ainsi passé trois ou quatre heures à en dire le moins possible sur le fond, tout en développant à loisir des considérations inintéressantes au dernier degré et plus ridicules les unes que les autres, sur le thème « nous sommes la nouvelle Nouvelle vague car nous subventionnons le Festival de Cannes ». Personnellement, j’ai souffert pour M. Garandeau : je me demandais quel niveau de salaire il faudrait me proposer pour me convaincre d’accepter un travail impliquant de s’exposer autant au ridicule. Visiblement, c’est un métier, puisqu’il semblerait que des gens soient recrutés pour cela.
Nous n’avons donc rien appris de la part des représentants de TikTok, qui nous ont seulement soumis à une sorte de publicité – assez mal faite, qui plus est – pour la plateforme.
Nous avons rencontré à Bruxelles plusieurs membres des cabinets des commissaires compétents, ainsi que des personnes chargées de l’organisation pratique et de l’interaction entre ces derniers au sein du cabinet de la présidente, ou encore des membres du Parlement européen, pour échanger sur leur décision d’interdire l’installation de l’application sur les terminaux des fonctionnaires de la Commission ainsi que son accès depuis les réseaux du Parlement européen. À cette occasion, j’ai été très marqué d’entendre ces décideurs expliquer que TikTok s’était abstenu de tout lobbying auprès d’eux, alors même que le DMA et le DSA entraient à l’époque dans leur phase d’application concrète. Je les crois néanmoins bien volontiers, d’abord parce qu’ils n’avaient aucune raison de mentir, mais aussi parce que j’ai compris par la suite que ces gens-là n’ont pas besoin de convaincre en amont : ils consacrent plutôt leur énergie à mener une politique d’évitement permanent et à jouer au chat et à la souris pour faire durer les procédures. Vous noterez d’ailleurs qu’à la différence des dirigeants d’autres réseaux sociaux, les responsables de TikTok ne protestent pas urbi et orbi contre les atteintes à la liberté d’expression en Europe ou que sais-je : ils font les choses différemment.
Pour ce qui est des suites données à nos recommandations, il faut effectivement se replacer dans le contexte de l’époque. Nous avons remis notre rapport au moment de l’adoption du projet de loi visant à sécuriser et à réguler l’espace numérique défendu par M. Jean-Noël Barrot alors ministre chargé de la Transition numérique et des Télécommunications. Les règlements européens ont commencé à entrer en application au mois d’août suivant. La période durant laquelle nous aurions pu déposer une proposition de loi transpartisane issue des travaux de notre commission a ensuite coïncidé avec le bras de fer opposant M. Thierry Breton, alors commissaire européen au marché intérieur, à M. Elon Musk. C’est la raison pour laquelle il me paraît tout à fait pertinent de continuer à creuser la question plus précise dont s’est emparée votre commission d’enquête : chacun voit bien combien les choses ont évolué en deux ans.
Quant à la prise en compte du sujet par les différents ministres, j’aurais tendance à renvoyer la question aux gouvernements successifs. Le président de la République a demandé en début d’année 2024 un rapport sur l’impact de l’exposition des jeunes aux écrans, qui dressait un constat assez éloquent, unanime et partagé. Qu’en a-t-on fait ? Avant de nous demander s’il est possible de contraindre ou de modérer les plateformes, peut-être devrions-nous nous interroger sur notre capacité à recueillir l’adhésion du plus grand nombre – en tout cas des parents –, alors même qu’on demande aux enfants, sitôt rentrés de l’école, de consulter sur un écran les devoirs à faire pour le lendemain. Les pratiques de ce type ne relèvent ni de la réglementation européenne, ni d’une discussion avec les plateformes, ni même de la loi : le ministère de l’Éducation nationale devrait être capable d’exiger, par le biais d’une circulaire, que les devoirs ne soient plus donnés sur Pronote ou Éducartable. De la même façon, pourquoi les enfants et les parents sont-ils incités à vérifier, de manière parfois compulsive, les notes qui tombent chaque jour sur ces logiciels ? Parce que personne n’a donné pour instruction de définir des plages où elles ne peuvent pas y apparaître, par exemple le dimanche, pendant les vacances ou les jours fériés. La France, cinquième puissance mondiale, devrait pourtant être en mesure de demander aux éditeurs de logiciel d’agir en ce sens. Commençons donc par balayer devant notre porte.
Claude Malhuret a assuré qu’il n’était pas anti-européen, ce que je peux confirmer. J’ajoute que je ne suis pas précisément un atlantiste de premier ordre. Néanmoins, nous sommes confrontés à une difficulté quant au bon niveau d’élaboration des règles. Le débat qui s’est instauré entre la Commission européenne et certains propriétaires de plateformes montre que ces dernières commencent à sentir le vent du boulet, depuis que Thierry Breton a doctement expliqué, à raison, qu’une plateforme qui ne respecte pas les règlements européens s’expose au risque juridique de voir ses accès coupés – sous réserve, bien entendu, que soient respectés les grands principes du droit ainsi que de nombreuses conditions cumulatives. Il faut rendre cette possibilité effective, car c’est seulement ainsi qu’on pourra inciter une plateforme à amender son fonctionnement. Or un tel régime de sanctions ne peut être défini qu’au niveau continental, ce qui pose d’autres difficultés. Le fait d’avoir confié ces compétences à la CNIL irlandaise pose ainsi un problème de coordination avec les autres CNIL nationales, tout comme le choix de centraliser les politiques relatives aux contenus auprès de la Commission européenne implique des enquêtes plus nourries, plus fournies, donc plus longues, même s’il peut être le gage d’une plus grande efficacité in fine.
Il faudrait réussir à séparer le bon grain de l’ivraie et à distinguer ce qui peut relever des États de ce qui revient exclusivement à la Commission européenne. Chacun a en tête ces vieux reportages des années 1950 dans lesquels on salue la fin de l’alcool à la cantine pour les enfants de moins de quatorze ans. Cette décision avait été prise dans le cadre d’une politique publique nationale. Pourquoi devrions-nous obligatoirement en passer par les réglementations européennes pour nous demander si, comme cela a été établi scientifiquement, le fait de priver des enfants – et même des adultes – de plusieurs heures de sommeil par jour n’est pas de nature à poser un énorme problème de santé publique, qui justifierait de brider les applications concernées ?
M. le président Arthur Delaporte. J’ai été stupéfait de vous entendre décrire le théâtre d’ombres chinoises et même le mépris auquel vous avez été confrontés, ainsi que la difficulté que vous avez eue à accéder à des documents. Je pense notamment à ce fameux organigramme, que M. Garandeau, qui avait pourtant prêté serment de dire toute la vérité, disait ne pas connaître : comment avez-vous pu l’obtenir, si ce n’est à travers la direction des affaires publiques de TikTok dont il était à la tête ? Existe-t-il d’autres voies permettant d’obtenir davantage d’informations ? Vous aviez également auditionné Mme Marlène Masure, qui est depuis devenue responsable de TikTok à l’échelle européenne et que nous convierons également à venir s’exprimer devant nous.
Pouvez-vous détailler la méthode que vous avez employée pour obtenir des informations, et dont nous pourrions éventuellement nous inspirer ?
M. Claude Malhuret. Nous avons obtenu l’organigramme après l’avoir demandé à plusieurs reprises – une bonne partie des questions ont d’ailleurs dû être posées plusieurs fois, par courrier puis par lettre recommandée. Ce document semblait assez facile à établir, l’équipe étant très réduite, et nous avait paru satisfaisant jusqu’au moment où nous avons songé à solliciter le tribunal de commerce. Nous nous sommes alors aperçus que la présidente de TikTok France, Mme Zhao Tian, ne figurait pas sur l’organigramme qui nous avait été fourni, alors même qu’elle était celle qui disposait de la faculté de signature et qui pouvait donc prendre toutes les décisions importantes, comme vendre l’application. Voilà le genre de pratiques auxquelles nous avons été confrontés. Certaines auraient sans doute pu, en effet, relever de la violation par les personnes auditionnées de leur engagement à livrer en toute bonne foi l’ensemble des renseignements dont elles disposaient, mais nous n’allions pas commencer à effectuer des dénonciations pénales pour parjure ou à faire des signalements au titre de l’article 40 du code de procédure pénale.
Mme la rapporteure m’a interrogé sur les engagements pris par nos interlocuteurs. Ils font partie intégrante de la stratégie de toutes les plateformes, et de TikTok en particulier. Chaque fois que leurs représentants sont convoqués chez un régulateur, européen ou national, ils suivent la même tactique. Ils essaient d’abord d’écarter toutes les questions qui peuvent être considérées comme étant à la limite de ce qui peut leur être reproché et d’atténuer autant que possible les accusations et les soupçons. Puis, à propos de la part incompressible, qu’ils ne peuvent pas nier, ils prennent des engagements. Les représentants de TikTok rappelaient ainsi qu’ils venaient tout juste de s’installer en France, contrairement à d’autres acteurs plus anciens, et assuraient qu’ils allaient s’adapter, ce dont les régulateurs se satisfaisaient généralement. Lorsqu’on s’aperçoit, un ou deux ans plus tard, qu’ils n’ont rien changé ou presque à leurs pratiques, c’est déjà autant de temps de gagné.
Ensuite, le contentieux, s’il a lieu, dure quelques années supplémentaires et se solde, dans le pire des cas, par une sanction financière qui, même élevée, ne fait qu’égratigner légèrement le budget de l’entreprise. Jamais aucune décision d’interdiction n’a été prise, si ce n’est en Nouvelle-Calédonie, dans des circonstances très particulières et pour des raisons qui tenaient à l’ordre public et non au respect du DMA ou du DSA. Entre-temps, cinq ans auront passé et tout aura changé. Il y a cinq ans, par exemple, personne ne parlait d’intégrer l’intelligence artificielle dans les systèmes des plateformes. Cette technologie n’en a pas moins complètement balayé les engagements pris en matière de modération des contenus.
Ces acteurs ont compris depuis le début – j’ai utilisé mon premier moteur de recherche en 1996 – que leurs manquements n’auraient aucune conséquence. La rapidité des progrès réalisés dans ce domaine dépasse de si loin les possibilités d’action des régulateurs que ces entreprises se savent intouchables.
M. Stéphane Vojetta (EPR). Merci pour vos travaux, que nous avons suivis avec intérêt – et qui semblent déjà dater d’une autre époque, tant le temps passe vite dans le monde des réseaux sociaux.
J’ai écouté avec beaucoup d’attention vos réflexions sur le choix que nous avons fait, volontairement ou inconsciemment, de déléguer une partie de notre capacité à réguler ce secteur à la Commission européenne plutôt que de maintenir notre souveraineté législative en la matière. Nous en subissons désormais les conséquences, puisque nous ne pouvons plus imposer d’actions ou de limitations aux plateformes, mais seulement espérer que Bruxelles voie la lumière et prenne les bonnes décisions. J’ignorais d’ailleurs combien l’infrastructure de surveillance et de contrôle de conformité européenne est affaiblie, notamment par le conflit d’intérêts auquel l’Irlande, qui est à la fois le gendarme et le premier bénéficiaire potentiel du crime, semble exposée de manière assez évidente.
Dans quelle mesure ce qui nous reste de prérogatives, à savoir notre capacité à imposer des restrictions à des entreprises de droit français, notamment les opérateurs télécoms, peut-elle nous permettre de pallier l’inaction ou l’inefficacité de Bruxelles ?
Vous avez évoqué la volonté stratégique de la Chine d’utiliser TikTok comme une arme politique d’influence et de manipulation de l’information, voire d’abrutissement des masses. Votre enquête vous a-t-elle permis de découvrir des preuves de l’existence d’une stratégie délibérée en ce sens ? À défaut, pensez-vous que ces preuves existent, ou s’agit-il simplement d’une intuition de votre part ?
M. Claude Malhuret. Il est bien évident que personne ne laisse traîner de telles preuves. Pour les trouver, il suffit cependant de comparer le fonctionnement de TikTok avec celui de Douyin, sa version chinoise, et de constater qu’une très grande partie des effets négatifs de TikTok sur les jeunesses du monde entier épargnent les utilisateurs de Douyin.
Une des mesures actuellement envisagées en France consiste à limiter le temps passé sur les écrans. J’y suis favorable, tant il est évident que la perte de sommeil cause des problèmes d’apprentissage. Or l’application Douyin est configurée de façon à s’arrêter automatiquement après soixante minutes. Ce n’est pas une question de censure ou de liberté d’expression – même si la censure existe évidemment sur Douyin –, mais de santé publique. La première preuve que les responsables chinois sont parfaitement conscients des effets négatifs de TikTok réside donc dans le fait qu’ils en protègent leurs enfants alors qu’ils en font délibérément usage ailleurs. Ceci s’inscrit dans la bataille cognitive évoquée par M. Vallet.
De la même façon, une bonne partie de l’application Douyin, au-delà de la censure qui y sévit comme dans l’ensemble des médias chinois, est consacrée à des contenus pédagogiques et scientifiques qui sont totalement absents de TikTok – sauf de façon anecdotique ou par des biais humoristiques. Les enfants chinois sont certes eux aussi confrontés à un algorithme très addictif, mais, contrairement aux autres, ils peuvent avoir accès à des contenus éducatifs.
Ces différences majeures entre les deux applications sont la preuve d’une volonté de protéger les mineurs chinois des conséquences psychologiques que subissent ceux du reste du monde.
Quant à la possibilité pour la France d’adopter une législation spécifique en matière de régulation des plateformes, le chemin est encore long. Le Conseil d’État a désavoué la décision du Gouvernement de bloquer, pour des raisons d’ordre public, l’accès à TikTok en Nouvelle-Calédonie durant quelques jours.
Plus généralement, les plateformes posent un problème aux pays démocratiques. Nous pâtissons du fait d’avoir poussé la réflexion, le vocabulaire et les intentions libéraux jusqu’au bout du libertarianisme. Les libertariens californiens, qui ont lancé le mouvement dans le monde entier, considèrent la moindre critique ou la moindre régulation comme une atteinte à la liberté d’expression. Nous avons confondu la liberté d’expression avec celle de dire n’importe quoi, licence renforcée par l’anonymat. Depuis la loi du 29 juillet 1881 sur la liberté de la presse, la liberté d’expression s’exerce dans un cadre juridique qui s’applique aux médias et aux personnes, notamment en matière de diffamation et d’injures, mais pas aux réseaux sociaux.
En 2018, j’ai demandé au secrétaire d’État chargé de la transition numérique et des communications électroniques, Cédric O, d’interdire en France Sputnik et Russia Today – RT. Levant les bras au ciel, il a dit que le Gouvernement ne supprimerait pas la liberté d’expression. Je lui ai répondu que ce n’était pas la liberté d’expression qui était en jeu mais plutôt la liberté de propagande de régimes hostiles à notre pays, ces deux organismes de propagande ayant été créés par les services de renseignement et de propagande russes.
Le 27 février 2022, quelques jours après l’invasion de l’Ukraine par la Russie, les Européens ont interdit RT et Sputnik. Nous sommes victimes de cette naïveté. Les parents et les acteurs du jeu démocratique se lamentent. La liberté d’expression est tellement importante dans nos sociétés libérales qu’il est compliqué de plaider pour une régulation, notamment en raison de l’influence du libertarianisme californien qui est devenu la norme. En 2020, dans un entretien à The Atlantic, Barack Obama a déclaré que « les réseaux sociaux [étaient] devenus l’une des principales menaces contre la démocratie ». Les Gafam dépensent des milliards d’euros en lobbying à Bruxelles pour protester en permanence contre les atteintes qui seraient portées à la liberté d’expression. Du reste, une majorité de personnes, qui ne comprennent rien au système, les croient.
Lors de l’examen du projet de loi confortant le respect des principes de la République, j’avais déposé un amendement visant à assimiler les plateformes qui effectuent de la recommandation algorithmique – sous forme de sélection de contenu – à des éditeurs, donc à les rendre responsables des informations qu’elles stockent. Il a été adopté à l’unanimité contre l’avis du Gouvernement. Tant qu’on considérera les plateformes comme des hébergeurs, elles ne seront pas tenues responsables de leur contenu ; c’est une grosse arnaque. Tout le monde se plaint de l’opacité des algorithmes, couverts par le secret des affaires, qui évoluent tout le temps et incitent à la violence et attisent la polémique.
Une plateforme qui met en exergue des contenus violents est un éditeur de contenus violents et non un hébergeur neutre. Aucun État n’autoriserait la commercialisation d’une voiture sans frein. Or les créateurs de plateformes, dont les algorithmes permettent de sélectionner les contenus qui font du buzz, donc du fric, ont bénéficié d’une impunité totale.
Tout le monde se plaint des impacts de ces plateformes sur les jeunes et, plus généralement, de la menace qu’elles font peser sur le débat démocratique. En notre qualité de législateur, nous sommes bien placés pour savoir la part de responsabilité qui incombe aux réseaux sociaux dans l’affaiblissement des démocraties.
Si l’amendement qui vise à assimiler les plateformes sélectionnant du contenu à des éditeurs était définitivement adopté par le Parlement – la mesure avait été supprimée en nouvelle lecture à l’Assemblée nationale –, les plateformes ne pourraient plus invoquer le secret des affaires pour refuser de communiquer les algorithmes. Du reste, certaines plateformes, comme X, acceptent de donner accès à leurs algorithmes. D’une part, on découvrirait des choses sur les plateformes qui feraient changer d’avis de nombreuses personnes ; d’autre part, les plateformes, à l’instar des médias depuis 1881, seraient responsables de leur contenu, ce qui ne porterait pas pour autant atteinte à la liberté d’expression.
Si cette mesure était définitivement adoptée, le Conseil constitutionnel pourrait la juger contraire aux règlements DSA et DMA. D’ailleurs, à l’époque, on m’avait demandé si j’étais contre la liberté d’expression. Il est bien plus facile de prétendre que je serais favorable à la censure.
M. le président Arthur Delaporte. Une ordonnance-balai a rectifié les dispositions de la loi du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux que la Commission européenne avait considérées inconventionnelles.
Tout en étant conscients de ces difficultés, nous devons avancer pour éviter que certaines plateformes ne se cachent derrière le statut d’hébergeur. Je vous rejoins : ce sont des éditeurs, donc ils ont, à ce titre, une responsabilité majeure. Il reviendra à cette commission d’enquête de le démontrer.
Mme Laure Miller, rapporteure. Mme Anne Genetet, qui suit cette audition à distance, m’a transmis ses questions.
Elle demande si vous avez évoqué avec la Commission européenne la possibilité d’interdire totalement TikTok. De quels moyens dispose-t-elle pour assurer le contrôle des contenus et de l’application des règles européennes ?
Vous proposez d’instaurer pour les mineurs un blocage de l’application au bout de soixante minutes d’utilisation – recommandation n° 20 de votre rapport. Comment pourrait s’appliquer concrètement cette mesure ?
M. Claude Malhuret. Douyin bloque déjà l’accès aux mineurs ; il est donc évident que cette fonctionnalité ne pose aucun problème technique. Du reste, à l’époque, M. Garandeau nous avait dit qu’il réfléchissait à proposer aux parents d’installer cette fonctionnalité sur TikTok, ce qu’il n’a pas fait. Les associations de parents que nous avions rencontrées y étaient favorables.
Le contrôle de l’âge est également un sujet consensuel mais son déploiement se heurte à une difficulté technique. Les réseaux sociaux sont d’accord pour contrôler l’âge des utilisateurs mais ils demandent aux régulateurs de proposer des systèmes de vérification, tandis que les autorités, notamment européennes, considèrent qu’il revient aux plateformes de proposer des outils. Ils se renvoient donc la balle. Le recours au tiers de confiance serait une solution mais personne ne semble vouloir avancer dans ce domaine. Néanmoins, ces deux mesures pourraient facilement être appliquées.
M. Mickaël Vallet. Gardons-nous de toute approche caricaturale en ce qui concerne le niveau européen. Il y a quinze ans, si on avait expliqué que la gestion des données deviendrait un enjeu de politique publique jusque dans la plus petite commune de France ou dans les plus petites associations, conscientes du fait qu’on n’exploite pas les adresses électroniques ou qu’on n’héberge pas certaines données relatives aux administrés, on aurait considéré que la marche était un peu haute. Or le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) est maintenant entré dans les mœurs.
Compte tenu des volumes de données collectées, des contentieux importants peuvent être engagés. Bien qu’elle ait récemment été améliorée, la procédure suivie par la CNIL irlandaise pose un problème. Elle consiste à soumettre un projet de décision à l’ensemble des autorités de protection de données européennes. Au bout du compte, nonobstant le temps passé et l’énergie dépensée, une norme européenne en matière de protection des données sera prise. Certains pays asiatiques s’inspirent du cadre européen pour élaborer leur législation nationale – cela mérite d’être souligné.
S’agissant du DMA et du DSA, le problème, c’est le temps. Le cadre juridique ne se construit pas assez vite alors que les plateformes et les Gafam avancent et essayent de gagner du temps. Les législations nationales permettraient d’avancer plus rapidement et de manière plus flexible ; néanmoins, l’impact ne serait pas le même. Vous avez dit que nous avions consciemment ou inconsciemment délégué ces compétences à Bruxelles. Cette délégation était tout à fait consciente : des responsables politiques nationaux prennent les décisions en la matière et ils doivent les assumer. Ce ne sont pas les Chinois qui ont décidé que Thierry Breton ne serait plus commissaire européen – du reste, cela aurait été très grave en plus d’être idiot –, alors qu’il commençait à taper dur sur les plateformes et que son travail sur ces questions commençait à être reconnu par l’opinion. Les responsables nationaux doivent faire avancer les choses dans le bon sens. On peut s’interroger sur la volonté de la présidente de la Commission européenne, qui a été à deux doigts de nommer une ancienne responsable d’Apple économiste en chef de la direction générale de la concurrence. En tout état de cause, un cadre existe ; il nous revient, dans le cadre des relations diplomatiques intra-européennes, d’avoir des exigences beaucoup plus concrètes en la matière.
S’agissant de la question de savoir s’il est faisable ou opportun de brider le temps d’utilisation d’une application, il existe deux aspects. Le premier est juridique : ce blocage ne doit pas contrevenir pas à certains grands principes de droit. Claude Malhuret a parlé de naïveté : nous ne pouvons être les seuls à le décider, nous devons converger vers cette solution au niveau européen, il y va de notre santé démocratique. Une vraie bataille doit être menée.
Le second aspect est technique. On dit parfois que tout ce qui est techniquement possible n’est pas politiquement souhaitable. Le splinternet – ou cyberbalkanisation – existe déjà : en Chine, on n’a pas accès aux mêmes contenus que dans l’Union européenne. De la même façon, certains contenus chinois ne sont pas accessibles dans l’Union européenne – et c’est heureux. Nos concitoyens ne comprendraient pas qu’on mette en avant des considérations techniques. Je prends un exemple local : la diffusion de musique à l’occasion d’une fête de village qui n’a pas été déclarée à la Sacem (Société des auteurs, compositeurs et éditeurs de musique) conduira à l’acquittement d’une amende pour non-respect des droits d’auteur. La Sacem lit la presse locale et vérifie si les événements annoncés ont été déclarés. Des règles analogues doivent s’appliquer aux réseaux sociaux.
Selon M. Paul Charon, directeur du domaine renseignement, anticipation et stratégies d’influence de l’Institut de recherche stratégique de l’École militaire (Irsem), la Chine mène, de manière assumée, une véritable guerre cognitive. Par ailleurs, je vous invite à consulter le rapport sénatorial de juillet 2024 « Lutte contre les influences étrangères malveillantes. Pour une mobilisation de toute la Nation face à la néo-guerre froide ». Dans l’Union européenne, notamment en Roumanie, TikTok a eu des effets sur l’opinion publique. Comment est-il possible que cette application ait une influence telle qu’elle entraîne des manifestations bien réelles et l’annulation d’un scrutin public ? Cet événement, qui donne le vertige, doit nous alerter.
Enfin, je nuancerai les propos de Claude Malhuret sur la Nouvelle-Calédonie. Le Conseil d’État a considéré que l’application avait été suspendue en dehors de tout cadre légal. Certes, il doit être possible de suspendre une application pour des considérations d’ordre public, mais cette décision doit s’inscrire dans un cadre juridique. Depuis la décision du Conseil d’État, le travail n’a pas été remis sur l’ouvrage. Nous devons avancer sur cette question.
M. le président Arthur Delaporte. Le Conseil d’État a jugé que la décision avait porté une atteinte disproportionnée aux droits et aux libertés.
M. Mickaël Vallet. Oui, il a jugé que la décision n’avait pas été prise dans les règles.
La question du cadre légal et la caractérisation des menaces réelles sont un élément fondamental. Se demander comment pourraient agir les pouvoirs publics, notamment en matière d’éducation à la parentalité, indépendamment des plateformes, est également essentiel.
M. le président Arthur Delaporte. Nous travaillons dans ce sens : nous auditionnerons les associations de parents et le Réseau Canopé, qui déploie des dispositifs d’accompagnement des jeunes et d’éducation à la citoyenneté à l’ère numérique, lesquels ne sont pas suffisamment soutenus par les pouvoirs publics. Enfin, nous recevrons la ministre de l’Éducation nationale, de l’enseignement supérieur et de la recherche, et le ministre chargé de la Santé et de l’accès aux soins.
Puis, la commission auditionne conjointement :
– Mme Sihem Amer-Yahia, directrice de recherche CNRS, directrice adjointe du Laboratoire d’informatique de Grenoble
– Mme Lucile Coquelin, maître de conférences en sciences de l’information et de la communication, Laboratoire DyLIS, Inspé Normandie Rouen Le Havre, Sciences Po Paris
– M. Olivier Ertzscheid, chercheur en sciences de l’information et de la communication, maître de conférences à l’université de Nantes, auteur des ouvrages L’appétit des géants : pouvoir des algorithmes, ambitions des plateformes et Le monde selon Zuckerberg : portraits et préjudices
M. le président Arthur Delaporte. Madame la rapporteure vous a communiqué préalablement un questionnaire, auquel vous pourrez apporter de plus amples réponses ultérieurement, par écrit. Je vous demanderai de déclarer tout intérêt public ou privé de nature à influencer vos déclarations.
L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(M. Marc Faddoul, Mme Lucile Coquelin, Mme Sihem Amer-Yahia et M. Olivier Ertzscheid prêtent serment.)
Mme Lucile Coquelin, maître de conférences en sciences de l’information et de la communication. Dans le cadre de mes travaux de recherche, je suis amenée à produire du contenu pour TikTok afin de comprendre l’interface de la plateforme, mais je n’en ai encore perçu aucun bénéfice financier. Il faudrait pour cela que des utilisateurs souscrivent à un abonnement à mon compte pour accéder à des contenus exclusifs.
M. Marc Faddoul, directeur et cofondateur d’AI Forensics. J’ai travaillé avec Facebook voici environ sept ans dans le cadre d’un partenariat de recherche avec l’université de Berkeley, mais je n’ai rien perçu à ce titre.
Mme Lucile Coquelin. Je tiens à vous exprimer ma gratitude pour la constitution de cette commission d’enquête, que j’appelais de mes vœux.
J’enseigne les épistémologies et les méthodologies de la recherche sur l’éducation aux médias, l’information et les cultures numériques. Je me présente devant vous, non pas en tant que psychologue ou informaticienne, mais comme sémio-anthropologue de la communication. Mes objets d’étude sont les signes, les mythes, les croyances, les récits par lesquels nos sociétés se racontent, se rêvent et, parfois, se trahissent. Ce sont dans les interstices du langage que se nichent nos croyances et que se tissent, selon moi, les véritables dynamiques du pouvoir. Voilà pourquoi, depuis bientôt dix ans, je questionne les mythologies produites par les productions audiovisuelles sérielles en circulation dans la sphère publique, notamment numérique.
Mes recherches m’ont conduite à explorer diverses plateformes telles qu’Instagram, YouTube, TikTok ou même Netflix, à travers plusieurs objets d’étude, dont les figures des influenceurs fitness ou les mobilisations autour du mouvement #MeTooInceste.
Depuis près de deux ans, je mène un projet de recherche visant à circonscrire, au moins partiellement, le modèle des plateformes Instagram et TikTok. Il s’agit pour moi de comprendre le ressort de la viralité des contenus et les dynamiques d’engagement des publics telles que les oriente une stratégie algorithmique propre à chaque dispositif. Mon approche vise à interroger ce que ces interfaces numériques nous donnent à voir, mais aussi ce qu’elles font à nos subjectivités. Il n’est question ni de céder aux enchantements faciles de la technique ni d’ériger TikTok en bouc émissaire commode des désordres de l’époque. Il n’importe pas seulement de comprendre TikTok de l’extérieur, mais de réfléchir à ce que ces dispositifs nous font éprouver, à la manière dont ils participent à façonner nos désirs, nos imaginaires et notre rapport à nous-mêmes. Nous devons interroger ce que ces outils font à notre manière d’habiter le monde, de nous dire et de nous percevoir.
Mon propos ne s’enfermera ni dans la dénonciation sommaire ni dans l’apologie ingénue de ces réseaux sociaux numériques, car je revendique, dans ma démarche, une lucidité, une vigilance, une foi raisonnable dans la capacité humaine à apprivoiser, sinon à dompter, les forces qu’elle déchaîne, en particulier sur les plus vulnérables. Si la jeunesse, naturellement avide d’expériences, est souvent désignée comme la première concernée, nul n’est à l’abri de cette fragilité, car toute ignorance des codes, tout éloignement des savoirs numériques rend chacun de nous vulnérable. La vulnérabilité numérique n’est pas propre à un âge ou à une génération. Elle est une contingence qui guette, à bas bruit, toutes les personnes impréparées, car celui qui manque de connaissances ou de compétences numériques, qu’il soit jeune ou non, peut se retrouver exposé à des environnements qu’il ne maîtrise pas. Cette vulnérabilité n’est toutefois en aucun cas permanente, mais évolutive et contextuelle. Elle ne constitue ni une fatalité ni une prison. Elle peut même receler des opportunités.
M. Marc Faddoul. Je félicite également l’initiative de cette commission. J’aimerais, dans mes propos liminaires, souligner le rôle de l’amplification algorithmique dans la distribution de l’information, aborder la crise de la souveraineté que nous traversons, vis-à-vis de nos infrastructures numériques, et formuler des recommandations au régulateur dans l’objectif de regagner plus de souveraineté, par le biais de l’interopérabilité.
Les algorithmes de recommandation sont devenus les gardiens de l’information en ligne. Je songe aussi bien aux systèmes de recommandation des réseaux sociaux qu’aux modèles de langages tels que ChatGPT. Il me semble nécessaire de se concentrer sur l’amplification algorithmique, plus que sur la modération de contenu, alors même que celle-ci tend à occuper une large place dans les débats, aussi bien autour du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital service act (DSA) que sur la liberté d’expression aux États-Unis. L’expérience de l’utilisateur de TikTok est pensée pour et autour de l’algorithme, qu’il s’agisse du flux des recommandations ou du moteur de recherche intégré à l’application, à l’origine de suggestions personnalisées de contenu comme de recherche. La spécificité de l’algorithme de TikTok tient à sa capacité de recevoir un feedback rapide et abondant des utilisateurs. Ceci permet de raffiner le profil psychologique et d’intérêt de chacun. Un tel modèle algorithmique, fondé presque exclusivement sur la maximisation de l’engagement, entraîne les conséquences les plus dramatiques en termes d’addiction, d’amplification de contenus sensationnalistes, conspiratoires et polarisants, et d’exploitation des vulnérabilités. Ainsi, selon une étude d’AI Forensics, un utilisateur suivant du contenu lié à une rupture amoureuse se retrouve, en moins d’une demi-heure, exposé à du contenu lié aux dépressions, puis à des idées suicidaires. Ce phénomène inquiétant s’observe sur d’autres plateformes. Il convient de souligner la similitude dans la conception des algorithmes de recommandation d’Instagram, TikTok ou YouTube. En réalité, nous observons une convergence des fonctionnalités sur l’ensemble des plateformes, s’inspirant les unes, des autres. Aussi importe-t-il de s’en tenir à une approche systémique.
Nous affrontons aujourd’hui une crise de notre souveraineté numérique dans un contexte géopolitique adverse en reconstruction. Nous avons délégué notre infrastructure informationnelle à des plateformes qui obéissent à des intérêts étrangers, notamment gouvernementaux. Le parti communiste chinois a, de fait, infiltré la gouvernance de TikTok. Malgré l’absence de preuve d’ingérence à grande échelle de la plateforme elle-même, les mécanismes de séparation des pouvoirs mis en place n’apparaissent pas du tout convaincants. Aussi subsiste-t-il un risque. S’il ne s’est pas encore avéré, c’est sans nul doute grâce à l’intérêt des régulateurs américains et européens pour la plateforme. Car, si TikTok se livrait à de telles manipulations, elle s’exposerait au risque de devoir cesser son activité. D’autres plateformes américaines ne s’embarrassent pas de telles précautions. Ainsi, X, la plateforme dirigée par Elon Musk, s’est livrée à des manipulations algorithmiques visant à amplifier la portée des messages de son propriétaire ; celui-ci y partageant ses intérêts politiques et sa volonté d’influencer certaines élections, y compris en Europe. Certains techno-entrepreneurs nourrissent l’ambition explicite d’utiliser la domination technologique comme outil de conquête idéologique. Les mineurs font dès lors figure de cible privilégiée, bien qu’ils ne soient pas les seuls visés.
J’aimerais, pour finir, insister sur la nécessité d’une approche systémique des plateformes. Je recommanderais, dans cette perspective, l’approche d’un pluralisme algorithmique, recommandé notamment dans le cadre des états généraux de l’information. Les algorithmes de recommandation sont devenus les principaux canaux d’accès à l’information. Ils jouent même un rôle plus important encore que les médias dans la distribution de l’information. De même que la loi a inscrit le pluralisme des médias parmi les principes fondamentaux de la démocratie, il conviendrait d’imposer un pluralisme algorithmique, alors que les plateformes ne laissent justement aucun choix à l’utilisateur, de ce point de vue. Il me semblerait donc judicieux d’imposer aux plateformes des protocoles interopérables, sur le modèle de BlueSky, qui permet à ses utilisateurs de choisir leur propre algorithme et à des tiers de proposer des algorithmes ensuite intégrés à cette application. À titre d’exemple, TikTok pourrait proposer un algorithme de recommandation géré par la chaîne de télévision Arte. Ceci permettrait aussi bien aux utilisateurs qu’aux États de mieux contrôler les plateformes en luttant contre la centralisation des pouvoirs et des revenus au sein de certaines d’entre elles. Bien sûr, il serait préférable d’imposer de tels standards à l’échelle européenne, comme, par le passé, dans le domaine des télécommunications. Le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA) a imposé l’interopérabilité des applications de messagerie. Le Digital Fairness Act en discussion pourrait offrir une opportunité d’introduire de telles exigences dans le droit européen. Quoi qu’il en soit, il ne suffit pas de réguler. Nous devons investir dans l’infrastructure si nous voulons surmonter proactivement la crise de la souveraineté que nous affrontons.
Mme Sihem Amer-Yahia, directrice de recherche au CNRS. Mon objet de recherche n’est autre que l’algorithme, en particulier de recommandation. J’en ai développé et j’étudie leur comportement, en particulier lorsqu’il s’agit d’agréger les informations d’un grand nombre d’utilisateurs et de leur servir du contenu. Les algorithmes des réseaux sociaux, et plus spécifiquement celui de TikTok, fonctionnent en agrégeant de nombreux signaux à la fois explicites, c’est-à-dire basés sur un comportement prenant la forme d’un like ou d’un post, et implicites, comme le temps passé à visionner un contenu ou le moment où l’utilisateur se connecte à la plateforme. Une fois déterminé le profil d’un utilisateur, les algorithmes lui recommandent du contenu, des personnes à suivre et des publicités personnalisées. Le modèle économique des réseaux sociaux est fortement axé sur la publicité personnalisée. Ceci influe sur le développement des algorithmes de recommandation, conçus pour maximiser l’engagement des utilisateurs afin de soutenir la diffusion des publicités ciblées. Le principal objectif consiste à maintenir l’utilisateur actif, de manière à ce qu’il consomme du contenu et envoie des signaux alimentant l’algorithme.
TikTok se distingue par sa capacité à analyser en temps réel l’activité de ses utilisateurs, enrichissant ainsi l’algorithme par des données relatives à leurs préférences, leurs pensées et sentiments. Ceci contribue à l’extraordinaire capacité de la plateforme de servir du contenu personnalisé et ciblé, en augmentant dans le même temps le danger qu’elle exerce un contrôle sur les individus qui s’y connectent. Des inquiétudes se font jour quant aux effets de ces algorithmes sur les mineurs, d’autant que celui de TikTok a été conçu pour rendre la plateforme addictive. Il risque ainsi de profondément impacter l’attention et le développement cognitif des mineurs. Il conviendrait d’étudier comment l’exposition continue à des vidéos courtes et engageantes affecte les capacités de concentration, de développement intellectuel et d’engagement dans d’autres activités.
J’ai songé à de nombreuses recommandations légales, techniques et sociétales à adresser aux régulateurs. Il me semble nécessaire que ces trois dimensions interagissent pour parvenir à des solutions durables à fort impact. Il importe d’étudier comment les mineurs s’informent sur les plateformes et les risques liés à la rencontre de contenu non fiable ou biaisé. Sans une évaluation de leur éducation aux médias, les jeunes utilisateurs ne seront pas à même de comprendre le fonctionnement d’une plateforme ni de s’en détacher. Laisser de côté les aspects techniques du problème, négliger l’apport de plateformes comme BlueSky autorisant la personnalisation du contenu, rendrait inutile un simple examen de ses aspects sociétaux. Les aspects techniques incluent l’étendue des pratiques de collecte de données ou encore les politiques de modération. D’un point de vue légal, il conviendrait de concevoir des outils capables de mesurer l’impact de TikTok sur ses utilisateurs.
Olivier Ertzscheid, chercheur en sciences de l’information et de la communication. Merci pour la tenue de cette commission. Je suis enseignant-chercheur en sciences de l’information et de la communication, mais je pourrais me définir comme médiologue, dans la mesure où j’examine, depuis vingt-cinq ans, le rapport à l’information que transforment les médias numériques, depuis les moteurs de recherche jusqu’aux réseaux sociaux. Si je devais résumer en une phrase ces vingt-cinq années de recherche, je dirais que tout est de la faute du modèle économique de ces plateformes. Pour paraphraser le titre d’une conférence de Zeynep Tufekci : nous avons construit une dystopie rien que pour obliger les gens à cliquer sur des publicités. Les algorithmes de TikTok soulèvent des enjeux relevant d’effets de publicitarisation, entendue ici comme la manière dont le modèle économique des plateformes et leurs formats éditoriaux réservent une part quasi exclusive à ce qui relève, si ce n’est directement de la publicité, du moins d’espaces investis par la publicité.
D’abord, il me paraît indispensable d’envisager les médias sociaux dans une continuité et dans un espace médiatique global. TikTok ne serait pas ce qu’elle est si divers contenus médiatiques n’étaient pas fabriqués par ailleurs pour y être diffusés.
Ensuite, la meilleure définition d’un algorithme me semble encore celle de Deleuze et Guattari dans leur essai de 1980, Mille plateaux, où il est question de ritournelles. Les trois aspects qui les caractérisent valent aussi pour les algorithmes. Les ritournelles rassurent par une forme de régularité attendue. Elles installent une organisation qui semble familière dans un espace public susceptible d’être investi de manière intime. Elles sont aussi des chants traversants, permettant de découvrir des ailleurs y compris dans des environnements fermés et normés.
Rappelons en outre que nous parlons ici d’outils numériques ayant fait exploser le cadre anthropologique de la communication. Nous pouvons y parler à des personnes absentes, y monologuer ou y dialoguer, parfois sous forme d’avatars, dans des espaces réels ou fantasmés. Il en résulte un bouleversement de nos représentations cognitives. L’hyperfragmentation des contenus sur TikTok permet à son algorithme d’être alimenté à une fréquence particulièrement élevée par des données provenant des utilisateurs, peu importe que ceux-ci interagissent ou non avec la plateforme.
Enfin, je reste convaincu que trois grands mensonges ont marqué l’ère postindustrielle, perpétrés par l’industrie du tabac, par celle du pétrole, et par les plateformes sociales, en réalité parfaitement au courant de leurs impacts sur la santé publique, mais qui n’en persistent pas moins dans un déni permanent, jusqu’à ce que des lanceurs d’alerte parviennent à documenter ce qu’il s’y passe.
Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Vous dépeignez l’algorithme de TikTok comme extrêmement intrusif, car il capte des informations que les utilisateurs n’ont pas choisi de livrer. Un travail ne doit-il pas être mené auprès de ces utilisateurs pour les avertir, d’une part, du caractère intrusif de l’algorithme, et d’autre part, qu’ils évoluent dans une bulle ne correspondant pas à la réalité, puisque les autres ne voient pas forcément les mêmes vidéos qu’eux ? Autrement dit, ne conviendrait-il pas de les mettre en garde contre les effets de l’algorithme sur le contenu qu’ils visionnent et de les amener à réagir à la captation de leurs données ?
Vous avez évoqué la création d’un algorithme plus éthique. Ne pensez-vous pas que le travail de régulation des réseaux sociaux dans lequel nous sommes engagés est vain ? Ces réseaux obéissent en effet à une logique économique et non éthique. Ils conserveront toujours une longueur d’avance sur le régulateur.
Par ailleurs, avez-vous connaissance de législations en vigueur dans d’autres pays, dont nous pourrions nous inspirer pour mieux protéger la jeunesse des réseaux sociaux ?
Mme Lucile Coquelin. La formation des publics me concerne au premier chef, puisque je suis chargée de former des professeurs des écoles et des documentalistes à l’éducation aux médias, à l’information et aux cultures numériques. Je partage avec eux des outils pour qu’ils en fassent ensuite autant avec leurs apprenants. Je constate, depuis plusieurs années, que la plupart des publics connaissent des termes comme « algorithmes », « récolte » ou « surveillance de données », en se formant toutefois une idée très abstraite de ce à quoi ils renvoient concrètement. Beaucoup manquent de compétences techniques et de connaissance de ces thématiques, ce qui engendre en eux de la crainte. Le manque de confiance dans ces outils complique leur appropriation ainsi que, par ricochet, leur capacité à s’en départir.
J’aimerais partager mes propres doutes quant aux discours, constants dans l’espace public, de panique morale vis-à-vis de ces outils. Les journalistes tendent à se concentrer sur leurs dérives et leurs dangers potentiels en occultant leur apport en termes de construction identitaire ou de sentiment d’appartenance à une communauté. Il importe de sensibiliser les publics, en les alertant sur les dangers des plateformes, certes, mais aussi en leur apportant des compétences techniques et réflexives par rapport à ces outils. Nous développons pour ce faire avec un collectif de recherche, depuis plusieurs années, une méthode baptisée sémiotique sociale. Elle vise à naviguer en groupe sur des interfaces numériques afin d’en comprendre le fonctionnement et à s’engager dans une réflexivité sur ce que ces interfaces nous font. Je me tiens à la disposition des membres de la commission, au cas où ils souhaiteraient en savoir plus.
Concernant la question de l’éthique, particulièrement complexe, il convient de rappeler que l’éthique est située dans le temps et dans l’espace historiques. Oui, il semble possible de développer des algorithmes éthiques, mais éthiques de quel point de vue et au nom de quoi ? Certains de ceux que vous avez précédemment auditionnés recommandaient de s’inspirer de dispositifs de prévention similaires à ceux qui figurent sur les paquets de cigarettes ou les emballages alimentaires. Peut-être pourrions-nous demander aux plateformes d’indiquer, à intervalles réguliers, le temps que l’utilisateur y a déjà passé ou la quantité de données récoltées grâce à lui.
M. Olivier Ertzscheid. Un certain nombre de professionnels de l’éducation nationale, dont les professeurs documentalistes, ainsi que des organismes comme le CLEMI (Centre de Liaison de l’Enseignement et des Médias d’Information) sont des hérauts des questions de sensibilisation des utilisateurs – questions qu’ils portent auprès du public de manière continue. Ces organismes ont besoin de financements pérennes, d’autant que l’effectif qu’ils emploient s’est accru à proportion de l’urgence du débat sur ces questions.
J’échange beaucoup avec de jeunes étudiants à propos de ces problématiques dans le cadre de mes enseignements. Deux d’entre eux m’ont fait observer que nous voyons rarement des campagnes de prévention dans l’espace public touchant aux liens entre l’utilisation des réseaux sociaux et la santé mentale, alors même que les jeunes n’ont jamais autant insisté sur l’importance de la santé mentale. Un éminent enjeu touche dès lors au renforcement de la communication publique autour de ces sujets ; cette communication pouvant être doublée par des dispositifs d’alerte au sein des plateformes elles-mêmes.
Monsieur le président Arthur Delaporte. Nous auditionnerons plus tard des acteurs institutionnels, dont le CLEMI, ainsi que Santé Publique France et les services de communication du gouvernement afin d’évoquer avec eux différentes options.
M. Marc Faddoul. L’éducation aux médias joue en effet un rôle primordial. La régulation des systèmes algorithmiques n’est absolument pas vaine. Je la tiens au contraire pour essentielle. Quelques progrès ont déjà eu lieu dans le cadre du DSA. Ils peuvent sembler vains dans la mesure où ils n’impliquent pas un changement systémique. Ils consistent simplement à tenter d’analyser les risques systémiques que présentent les algorithmes. Il en a quand même résulté une plus grande transparence des interfaces des plateformes.
Un changement de paradigme n’interviendra qu’à condition d’imposer l’interopérabilité, seule à même de transformer complètement le profil de risque. Seulement, l’interopérabilité apparaît contraire au modèle économique de ces plateformes, qui repose sur les bénéfices qu’elles tirent de leur monopole sur l’information dans certains secteurs. Je songe ici au fait que certaines agences publiques ne publient plus d’informations que sur la plateforme X. Les citoyens qui souhaitent en prendre connaissance se retrouvent contraints de passer par l’algorithme de recherche et donc de recommandation de X. Le régulateur doit mettre fin à ce monopole. BlueSky fait figure d’exemple contredisant ce qu’ont longtemps prétendu les plateformes, à savoir que la mise en place d’un modèle interopérable se heurtait à une impossibilité technique. BlueSky a démontré qu’un tel modèle pouvait fonctionner à l’échelle en autorisant aussi bien les utilisateurs que les États souverains à mieux contrôler leur usage des plateformes.
Mme Sihem Amer-Yahia. D’un point de vue technique, la possibilité d’intégrer et de choisir des algorithmes de recommandation sur une plateforme a d’ores et déjà été prouvée. Bien entendu, une telle possibilité ne suffit pas à elle seule. Il conviendrait d’accompagner les algorithmes d’une explication accessible à tous. En appeler à une simple transparence des algorithmes sans clarifier les enjeux qu’elle recouvre ne suffit pas. Des exemples de fonctionnement des algorithmes seraient nécessaires.
Au niveau européen est déjà préconisée la mise à disposition d’un registre de publicités indiquant quelle entité a parrainé telle annonce et quels individus celle-ci a ciblés, pour telle ou telle raison. Des audits indépendants auraient intérêt à être conduits afin de réduire les risques, comme le préconise le DSA. Encore une fois, j’insiste sur l’importance d’une convergence entre les aspects technique et législatif de la question.
Mme Laure Miller, rapporteure. Vous convenez avec moi que la question de l’interopérabilité ne pourra que se régler à l’échelle européenne et non nationale.
M. Marc Faddoul. Je préconise en tout cas de s’atteler au problème à l’échelle de l’Union européenne. Seule la force du marché unique européen permettrait de faire plier les plateformes. Un bras de fer a déjà été remporté à propos des connecteurs USB-C. Je ne pense pas que la France, seule, parviendrait à un tel résultat, compte tenu de l’intensité du lobbying que ne manqueraient pas de mener les plateformes.
M. Le président Arthur Delaporte. J’aimerais, monsieur Faddoul, que vous précisiez les missions de votre organisation ainsi que vos recherches sur TikTok. Les impératifs de transparence imposés à l’échelle européenne aux plateformes par le biais du DSA ont contraint celles-ci à publier des bases de données. Or vous êtes impliqué dans un projet d’analyse de ces données. Qu’en avez-vous d’ores et déjà conclu ? TikTok respecte-t-elle ou non ses obligations de transparence ? Les données recueillies sont-elles utilisables ou non par la recherche ou par le grand public ? Permettent-elles ou non d’exercer un contrôle sur les plateformes ?
M. Marc Faddoul. IA Forensics est une association française de loi 1901 à but non lucratif. Sa mission consiste à analyser les algorithmes opaques et influents et leurs impacts sur la société. Nous avons mené de nombreux travaux sur les systèmes de recommandation des réseaux sociaux ou encore les algorithmes de ChatGPT et d’autres chatbots émergents. Ces dernières années, nos travaux ont servi d’appui à la Commission européenne dans la mise en place du Digital Services Act. Nous sommes parmi les premières organisations à avoir tiré parti de ses nouvelles obligations de transparence. Celles-ci ont permis aux chercheurs d’accéder à des données grâce auxquelles il est possible d’analyser les risques systémiques que présentent les plateformes. Certes, ces obligations ont des limites. Néanmoins, sans ces nouveaux mécanismes d’accès aux données, nous n’aurions pas pu mener à bien certaines de nos études les plus récentes.
La législation européenne a imposé la transparence sur les publicités diffusées par les plateformes dans l’Union européenne, puisque ces publicités sont désormais inscrites sur un registre. La législation impose par ailleurs, en théorie du moins, de laisser les chercheurs accéder aux bases de données ainsi collectées, de manière programmatique et à grande échelle. Le degré de respect de cette obligation varie toutefois d’une plateforme à l’autre. En la matière, TikTok ne fait partie ni des meilleurs élèves ni des cancres. Des limites sont à déplorer concernant la quantité et le type de données fournies par cette plateforme. De fait, les médias n’y sont pas faciles à télécharger ni leurs sous-titres à consulter, alors que l’algorithme analyse ces éléments.
Instagram et Facebook disposent des registres de publicités les mieux tenus. Ceci a permis de mettre en évidence que de nombreuses publicités vantent des produits prétendument thérapeutiques aux vertus en réalité non démontrées, présentant des risques pour la santé. À ce risque systémique pesant sur la santé publique s’en ajoute un autre d’intégrité électorale. Les registres de publicités nous ont en effet permis de prouver l’orchestration, par des groupes prorusses, de campagnes de propagande ayant touché plus de cent millions d’utilisateurs dans l’Union européenne, dans le cadre des élections parlementaires de juin dernier.
Nous avons étudié, toujours grâce au registre imposé par le DSA, les publicités politiques diffusées sur TikTok, notamment dans le cadre des récentes élections allemandes. TikTok s’en tient à une politique plus contraignante que d’autres plateformes comme Instagram ou Facebook en interdisant a priori toute publicité politique dans le sens où les annonceurs n’y sont pas autorisés à acheter du contenu faisant référence à des candidats. L’application de cette politique sur TikTok n’est certes pas parfaite, encore que les publicités politiques n’y soient présentes qu’à une échelle réduite. Pour autant, il demeure possible d’acheter de l’influence sur TikTok par d’autres moyens, en particulier à travers les influenceurs. Lors de récentes élections en Roumanie, certains ont été rémunérés hors de la plateforme pour relayer des messages politiques.
M. le président Arthur Delaporte. Si vous avez mis en évidence les risques que fait peser Instagram sur la santé publique, vous n’avez pas, en revanche, été en mesure de prouver l’absence d’infractions similaires de la part de TikTok, faute que la plateforme ait fourni des données d’assez bonne qualité.
M. Marc Faddoul. Tout à fait. Seule la qualité des métadonnées fournies par Facebook nous a permis de mener à bien plusieurs de nos études. TikTok ne nous donne toujours pas accès à des métadonnées assez riches pour que nous comprenions la sémantique des contenus à grande échelle. Les sous-titres des vidéos nous manquent encore pour mener des analyses sémantiques d’ampleur.
M. Thierry Sother (SOC). Je me suis rendu compte, dans le cadre des travaux que j’ai récemment menés, en lien avec une résolution européenne, de la défaillance des plateformes en matière d’accès à leurs données. Je songe notamment à X qui, depuis son rachat par Elon Musk, n’autorise plus les chercheurs à consulter ses données via un API (Application Programming Interface ou Interface de programmation d’application) spécifique.
Madame Coquelin, vous évoquiez, dans vos propos liminaires, une méconnaissance des codes, à l’origine de vulnérabilités. Quel serait, selon vous, le socle minimum de savoirs à enseigner, partager et transmettre pour réduire autant que faire se peut les vulnérabilités ?
Mme Lucile Coquelin. Dans le cadre de ma mission d’enseignement, je me suis aperçue que certains étudiants de vingt ans en sciences de l’information et de la communication ne savaient pas comment envoyer un e-mail. Il me semble dès lors important de débuter la sensibilisation des apprenants en leur montrant comment réaliser des tâches de base telles que la rédaction d’un courrier numérique ou la production d’un écrit à l’aide d’un traitement de texte. Dans le cadre de mes terrains où je produis du contenu sur TikTok dans l’idée de saisir ce qui rend tel contenu plus viral qu’un autre et la manière d’engager un public vis-à-vis d’un contenu, je constate que beaucoup d’utilisateurs ne possèdent pas les compétences essentielles en littéracie numérique. Par exemple, ils ne sont pas capables d’ouvrir un lien vers une page Web ou un fichier au format pdf. Une fois acquises les compétences fondamentales, il importe de mobiliser les outils numériques et de s’en servir. Beaucoup de chercheurs s’intéressent aux interfaces numériques sans eux-mêmes y publier du contenu. Je me demande s’ils ne restent pas trop à l’écart de ces outils pour les comprendre. J’inviterais donc tout un chacun à se saisir de ces outils pour les comprendre ; faute de quoi, il ne sera jamais possible de les déjouer. Le questionnaire qui nous a été adressé nous demandait comment empêcher les plateformes de capter nos données. D’abord, il convient de lire attentivement leurs conditions d’utilisation et de sélectionner les options pertinentes.
M. Olivier Ertzscheid. Un sujet d’accès aux corpus manipulés par les plateformes se pose pour la recherche publique. Je ne songe pas seulement aux corpus publicitaires. Le groupe Meta avait ouvert l’accès à une base de données relative aux affichages publicitaires sur Facebook lors d’une élection présidentielle aux États-Unis. La plupart des programmes partenariaux avec des universités ou des laboratoires publics se retrouvent à présent à l’arrêt, entravés ou soumis à des conditions inacceptables.
En outre, j’insisterai sur l’importance de comprendre les dynamiques algorithmiques et de viralité. Une expérience, déjà ancienne, portant sur l’amorçage, montre comment à partir d’un contenu à peu près neutre, un algorithme tend à amplifier et durcir les moindres tendances politiques, aussi bien vers la droite que vers la gauche. Ceci révèle des dynamiques sourdes et problématiques à l’œuvre sur les plateformes.
Enfin, s’il importe en effet de comprendre les algorithmes pour les détourner, leur contournement, dans la pratique, apparaît de plus en plus compliqué, ce qui a d’ailleurs lieu d’inquiéter, vis-à-vis de la démocratie. Voici assez longtemps, le bombardement de Google consistait à se coordonner pour rapidement contraindre l’algorithme du moteur de recherche à orienter ses utilisateurs vers tel contenu plutôt que tel autre, à propos d’un président de la République, par exemple.
M. Kévin Mauvieux (RN). J’aimerais revenir au cœur de notre sujet : la santé mentale des enfants. Madame Coquelin, je vous ai trouvée très optimiste à propos de TikTok, peut-être même un peu trop. Vous avez dit tout à l’heure que TikTok pouvait présenter un danger, mais qu’il était nécessaire de publier sur la plateforme pour la comprendre et qu’il valait mieux ne pas éveiller de la crainte chez ses utilisateurs, sous peine qu’ils ne se l’approprient jamais. Toujours selon vous, l’utilisation de la plateforme participe de la construction identitaire par la diffusion de contenu communautaire adapté à la personnalité de chacun. Estimez-vous plus dangereux de se construire seul sans TikTok ou de laisser l’algorithme de la plateforme guider son utilisateur vers des contenus l’exposant à des risques ? Un jeune confronté à une rupture amoureuse peut par exemple se voir orienté vers des contenus évoquant des envies suicidaires. De fait, des suicides ont bien eu lieu, ce qui nous a d’ailleurs donné la volonté de constituer cette commission d’enquête.
N’importe-t-il pas, plutôt que de laisser un enfant se retrouver happé par l’engrenage de l’algorithme, réguler TikTok d’entrée de jeu, quitte à ce que son jeune utilisateur en ait peur ? Je préfère que la peur dissuade un enfant d’utiliser la plateforme que de le voir happé vers une issue fatale, lorsque celle-ci aura exploité ses vulnérabilités.
Disposez-vous d’éléments relatifs à l’implication d’enfants dans des contenus communautaires, c’est-à-dire ayant trait à des communautés religieuses aussi bien que définies par une orientation sexuelle ou encore par un mode de vie distinct ? Le témoignage d’un garçon de onze ans m’est parvenu. S’interrogeant sur son attirance pour d’autres garçons, il s’est rendu sur TikTok pour chercher des contenus susceptibles de l’aider à se construire. Sa démarche est certes louable, d’autant qu’à un tel âge, il peut être difficile d’aborder le sujet de la sexualité avec des proches. Ce garçon s’est retrouvé, au bout de quelques jours, exposé à des contenus communautaires LGBTQIA+ l’incitant à des pratiques qui, en réalité, ne lui convenaient pas. Une étude a-t-elle porté sur l’impact de l’algorithme de TikTok sur la diffusion de contenus communautaires ?
M. le président Arthur Delaporte. Qu’entendez-vous par ce terme ?
M. Kévin Mauvieux (RN). Je songe dans le cas présent à des contenus à caractère sexuel, voire pornographique, mettant en scène des pratiques particulières et poussées, auxquelles se livrent des représentants de la communauté LGBTQIA+. Ces pratiques étaient présentées comme une voie de concrétisation d’une orientation sexuelle, alors que le jeune utilisateur de TikTok voulait simplement se renseigner sur son attirance pour un autre garçon.
Mme Lucile Coquelin. Je n’ai à aucun moment parlé d’enfant. Votre commission d’enquête s’intéresse aux effets de TikTok sur la jeunesse. Des enfants de dix ou onze ans ne sont pas censés utiliser TikTok. Cela dit, personne n’est dupe. Une de mes étudiantes s’est intéressée, dans son mémoire de recherche, à une productrice de contenu TikTok âgée de huit ans. Je n’incite en aucun cas des enfants à se rendre seuls sur TikTok.
De plus, je ne me considère pas comme optimiste, mais lucide. Je ne souhaite pas me concentrer uniquement sur les dangers des plateformes. Je tiens aussi à mettre en évidence les opportunités qu’elles offrent. Le rôle de Facebook dans le Printemps arabe est ainsi connu.
Quoi qu’il en soit, je refuse de m’en tenir à une posture de peur, car la peur n’évite pas le danger. La diabolisation d’outils numériques donne lieu à des utilisations risquées de ces outils. Je préfère quant à moi accompagner mes apprenants vers l’acquisition de confiance en eux afin qu’ils sachent faire preuve de discernement dans leur utilisation des outils numériques, et pas seulement de TikTok. Le constat a été établi qu’un public capable de se servir d’une interface développe des pratiques de lecture et d’écriture intuitives, dans le sens où de fortes similitudes s’observent entre les plateformes. TikTok comporte ainsi des fonctionnalités également disponibles sur Instagram, YouTube ou même Netflix. Les compétences acquises au titre de la littéracie numérique se révèlent donc transposables d’un outil à l’autre.
Pour en revenir à la construction identitaire, sachez que j’ai moi-même vécu dans un foyer où s’exerçaient des violences conjugales et beaucoup de maltraitance. Je me suis alors sentie très seule. Lorsque j’ai découvert Instagram, peu après mes vingt ans, je me suis intéressée à un compte intitulé Parents Toxiques, recueillant bénévolement des témoignages de victimes de maltraitance durant leur enfance. J’ai dès lors pris conscience que, loin d’être seule dans mon cas, je vivais une situation de violences domestiques somme toute assez banale. Pendant plusieurs années, j’ai ensuite soutenu la créatrice de ce compte en réalisant des contenus pour elle, notamment durant la pandémie de Covid-19. Les dispositifs numériques présentent donc des opportunités en termes de sensibilisation. N’oublions pas qu’un sentiment de solitude et d’incompréhension peut pousser des jeunes au suicide.
M. le président Arthur Delaporte. Pourriez-vous revenir sur le mémoire de votre étudiante, consacré à une TikTokeuse de huit ans ?
Mme Lucile Coquelin. Je pourrais même lui demander de vous le transmettre. À vrai dire, j’ai repris la direction de son mémoire après ma titularisation à l’université de Rouen, alors qu’il était déjà largement entamé. Dans le cas contraire, j’aurais refusé son sujet d’étude, qu’elle semblait traiter comme un rat de laboratoire et qui n’était autre que sa sœur cadette. Celle-ci s’épanouissait dans la production et le partage de contenus ; ce qui m’a beaucoup interpellée. Je suis moi-même parent. Concernée par les enjeux numériques, je n’ai jamais publié de contenu où le visage de mes enfants soit identifiable, consciente des risques, de détournement des images, que présente l’exposition en ligne des mineurs. Une vidéo d’un enfant peut ainsi devenir un gif ou circuler sur des réseaux pédocriminels. Voilà pourquoi, dans mon travail sur les outils numériques, je sensibilise aux violences faites aux enfants. Je classe pour ma part TikTok parmi les plateformes présentant le plus de danger qu’un enfant se retrouve une proie sexuelle.
M. le président Arthur Delaporte. Si je vous comprends bien, le mémoire de votre étudiante ambitionnait plus de décrire des pratiques que de mener une réflexion sur les modalités d’accès des mineurs aux réseaux sociaux ou l’encadrement de leur utilisation de ces plateformes. À votre connaissance, à aucun moment, TikTok n’a vérifié l’âge de cette influenceuse.
Mme Lucile Coquelin. Ceci démontre l’importance de produire du contenu pour saisir les mécanismes qui régissent la plateforme. TikTok a déjà vérifié mon âge, mais uniquement pour m’autoriser à diffuser du contenu en direct ou à le monétiser.
M. le président Arthur Delaporte. Nous approchons de la fin de cette audition. Je vous laisse la parole si vous souhaitez encore préciser certains points.
M. Olivier Ertzscheid. Il me semblait important de rappeler aujourd’hui ce qui est déjà documenté en sociologie comme en ingénierie algorithmique, à savoir la connaissance très fine qu’ont ces plateformes de leurs propres mécanismes de recommandation virale. Il importe d’arriver à les contraindre de rompre ces chaînes de contamination. À titre d’exemple, il a été prouvé, lors de l’élection d président Jair Bolsonaro au Brésil, que limiter le partage de certaines informations sur WhatsApp en contexte électoral permet de réduire par un facteur de deux ou trois la propagation de fausses nouvelles. L’ajout, sur ce qui portait à l’époque le nom de Twitter, d’une case à cocher certifiant qu’un Tweet avait été lu avant son partage avait, de même, réussi à limiter la propagation de fausses informations ou encore le doomscrolling, système d’enfermement dans des contenus de plus en plus anxiogènes et toxiques, même en l’absence d’amorçage préalable. Il arrive ainsi qu’une vidéo sur la guerre en Ukraine précède une recommandation d’images d’une violence croissante. J’enrage souvent à la pensée que les plateformes ont documenté ces effets pervers de leurs algorithmes, comme l’ont révélé l’affaire des Facebook files et l’alerte lancée par Mme Frances Haugen. Les plateformes campent dans le déni en prétendant officiellement ne pas être au courant de ces effets pervers, ou bien refusent de mettre en place des dispositifs correctifs qui menaceraient leur modèle économique reposant sur la viralité des contenus. Il importe de les contraindre, par la législation notamment, à appliquer les correctifs qu’elles sont en capacité d’appliquer.
Mme Sihem Amer-Yahia. J’aimerais revenir sur ce que les concepteurs des plateformes recherchent et sur l’intérêt économique ou de réputation des plateformes, soucieuses d’attirer toujours plus de trafic. Si le moyen leur était donné d’apparaître comme plus sociales, éthiques ou vertueuses que leurs concurrentes, elles se serviraient de cet argument pour attirer un public plus vaste. Un décalage m’apparaît entre la volonté ou le besoin de promulguer des textes de loi punitifs et la conception d’outils dans un esprit comparable à l’échelle Nutriscore, à même de créer une dynamique plus positive.
M. le président Arthur Delaporte. Quel score éthique attribueriez-vous à TikTok et aux plateformes concurrentes ?
Mme Sihem Amer-Yahia. Je donnerais à TikTok un score très bas si je devais noter la qualité des données fournies par la plateforme. L’algorithme de TikTok ne me paraît pas très sophistiqué. À ce propos, il n’est pas techniquement possible de créer un algorithme dépourvu du moindre biais. Toute donnée alimentant un algorithme amplifiera en effet le biais qu’elle est elle-même susceptible de contenir. Un outil a été créé afin de pouvoir dénoncer à la Commission européenne les violations du DSA par les plateformes. Une telle approche ne me semble pas très constructive vis-à-vis d’elles. Je trouverais plus pertinent de leur imposer un outil de mesure de leur respect de l’éthique.
M. Marc Faddoul. La question de l’interopérabilité renvoie à une question de souveraineté, mais aussi à la possibilité de rendre aux utilisateurs le contrôle de leur navigation sur les plateformes. Celles-ci se plaisent à répandre l’idée que restituer leur contrôle aux utilisateurs s’avérerait trop compliqué, voire que ces utilisateurs eux-mêmes ne le souhaiteraient pas. Une telle position me semble erronée. Chacun de nous dispose en réalité de plusieurs persona en ligne, selon ses centres d’intérêt. Or, à l’exception de BlueSky, les plateformes ne nous laissent pas le choix d’interagir avec elles à partir d’une persona plutôt que d’une autre. La création en ligne de communautés ne me paraît pas problématique en elle-même, tant que la possibilité reste offerte de sortir de ces bulles algorithmiques.
Enfin, la commission auditionne conjointement :
– M. Grégoire Borst, professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris Cité, et directeur du Laboratoire de psychologie du développement et de l’éducation de l’enfant (LaPsyDÉ - CNRS)
– Mme Sylvie Dieu-Osika, pédiatre
– M. Serge Tisseron, psychiatre, docteur en psychologie, co-responsable du diplôme universitaire de cyberpsychologie à l’université Paris Cité, membre de l’académie des technologies
M. le président Arthur Delaporte. Madame, Messieurs, je vais vous donner la parole pour une intervention liminaire de cinq minutes chacun, qui précédera notre échange sous forme de questions et réponses, à commencer par celles de Madame la rapporteure.
Au préalable, je vous remercie de nous déclarer tout intérêt public ou privé (rémunération par un réseau social…) de nature à influencer vos déclarations.
Auparavant, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958, relative au fonctionnement des assemblées parlementaires, impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.
Je vous invite donc, Madame, Messieurs, à lever la main droite et à dire : « Je le jure ».
(M. Grégoire Borst, Mme Sylvie Dieu-Osika et M. Serge Tisseron prêtent serment.)
M. Grégoire Borst, professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris Cité, et directeur du Laboratoire de psychologie du développement et de l’éducation de l’enfant (LaPsyDÉ - CNRS). Il est crucial de souligner le manque actuel de données scientifiques probantes concernant l’impact des réseaux sociaux sur le développement cognitif et socio-émotionnel, notamment des adolescents. Les études existantes sont peu nombreuses et souvent de qualité insuffisante, particulièrement en ce qui concerne les études longitudinales nécessaires pour établir des liens de causalité entre l’exposition aux réseaux sociaux et leurs effets potentiels notamment sur la santé mentale. Cette situation complexifie considérablement l’élaboration de recommandations basées uniquement sur des preuves scientifiques solides. De fait, les données qui existent sont complexes et difficiles à interpréter, relevant plus d’associations que de liens de causalité.
Un autre défi majeur réside dans l’hétérogénéité de la population adolescente. Cette période de la vie est caractérisée par une variabilité interindividuelle exceptionnelle, notamment en raison du neurodéveloppement. Les différences de genre sont particulièrement marquées, avec des dynamiques de développement cérébral distinctes entre filles et garçons, engendrant des facteurs de vulnérabilité spécifiques à chaque sexe.
Les études actuelles révèlent des effets très faibles des réseaux sociaux sur la santé mentale en population générale adolescente. Cependant, cela ne signifie pas une absence totale d’impact. Des interactions complexes existent en fonction de l’âge et des vulnérabilités préexistantes. Une étude de 2024 met en lumière le développement différentiel de certains réseaux cérébraux, notamment ceux impliqués dans le traitement des récompenses sociales, comme facteur de risque d’une utilisation accrue des réseaux sociaux. Chez les filles, mais pas chez les garçons, on observe une augmentation des symptômes dépressifs sur le long terme. Les recommandations de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, dont j’ai fait partie, sont un peu complexes car les données sont peu probantes de ce point de vue.
Il est également important de considérer l’impact indirect des écrans, incluant les réseaux sociaux, sur la santé mentale via leur effet sur le sommeil. L’adolescence est une période critique en termes de déficit de sommeil, et l’exposition aux écrans altère significativement la qualité du sommeil, ce qui peut avoir des répercussions sur la santé physique et mentale. Ces relations sont indirectes et dépendent de vulnérabilités préexistantes et de particularités adolescentes.
Notons que l’adolescence débute généralement vers 10 ans. Or les enquêtes actuelles sur l’utilisation des réseaux sociaux incluent souvent les messageries instantanées comme WhatsApp, ce qui peut biaiser les résultats.
Enfin, il est crucial de souligner l’absence d’études spécifiques sur TikTok, ce qui constitue une lacune importante dans notre compréhension des effets de cette plateforme. En effet, nos recherches actuelles ne nous permettent pas de distinguer précisément l’usage d’un réseau social par rapport à un autre. Nous observons des parts d’utilisation relatives, mais en l’absence d’une mise en place complète du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital service act (DSA), nous ne disposons pas encore de toutes les données des plateformes qui nous permettraient de différencier exactement l’utilisation de TikTok par rapport à celle d’Instagram.
Or il est important de noter que des effets de genre se manifestent dans ces usages. Chez les adolescents, nous constatons une utilisation différenciée d’Instagram et de TikTok selon le sexe. Les garçons tendent à utiliser davantage Instagram, tandis que les filles privilégient TikTok. Cependant, cette observation n’explique pas à elle seule les difficultés de santé mentale plus importantes chez les filles adolescentes. Indépendamment de l’utilisation des réseaux sociaux, nous observons un risque de dépression deux fois plus élevé chez les adolescentes que chez les adolescents, ce qui constitue un facteur de vulnérabilité spécifique.
Nous manquons donc de données scientifiques pour établir des recommandations s’appuyant sur des preuves scientifiques solides. Cela ne signifie pas que nous ne pouvons pas appliquer un principe de précaution. Néanmoins, il est crucial de ne pas instrumentaliser les données scientifiques existantes. C’est pourquoi l’une des recommandations formulées par la commission enfants et écrans précitée est la mise en place de cohortes longitudinales. Ces études nous permettraient d’évaluer de manière précise l’impact des réseaux sociaux sur la santé physique et mentale, notamment des adolescents.
Mme Sylvie Dieu-Osika, pédiatre. Je suis pédiatre, exerçant à la fois en libéral et en milieu hospitalier. Ma pratique couvre la prise en charge des enfants de 0 à 16 ans, ce qui inclut naturellement les adolescents, qu’ils soient en bonne santé ou en difficulté. Mon expérience hospitalière me confronte également à diverses situations de santé infantile. La prévention occupe une place importante dans mon activité. Je suis par ailleurs membre fondatrice du Collectif Surexposition écrans (CoSE), qui se consacre depuis 2017 à la problématique de la surexposition aux écrans. J’insiste sur mon statut de clinicienne de terrain, car je suis en contact direct avec des familles de tous horizons socio-économiques.
J’ai également publié un ouvrage intitulé L’enfant-écran : Comment échapper à la pandémie numérique, qui aborde la question des adolescents face à l’omniprésence de plateformes comme TikTok. Depuis 2019, j’ai mis en place une consultation spécialisée sur l’exposition aux écrans à l’hôpital Jean-Verdier de Bondy, au sein de l’assistance publique-hôpitaux de Paris (AP-HP). Cette expérience m’a permis de constater les effets alarmants d’une exposition précoce et intensive aux écrans chez les très jeunes enfants, dès l’âge de six mois. Ces enfants, qui arrivent en petite section de maternelle, présentent souvent des difficultés significatives. Il est crucial de prendre en compte cette problématique pour les générations futures.
Mon époux, également pédiatre, M. Éric Osika, contribue depuis plus de quatre ans à des travaux d’expertise sur ce sujet, notamment sur les réseaux sociaux. Dans un souci de transparence, je tiens à préciser que je n’ai aucun conflit d’intérêts, mon seul engagement étant le bien-être de l’enfant.
Concernant les réseaux sociaux et TikTok en particulier, il me semble important de souligner l’existence de nombreuses études, à la fois longitudinales et transversales, qui apportent des éclairages significatifs. Ces recherches, souvent récentes, prennent en compte divers facteurs tels que le sexe, le genre, et s’intéressent également à des groupes minoritaires. Des chercheurs renommés, comme Mme Jacqueline Nesi, ont exprimé des inquiétudes quant à l’impact de ces plateformes sur le bien-être des jeunes. Je souhaite également attirer votre attention sur les résultats concernant les troubles du comportement alimentaire, particulièrement préoccupants chez les jeunes filles.
Je voudrais vous sensibiliser à une réalité alarmante concernant l’accès des enfants à la pornographie. Aujourd’hui, l’âge moyen de la première exposition à ce contenu est de dix ans, contre quatorze ans auparavant. Cette situation est en partie due à la facilité d’accès via les moteurs de recherche et les réseaux sociaux. Il suffit de taper « porno » dans un moteur de recherche pour constater la faiblesse des barrières de protection. Cette réalité souligne l’importance d’une supervision attentive de l’utilisation d’Internet par les enfants et les adolescents.
Je souhaite également partager des données récentes issues d’une étude américaine menée par Common Sense Media auprès de 203 enfants âgés de 11 à 17 ans. Cette étude, basée sur le suivi de trackers placés dans les téléphones des adolescents avec leur consentement, offre des données factuelles sur leurs habitudes numériques. Les résultats montrent une prédominance de l’utilisation de TikTok, Snapchat et YouTube, devant le gaming. Ces informations sont cruciales pour comprendre les pratiques numériques actuelles des adolescents et leurs potentiels impacts.
Les données recueillies révèlent une utilisation préoccupante des réseaux sociaux, particulièrement TikTok, chez les enfants de 11-12 ans. Près de la moitié de cette tranche d’âge y est présente. Ces chiffres proviennent de mesures effectives du temps d’écran, et non de déclarations subjectives. L’analyse des habitudes nocturnes est particulièrement alarmante, avec une activité significative durant la nuit, s’intensifiant avec l’âge des utilisateurs. Bien que tous les adolescents n’adoptent pas ce comportement, nous sommes confrontés à des plateformes conçues pour être intrinsèquement addictives, point qui a dû être soulevé à plusieurs reprises au sein de cette commission.
Cette situation soulève de sérieuses inquiétudes quant à la qualité du sommeil de ces jeunes utilisateurs. Sur ce point précis, je rejoins l’avis de Monsieur Borst : les troubles du sommeil constituent un problème majeur, corroboré par l’ensemble des études sur le sujet. Les conséquences d’un sommeil perturbé sont vastes et affectent de nombreux aspects de la vie de ces jeunes. L’étude portant sur 200 enfants révèle des chiffres alarmants concernant le nombre de notifications reçues quotidiennement. Plus de 20 % des enfants reçoivent plus de 500 notifications par jour, tous réseaux confondus, alors que 100 notifications seraient déjà excessives. Ces chiffres s’étendent également à la période nocturne, ce qui montre l’ampleur du phénomène.
Cette période de la vie des adolescents est caractérisée par un déséquilibre extrêmement important. Leur réponse au stress et aux menaces est complexe, tandis que leur système de récompense est exacerbé. En parallèle, le cortex préfrontal, responsable de l’inhibition et du contrôle des impulsions, ne termine sa maturation que vers 25 ans. Ce déséquilibre rend les adolescents particulièrement vulnérables.
D’un point de vue médical, l’adolescence est une période critique pour l’apparition de nombreuses pathologies psychiatriques. On observe des pics d’incidence pour les troubles du comportement alimentaire vers 15 ans, potentiellement exacerbés par l’utilisation de réseaux comme TikTok qui valorisent certains standards corporels. S’y ajoutent les troubles obsessionnels compulsifs, les troubles anxieux, les addictions, les troubles de l’humeur, les troubles de la personnalité, et les premiers signes de schizophrénie. La vulnérabilité intrinsèque à l’adolescence s’étend de 10 à 25 ans, touchant tous les jeunes à des degrés divers, modulés par leur environnement familial.
Des études récentes, notamment celle d’Amy Orben et Blackmore portant sur 17 000 enfants, en 2022, ont mis en évidence une « fenêtre de sensibilité » aux réseaux sociaux. Cette étude montre une corrélation entre le temps passé sur les réseaux sociaux et la satisfaction de vie. Les filles de 11-13 ans et les garçons de 14-15 ans semblent particulièrement affectés, avec une nouvelle baisse significative pour les deux sexes entre 18 et 19 ans.
M. Serge Tisseron, psychiatre, docteur en psychologie, co-responsable du diplôme universitaire de cyberpsychologie à l’université Paris Cité, membre de l’académie des technologies. Je souhaite mettre en lumière la complexité des enjeux liés à la consommation des réseaux sociaux et leurs impacts sur les jeunes, voire sur l’ensemble des générations. En la matière, il est primordial de distinguer les études de corrélation, nombreuses, des études de causalité, plus rares, dans ce domaine.
Mon expérience de terrain, acquise notamment au sein de l’association 3-6-9-12+, m’a permis d’interagir avec un grand nombre de jeunes. Au cours du premier trimestre, nous avons visité 63 classes, touchant ainsi 1 640 élèves. Ces échanges directs nourrissent ma réflexion et mes observations.
Les jeunes affirment utiliser TikTok principalement pour combattre l’ennui, ce qui soulève la question de l’occupation de leur temps libre. Certains y trouvent un refuge apaisant face à un monde anxiogène, créant ce qu’ils appellent leur « safe place ». Paradoxalement, les boucles de vidéos, souvent critiquées à juste titre pour leurs effets néfastes potentiels, peuvent aussi jouer ce rôle rassurant. D’autres y cherchent du divertissement, de la détente, voire de l’information, suivant des médias et des journalistes sur la plateforme. Il convient de comprendre ce besoin d’information chez les jeunes et de proposer des alternatives crédibles si l’on envisage de restreindre l’accès à ces outils.
Les difficultés familiales liées à l’utilisation des réseaux sociaux ne se limitent pas à un simple décalage générationnel. Elles s’inscrivent dans un contexte plus large de dépendance matérielle croissante des jeunes envers leurs parents, créant un paradoxe avec leur autonomie numérique. Cette tension entre dépendance financière et indépendance numérique est au cœur des conflits familiaux actuels.
Les outils numériques, et particulièrement les réseaux sociaux, génèrent également des malentendus entre les jeunes. L’absence des signaux non verbaux traditionnels dans la communication en ligne favorise les quiproquos, pouvant mener à des situations de harcèlement. Une éducation spécifique à ces nouveaux modes de communication s’avère nécessaire. Le phénomène « Ils sont cons les sixièmes » illustre une évolution dans les relations entre les différentes tranches d’âge au collège, reflétant une aspiration précoce à la maturité et créant de nouvelles tensions intergénérationnelles.
Enfin, les questions liées aux réseaux sociaux sont indissociables des inégalités sociales. L’accompagnement parental face aux contenus choquants en ligne et l’accès aux activités extrascolaires varient considérablement selon les milieux sociaux. Pour lutter contre ces disparités, j’ai proposé d’ouvrir les cours de récréation et les gymnases des écoles le week-end, offrant ainsi des espaces de socialisation physique essentiels au développement des enfants.
En conclusion, toute approche législative de ces questions doit prendre en compte l’ensemble de ces aspects pour être véritablement efficace et pertinente.
Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. J’aimerais aborder un point soulevé lors de notre rencontre avec les sénateurs, notamment M. Malhuret, à l’origine du rapport sur TikTok. Ce rapport, bien que plus large, traitait déjà de l’impact de TikTok sur les jeunes. Une question cruciale concerne la nature de cet impact : s’agit-il d’une addiction, d’une dépendance, ou comme l’ont suggéré les sénateurs, d’un « abrutissement » ? En tant que professionnels, pourriez-vous nous éclairer sur le terme le plus approprié pour décrire cette situation ? Existe-t-il une distinction significative entre addiction et dépendance dans ce contexte ?
Mme Sylvie Dieu-Osika. Cette question, bien que fréquemment posée, risque de détourner l’attention des enjeux plus profonds si elle prend trop d’importance dans le débat. Je pense qu’il est pertinent de parler d’usage problématique ou excessif. Certains addictologues, comme M. Amine Benyamina qui a présidé la commission enfants et écrans l’année dernière, utilisent effectivement le terme d’addiction. Bien que je ne sois pas addictologue moi-même, je constate que nous sommes face à une situation qui présente plusieurs critères caractéristiques : sensation de bien-être lors de l’utilisation, besoin constant d’y recourir en cas de mal-être, augmentation du temps passé, conflits familiaux, difficultés et absentéisme dans d’autres domaines de la vie. Le débat sur la terminologie exacte à employer, bien qu’intéressant, ne devrait pas occulter l’analyse des problématiques concrètes liées à ces usages.
M. Serge Tisseron. Il est essentiel de rappeler les critères précis établis par l’Organisation mondiale de la santé concernant l’addiction aux jeux vidéo. Cette addiction comportementale se caractérise par une utilisation exclusive du jeu vidéo, entraînant une déscolarisation et une désocialisation complètes sur plus d’une année, généralement accompagnées de troubles mentaux.
La situation est bien différente pour les réseaux sociaux. Leur utilisation se caractérise par une grande diversité d’activités, ce qui rend difficile l’application du concept d’addiction. Les jeunes alternent entre le visionnage de vidéos, le partage de contenus avec leurs amis, et la recherche de nouvelles informations. Cette multiplicité d’usages ne correspond pas à la définition classique d’une addiction.
Il est important également de souligner que l’addiction aux jeux vidéo, ou gaming disorder, se distingue par deux critères spécifiques : l’absence de syndrome de sevrage lors de l’arrêt de la pratique et l’absence de risque de rechute. Cela explique pourquoi de nombreux adolescents passionnés de jeux vidéo deviennent des adultes capables de jouer de manière occasionnelle et équilibrée. L’intensité de la pratique des jeux vidéo à l’adolescence s’explique par des facteurs psychologiques propres à cette période de développement, comme l’a souligné M. Grégoire Borst. Les adolescents cherchent à s’émanciper de leur famille, et les mondes numériques offrent un refuge idéal, d’autant plus que les parents en ignorent souvent les subtilités. Cette fuite dans le virtuel peut aussi être une réponse aux restrictions parentales concernant les activités extérieures.
En conclusion, il serait inapproprié de parler d’addiction aux réseaux sociaux. Leur utilisation, bien que parfois intensive, ne correspond pas aux critères d’une addiction comportementale. Les jeunes naviguent entre différentes plateformes comme TikTok, Instagram, WhatsApp et YouTube, démontrant une variété d’usages incompatible avec la notion d’addiction telle qu’elle est définie pour des substances comme l’alcool, le tabac ou la morphine. Cette diversité des pratiques numériques ne permet pas, à l’heure actuelle, de les qualifier d’addictions.
M. Grégoire Borst. Il est primordial de laisser aux experts, notamment aux addictologues, le soin de déterminer si l’utilisation des réseaux sociaux peut être qualifiée d’addiction. À ce jour, l’Organisation mondiale de la santé n’a pas classifié cette utilisation comme telle. Si une telle classification devait intervenir, il serait alors nécessaire d’ajuster nos recommandations, notamment concernant l’âge d’accès à ces plateformes.
Dans le cadre de la commission enfants et écrans, le docteur Amine Benyamina, qui la présidait, a évoqué des algorithmes aux propriétés addictogènes, mais n’a pas qualifié l’usage des réseaux sociaux d’addiction en tant que telle. En tant que chercheurs et professeurs d’université, nous devons nous abstenir de porter des jugements sur des domaines cliniques qui ne relèvent pas de notre compétence, et vice versa.
La difficulté actuelle concernant les écrans réside dans la nécessité de conjuguer deux types de preuves : celles issues de la clinique, qui permettent d’élaborer des approches préventives et d’appliquer le principe de précaution, et celles provenant de la littérature scientifique. Par exemple, les graphiques présentés précédemment ne montrent pas simplement une baisse de la satisfaction de vie chez les filles, mais établissent une corrélation entre le temps passé sur les écrans et cette satisfaction de vie. Il est crucial que chacun reste dans son domaine d’expertise pour aborder efficacement ces questions complexes.
M. Serge Tisseron. En réalité, la distinction entre addiction et usage problématique ne change pas fondamentalement l’approche thérapeutique. Mon expérience de collaboration avec le docteur Marc Valleur au centre Marmottan de soins et d’accompagnement des pratiques addictives pendant deux décennies le démontre. Nous traitions de la même manière les cas d’usage excessif de jeux vidéo, bien que les réseaux sociaux n’étaient pas encore un sujet à l’époque.
La réticence de certains cliniciens à utiliser le terme d’addiction provient d’une volonté d’éviter une médicalisation excessive des comportements. En effet, cette tendance à la médicalisation risque de déresponsabiliser les parents, alors qu’il faudrait au contraire les impliquer davantage dans la gestion de ces problématiques.
Mme Sylvie Dieu-Osika. La responsabilisation des parents est certes cruciale, mais elle se heurte à un manque criant d’information. Les parents se trouvent confrontés à des technologies conçues pour capter l’attention, sans disposer des connaissances nécessaires pour y faire face. En tant que clinicienne, je constate quotidiennement leur désarroi.
La situation est d’autant plus préoccupante que l’accès aux smartphones intervient désormais dès l’école primaire, exposant les enfants à des contenus inappropriés, notamment pornographiques, et aux réseaux sociaux. L’utilisation de plateformes comme TikTok est particulièrement problématique, car elle est conçue pour encourager un défilement infini, orientant les utilisateurs vers des contenus potentiellement dangereux.
Le rapport d’Amnesty International met en lumière les risques liés à l’utilisation prolongée de TikTok, notamment l’exposition à des contenus relatifs à l’automutilation et aux tentatives de suicide.
M. Serge Tisseron. Il est important de noter une évolution dans l’utilisation des réseaux sociaux chez les adolescents. Nos interventions dans les établissements scolaires révèlent qu’à partir de la troisième et de la seconde, les jeunes commencent à prendre du recul par rapport à des plateformes comme TikTok. Ils développent un regard critique et conseillent même les plus jeunes sur les dangers associés.
Cependant, nous observons un décalage entre le discours vertueux que les adolescents peuvent tenir lors de nos interventions et leurs pratiques réelles. Ce décalage, bien que problématique, peut avoir un effet positif sur les générations suivantes. En effet, les messages de prévention, même s’ils ne sont pas toujours appliqués par ceux qui les entendent, peuvent bénéficier aux plus jeunes.
Notre espoir réside dans le fait que les nouvelles générations puissent recevoir ces messages de prévention avant leur première utilisation des réseaux, contrairement aux générations actuelles qui y ont été exposées sans préparation. Cette sensibilisation précoce pourrait conduire à des pratiques moins problématiques à l’avenir.
Mme Laure Miller, rapporteure. Je considère que l’enjeu fondamental de cette commission d’enquête est de déterminer comment transmettre efficacement les messages et solutions appropriés, afin que les générations futures soient mieux informées. En vous écoutant, j’ai le sentiment que la faiblesse actuelle de l’intervention des pouvoirs publics sur la question plus large des écrans pourrait s’expliquer par l’absence d’un lien de causalité direct entre l’utilisation de TikTok et des réseaux sociaux d’une part, et l’altération de la santé mentale des jeunes d’autre part. Contrairement à la cigarette, dont la nocivité pour la santé a été clairement établie, justifiant ainsi son interdiction aux mineurs, nous ne parvenons pas encore à démontrer un tel lien pour les réseaux sociaux, ce qui entrave potentiellement une action plus vigoureuse.
La création de cette commission d’enquête répond à un phénomène de société préoccupant : l’accès de plus en plus précoce des enfants aux téléphones portables et leur utilisation massive des réseaux sociaux. Ce défi s’intensifie, avec des contenus insuffisamment modérés exposant les jeunes à des images inappropriées telles que la pornographie, la violence, ou la promotion du suicide et de la scarification. L’impact de cette exposition sur nos enfants ne peut être négligé. De plus, le temps considérable consacré à ces activités, souvent plusieurs heures par jour, affecte inévitablement leur quotidien et leur développement.
Face à cette situation, nous constatons que de nombreux parents se trouvent dépassés ou ignorent les réalités derrière des applications comme TikTok. Parallèlement, l’État peine à définir des actions efficaces pour protéger les plus jeunes. Pendant ce temps, les plateformes continuent d’optimiser leurs algorithmes, accentuant le déséquilibre.
Dans ce contexte, je m’interroge sur votre perception de la situation. Estimez-vous que nous sommes dans l’impasse, incapables de réguler suffisamment pour protéger nos enfants ? Avez-vous identifié des pratiques prometteuses ailleurs dans le monde qui pourraient nous inspirer ? Pensez-vous qu’il faille envisager des solutions radicales ou privilégier l’information et la sensibilisation ?
M. Grégoire Borst. Je tiens à rappeler l’existence d’une commission d’experts sur l’impact de l’exposition des jeunes aux écrans qui a formulé 29 propositions, soulignant l’importance d’une approche holistique. Ces recommandations englobent l’éducation à la parentalité dès le plus jeune âge, abordant non seulement les problématiques du numérique mais aussi les fondamentaux du développement de l’enfant et de l’adolescent. Elles préconisent également une éducation scolaire renforcée sur ces sujets, reconnaissant que la compréhension de l’adolescence est tout aussi cruciale que la maîtrise du numérique.
Nos observations révèlent que de nombreux adolescents manquent de connaissances sur leur propre période de développement, pourtant particulièrement complexe à gérer. L’adolescence implique des changements morphologiques et psychologiques majeurs, désormais en interaction avec l’émergence des nouvelles technologies, créant une situation particulièrement délicate pour cette génération. De plus, la pandémie de covid-19 a exacerbé ces difficultés en imposant une exclusion sociale à un âge où les relations sont cruciales, provoquant une explosion des problèmes de santé mentale chez les adolescents.
Bien que la question des réseaux sociaux soit importante, l’urgence actuelle réside dans la mise en place d’un plan ambitieux pour la santé mentale des adolescents en France, sachant que 30 à 40 % de la population adolescente présente des symptômes dépressifs. Il est impératif d’augmenter le nombre de psychologues dans l’éducation nationale et d’investir massivement dans la pédopsychiatrie pour prendre en charge ces symptômes dépressifs.
Concernant l’approche à adopter, je préconise une stratégie globale. Bien que nous ayons beaucoup discuté du rôle des parents et des adolescents, la responsabilité première incombe aux plateformes. Lors de leur audition par la commission d’experts sur l’impact de l’exposition des jeunes aux écran, leur discours s’est révélé inacceptable, niant notamment la présence d’utilisateurs de moins de treize ans sur leurs réseaux sociaux sous prétexte de déclarations volontaires. Il est évident que des solutions de vérification d’âge plus efficaces pourraient être mises en place rapidement. Nous devons contraindre ces réseaux sociaux à assumer leurs responsabilités.
Parallèlement, l’éducation joue un rôle crucial. Elle doit débuter dès la maternelle, pour sensibiliser les enfants aux enjeux du numérique. Le parcours de parentalité devrait être étendu au-delà de la simple préparation à l’accouchement, incluant une formation approfondie sur le développement cognitif et socio-émotionnel des enfants et des adolescents. Cela permettrait aux parents de prendre des décisions éclairées. Bien que des recommandations comme l’absence d’écrans avant six ans soient louables, leur application pratique reste un défi considérable. Il est essentiel de proposer des solutions réalistes et applicables au quotidien.
Mme Sylvie Dieu-Osika. Les chiffres du premier trimestre 2025 révèlent une aggravation significative de la santé mentale des enfants et des adolescents, avec une augmentation de 26 % des gestes suicidaires chez les 0-17 ans. Cette détérioration ne peut être uniquement imputée à la pandémie de covid-19, désormais relativement éloignée. Les réseaux sociaux jouent un rôle prépondérant dans cette crise.
La littérature scientifique met en lumière l’impact considérable des réseaux sociaux sur la santé mentale des jeunes. Ces réseaux amplifient les vulnérabilités individuelles, perturbent les processus biologiques et émotionnels, notamment le sommeil et l’humeur, et renforcent des dynamiques sociales délétères telles que la comparaison sociale. Les effets varient selon les plateformes, contrairement à ce qui a été avancé précédemment.
De nombreuses études, tant transversales que longitudinales, ont été menées sur divers aspects : dépression, estime de soi, anxiété, bien-être, risques suicidaires, image corporelle, et troubles alimentaires. Un phénomène particulièrement inquiétant est l’anorexie mentale, exacerbée par des défis sur TikTok tels que le « skinny challenge » ou le « zizi challenge ». Globalement, il est important de noter qu’aucune étude n’a démontré d’effets positifs des réseaux sociaux sur le bien-être des enfants, dans aucun pays du monde.
Les recherches récentes adoptent une approche plus nuancée, prenant en compte non seulement le temps passé sur les réseaux, mais aussi les modes d’utilisation (passif ou actif), les motivations, et les comportements à risque comme le sexting ou le cyberharcèlement. Des chercheurs tels que Patti Valkenburg, à Amsterdam, Jacqueline Nesi, Edmund Sonuga-Barke et Sophia Choukas-Bradley ont mis en évidence la complexité et la bidirectionnalité des effets des réseaux sociaux sur la santé mentale des adolescents.
Ces plateformes présentent un double tranchant : d’un côté, elles offrent des effets positifs comme la connexion sociale, mais de l’autre, elles engendrent des conséquences négatives telles que la comparaison sociale excessive, le cyberharcèlement et la dépendance. Les mécanismes en jeu incluent l’amplification ou l’atténuation des réactions aux activités numériques à risque, les interactions basées sur la recherche de reconnaissance via les likes, particulièrement sur des plateformes comme TikTok.
Un schéma complexe se dessine, englobant la pression socioculturelle liée au genre, la survalorisation de l’apparence physique et l’hypersexualisation. Les adolescents, en particulier les jeunes filles, sont confrontés à une objectification croissante. La comparaison sociale permanente, facilitée par le caractère visuel et quantifiable des interactions sur les réseaux sociaux, a des répercussions importantes sur l’estime de soi et le bien-être mental.
Les spécificités des réseaux, telles que leur disponibilité constante et la permanence du contenu publié, augmentent les risques de cyberharcèlement. La présence des smartphones dans les chambres des adolescents complique la tâche des parents, souvent dépassés par ces enjeux technologiques.
Les algorithmes et les filtres altèrent la perception de la réalité, contribuant à une idéalisation de la minceur et à une insatisfaction croissante de l’image corporelle. Des groupes promouvant des comportements dangereux, comme l’anorexie, prolifèrent sur des plateformes telles que TikTok, incitant les jeunes à des pratiques extrêmes de perte de poids.
Je souhaite aborder d’autres aspects cruciaux. Le sommeil, en particulier, revêt une importance capitale. Nous constatons que les enfants, qu’ils soient jeunes ou plus âgés, ne dorment pas suffisamment, restant éveillés toute la nuit. En moyenne, les jeunes ne dorment que sept heures par nuit, ce qui représente un déficit de sommeil significatif, s’aggravant au fil des années.
Contrairement à certaines opinions, je ne pense pas que la pandémie de Covid-19 soit la principale responsable de cette situation. J’estime que les réseaux sociaux, les jeux vidéo et l’accès à Internet durant la nuit sont les véritables causes de ces problèmes de sommeil. Or le manque de sommeil affecte négativement l’humeur, la concentration et la performance au travail. Cette réalité s’applique particulièrement aux adolescents qui, en raison de leur développement, ont tendance à se coucher tard, mais qui, de surcroît, restent actifs sur TikTok ou sur des jeux vidéo jusqu’à des heures avancées de la nuit. Une étude française de 2018 a porté sur cette problématique, deux ans après l’arrivée de TikTok en France. Cela souligne la nécessité de contextualiser les études que nous citons.
En matière de cyberharcèlement, une étude menée par Mme Patti Valkenburg en 2025 a suivi quotidiennement, durant cent jours, l’état émotionnel de cinq cents adolescents, leur utilisation des réseaux, leur bien-être, leur estime de soi et leur sentiment d’appartenance. Les résultats sont frappants : on observe une prédominance d’effets négatifs, particulièrement pour TikTok, avec très peu d’effets positifs constatés. Patti Valkenburg elle-même, initialement plus réservée dans ses conclusions, affirme désormais clairement l’existence d’effets négatifs tangibles et significatifs.
Des études expérimentales de sevrage, notamment menées en Australie, apportent des preuves supplémentaires (Dondzilo, Tiggemann, Hessel). Ces recherches, menées entre 2023 et 2024, démontrent une amélioration notable de divers aspects de la santé mentale lors de la réduction de l’utilisation des réseaux sociaux. Par exemple, une étude a révélé une diminution des symptômes de troubles du comportement alimentaire, une amélioration de l’image de soi et du bien-être émotionnel après seulement une semaine de réduction d’utilisation des réseaux sociaux.
Ces problématiques touchent également les plus jeunes. La cohorte ABCD, qui étudie des enfants de 9-10 ans, a déjà identifié des altérations du sommeil, une augmentation des pensées suicidaires, une hausse des troubles du comportement alimentaire et des conduites à risque, tous liés à l’utilisation des réseaux sociaux (travaux de M. Jason Nagata).
Nous ne devons pas négliger les risques pour la santé physique. La sédentarité induite par l’utilisation excessive des écrans entraîne des problèmes d’obésité, d’hypertension artérielle et de diabète. Les cardiologues et pédiatres s’inquiètent de la diminution des performances physiques des jeunes, ce qui pourrait avoir des conséquences à long terme sur leur santé respiratoire et cardiologique. De plus, la santé visuelle est également menacée, un problème de plus en plus reconnu, notamment en Asie.
L’Organisation mondiale de la santé a mis en lumière en 2024 l’impact des réseaux sociaux sur les troubles d’apprentissage et les choix de carrière, particulièrement chez les filles.
Pour conclure, il est impératif d’éduquer, mais aussi d’agir concrètement. Nous avons réussi à empêcher les jeunes d’accéder aux jeux d’argent en ligne grâce à des restrictions bancaires. Pourquoi ne pas appliquer une approche similaire pour les contenus pornographiques et les réseaux sociaux comme TikTok ? Je suggère d’envisager une vérification de l’âge via une empreinte de carte bancaire pour l’accès à ces plateformes. Face à la détresse croissante des enfants et aux études alarmantes, il est urgent d’agir.
Nous pourrions promouvoir des réseaux éthiques existants comme Mastodon. J’ai également expérimenté l’utilisation de téléphones basiques dans des écoles de mon quartier, qui distribuent des Nokia aux élèves de sixième, avec des résultats encourageants. Cette approche n’exclut pas l’apprentissage de l’utilisation d’Internet à l’école ou dans des espaces dédiés, potentiellement avec l’aide de conseillers numériques. L’urgence de la situation exige une action immédiate et concertée.
M. Serge Tisseron. Le mal-être des jeunes est un phénomène complexe et multifactoriel. De nombreuses études attestent de cette réalité, mais il serait réducteur d’en attribuer la cause uniquement aux réseaux sociaux. L’éco-anxiété, par exemple, joue un rôle considérable, particulièrement chez les jeunes filles. Il est crucial de ne pas simplifier excessivement cette problématique.
De plus, il convient de distinguer les études de corrélation des études de causalité. Les premières, comme celles de Pagani, Zimmermann et Christakis, menées entre 2000 et 2015 environ, ont souvent été critiquées pour leur caractère alarmiste. Aujourd’hui, les recherches intègrent davantage les facteurs sociaux et environnementaux. Ainsi, l’étude Elfe, notamment conduite par M. Jonathan Bernard, démontre que lorsqu’on isole la composante sociale, l’impact des écrans demeure minime.
L’étude de Madigan sur les moins de trois ans révèle une baisse de 0,5 à 0,7 point de quotient intellectuel pour chaque heure supplémentaire d’exposition aux écrans. L’interprétation de ces chiffres divise les experts, certains les jugeant négligeables, d’autres significatifs. Cette divergence d’opinions souligne l’importance des valeurs personnelles dans l’interprétation des données scientifiques.
Mme Sylvie Dieu-Osika. Il est important de préciser que l’étude Elfe porte sur 18 000 enfants français nés en 2011, âgés de deux à trois ans en 2013-2014. Nous ne disposons pas encore de données sur les adolescents, car cette partie de l’étude n’a pas été dépouillée. M. Jonathan Bernard est en attente de financements pour analyser les données concernant les enfants de dix à onze ans.
M. Serge Tisseron. L’étude de M. Jonathan Bernard évalue spécifiquement l’influence de la consommation télévisuelle. Il est important de noter que l’impact d’une heure supplémentaire ou d’une heure en moins de télévision reste constant, quelle que soit l’année considérée.
Par ailleurs, certains sociologues de la ville, comme Mme Valérie Goby, proposent une inversion de la causalité généralement admise entre l’isolement des jeunes, leur mal-être et leur consommation accrue de médias numériques. Selon Valérie Goby, c’est la disparition des espaces traditionnels de rencontre pour les jeunes qui les pousse vers une utilisation plus intensive des outils numériques. Les parents, considérant la chambre comme l’espace le plus sûr pour leurs enfants, y concentrent les équipements numériques, favorisant ainsi leur utilisation.
Aux États-Unis, on observe des initiatives visant à rétablir des espaces de jeux libres, permettant aux jeunes d’interagir sans surveillance adulte avant l’école. Cette approche part du constat que les enfants manquent aujourd’hui d’opportunités de se retrouver dans des espaces physiques.
Il est également crucial de comprendre que les réseaux sociaux remplissent une fonction spécifique. Leur utilisation ne peut être uniquement imputée aux algorithmes, bien que ceux-ci contribuent à retenir les utilisateurs. Un phénomène important à considérer est la « merdification » des réseaux sociaux : la qualité des services proposés se détériore au fil du temps. Cela pousse les nouvelles générations vers de nouveaux réseaux, souvent financés par du capital-risque, et qui cherchent à fidéliser les utilisateurs pour rentabiliser leur modèle. Cette dynamique explique pourquoi les plateformes populaires changent régulièrement, les jeunes étant attirés par des expériences nouvelles et spécifiques à leur génération.
La séance est suspendue seize minutes.
M. le président Arthur Delaporte. Cette audition met en lumière l’absence de consensus concernant la mesure scientifique des effets des réseaux sociaux sur les jeunes. Cette controverse est cruciale pour notre commission, notamment dans le cadre de l’administration de la preuve.
Bien que de nombreux professionnels de santé mentale, tels que des psychiatres et des psychologues, traitent des problématiques liées à l’usage des réseaux sociaux chez les enfants, il semble persister une absence de preuve scientifique irréfutable, comme le suggère M. Borst. Des études récentes ont été évoquées, mais leur interprétation reste sujette à débat.
M. Grégoire Borst. La difficulté ne réside pas dans l’existence d’un débat extrême ou d’une absence totale de consensus au sein de la communauté de recherche. Il est crucial de distinguer la simple lecture d’articles de la conduite effective de recherches, qui implique un niveau d’expertise bien supérieur.
Nous sommes unanimes sur le constat selon lequel les adolescents rencontrent des difficultés. De même, il est indéniable que les réseaux exploitent certaines vulnérabilités cérébrales, particulièrement chez les adolescents, les incitant à rester connectés plus longtemps. De plus, les preuves sont solides concernant l’impact négatif de l’exposition à la lumière artificielle des écrans sur le sommeil, avec des répercussions en cascade sur la santé physique et mentale. La question de la sédentarité ne fait pas non plus débat.
La complexité survient lorsqu’il s’agit d’identifier précisément la contribution de chaque facteur dans les mécanismes de vulnérabilité. Une simple énumération d’études, comme celle effectuée ici, ne suffit pas. Je peux citer une centaine d’études montrant des effets, mais également des études préenregistrées n’en démontrant aucun. Par exemple, pour Adolescent Brain and Cognitive Development, portant sur 13 000 préadolescents et adolescents, lorsque l’étude est préenregistrée, aucun effet n’est observé. Sur des échantillons plus larges, comme 300 000 adolescents, aucun effet significatif n’est constaté. Même lorsqu’une association est identifiée, elle n’explique que 0,4 % du bien-être adolescent lié au temps passé sur les réseaux sociaux.
Je ne nie pas l’existence potentielle d’effets, mais je souligne la difficulté de les mettre en évidence face à une population extrêmement hétérogène. Cela n’exclut pas l’existence de sous-groupes d’adolescents particulièrement vulnérables nécessitant une attention spécifique. En tant que décideur public, il est essentiel de considérer l’ampleur des effets. Un impact de 3 % sur la santé mentale des adolescents n’a pas les mêmes implications qu’un impact de 20 %. C’est cette nuance qui manque dans la présentation qui vous a été faite.
De plus, il convient de distinguer entre la population générale et celle reçue en consultation, qui représente un échantillon biaisé. Le biais peut également provenir de la manière dont les questions sont posées lors des consultations. En tant que professeur des universités spécialisé dans la recherche sur la population adolescente et l’exposition aux écrans, je peux affirmer qu’il est actuellement difficile de se prononcer de manière définitive sur ces données. Cela ne vous empêche pas d’appliquer un principe de précaution en tant que décideur public, mais il faut éviter d’instrumentaliser les données comme cela a été fait en partie lors de cette audition.
Pour obtenir des preuves solides, il convient de réaliser des méta-analyses, compilant l’ensemble des données de toutes les études pour évaluer l’effet réel. Concernant les réseaux sociaux, ces méta-analyses sont encore attendues. Il est important de reconnaître que le temps de la recherche diffère de celui de l’observation clinique. Les observations cliniques peuvent effectivement révéler des données alarmantes, justifiant certaines décisions politiques. Cependant, il faut être vigilant quant aux niveaux de preuve utilisés, qui peuvent varier considérablement.
Nous avons besoin de plus de recherches, notamment de cohortes françaises. Les données étrangères, comme celle de la cohorte ABCD aux États-Unis, ne peuvent pas être directement transposées à la réalité française. En effet, le développement neurocognitif est influencé par le milieu social d’origine. Or les systèmes de protection sociale diffèrent entre l’Europe et les États-Unis. Les études Eden et Elfe datant de 2011 nécessitent une mise à jour. Il est impératif de documenter les effets spécifiques à la population française à travers de nouvelles études.
M. le président Arthur Delaporte. Vos propos alimentent notre réflexion et soulignent la nécessité de soutenir la recherche. Vous avez raison de mettre en évidence que le temps de la recherche, particulièrement pour des études sur des cohortes importantes et sur le long terme, ne correspond pas au rythme de la politique. Je retiens notamment votre mention du principe de précaution, qui guide actuellement nos intuitions. Cependant, il est crucial, dans l’application de ce principe, d’évaluer soigneusement les effets potentiels des préconisations que nous formulons concernant les enfants.
M. Stéphane Vojetta (EPR). Bien que nous ne disposions pas de preuves scientifiques statistiquement démontrables, nous observons un lien apparent entre certains phénomènes. Dans le cadre de la loi sur les influenceurs, notre décision d’agir plus fermement sur la publicité pour la chirurgie esthétique découlait de la corrélation présumée entre l’abondance de contenus sur les réseaux sociaux traitant du corps féminin, particulièrement celui des adolescentes, et l’incitation financière que représentaient les revenus publicitaires pour les influenceuses abordant fréquemment les thèmes du corps et de la beauté physique.
C’est précisément pour cette raison que nous avions opté, initialement contre l’avis du gouvernement qui s’est finalement rallié à notre position, pour une interdiction pure et simple de ce type de publicité. Notre décision reposait en partie sur l’intuition, nourrie par des témoignages alarmants. Certains professionnels de santé nous avaient alertés sur une augmentation significative des consultations pour troubles alimentaires graves dans les centres hospitaliers universitaires (CHU) depuis la fin de la pandémie de covid-19. Ils rapportaient une multiplication par trois ou quatre de ces cas en seulement trois ans, touchant des jeunes filles de plus en plus précocement pour des problèmes tels que l’anorexie mentale.
Au sein de la communauté scolaire du lycée français de Madrid, que je connais bien, nous constatons des cas graves d’anorexie chez des élèves dès le cours moyen de deuxième année (CM2) ou la sixième, un phénomène qui n’existait pas auparavant. Ces constats soulèvent des questions cruciales : existe-t-il un lien avéré avec l’usage des réseaux sociaux ? Disposons-nous de statistiques probantes sur ces sujets ? Ces observations confirment-elles nos préoccupations quant à un impact potentiel sur la santé des jeunes, en particulier celle des jeunes filles ?
M. Grégoire Borst. Premièrement, des études ont tenté d’évaluer l’impact des réseaux sociaux et des nouveaux outils numériques. Je vous renvoie notamment aux travaux de Mme Amy Orben, qui démontrent l’absence d’augmentation significative de la prévalence des troubles évoqués. Cela ne signifie pas pour autant, encore une fois, que le problème n’existe pas. Je tiens à préciser que ma position n’est nullement une défense des réseaux sociaux, envers lesquels je reste extrêmement critique. Il est impératif de les responsabiliser, notamment en ce qui concerne l’accès des jeunes enfants à ces plateformes. Une vérification d’âge contraignante me semble indispensable.
Il convient de rappeler l’existence d’une loi sur la vérification de l’âge pour les contenus pornographiques, bien que son application semble faire défaut. Ceci souligne la nécessité de concevoir des solutions réellement applicables. Vos décisions devront s’accompagner de recommandations et de mesures d’application réalistes, en gardant à l’esprit que la régulation des plateformes s’effectuera à l’échelle européenne. La commission d’experts sur l’impact de l’exposition des jeunes aux écrans, dans ses recommandations, a constamment intégré cette dimension de faisabilité.
Il est crucial de souligner la difficulté d’établir des conclusions uniquement sur la base de données scientifiques. Pour déterminer avec certitude une relation de causalité, il faudrait pouvoir observer les sujets bien avant leur première utilisation des réseaux sociaux, afin d’identifier d’éventuelles vulnérabilités préexistantes qui pourraient se manifester indépendamment de l’usage de ces plateformes. En effet, lors du développement, de petites perturbations peuvent, par des phénomènes d’amplification, avoir des répercussions considérables sur la santé mentale.
J’insiste sur le fait que la crise du Covid-19 aura des impacts sur la santé mentale des adolescents pour les dix prochaines années, sans lien direct avec les réseaux sociaux. L’ampleur de ces effets est sans commune mesure avec ceux observés actuellement pour les réseaux. Cela ne nie pas l’influence potentielle des réseaux sociaux, mais souligne la complexité des interactions entre différents facteurs.
Pour conclure, je recommande vivement que toute nouvelle proposition législative s’accompagne dès le départ d’une évaluation rigoureuse de ses effets réels. Il est primordial de mener une évaluation des politiques publiques dans ce domaine. Nous devons nous interroger : une mesure telle que la restriction de l’accès aux réseaux sociaux améliorera-t-elle effectivement la santé mentale des adolescents ?
M. Stéphane Vojetta (EPR). Une étude interne d’Instagram, qui a fait l’objet d’une fuite en 2022, reconnaissait que l’utilisation de sa plateforme avait altéré la perception corporelle d’une proportion significative d’adolescentes utilisatrices. Selon cette étude, entre 30 et 40 % des jeunes filles utilisant Instagram avaient constaté une dégradation de la perception de leur propre corps depuis qu’elles utilisaient l’application. Cette information me semble pertinente pour enrichir notre discussion sur l’impact des réseaux sociaux.
Mme Sylvie Dieu-Osika. Cette affirmation s’applique également à TikTok. Il est erroné de prétendre que l’augmentation des troubles du comportement alimentaire et de l’anorexie n’a pas été constatée. Les Pays-Bas font face à une recrudescence majeure des cas d’anorexie mentale, comme en témoignent les chiffres. Cette réalité est palpable pour quiconque côtoie les familles dans les hôpitaux. L’augmentation est indéniable, et il est légitime de s’interroger sur le rôle des réseaux sociaux dans ce phénomène.
Nous sommes conscients des critiques émanant de toutes parts, ce qui n’est ni nouveau ni surprenant. Notre seule préoccupation demeure le bien-être des enfants et des adolescents. Dans ma pratique quotidienne, je rencontre aussi bien des enfants en bonne santé que des enfants en difficulté. Il est crucial de prendre en compte la réalité actuelle de notre société. Observez ce qui se passe dans les parcs publics : les enfants sont absorbés par leurs portables, isolés les uns des autres.
J’ai présenté aujourd’hui de nombreuses études récentes, datant de 2023, 2024, et même 2025. Bien que la recherche prenne du temps et que nous manquions encore de données françaises ou européennes spécifiques sur les réseaux sociaux, les études actuelles montrent soit un effet neutre minime, soit, dans la majorité des cas, un impact négatif significatif.
Parallèlement, nous constatons une détérioration alarmante de la santé mentale des enfants et des adolescents, se manifestant par de l’anxiété, de la dépression, et des comportements d’automutilation. Ces derniers sont parfois encouragés et amplifiés sur des plateformes comme TikTok. Les tentatives de suicide augmentent chez les filles, surtout, et les garçons. L’anorexie mentale connaît une progression fulgurante. Nous assistons également à une objectification et une hypersexualisation des jeunes filles, phénomène que l’on retrouve aussi dans les jeux vidéo.
En médecine, nous évaluons constamment le rapport bénéfice-risque. Dans le cas présent, les risques sont considérables. Bien que l’on puisse débattre indéfiniment des détails méthodologiques des études, l’alarme est sérieuse et ne peut être ignorée. Les études mentionnées précédemment par mon voisin sont désormais obsolètes. Rappelons que TikTok n’existe en France que depuis 2016, ce qui explique que les études les plus pertinentes n’aient été publiées qu’à partir de 2022-2023.
Il est urgent de protéger nos enfants. Concernant la pornographie, malgré les promesses répétées, la mise en place d’un système de vérification par carte bancaire, similaire à celui utilisé pour les jeux d’argent en ligne, n’est toujours pas effective. Cette mesure simple et concrète serait pourtant d’une grande importance pour les familles.
Nous sommes conscients que ces propositions susciteront l’opposition des réseaux sociaux et des sites pornographiques, qui craignent de perdre l’accès aux jeunes enfants, certains âgés d’à peine cinq ou six ans, déjà présents sur des plateformes comme TikTok. Il est crucial de prendre en compte cette réalité quotidienne.
M. le président Arthur Delaporte. L’un des objectifs de cette commission d’enquête est précisément d’éclaircir ces questions. Aucun membre de cette commission ne peut être accusé de méconnaître la gravité des enjeux et l’impact potentiel sur les adolescents particulièrement vulnérables. Notre démarche vise à objectiver la situation, sans a priori moral, tout en étant pleinement conscients des effets plus larges du mal-être de la jeunesse, qui ne sont pas uniquement liés aux réseaux sociaux, et encore moins à TikTok en particulier. Nous avons choisi d’utiliser TikTok comme point de départ pour aborder des problématiques plus vastes et formuler des recommandations générales. Cette approche nous permet de poser à la société un certain nombre de questions cruciales.
Mme Sylvie Dieu-Osika. Les observations de terrain et les études récentes plaident en faveur du principe de précaution.
M. Serge Tisseron. Nous sommes confrontés à un choix : agir sur les réseaux sociaux, leur potentiel addictif, et en interdire certains aspects, ou bien nous concentrer sur d’autres facteurs, comme la réceptivité. Or j’ai d’emblée souligné l’importance des inégalités sociales en la matière. Lors de nos interventions dans les écoles, nous constatons que de nombreux enfants souffrent d’une estime de soi extrêmement fragile. Il faut également considérer leurs possibilités de faire des rencontres en personne et l’accès à l’aide dont ils pourraient avoir besoin, notamment dans un contexte où la pédopsychiatrie traverse une crise majeure.
Nous pouvons donc choisir d’agir sur les réseaux sociaux par des systèmes d’interdiction ou de balisage, ou bien nous pouvons agir sur la réceptivité des utilisateurs. Cette seconde approche offre de nombreuses possibilités sans nécessairement modifier les réseaux sociaux eux-mêmes. Je ne dis pas qu’il ne faut pas intervenir sur les réseaux sociaux, mais il faut se fixer des objectifs réalistes. L’Europe a déjà mis en place des réglementations comme le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA), le DSA, le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 dit Artificial Intelligence Act (AI Act) mais ces plateformes restent des machines extrêmement puissantes, capables de contourner la plupart des interdictions.
Notre objectif devrait être de réduire la réceptivité des populations, en particulier des jeunes, face à l’impact des algorithmes pervers des réseaux sociaux. Des propositions intéressantes émergent, comme la possibilité du dégroupage, permettant aux utilisateurs de choisir spécifiquement les fonctionnalités qui les intéressent dans chaque réseau social, plutôt que d’être contraints d’accepter l’ensemble des propositions.
Beaucoup est aussi à faire en termes d’information des parents. L’Union nationale des associations familiales (Unaf) a montré que la moitié des parents s’estimaient insuffisamment informés sur les dangers des technologies numériques. Dans le cadre des études à mener, il serait pertinent de déterminer si l’autorisation excessive de l’utilisation des outils numériques par les parents est due à un manque d’information ou à d’autres facteurs. Cette clarification nous permettrait de mieux comprendre la situation et d’agir en conséquence.
Il est essentiel d’examiner l’impact de divers facteurs sur le comportement des jeunes en ligne, notamment l’information parentale, le milieu social, les jeux disponibles et les espaces de jeu physiques. Une compréhension approfondie de ces éléments permettrait à l’État et aux municipalités de mettre en œuvre des actions de prévention efficaces, non seulement contre les dangers actuels des réseaux sociaux, mais aussi contre les menaces futures encore inconnues.
Prenons l’exemple de TikTok, dont personne n’avait anticipé l’émergence. Il est évident que sa popularité décline, comme ce fut le cas pour Facebook et X, et que les utilisateurs attendent déjà la prochaine plateforme. C’est pourquoi, plutôt que de cibler spécifiquement les réseaux sociaux existants, il est crucial de renforcer la résilience des utilisateurs et d’agir sur les facteurs de protection. La pédopsychiatrie, l’éducation maternelle et les autres aspects évoqués par M. Borst offrent de nombreuses pistes d’action sans nécessairement intervenir directement sur les réseaux sociaux. Cela ne signifie pas qu’il faille s’abstenir de toute régulation, mais il est impératif de comprendre les fonctions de ces plateformes avant d’envisager des modifications.
M. le président Arthur Delaporte. Je vous remercie pour ces éléments qui s’inscrivent dans la lignée de notre réflexion. Permettez-moi toutefois d’apporter une nuance : notre objectif est double. Nous visons à la fois à aborder les grands enjeux et à renforcer les facteurs de protection, mais aussi à créer des mécanismes qui, quelle que soit la plateforme, limitent les risques. TikTok nous sert de cas d’étude pour réfléchir plus largement à la question de la limitation des risques.
M. Stéphane Vojetta a évoqué précédemment l’exemple de la loi sur les influenceurs. On aurait pu arguer que toute action était vaine en raison de la nature même des réseaux sociaux. Pourtant, le Parlement français a légiféré, et aujourd’hui, ce cadre français sert de base à l’élaboration d’un cadre européen. Nous pouvons donc nous inscrire dans un mouvement de pression sur les parlements et participer à un effort européen, voire mondial, de régulation des réseaux sociaux et de protection des mineurs. C’est l’un des objectifs de cette commission.
M. Serge Tisseron. Je n’ignore pas cet aspect, mais il est crucial de rappeler qu’Internet ne se limite pas aux réseaux sociaux. Je tiens à réitérer la règle du 3-6-9-12 : pas d’écran avant trois ans, des écrans éducatifs limités à une demi-heure ou une heure entre trois et six ans, pas d’Internet accompagné avant neuf ans, et pas d’Internet en autonomie avant treize ans. Dès 2008, j’ai donc préconisé l’absence de smartphone avant treize ans. À partir de cet âge, tous les smartphones devraient être vendus avec les réseaux sociaux bloqués, laissant aux parents la responsabilité de les débloquer après discussion avec leurs enfants. Cette approche inciterait les parents à consulter les ressources d’information proposées par le Gouvernement, les réintégrant ainsi dans le dispositif de protection. Sans responsabilisation parentale, nous passerons à côté du problème.
M. le président Arthur Delaporte. Vous évoquez la règle 3-6-9-12, voire 13. Dans certaines auditions que nous avons menées, l’âge de 15 ou 16 ans a été suggéré pour l’interdiction d’accès aux réseaux sociaux.
M. Serge Tisseron. Si les parents décident d’autoriser l’accès aux réseaux sociaux à leur enfant à 15 ans, pourquoi pas ? Cependant, l’État s’occupe déjà de trop de choses, et plus il intervient, plus les parents se désengagent de l’éducation de leurs enfants. Je pense que si les parents ont la responsabilité de débloquer les réseaux sociaux à partir de 13 ans, ils pourront le faire à 14, 15, 16 ou 18 ans, selon leur jugement. Je n’ai rien contre une interdiction avant 15 ans, mais cela devrait relever d’une décision parentale, pas étatique. En effet, vous ne pouvez pas interdire efficacement l’accès aux réseaux sociaux avant 15 ans, car la plupart des parents et des enfants contourneront cette interdiction. En revanche, en donnant aux parents la responsabilité du déblocage, vous les obligez à s’informer sur les réseaux sociaux.
J’ai travaillé avec Bouygues sur ce sujet. Nous avions obtenu que les vendeurs proposent aux parents de prendre le temps nécessaire pour programmer le smartphone de leur enfant selon leurs souhaits. Malheureusement, les parents ne savaient pas ce qu’ils voulaient pour leur enfant, ignorant même l’existence de certaines applications comme Instagram. Cela démontre le manque d’information des parents et leur désintérêt pour ces questions, puisqu’ils achètent des smartphones avec un accès illimité aux réseaux sociaux. Si les smartphones étaient vendus avec tous les réseaux sociaux bloqués, les parents seraient contraints de s’y intéresser lorsque leurs enfants demanderaient l’accès à ces plateformes.
M. le président Arthur Delaporte. Votre position est très claire et ne correspond pas nécessairement à certaines opinions exprimées aujourd’hui. Cela nous permet d’avoir une vision équilibrée des différents avis, ce qui est essentiel.
La séance s’achève à dix-neuf heures quarante.
Présents. – M. Arthur Delaporte, M. Emmanuel Fouquart, Mme Anne Genetet, M. René Lioret, M. Kévin Mauvieux, Mme Laure Miller, M. Thierry Sother, M. Stéphane Vojetta
Excusés. – Mme Isabelle Rauch, M. Arnaud Saint-Martin