Compte rendu

Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs

– Audition commune, ouverte à la presse, réunissant :............2

•  Mme Karine de Leusse, psychologue

 Dr Anne-Hélia Roure, médecin psychiatre

 Dr Philippe Babe, chef de service des urgences pédiatriques de l’hôpital pédiatrique universitaire CHU Lenval de la ville de Nice

– Audition commune, ouverte à la presse, réunissant :............7

•  Mme Marietta Karamanli, députée

 Mme Isabelle Rauch, députée, ancienne présidente de la commission des affaires culturelles et de l’éducation

 M. Bruno Studer, ancien député, ancien président de la commission des affaires culturelles et de l’éducation

– Audition, ouverte à la presse, de Mme Anne Savinel-Barras, présidente de Amnesty international, et Mme Katia Roux, chargée de plaidoyer              16

– Présences en réunion................................24


Mercredi
28 mai 2025

Séance de 14 heures

Compte rendu n° 19

session ordinaire de 2024-2025

Présidence de
M. Arthur Delaporte,
Président de la commission

 


  1 

La séance est ouverte à quatorze heures cinq.

 

La commission auditionne conjointement :

 Mme Karine de Leusse, psychologue,

 Dr Anne-Hélia Roure, médecin psychiatre,

 Dr Philippe Babe, chef de service des urgences pédiatriques de l’hôpital pédiatrique universitaire CHU Lenval de la ville de Nice.

M. le président Arthur Delaporte. Mes chers collègues, nous reprenons nos auditions cet après-midi en recevant en visioconférence Mme Karine de Leusse, psychologue, Mme Anne-Hélia Roure, médecin psychiatre, et M. Philippe Babe, chef de service des urgences psychiatriques de l’hôpital pédiatrique universitaire Lenval. Je vous remercie de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mmes de Leusse, Hélia Roure et M. Babe prêtent serment.)

Mme Karine de Leusse, psychologue. Je précise en préambule que je n’ai aucun conflit d’intérêt. Psychothérapeute clinicienne spécialisée dans les effets inconscients du numérique, je travaille depuis vingt ans avec des enfants, des adolescents et leurs familles, de plus en plus débordés, démunis, face à une hyperconnexion qui dépasse largement la simple question de l’addiction aux écrans. Chaque semaine, depuis des années, j’effectue trente à quarante consultations hebdomadaires uniquement sur cette problématique. Je reçois des enfants qui ne supportent plus de s’ennuyer, ne savent plus manger sans un bruit, dorment avec leur téléphone comme l’on dormirait avec un doudou.

Aujourd’hui, TikTok n’est pas simplement un divertissement mal encadré, mais un espace qui désorganise en profondeur le rapport au temps, au corps, à soi, aux autres. C’est un outil de déconstruction psychique. On parle de jeunes comme des « utilisateurs » de TikTok, mais ils ne l’utilisent pas. Ils s’y projettent, ils s’y perdent. Ces enfants, ces adolescents, ne regardent pas TikTok, ils « font » du TikTok, selon leurs propres mots, comme on fait une fugue, comme on entre dans un rêve éveillé. Ils me disent qu’ils ne regardent même plus les vidéos, pourtant déjà très courtes (deux minutes), car elles sont trop longues à leurs yeux. Ils « scrollent », encore et encore.

Le scroll est devenu un geste réflexe, un toc numérique, compulsif, une caresse, un tic, un apaisement. TikTok porte bien son nom ; il vient à la fois créer et calmer l’angoisse. Il est un tic et un toc, à la fois au sens clinique. Dans TikTok, ils s’y mettent en scène pour exister ; ce n’est plus un loisir, mais une scène identitaire, une activité à part entière. On est ici dans le syndrome du personnage principal : l’adolescent ne vit plus l’expérience, il la scénarise ; il devient spectateur lui-même, mais sans narration et sans continuité, sans temporalité et sans intériorité.

TikTok n’est pas juste une captation de l’attention, mais une dissociation du corps et du temps. TikTok installe une temporalité sans seuil, sans début ni fin. On passe d’une image à l’autre, comme on sauterait de monde en monde. Pour un jeune en construction, il constitue un régime de confusion. Chez les filles, je vois une sursexualisation précoce, très précoce ; des adolescentes qui s’inquiètent de leur profil, de leur silhouette, de leurs faux-cils. Chaque semaine, je reçois des adolescentes qui suivent un courant d’influenceuses avec ce regard lourd de maquillage et qui me disent qu’elles se sentent prisonnières de leur image, de leurs faux-cils, de leurs faux ongles, de leur faux « self », qu’elles n’osent plus quitter quand elles sortent. Elles n’habitent plus leur corps, elles le décorent. Chez les garçons, c’est l’effet inverse. Il se traduit par une hypervirilité, une crispation, un besoin de contrôle sur l’image et une compensation.

Dans les deux cas, le corps devient un objet à montrer, et non à vivre. Soyons lucides : ce dont nous parlons est beaucoup plus vaste qu’une simple captation de l’attention. TikTok expose aussi à des contenus violents, sexualisés, dangereux. Il collecte des données de façon préoccupante, mais cela ne s’arrête pas là. Il reconfigure en profondeur le rapport au monde, le lien au corps, le lien à l’autre, le lien à l’émotion, le lien au désir. Ce que nous voyons – troubles de l’attention, isolement, fatigue mentale – ne sont que les symptômes visibles d’un basculement plus profond, un déplacement du lien, de l’intime, de la construction de soi.

Tant que nous ne poserons pas ce diagnostic, tant que nous ne toucherons pas à cette part psychique du phénomène, nous passerons à côté de l’essentiel et nous courrons vers un drame en termes de santé mentale et pour la société entière. Chaque semaine, j’entends des parents insultés, menacés, frappés, parce qu’ils ont tenté de poser une limite ; des parents qui subissent des menaces.

Je ne l’entends pas une fois de temps en temps, mais plusieurs fois par semaine, et chaque semaine davantage. Les enfants sont devenus les terroristes de la maison et les parents ont peur pour leurs enfants et peur pour eux-mêmes. Ce n’est pas seulement que les jeunes sont dépendants, c’est qu’ils fuient. Ils fuient l’ennui, ils fuient leur corps, ils fuient le réel. Ils fuient une temporalité qu’ils ne supportent plus parce qu’elle n’a plus de consistance. La logique a été inversée : le monde réel est devenu l’intrus. Manger, aller à l’école, dormir, tout cela vient interrompre quelque chose de plus absorbant, de plus intense.

En conclusion, je souhaite poser une question simple et essentielle : pourquoi TikTok est-il accessible vingt-quatre heures sur vingt-quatre ? Est-ce normal qu’un lieu massivement fréquenté par des mineurs soit ouvert tout le temps, nuit et jour, sans aucune régulation ? On ne laisse pas un bar ouvert vingt-quatre heures sur vingt-quatre, ni un casino. Alors pourquoi TikTok échapperait-il à cette règle de bon sens ? Je propose donc que l’on impose des horaires collectifs à TikTok, je propose de réintroduire le rythme du jour, de la nuit, des pauses, du souffle, du réel.

Mme Anne-Hélia Roure, médecin psychiatre. Je précise à mon tour n’avoir aucun conflit d’intérêt. Je vais également évoquer un retour sur mon expérience de cabinet libéral, où je reçois aussi environ quarante à cinquante adolescents par semaine. Je tiens à vous faire part de ce dont je suis témoin parce que cela m’apparaît absolument terrifiant. L’influence des réseaux sociaux et de TikTok en particulier sur le psychisme et le développement neurologique des jeunes est alarmante.

Je voudrais vous parler par exemple de Gaspard, que j’ai reçu la semaine dernière. Âgé de 16 ans, il passe 90 heures par semaine sur son téléphone et reçoit plus de 1 000 notifications sur son téléphone. Sur ces 90 heures, 75 heures sont passées sur TikTok. C’est un jeune anxieux, qui dit que son cerveau est « grillé » – il s’est présenté initialement à ma consultation pour des troubles de l’attention. Il est incapable de dormir, tellement il craint de manquer quelque chose. Ce jeune allait bien avant de consulter les réseaux sociaux et TikTok. Il n’avait jamais eu besoin de consulter. Il s’agit d’un bon élève, qui vit dans un environnement familial sain.

J’ai reçu Léa, qui se scarifie tous les soirs sur TikTok, soutenue et encouragée par une communauté, sans que ses parents n’aient la moindre idée de ce qui se passe, alors que de nombreux jeunes à l’école le savent pertinemment. J’ai reçu plusieurs jeunes qui ont été victimes d’un « challenge MMA » pendant les deux dernières semaines – ce sont des comportements extrêmement dangereux d’étranglement. J’ai reçu des jeunes filles et des jeunes hommes dont la sexualité est très influencée par TikTok de façon dangereuse, en particulier par des pratiques d’étranglement – le choking – pendant les relations intimes. La banalisation, la normalisation de la violence sont extrêmement préoccupantes.

Je voudrais aussi parler des troubles du comportement alimentaire. Combien de petites filles ai-je vu arriver qui avaient commencé par regarder des vidéos sur la beauté, mais qui en sont arrivées finalement à apprendre à se faire vomir, à avoir une image de leur corps déformée, à faire des challenges pour arrêter de manger pendant plusieurs heures. J’ai également reçu des jeunes filles de 15 ans au visage angélique qui veulent « faire du Botox » ou recevoir des injections pour ressembler à des personnages qu’elles voient dans cette réalité alternative.

Ce réseau social est le plus dangereux parce qu’il s’agit du plus puissant, celui dont l’algorithme est le plus addictif. Beaucoup disent : « TikTok me comprend ». Toutes ces heures passées sur TikTok, en moyenne cinquante à soixante-dix heures par semaine, sont des heures passées seuls, loin des autres. TikTok sabote notre jeunesse, car c’est un bloqueur d’expérience. Il les empêche de se rencontrer, de vivre, d’apprendre, de pouvoir évoluer et se développer émotionnellement et intellectuellement.

J’observe depuis plusieurs années des troubles mentaux profonds liés à son utilisation chez les garçons et les filles. Ils se caractérisent par une intolérance à l’ennui, à l’effort. Tout doit être hyper intéressant, hyper stimulant tout le temps, et ce qui ne l’est pas – une conversation, un cours, un exercice à faire – devient insupportable. On observe également des troubles anxieux, de l’isolement. On constate un réel abêtissement dont les jeunes prennent conscience. Ils n’arrivent plus à écouter un cours, à lire un livre, à regarder un film. Une telle activité devient impossible. Il faut également mentionner la privation de sommeil. Pourtant, le sommeil est indispensable pour le cerveau chez un adulte, mais encore plus pour un enfant qui se développe et qui doit mémoriser des apprentissages.

Je suis préoccupée par l’exposition des garçons à la violence, à sa normalisation à travers les challenges de MMA et à la pornographie actuelle. Par ailleurs, l’investissement des jeunes filles dans une réalité complètement virtuelle est particulièrement inquiétant. La réalité est désinvestie, elle est fuie, dans la mesure où elles présentent toutes des troubles de l’image de soi, une perte de confiance en elles : 100 % des jeunes filles que je reçois ont perdu confiance en elles après s’être inscrites sur les réseaux sociaux.

En conclusion, il importe de pouvoir réguler le cadre qui permet le développement de toutes ces maladies psychiques profondes. Aujourd’hui, on peut être tenté de pointer du doigt un jeune en disant qu’il était peut-être plus vulnérable ou plus sensible aux addictions. Mais l’essentiel est ailleurs : le jeune développe des troubles mentaux profonds, des maladies psychiques graves, dont il ne peut pas se remettre comme il pourrait se rétablir après une grippe. L’après n’est pas l’avant en matière de troubles psychiques. Ce faisant, on vient pathologiser des enfants alors qu’en réalité, le cadre de société a aussi permis que ces enfants tombent malades.

M. Philippe Babe, chef de service des urgences pédiatriques de l’hôpital pédiatrique universitaire CHU Lenval de la ville de Nice. Je précise également ne pas être soumis à un conflit d’intérêt. Je suis pédiatre, chef de service du cinquième service d’urgences pédiatriques de France, puisque nous recevons 55 000 enfants par an sur la ville de Nice.

En très peu d’années, je dirais même sur ces deux dernières années, nous avons reçu de façon beaucoup plus importante aux urgences pédiatriques un grand nombre d’enfants qui présentent des troubles provoqués par les réseaux sociaux et en particulier TikTok. De plus, l’âge de ces jeunes a baissé, passant de 16-18 ans il y a cinq ans à 12-14 ans, voire moins encore aujourd’hui.

Le phénomène des challenges sur TikTok a généré des conduites extrêmement problématiques, à la fois sur le plan physique, sur le plan sexuel et sur le plan psychologique et psychiatrique chez nos jeunes. Par exemple, en lien avec le « challenge paracétamol », les intoxications volontaires au paracétamol ayant suscité un recours à nos services ont été multipliées par sept depuis le début de l’année. La dernière enfant que nous avons reçue pour ce problème était âgée de 13 ans. C’est une autre camarade qui a amené à l’école le médicament pour le distribuer et lui permettre de « suivre » ce challenge.

Parmi les autres challenges, il faut mentionner ceux qui engendrent des comportements violents. Des jeunes de 12, 13, 14 ans sont effectivement victimes de tentatives de strangulation, font des malaises et sont conduits aux urgences. Dans ce service, nous accueillons aussi des jeunes en proie à des troubles du comportement, qui « explosent » si leurs parents veulent leur retirer le portable. Certains en viennent à appeler le 15 pour signaler des actes de maltraitance lorsqu’on les empêche d’accéder aux réseaux sociaux.

Je tiens ainsi à témoigner de cette accélération des phénomènes liés aux réseaux sociaux. Nous devons tous nous interroger sur les mesures à mettre en place en termes de prévention. Les adolescents que nous recevons ont en effet une pratique bien établie des réseaux sociaux qui remonte déjà à plusieurs années.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Hier, nous avons reçu la directrice générale d’e-Enfance, selon laquelle le grand bouleversement porte sur la combinaison entre les réseaux sociaux et les smartphones, cette mauvaise rencontre étant selon elle à la source des problèmes rencontrés par les jeunes aujourd’hui. Je souhaitais obtenir votre point de vue sur « l’outil » smartphone en tant que tel.

Ensuite, dans le cadre de notre commission d’enquête, nous réfléchissons particulièrement au sujet de la modération, notamment des contenus, dans la mesure où certains sont illicites et bien souvent très problématiques. Même si nous parvenions demain à un monde parfait où TikTok modérerait l’intégralité de ses contenus dangereux, à vous entendre, j’ai le sentiment quand même que la plateforme est en elle-même sujette à caution, tant elle capture l’attention des jeunes, en leur proposant notamment des mesures de récompenses.

Vous avez évoqué le rapport au temps, à l’ennui, la peur de manquer quelque chose, et l’anxiété que cela peut susciter. Quel que soit le contenu qu’ils véhiculent, diriez-vous que les réseaux sociaux ont par nature un impact sur la santé mentale de nos jeunes ?

Pourriez-vous évoquer également le sujet des parents ? Nous avons auditionné des familles dont les enfants ont malheureusement perdu la vie, en particulier en raison de l’usage de TikTok. Ils nous expliquaient que pendant ces moments de tourmente, ils s’étaient sentis seuls, totalement démunis, exclus des rapports qui pouvaient exister entre leurs enfants et les professionnels de santé. Ils regrettaient que personne ne leur ait donné d’outil pour « gérer » leurs enfants lorsqu’ils étaient chez eux. Associez-vous les parents dans votre pratique ?

M. Philippe Babe. Je fais partie du groupe de pédiatrie générale, une société savante qui dépend de la Société française de pédiatrie (SFP). Il y a dix ans, nous avions organisé une journée sur l’enfant et les écrans et nous avions déjà essayé d’émettre des recommandations sur cette problématique.

Aujourd’hui, le smartphone fait partie du quotidien des parents et des enfants. Il ne me semble pas envisageable d’interdire les écrans avant 15 ans ; ce n’est pas de cette manière que nous parviendrons à gérer cette situation. Il s’agit plutôt de réfléchir sur le mode éducatif qu’il sera possible de mettre en place, à la fois pour les jeunes, mais aussi pour les parents. Il convient d’agir dès la maternelle et le primaire ; dans la mesure où il est déjà trop tard au collège.

Poser des interdits à l’égard des enfants ne constituera pas une réponse, dans la mesure où les parents ne sont pas non plus exemplaires dans leur usage du smartphone.

Mme Karine de Leusse. L’objet smartphone, de petite taille, favorise la régression et l’usage régressif. Les enfants, les adolescents adorent partir dans leur chambre, se mettre sur leur lit en position presque fœtale pour consulter les réseaux sociaux sur leur téléphone, qui correspond en quelque sorte à un « biberon » numérique. Ils s’abreuvent de ce biberon et, comme un bébé, hurlent quand on leur retire. En résumé, l’utilisation, au-delà du contenu de TikTok, vient aussi favoriser l’usage excessif.

Ensuite, je reçois toujours les adolescents avec les parents lors de la première séance. Si les parents ne comprennent pas les règles qu’ils doivent mettre en place, ils ne pourront pas les tenir.

Mme Anne-Hélia Roure. Le smartphone est un outil extrêmement puissant. Il permet, via les réseaux sociaux, d’envoyer un contenu, une photo, au monde entier. Comme d’autres outils puissants, il est nécessaire de mettre en place une régulation tenant compte de l’âge d’utilisation. Je ne donnerais pas les clefs de ma voiture à mon fils de 8 ans. Je crois qu’il faut être prêt, avoir construit son intelligence, avoir développé ses capacités de concentration, d’organisation, d’apprentissage, ses capacités humaines et sociales avant de pouvoir disposer d’un smartphone. Cette expérience est nécessaire pour pouvoir gérer l’outil sans être absorbé pendant des heures et saboter sa vie avant qu’elle n’ait commencé.

Ensuite, je travaille aussi fréquemment avec les parents. Beaucoup redoutent que leurs enfants se retrouvent seuls s’ils leur retiraient le téléphone, les réseaux. Il y a là un paradoxe, puisque selon les chiffres fournis par M. Mark Zuckerberg, seuls 10 % à 20 % de l’usage des réseaux sociaux servent à communiquer avec des gens que l’enfant ou l’adolescent connaît réellement, dans la réalité. Je dis aux parents que cela revient en quelque sorte à laisser traîner leur enfant la nuit, je ne sais où, avec je ne sais qui.

Mme Laure Miller, rapporteure. Ne pensez-vous pas malgré tout que poser une limite d’âge – même si nous connaissons les risques de contournement – pour l’accès aux réseaux sociaux peut constituer un outil à destination du grand public, mais aussi des parents ?

Mme Anne-Hélia Roure. Je pense qu’une telle mesure serait effectivement utile, car nous constatons réellement des troubles mentaux profonds liés à l’utilisation des smartphones et des réseaux sociaux. Cette initiative permettrait de fournir un cadre aux parents et préserverait les enfants au moins quelques années de plus en leur donnant le temps de se construire. J’estime qu’un parent qui donne trop tôt à son enfant un smartphone ou le laisse sur les réseaux sociaux compromet ses chances pour l’avenir.

M. Philippe Babe. Il sera compliqué de définir les âges auxquels s’appliquera l’interdiction. Un travail pluridisciplinaire sera sans doute nécessaire, à ce titre. Appliquer l’interdiction aux enfants en école primaire semble évident. Je retiens la proposition de Madame de Leusse sur l’instauration d’horaires d’ouverture et de fermeture, comme pour un établissement. Cela me paraît être une très bonne idée, qui sera sans doute plus entendue qu’une interdiction pure et dure avec un âge barrière. Les parents recevront favorablement ce message, selon moi. La maturité diffère beaucoup selon les enfants d’une même tranche d’âge.

Mme Karine de Leusse. L’instauration d’une limite d’âge est intéressante, surtout pour les parents, car elle leur permettra de légitimer le cadre qu’ils proposeront aux enfants. Cependant, cette mesure ne sera pas suffisante, raison pour laquelle je préconise d’établir un cadre horaire, qui permet d’ancrer l’usage dans le réel. À l’instar des lieux publics dont aucun n’est ouvert toute la nuit à l’exception des distributeurs de billets automatiques, l’accès à la plateforme doit être encadré par des horaires. Cette mesure sera d’une grande aide pour les parents et les enfants.

M. le président Arthur Delaporte. Je vous remercie et vous invite à compléter nos échanges en transmettant à notre secrétariat tout complément d’information que vous jugeriez pertinent pour les travaux de cette commission, au-delà du questionnaire qui vous a été adressé.

Puis la commission auditionne, conjointement :

 Mme Marietta Karamanli, députée,

 Mme Isabelle Rauch, députée, ancienne présidente de la commission des affaires culturelles et de l’éducation,

 M. Bruno Studer, ancien député, ancien président de la commission des affaires culturelles et de l’éducation.

M. le président Arthur Delaporte. Nous recevons à présent des collègues parlementaires, actuels ou anciens. Permettez-moi de saluer très chaleureusement M. Bruno Studer, ancien député, qui a été également présidé la commission des affaires culturelles et de l’éducation, et qui est l’auteur de la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à Internet, et de celle n° 2024-120 du 19 février 2024 visant à garantir le respect du droit à l’image des enfants. Nous saluons également Mme Marietta Karamanli, députée, co-auteure avec Mme Isabelle Rauch, députée et ancienne présidente de la commission des affaires culturelles et de l’éducation d’une proposition de résolution européenne visant à lutter contre les addictions numériques chez les enfants.

Je vous remercie, chers collègues, d’avoir pris le temps de répondre à notre invitation. Comme il est d’usage, je vous demande de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations. Je vous rappelle également que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mmes Karamanli et Rauch et M. Studer prêtent serment.)

M. Bruno Studer, ancien député, ancien président de la commission des affaires culturelles et de l’éducation. Je vous remercie pour votre convocation à venir m’exprimer devant vous. Vous avez eu l’amabilité de rappeler mes travaux sur la question de la protection de l’enfance en ligne, auxquels je rajoute la loi n° 2020-1266 du 19 octobre 2020 visant à encadrer l’exploitation commerciale de l’image d'enfants de moins de seize ans sur les plateformes en ligne, que vous avez utilement complétés par la suite concernant les influenceurs de manière générale. Il s’agit en réalité d’un triptyque de régulation : une régulation socio‑économique, une régulation plus technique à travers la loi sur le contrôle parental et une réglementation plus sociale à travers une modification du code civil. Cette dernière réglementation vise à rappeler aux parents détenteurs du droit d’image de leurs enfants qu’ils en sont avant tout les protecteurs avant d’en être les utilisateurs.

Je me réjouis que l’Assemblée nationale s’empare effectivement du sujet qui nous réunit aujourd’hui. Je ne suis pas un expert du réseau social TikTok, ni des sciences cognitives. Mon expertise est surtout celle d’un ancien parlementaire, fonction que j’ai exercée pendant sept années. Il me semble intéressant de rappeler en avant-propos que le législateur que je suis voulait aller plus loin en rendant possibles l’installation et l’activation par défaut du contrôle parental sur tout appareil permettant de consulter des contenus sur internet. Finalement, nous avons modifié le contenu pour aboutir à une version votée à l’unanimité des deux chambres, qui oblige les fabricants de matériels permettant de consulter des contenus à préinstaller un contrôle parental, l’activation étant proposée dès le premier usage de l’appareil.

Avant de pouvoir être promulguée et de faire l’objet d’un décret d’application, cette loi a dû subir un parcours du combattant face à la Commission européenne, puisqu’elle mettait évidemment un frein à la liberté de circulation des services et des marchandises dans l’espace européen. Si nous avions pu le faire, nous serions certainement allés plus loin. Je n’ai pas aujourd’hui connaissance que d’autres pays de l’Union européenne (UE) aient établi une législation similaire.

J’entends la volonté d’aller plus loin, mais le chemin est étroit. La régulation des communications en ligne est une affaire complexe. J’en parle en connaissance de cause, ayant été co-rapporteur de la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, qui musclait sensiblement les dispositions légales pour lutter contre la désinformation. En matière de régulation sur Internet, nous évoluons en effet sur une ligne de crête permanente.

Les effets des réseaux sociaux sur les jeunes nous préoccupent à juste titre, dans la mesure où leur cerveau est en plein développement. Si je devais résumer ce que je perçois de la politique de TikTok, je dirais que la plateforme cherche à faire de nos jeunes européens des idiots. Il suffit pour cela de comparer les algorithmes de TikTok en Chine avec ceux de TikTok en France. Dans ce cadre, il faut s’interroger sur la capacité du législateur français et européen à agir.

Mme Marietta Karamanli, députée. Il est établi que l’utilisation sans limite de réseaux numériques est néfaste pour la santé, notamment pour les plus jeunes. Nous savons également que les grandes entreprises propriétaires des plateformes d’accès et de diffusion sont informées des effets néfastes de leur utilisation. Elles ont volontairement laissé prospérer des fonctionnalités qui encouragent cette addiction. Je pense par exemple à des notifications à toute heure, y compris en pleine nuit, la possibilité de vidéos apparaissant automatiquement et faisant perdre la notion du temps, des filtres embellissant les images et distordant l’appréciation des corps humains, qui sont particulièrement présents sur TikTok.

L’objectif consiste donc à maintenir le public sur la plateforme pour en faire des prisonniers des contenus, et affirmer une puissance par le nombre d’utilisateurs, des temps d’utilisation et des données à vendre et à commercialiser. La naïveté politique, qui a plutôt été jusqu’à présent à l’œuvre, consiste donc à considérer que les grandes plateformes seront raisonnables et s’autoréguleront. Or grâce aux moyens évoqués précédemment, elles cherchent toujours à affirmer leur puissance via leur nombre d’utilisateurs, et les temps d’utilisation et la quantité des données personnelles à commercialiser. Les enjeux commerciaux, économiques et financiers sont immenses.

L’Union européenne a développé de ce point de vue une position particulière et a établi des instruments juridiques contraignants pour assurer la protection des consommateurs, associant une dimension éthique, une certaine transparence et une concurrence.

Aux États-Unis, les procureurs des États fédérés ont engagé des actions contre les plateformes Meta et TikTok. De son côté, la Commission européenne a également lancé des enquêtes contre Twitter puis TikTok. La commission du marché intérieur et de la protection des consommateurs du Parlement européen a pour sa part adopté un rapport demandant instamment des mesures dans le sens d’une protection accrue des enfants et des jeunes non-majeurs. Ce rapport adopté à une large majorité vise à rendre les plateformes numériques moins addictives.

La proposition de résolution que j’ai portée avec Mme Isabelle Rauch invite le gouvernement français à défendre la proposition visant à demander à la Commission européenne de faire siens les objectifs de ce rapport, à rechercher des convergences avec d’autres législateurs pour définir des normes industrielles de sécurité et non pas seulement à s’en remettre comme aujourd’hui à la bonne volonté et à l’autodiscipline des plateformes, qui sont naturellement mues par la recherche de profit.

Nous demandons également aux plateformes de mettre en œuvre des outils indispensables pour prévenir l’utilisation compulsive et prolongée de leurs applications de services et sites. Il s’agit aussi de déterminer quelles législations ou initiatives politiques existantes peuvent être utilisées pour lutter contre les conceptions addictives. L’objectif consiste bien à mobiliser les pouvoirs publics, l’opinion publique et à conscientiser quelque part les familles et les plus jeunes sur les risques. Mais il s’agit bien aussi d’enjeux de loyauté et de transparence, de droit et de liberté.

Aujourd’hui, le sujet des addictions créées par les plateformes relève du droit européen, ce qui a constitué pour nous un obstacle lorsque nous avons porté ce texte. Il importe donc que les autorités européennes et le Gouvernement défendent la position adoptée par l’Assemblée nationale, qui concerne les populations françaises et européennes, les consommateurs, et en particulier les jeunes.

Comment est née l’idée d’une loi de protection face aux écrans ? En tant que députée depuis maintenant de nombreuses années, j’ai porté de nombreux travaux sur le numérique à l’Assemblée nationale, comme le marché unique numérique ou les initiatives pour l’encadrement des plateformes ou la fiscalité du numérique. J’étais également la rapporteure pour avis de la commission des affaires européennes sur le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), qui poursuit un objectif d’apparence simple, mais ô combien complexe et pratique : il rend illégal en ligne ce qui est illégal hors ligne. Le texte oblige les fournisseurs à prendre des mesures supplémentaires pour lutter contre les contenus illicites et préjudiciables, qu’il s’agisse de la haine en ligne, de la pédopornographie ou de la désinformation.

De son côté, le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA) vise à renforcer la contestabilité des positions dominantes acquises par les géants du numérique. Je pense notamment à Apple, qui restreint l’accès des utilisateurs vers d’autres développeurs d’applications aujourd’hui. À l’occasion des travaux conduits depuis plusieurs années dans le cadre de la commission des affaires européennes et grâce à mes contacts au sein du Conseil de l’Europe, j’ai pu travailler avec d’autres pays comme l’Espagne, l’Angleterre ou la Grèce. Nous avons pu aboutir à un texte qui a été adopté de manière transpartisane, à l’unanimité.

Mme Isabelle Rauch, députée, ancienne présidente de la commission des affaires culturelles et de l’éducation. Vous avez devant vous des législateurs engagés dans ces problématiques depuis de nombreuses années, tant par les travaux que par les auditions menées. En tant que présidente de la commission des affaires culturelles et de l’éducation, j’ai eu à cœur de mener un certain nombre d’auditions pour montrer l’implication des réseaux sociaux et des Gafam dans la vie quotidienne en particulier des enfants, mais pas uniquement.

En tant que co-rapporteure avec Mme Marietta Karamanli, j’ai eu l’occasion de mener d’autres auditions concernant les pratiques addictives et la capacité de ces réseaux sociaux, TikTok en particulier, à produire des algorithmes addictifs. Ces travaux font apparaître que les Gafam ne sont pas des philanthropes. Leur business model est celui de l’économie de l’attention, parce qu’elle rapporte de l’argent.

À ce titre, nous sommes peut-être confrontés à deux phénomènes éventuellement cumulatifs : un modèle économique, afin de gagner le plus d’argent possible et un projet politique, dans le but d’instrumentaliser un certain nombre d’éléments, dans le cadre d’ingérences. Dans ces conditions, il est impérieux de continuer à se préoccuper de ces problématiques, étant entendu qu’un certain nombre de députés sont moteurs et acteurs dans ce domaine depuis déjà un certain nombre d’années.

Même si nous pouvons dénoncer l’explosion des troubles anxieux, des troubles de l’image corporelle, de l’attention, des dépressions et des pensées suicidaires, nous ne pouvons plus nous contenter de dénoncer. Il est plus qu’urgent de renforcer la prise de conscience pour pouvoir agir et repenser l’équilibre des responsabilités, et notamment de donner à chaque institution des moyens d’agir pour les enfants.

Lors de mon mandat de présidente de la commission des affaires culturelles et de l’éducation, j’ai dû faire face à de nombreuses demandes de rendez-vous très insistantes de la part de TikTok. Lorsque nous avons auditionné les représentants de cette entreprise en compagnie de mon co-rapporteur M. Iñaki Echaniz dans le cadre de la mission d’information sur la loi n° 2016-1524 du 14 novembre 2016 visant à renforcer la liberté, l’indépendance et le pluralisme des médias, dite loi Bloch, leur communication était très rodée. Ces derniers nous disaient que la régulation et la modération étaient parfaites.

En conséquence, nous avons vraiment besoin que votre commission d’enquête puisse établir des propositions fortes et trouver des pistes de solutions pour protéger nos enfants, même s’ils ne sont pas les seuls touchés. On observe en effet des phénomènes très dommageables chez les seniors, qui peuvent scroller toute la nuit et être affectés par des troubles alimentaires et du sommeil.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Je vous remercie d’avoir accepté de nous livrer votre expérience et votre éclairage.

Monsieur Studer, pouvez-vous nous détailler ce que vous avez qualifié de « parcours du combattant » auprès de la Commission européenne, après la promulgation de la loi, au moment des décrets d’application ? Quel regard portez-vous sur l’évolution de la situation depuis le vote et la promulgation des lois que nous avons évoqués ?

De manière plus générale, le rapport entre élus et concitoyens est fréquemment affecté par un sentiment d’impuissance. Certains concitoyens estiment ainsi que nous n’arrivons pas à trouver de solutions, que nos démarches sont très lentes, renforçant par là même leur désintérêt vis-à-vis de la politique et de leurs représentants.

À ce titre, nous ne voulons pas décevoir, dans le cadre des recommandations que formulera la commission d’enquête. Si le DSA constitue une avancée notable dont nous devons nous réjouir, nous constatons néanmoins qu’il n’est pas pleinement en application aujourd’hui, trois ans après son élaboration. Dès lors, la régulation n’est pas encore pleinement effective. Comment pouvons-nous en France nous approprier le sujet et peut-être prendre de l’avance sur le droit européen dans ce domaine ? Il s’agit en effet de sujets de santé publique, qui relèvent de la compétence interne de chacun des États membres de l’Union européenne.

M. Bruno Studer. Il s’agit effectivement d’un sujet de santé publique, qui nécessitera de recueillir les résultats de travaux collégiaux produits par des sociétés savantes, indispensables dans une démocratie comme la nôtre. De fait, sur le sujet de l’impact des réseaux sociaux, TikTok en l’occurrence, la science doit véritablement s’emparer du sujet.

De votre côté, des messages politiques doivent également être transmis sur ces sujets. TikTok peut également induire des effets très positifs. Par exemple, elle peut aider des jeunes à s’extraire d’un enfermement familial dû à leur orientation sexuelle. En parallèle, la situation n’en sera pas pour autant améliorée si elle implique un autre enfermement algorithmique. Le danger est bien là. Au moment de la loi sur les enfants influenceurs, j’avais relevé l’existence de nouvelles formes d’activité, de médiation, qui n’étaient pas toutes inutiles. Simplement, il faut rappeler la définition du droit et sa vocation à protéger les plus faibles. Il importe de continuer le travail, dans la durée, face à l’arrivée très rapide de ces outils dans la vie quotidienne des jeunes. J’insiste sur cet aspect : de telles applications portent aussi des effets positifs qui permettent de prendre confiance en soi, de se rendre compte que l’on n’est pas seuls à exprimer une pensée et que l’on peut obtenir des réponses que l’on n’aurait pas trouvées ailleurs.

Ensuite, la loi sur le contrôle parental a effectivement été un parcours du combattant auprès de la Commission européenne. Différentes notifications ont été adressées à la Commission avant même que le texte ne soit examiné, une fois qu’il a été déposé et après les modifications substantielles apportées par la commission mixte paritaire. De la même manière, le décret d’application a fait l’objet d’une notification, raison pour laquelle il n’est paru que plusieurs mois après la promulgation de la loi, qui a été soutenue à l’époque par l’ensemble du pouvoir exécutif français, ministre et président de la République compris.

Puisque vous avez l’élégance de me demander mes suggestions ou recommandations, j’estime que la loi sur le contrôle parental que j’ai portée devrait être évaluée, au même titre que celle sur les enfants influenceurs, dont l’article 3 n’a toujours pas de décret d’application. Cette évaluation permettra au Parlement de rappeler le pouvoir exécutif à son devoir. J’ai toujours conçu la loi sur le contrôle parental comme un outil de dialogue familial et un moyen de limiter le plus possible les « mauvaises » rencontres de nos enfants sur internet. Celui-ci permettrait également de moduler le contrôle en fonction de l’âge de l’enfant, d’un niveau strict quand il est très jeune à une désactivation complète quand l’enfant grandit et devient autonome. La loi précise que les opérations de paramétrage doivent pouvoir être réalisées très facilement. Je crois que l’Assemblée a par ailleurs voté une majorité numérique à 15 ans, ce qui correspond à peu près à la fin du collège. Le législateur partageait la même préoccupation lorsqu’il avait interdit le téléphone portable à l’école et au collège.

L’évaluation de la loi sera utile pour connaître son impact, au-delà de la nécessaire médiatisation qu’il avait suscitée à l’époque. Il me semble que le contrôle parental, en raison de la loi et de sa reprise médiatique, est devenu un outil plus utilisé qu’auparavant.

Mme Isabelle Rauch. Il est vrai que les réseaux sociaux peuvent engendrer des effets positifs. Néanmoins, ils profitent des mécanismes d’addiction, qui sont au cœur de leur modèle économique fondé sur le nombre de vues, le nombre de clics, quel que soit le contenu. La responsabilité des plateformes dans la diffusion des contenus doit être interrogée, en termes de régulation, d’autant plus qu’elles ne se considèrent que comme des « tuyaux ». Tant que des sanctions économiques ne seront pas instaurées, nous ne parviendrons pas à maintenir la régulation. À chaque fois que des sanctions financières ont été prononcées, elles ont prouvé leur efficacité. Les mécanismes que nous avons pu imaginer et voter ont ainsi pu être mis en place ou respectés.

Ensuite, en tant qu’ancienne présidente de la commission des affaires culturelles et de l’éducation, je partage avec M. Studer la conviction qu’il faut impérativement évaluer les dispositifs que nous votons et mettons en place.

Mme Marietta Karamanli. Je partage les points de vue de Mme Isabelle Rauch et M. Bruno Studer, leurs constats et les difficultés qu’ils ont rencontrées. Pour mener à bien ce travail, il faut à la fois disposer de temps, formuler des explications et faire preuve de conviction. Ainsi, la résolution que nous avons portée avec Mme Isabelle Rauch ne vise pas les usagers, mais les grandes entreprises du numérique qui, de façon industrielle et par des fonctionnalités apparentes ou cachées, rendent leurs utilisateurs dépendants. Ici, nous nous heurtons à de grandes difficultés, que d’autres initiatives législatives ont également éprouvées : le droit national ne peut régir des domaines qui relèvent du droit européen.

Afin d’être efficaces, il faut agir directement sur les plateformes, en nous inspirant des régulations mises en place à l’encontre des producteurs de tabac, dont la démarche est comparable. Je rappelle ainsi que ces producteurs ajoutaient des substances, comme l’ammoniaque, qui amplifiaient la dépendance à la nicotine. Nous devons donc utiliser le même angle d’attaque vis-à-vis des grandes plateformes numériques.

L’Union européenne a justement initié de véritables mécanismes législatifs pour protéger les plus vulnérables. À ce titre, la résolution du Parlement européen sur la conception addictive des services en ligne et la protection des consommateurs sur le marché unique de l’Union européenne, adoptée en novembre 2023, me réjouit particulièrement. Je pense en effet qu’il faut d’une part combattre la conception addictive des services en ligne, et d’autre part élaborer une législation adaptée. Il s’agit de dépasser la question de l’autorégulation, qui n’est pas suffisante.

Ensuite, en réponse à Mme la rapporteure, j’estime qu’il faut travailler à l’échelle européenne sur une telle loi, en essayant de convaincre les autres parlements, au-delà de l’exécutif. En compagnie de Mme Isabelle Rauch, nous nous efforçons d’agir de la sorte dans le cadre de notre proposition de résolution. J’envisage d’ailleurs la tenue d’une conférence interparlementaire avec plusieurs États qui portent actuellement le sujet, comme la Grèce par exemple. L’objectif consiste à faire en sorte que plusieurs États membres de l’Union européenne portent la même proposition, la même dynamique. Votre rapport pourrait aussi contribuer à accroître la pression exercée sur l’UE pour qu’elle accélère la mise en place des sanctions financières et qu’elle porte les enjeux dans le cadre des règlements DSA et DMA.

Il s’agit là selon moi d’un angle d’attaque pertinent, puisque le droit national est limité face au droit européen. En revanche, le droit national n’est pas non plus démuni pour s’adresser aux jeunes, aux parents, et éviter les addictions, dans le cadre d’une cohérence éducative et sociétale. L’école joue ici un rôle essentiel.

Au-delà, le modèle politique économique du « tout numérique » dans nos sociétés pourrait également être questionné. Lors de son audition devant nous, M. Thomas Rohmer, le directeur et fondateur de l’Observatoire de la parentalité et de l’éducation numérique (Open) a souligné la nécessité pour les parents de s’intéresser aux contenus visibles sur les écrans, plutôt que d’être de simples régulateurs du temps passé par leurs enfants devant ces derniers. Parallèlement, dans le cadre d’une démarche progressive et adaptée, il insiste sur l’importance d’établir les paliers suivants : pas d’écran avant trois ans, un écran partagé entre trois et six ans, éveil créatif de six à neuf ans, meilleur contrôle entre neuf et douze ans. Les recommandations élaborées par les spécialistes peuvent être mises en place au fur et à mesure, à travers le droit national, l’éducation nationale et tous les acteurs qui peuvent jouer un rôle concernant le numérique et l’accès aux écrans.

La démarche doit s’inscrire dans le cadre de l’Union européenne (UE), puisque le droit numérique relève du droit européen et les sanctions doivent être au cœur des dispositifs.

J’ajoute que je répondrai à chacune des questions que vous m’avez adressées dans votre questionnaire et vous adresserai également les travaux réalisés dans le cadre du rapport que nous avons remis, notamment sur les addictions, leurs raisons et conséquences.

M. le président Arthur Delaporte. Je vous remercie, nous les recevrons volontiers. Je constate que le vote de textes par le législateur est parfois insuffisamment suivi d’effets, faute d’implication de l’administration pour leur application. Dans la loi sur les influenceurs, nous avions créé un mécanisme de contrôle et d’absence de publicité sur les applications afin d’empêcher les mineurs de voir un certain nombre de contenus promotionnels. Malheureusement, le décret n’est pas sorti. En outre, cette situation donne l’impression d’une impuissance du législateur dont l’intervention se placerait davantage dans la prévention que dans l’action visant à faire évoluer les modalités de contrôle des plateformes.

Mme Isabelle Rauch. Il importe de bien établir une différence entre les parents et les plateformes. Beaucoup souhaitent « placer les parents devant leurs responsabilités », mais les plateformes sont en premier celles qui doivent porter ce poids : on ne peut pas faire uniquement reposer sur les parents ou l’éducation nationale la responsabilité d’une régulation ou d’une autorégulation de l’enfant ou des familles. Les jeunes savent pertinemment qu’ils ne devraient pas passer autant de temps devant l’écran. De leur côté, les parents sont conscients qu’ils devraient être plus vigilants. Cependant, l’effet addictif est tel que la responsabilité des plateformes ne peut être ignorée. Pour prendre une autre analogie, l’accidentologie a prouvé que la vitesse tue. C’est bien en abaissant la vitesse et en établissant des contrôles que le nombre de morts sur la route a diminué.

Mme Marietta Karamanli. Je partage naturellement ces propos. Il est important de ne pas pointer du doigt les parents, qui ont exprimé leur lassitude à cet égard, car ils n’ont plus de maîtrise sur un certain nombre d’éléments. Je partage également la frustration du législateur mentionnée par M. Studer et M. le président face à la lenteur de la mise en œuvre des décrets d’application. Mais encore une fois, l’action vis-à-vis des plateformes passe d’abord par le droit européen. Je réitère la nécessité d’instaurer des mécanismes au niveau de l’UE. À ce titre, il serait également pertinent d’évaluer les enquêtes et procès initiés par l’Union européenne.

M. le président Arthur Delaporte. Je précise à ce titre que la commission d’enquête se rendra la semaine prochaine à Bruxelles et aura l’occasion d’évoquer, dans le respect du secret de l’enquête, l’avancement de ces différentes procédures.

M. Bruno Studer. Je souligne néanmoins que ces domaines sont juridiquement neufs. Si la question du contrôle de l’âge en ligne était simple, le problème aurait déjà été résolu.

Ensuite, je partage également l’idée qu’il n’y a pas de salut en dehors du cadre européen, sauf à considérer que 60 millions de consommateurs parviendraient à faire plier à eux seuls des entreprises privées, de nationalité américaine ou chinoise comme TikTok. Lorsque j’ai présidé la commission des affaires culturelles et de l’éducation, nous avons voté la loi n° 2019-775 du 24 juillet 2019 tendant à créer un droit voisin au profit des agences de presse et des éditeurs de presse, mais avons attendu d’avoir une directive européenne. Nous ne voulions pas subir la même mésaventure que l’Espagne quelques mois auparavant. L’Espagne avait ainsi voté une loi sur les droits voisins et en rétorsion, Google avait décidé de déréférencer toutes les publications des quotidiens espagnols.

Je me réjouis de votre déplacement à Bruxelles. Il importe également de fédérer les actions des parlementaires des autres pays.

S’agissant de l’école, il sera néanmoins nécessaire de nous donner enfin les moyens d’avoir une vraie discipline d’éducation civique à l’information, à plus forte en raison avec l’émergence de l’intelligence artificielle.

S’agissant des parents, j’ai établi en 2008 un rapport de mission d’information sur l’école dans la société du numérique et j’ai formulé un certain nombre de propositions à l’occasion des États généraux sur le numérique éducatif. On ne peut pas tout demander aux parents, à plus forte raison s’ils ignorent tout. Je vous soumets une proposition que j’avais formulée lorsque nous réfléchissions à la question du harcèlement. Aujourd’hui, le contenu posté par un enfant peut être considéré comme du cyberharcèlement par un tiers de confiance comme le 3018 et être à ce titre supprimé. Mais le parent de cet enfant n’est pas informé de la gravité de son acte. J’avais donc demandé la mise en place d’une structure équivalente à la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (Hadopi) pour le cyberharcèlement ou la cyberhaine.

Je suis conscient de la complexité de mise en œuvre d’un tel dispositif. Cependant, quand un phénomène massif est constaté, il faut y apporter des réponses massives. Lorsque le contenu est supprimé, le parent titulaire de l’abonnement pourrait ainsi recevoir un courrier indiquant que son abonnement a servi à commettre en ligne un délit qui pourrait être passible de poursuites civiles et pénales. Il faut évidemment expliquer aux parents qu’un contrôle parental n’est pas un outil miracle, qu’il faut continuer à discuter avec leur enfant. Pour pouvoir agir de la sorte, encore faut-il être informé.

Mme Laure Miller, rapporteure. Il apparaît que de nombreux contenus appartiennent à une zone grise, difficile à qualifier et sur laquelle les plateformes s’appuient pour modérer encore moins aisément ce genre de contenus. Je pense notamment au hashtag SkinnyTok ou à des contenus qui font l’apologie du suicide, mais qui ne peuvent être retirés que lorsque la victime a réellement tenté de se suicider.

Estimez-vous que le Parlement français peut malgré tout agir pour faire évoluer la qualification de ces contenus et donner des armes aux régulateurs, faciliter a minima la modération ? Hier, Mme Bérangère Couillard, présidente du Haut Conseil à l’égalité entre les femmes et les hommes (HCEFH) nous disait qu’il était bien plus facile d’agir sur les contenus racistes que les contenus sexistes, en l’absence d’un arsenal juridique adapté.

Par ailleurs, les plateformes sont quand même toujours qualifiées de simples hébergeurs de contenus. Or par la puissance de leur algorithme, notamment celui de TikTok, ces derniers « poussent » et éditorialisent des contenus auprès de leurs utilisateurs. Comment expliquez-vous que nous ne parvenions pas à évoluer sur ce sujet et à modifier la nature de leurs responsabilités ?

M. Bruno Studer. D’abord, dans une démocratie, la liberté d’expression se contrôle toujours a posteriori. Il est extrêmement compliqué de réguler a posteriori des contenus publiés par des milliards d’octets chaque seconde. Il existe donc là un vrai défi, entre les mains du législateur.

Ensuite, vous avez raison de mentionner l’apologie au suicide, mais d’aucuns pourraient rétorquer avec mauvaise foi que Les Souffrances du jeune Werther ou Le cercle des poètes disparus constituent également une forme d’apologie du suicide. Le suicide a toujours été un sujet de romans, de films, de séries. Le suicide demeure par ailleurs la deuxième cause de mortalité chez les jeunes, après les accidents de la route. Comment gérer ces problèmes, de manière définitive ? Très sincèrement, je ne sais pas.

Mme Isabelle Rauch. Je ne peux que souscrire à ces propos, notamment vis-à-vis de la liberté d’expression. En revanche, il ne revient pas aux plateformes d’accomplir le travail du législateur, qui doit toujours garder la main dans ce domaine. Ces plateformes ne peuvent établir des règles qui ne seraient plus en accord avec nos lois nationales.

Ensuite, le défi concerne l’enfermement algorithmique et la capacité addictive que les plateformes mettent en place. Nous devons agir ; tel est d’ailleurs le sens de la proposition de résolution européenne. Nous devons concentrer nos efforts au niveau européen, ce qui ne nous exonère pas d’entreprendre au niveau national et en partenariat avec les parents, l’éducation nationale. À plusieurs reprises, lors de la précédente législature, j’ai rappelé à ce titre l’importance de la transformation des programmes de l’éducation nationale pour prendre réellement en compte ces nouvelles formes de communication. Il s’agit également de prendre appui sur les apports de la recherche sur les sciences de l’éducation et les sciences cognitives. À ce titre, je vous indique que nous allons porter avec Mme Marietta Karamanli une proposition de résolution européenne sur la recherche européenne pour accompagner les enseignants, les parents ou toute personne intervenant auprès des enfants.

Mme Marietta Karamanli. En conclusion, je vous remercie de nous avoir permis de contribuer à vos travaux. Il faut rappeler l’existence d’une réglementation européenne qui s’applique désormais sur le plan national, dont nous devons évaluer l’efficacité et l’effectivité. En effet, produire toujours plus de réglementation sans évaluation fait courir le risque d’une surabondance et d’une fausse sécurité. Il est également nécessaire de démultiplier nos initiatives avec d’autres pays. En compagnie de Mme Isabelle Rauch, nous restons de notre côté attentives et disponibles aux initiatives des autres collègues, comme celles de cette commission d’enquête. Ce n’est qu’ensemble, et de manière répétitive, que nous pourrons véritablement agir. En effet, nous faisons œuvre pédagogique et la répétition est, à ce titre, essentielle.

M. le président Arthur Delaporte. Je vous remercie pour le temps que vous avez consacré à cette audition, et au-delà, à la protection des jeunes face aux écrans.

Enfin la commission auditionne Mme Anne Savinel-Barras, présidente de Amnesty international, et Mme Katia Roux, chargée de plaidoyer.

M. le président Arthur Delaporte. Mes chers collègues, nous reprenons à l’instant notre séance pour recevoir Mme Anne Savinel-Barras, présidente d’Amnesty international France, et Mme Katia Roux, chargée de plaidoyer. Le rapport que vous avez produit sur la question de TikTok nous intéresse particulièrement. Il semble par ailleurs que vous travaillez à un nouveau rapport, dont vous pourrez également nous faire part au cours de l’audition.

Je vous remercie de déclarer auprès de nous tout intérêt public ou privé qui serait de nature à influencer vos déclarations, par exemple, si vous avez, à titre personnel ou au titre de l’organisation, perçu ou collecté des fonds provenant notamment de réseaux sociaux.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mmes Anne Savinel-Barras et Roux prêtent serment.)

Mme Anne Savinel-Barras, présidente d’Amnesty International France. Je vous remercie de nous auditionner et d’entendre la position d’Amnesty International sur le sujet qui nous préoccupe.

Jamais les grandes entreprises technologiques et les États qui ont recours aux nouvelles technologies n’ont eu autant de pouvoir qu’à ce jour. Si les technologies numériques offrent d’immenses possibilités dans de nombreux domaines de l’activité humaine, elles peuvent aussi malheureusement porter atteinte aux libertés civiles et politiques, ainsi qu’aux droits sociaux et économiques. Depuis plusieurs années, Amnesty International engage une réflexion au sujet de l’impact sur les droits humains du fonctionnement des grandes plateformes du numérique et notamment des entreprises de réseaux sociaux. Notre objectif vise à faire en sorte que ces plateformes en ligne soient des espaces sûrs, sains et encourageants, notamment pour les enfants et les jeunes.

Aujourd’hui, nous dénonçons le modèle économique des entreprises des réseaux sociaux pour plusieurs raisons essentielles. D’abord, le modèle économique des plateformes du numérique est fondé sur un profilage intrusif et la publicité ciblée. Les plateformes cherchent notamment à collecter de manière constante de nouvelles informations sur les utilisateurs et utilisatrices afin d’établir des profils aussi précis que possible qu’elles pourront ensuite vendre à des publicitaires.

Ce modèle économique alimente la diffusion de contenus néfastes. Les systèmes algorithmiques sont conçus pour garder les personnes sur la plateforme. Plus ces personnes sont impliquées, plus les recettes publicitaires sont élevées. En conséquence, ces systèmes mettent en avant les contenus les plus virulents, clivants et néfastes, car ceux-ci sont les plus susceptibles de garantir l’implication des utilisateurs et utilisatrices. L’impact de ce modèle sur les jeunes publics est préoccupant, car ces derniers présentent une dépendance à ces plateformes et sont impuissants face à la collecte de leurs données personnelles.

Mme Katia Roux, chargée de plaidoyer à Amnesty international France. L’impact sur les jeunes et les enfants précisément, a conduit Amnesty International à se concentrer sur la plateforme TikTok. Ces dernières années, et notamment depuis le Covid-19, nous avons en effet constaté que la plateforme était devenue la plateforme préférée des jeunes et des enfants. Elle rassemble en effet plusieurs centaines de millions de jeunes et d’enfants, notamment grâce à son design addictif qui suscite l’intérêt massif des jeunes. Il apparaît clairement que TikTok a poussé au maximum cette logique addictive.

Si je devais résumer dans ce propos liminaire la conclusion de notre enquête menée fin 2023 à l’aide d’une méthodologie assez innovante sur le sujet, je dirais que TikTok peut être un espace toxique et addictif pour les jeunes et les enfants, en raison d’une part du système de recommandation algorithmique de la plateforme, et d’autre part de ses pratiques très intrusives de collecte de données personnelles.

Nous disposons aujourd’hui de suffisamment de recul grâce aux différents travaux menés sur le sujet. TikTok s’immisce dans la vie privée de ses utilisateurs et utilisatrices en pistant littéralement toutes les activités en ligne, les contenus visualisés, partagés, commentés, aimés par les jeunes utilisateurs. L’objectif de l’outil consiste ici à deviner leurs centres d’intérêt, leur état émotionnel, leur niveau de bien-être, puis de diffuser des contenus ultrapersonnalisés dans le fil « Pour toi » de la plateforme, qui s’appuie sur la collecte massive de données personnelles.

Notre enquête montre que les enfants, les jeunes qui regardent des contenus relatifs à la santé mentale, sur la page « Pour toi » vont facilement tomber dans des spirales de contenus néfastes, de contenus potentiellement dangereux, notamment des vidéos qui viennent banaliser, voire idéaliser la dépression, l’automutilation ou le suicide. Selon notre enquête technique à partir de comptes que nous avons gérés manuellement, il ne faut qu’entre trois et vingt minutes pour que les fils « Pour toi » soient inondés de ces vidéos qui peuvent aller jusqu’à encourager le suicide.

Concrètement, le système algorithmique de TikTok expose des jeunes, des enfants, à de graves risques de santé mentale grâce à une conception addictive, qui exploite leurs vulnérabilités psychologiques afin de maximiser leur participation en ligne et, finalement, maximiser ses profits. Il s’agit là du fameux modèle économique que nous avons mentionné en introduction.

Or, l’exposition des jeunes et des enfants, déjà en proie à des symptômes dépressifs ou des fragilités psychologiques, à de nombreuses vidéos banalisant le suicide aggrave incontestablement leur santé mentale. En outre, elle peut entraîner des conséquences dramatiques dans la vie réelle.

Je crois qu’à ce titre, la commission a déjà entendu des familles de victimes, qui ont fait part de témoignages extrêmement forts sur le sujet.

À Amnesty International, nous considérons que les utilisateurs et utilisatrices de TikTok doivent pouvoir jouir d’une réelle capacité de choix et de contrôle. Aujourd’hui, ce n’est pas le cas : TikTok collecte des données personnelles sensibles et opère des déductions sur les intérêts, les états émotionnels et le niveau de bien-être des utilisateurs et utilisatrices, dans le but de personnaliser l’expérience en ligne, recommander des contenus et cibler les publicités.

L’une de nos principales demandes à l’égard de l’entreprise concerne le changement de modèle économique et, surtout, la prise en compte des risques systémiques liés à l’utilisation de la plateforme. Or aujourd’hui, notre demande n’est absolument pas prise en compte. Depuis novembre 2003, nous avons été en contact avec TikTok. Nous avions déjà intégré dans nos rapports les réponses de l’entreprise au moment de nos travaux. Depuis leur parution, nous avons continué à demander des comptes sur les mesures qui avaient été mises en œuvre par l’entreprise pour atténuer les risques et pour répondre à ces dangers que l’on pointait.

Les réponses de TikTok sur un certain nombre de mesures de « bien-être » et ne sont clairement pas à la hauteur des enjeux dont nous allons discuter aujourd’hui. Nous appelons l’entreprise à assumer ses responsabilités, à prendre en compte les risques systémiques liés à son modèle d’activité. Si tel n’était pas le cas, les risques sur la santé mentale des jeunes perdureront et il ne sera pas possible de mettre en place des mesures pour lutter contre une addiction, qui est en réalité créée par la plateforme elle-même.

Dans ces conditions, nous sommes très heureuses de pouvoir nous entretenir avec vous et de contribuer aux travaux de la commission, afin de faire en sorte qu’une bonne fois pour toutes, TikTok prenne en compte ce risque systémique et cesse d’ignorer ses responsabilités au regard du droit international.

M. le président Arthur Delaporte. Pouvez-vous décrire plus précisément la nature ce que vous reprochiez à TikTok, les réponses qui vous ont été apportées et les raisons pour lesquelles vous considérez que celles-ci sont à ce stade insatisfaisantes.

Mme Katia Roux. Lorsque nous avons mené l’enquête en 2023, nous avons diffusé en amont, selon la méthodologie classique d’Amnesty, toutes les conclusions de notre enquête avant même sa publication. Les réponses de TikTok ont été très largement en deçà des attentes, puisque l’entreprise n’a pas reconnu sa responsabilité en termes de risques systémiques. Depuis, nous n’avons cessé de demander des comptes à l’entreprise.

Celle-ci nous a répondu récemment à travers deux lettres que nous avons rendues publiques sur le site d’Amnesty. L’entreprise explique qu’il est désormais possible de filtrer, par mots-clés les recherches, de filtrer par hashtag et donc de rafraîchir complètement son fil « Pour toi ». Elle ajoute qu’il existe des mesures de redirection vers des associations, des professionnels de la santé mentale qui peuvent proposer une aide et un accompagnement. Cependant, elle continue très largement d’ignorer les risques systémiques que nous avons pointés.

C’était déjà le cas lors de l’évaluation sur les risques que TikTok a publiée fin 2024, puisque dans le cadre du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), les très grandes plateformes sont obligées de publier une évaluation des risques. S’agissant des contenus problématiques en ligne, l’entreprise rejette directement la responsabilité sur les utilisateurs et les utilisatrices. Elle a pris l’exemple de ces fameux défis qui sont lancés sur la plateforme, qui deviennent viraux et peuvent être dangereux. Elle se retranche derrière l’argument selon lequel les jeunes postent eux-mêmes ces contenus, sans même se poser la question de la manière dont ils sont promus par le système algorithmique de la plateforme. Ce faisant, elle ignore complètement le risque systémique et la responsabilité qui lui incombe au regard du DSA.

L’entreprise évoque donc des mesures de bien-être, de possibilités de filtrage, de rafraîchissement, de redirection vers tel ou tel organisme, alors même qu’il s’agit ici d’une conception addictive, de choix systémiques. Quels que soient les dangers, l’objectif de TikTok consiste à réaliser des profits et donc mettre en avant des contenus qui vont maximiser l’engagement. Or nous disposons désormais de suffisamment de recul pour observer l’impact sur les jeunes utilisateurs.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Considérez-vous qu’aujourd’hui, en 2025, d’autres réseaux sociaux que TikTok posent ou poseraient les mêmes difficultés ?

En favorisant la circulation de contenus sur la santé mentale, notamment dépressifs, le fonctionnement de TikTok encourage-t-il les utilisateurs à produire ce type de contenu ? Pensez-vous que la plateforme cible particulièrement les plus jeunes, précisément en raison des fragilités inhérentes à l’adolescence ou à l’enfance ?

Pouvez-vous également évoquer la manière dont vos rapports ont circulé dans un cadre institutionnel un peu plus large ? Avez-vous échangé avec d’autres partenaires, d’autres États, la Commission européenne, le Parlement européen, des ministres ? Comment avez-vous réussi à alimenter les décideurs publics au sens large avec vos contributions ?

Mme Katia Roux. Nous avons mené de nombreuses recherches sur plusieurs réseaux sociaux. Au-delà de cette approche, nous nous sommes intéressés au modèle de développement économique des grandes plateformes du numérique depuis 2018-2019. Nous avions déjà publié en 2018 un premier rapport intitulé « Toxic Twitter », qui faisait état du harcèlement en ligne des femmes qui était lié au modèle de développement de la plateforme. Ensuite, un rapport de 2019 a porté sur les géants du numérique et la publicité ciblée en ligne. En effet, l’ensemble des réseaux sociaux a épousé ce modèle de développement économique, même si TikTok a poussé à l’extrême la logique de l’addiction et du design addictif. Un grand nombre de réseaux sociaux a également imité TikTok sur le format de vidéos courtes, qui vont devenir virales.

Nous avons aussi travaillé sur Meta, en montrant la responsabilité de la plateforme dans les violences ethniques et notamment le nettoyage ethnique des Rohingyas au Myanmar en 2017. En effet, l’algorithme amplifie des contenus extrêmement nocifs et peut engendrer des impacts dramatiques dans la vie réelle. Nous avons mené une enquête similaire l’année d’après en Éthiopie, où la même logique était à l’œuvre à l’égard des populations tigréennes. Nous en avons déduit une responsabilité juridique de l’entreprise au regard du droit international relatif aux droits humains.

Les dernières recherches en 2023 sur TikTok se sont effectivement concentrées sur les jeunes et les enfants. La question de la santé mentale n’a pas émergé par hasard. Elle fait suite à une étude de cadrage sous la forme d’un questionnaire en ligne que nous avons diffusé très largement. Y ont répondu plus de 550 personnes, entre 13 et 24 ans provenant plus de quarante‑cinq pays. Les questions étaient assez larges. Elles portaient sur ce qu’ils et elles aimaient en ligne, leur expérience sur TikTok, ce qui leur posait problème, ce qui les questionnait. C’est ici que la question de la santé mentale a largement émergé comme un enjeu très fort pour eux. En effet, ces jeunes nous révélaient à la fois leur dépendance très forte vis-à-vis de la plateforme et en même temps leur impuissance totale face à la collecte massive des données.

Nous avons décidé aujourd’hui de nous concentrer à nouveau sur TikTok, qui combine cette logique maximale d’addiction et d’économie de l’attention. Mais toutes les entreprises des réseaux sociaux rivalisent pour capter l’attention des utilisateurs et utilisatrices.

Ensuite, existe-t-il un ciblage plus spécifique en direction des jeunes ? L’intention est évidente pour TikTok, qui s’est imposé au moment du Covid. Tout dans l’outil est conçu pour capter l’attention, aller vite, susciter la viralité. Initialement, le réseau prônait le divertissement, la créativité, le partage d’expériences, avec des promesses plutôt positives. En réalité, les choix de conception et de collecte de données et les choix algorithmiques ont véritablement transformé ce réseau social.

Sur le réseau, les utilisateurs peuvent très rapidement basculer dans ces espaces de contenus toxiques. Des jeunes, qui peuvent être plus sensibles, plus influençables et a fortiori ceux qui présentent des problèmes de santé mentale, sont beaucoup plus vulnérables et vont être littéralement entraînés dans des spirales de contenu toxique, des « rabbit’s holes » dont il est extrêmement difficile de s’extraire.

Il faut bien comprendre que l’algorithme de TikTok n’est pas conçu en soi pour promouvoir des contenus liés à la dépression, à l’automutilation ou le suicide. En revanche, dès lors que l’algorithme identifie qu’un utilisateur ou une utilisatrice éprouve un intérêt pour une question, il recommandera systématiquement des contenus associés, car l’enjeu consiste à les maintenir sur la plateforme, collecter des données personnelles pour établir des profils ultra‑personnalisés et générer des revenus publicitaires.

S’agissant de votre dernière question, nous avons naturellement partagé notre travail, qui a été mené au niveau international, avec l’ensemble des décideurs. À ce sujet, il existe une véritable différence entre l’Union européenne et le reste du monde dans l’approche de la protection des jeunes utilisateurs et utilisatrices. Nous avons évidemment conduit des discussions avec les institutions européennes. Amnesty a par exemple été extrêmement mobilisée au moment des négociations sur le DSA et nous le demeurons sur son application et sa mise en œuvre.

Cette année, nous entendons poursuivre notre mobilisation et notamment mener une campagne publique sur le sujet pour sensibiliser les jeunes, les parents, mais aussi pour interpeller les dirigeants. S’il n’est pas parfait, nous nous efforçons d’utiliser au mieux le levier du DSA, la première réglementation qui vise véritablement à encadrer les Big Tech pour obtenir des résultats et responsabiliser les entreprises.

Mme Laure Miller, rapporteure. Lors de vos propos introductifs, vous indiquiez que le modèle économique de TikTok en tant que tel affecte le bien-être et la santé de nos jeunes. Lors de nos auditions, de nombreuses personnes recommandent plus de modération ou un meilleur contrôle de l’âge. Mais nous pouvons avoir le sentiment que ces souhaits resteront vains compte tenu des intérêts complètement divergents de la plateforme, dont le fonctionnement reste opaque. Votre position a-t-elle évolué depuis vos premières recommandations ? Portez-vous un message plus « radical » à l’égard des autorités, notamment françaises ? Partagez-vous l’idée d’une interdiction des réseaux sociaux avant un certain âge ?

Mme Katia Roux. Nous nous réjouissons que le sujet soit pris à bras le corps par les autorités nationales et européennes. Nous avons effectivement formulé un certain nombre de recommandations dans le cadre de nos enquêtes. La première concerne la prise en compte des risques systémiques liés au modèle de développement économique de la plateforme. La deuxième porte sur l’arrêt de la maximisation de la participation des utilisateurs à partir de la collecte de données personnelles. Il conviendrait de revoir les éléments de conception qui encouragent justement une utilisation addictive de la plateforme, de prendre en compte la parole des personnes concernées, notamment les jeunes, qui ont beaucoup à dire sur le sujet.

Très concrètement on peut tout à fait imaginer une refonte de modèles à partir d’un fil qui ne soit pas fondé sur le profilage par défaut. Ensuite, nous sommes favorables à l’interdiction de la publicité ciblée à destination des mineurs dans le cadre du DSA européen, qu’il faudrait étendre à l’échelle du globe. La fin de cette collecte de données personnelles en vue d’ultra personnaliser le fil « Pour toi » de la plateforme changerait très concrètement l’impact et les contenus que les jeunes reçoivent.

Par ailleurs, de nombreuses autres mesures sont évoquées dans le débat public, dont l’interdiction d’accès en deçà d’un certain âge. Nous estimons cependant que si l’on ne change pas la cause profonde et le système même, nous risquons de ne pas régler fondamentalement le problème. Pour autant, nous ne considérons pas que certaines nouvelles mesures sont inutiles. Cependant, en lieu et place d’une interdiction, nous appelons les États à accroître la réglementation pour renforcer la protection de la vie privée. Cette mesure est le seul moyen de protéger les droits des jeunes et des enfants. Une interdiction totale ferait davantage peser le poids des pratiques commerciales et nocives des entreprises sur les jeunes au lieu de le faire endosser par les entreprises. Or ces dernières sont responsables et fautives en premier lieu.

En dehors du cadre européen qui est un espace démocratique, l’interdiction pourrait entraîner un impact sur d’autres droits, comme le droit à la liberté d’expression, le droit à l’information. En effet, dans certaines régions du monde, les réseaux sociaux permettent de partager un certain nombre d’informations cruciales et de sortir certains groupes marginalisés de l’isolement. Or ces pratiques diverses pourraient être mises en danger par une interdiction.

En résumé, nous ne demandons pas l’interdiction. D’une part, cette mesure comporte des risques au regard d’autres droits fondamentaux, et d’autre part, elle ne permettra pas toujours de régler le véritable problème. Concernant le modèle économique, il existe un consensus sur le besoin de s’attaquer aux causes profondes et systémiques. Amnesty International concentre son action sur cet enjeu.

M. le président Arthur Delaporte. Je vous remercie. Vos propos rejoignent en tout point mes propres réflexions. Par ailleurs, dans votre rapport, l’analyse est assez large et ne s’intéresse pas spécifiquement au cas des jeunes mineurs français. Avez-vous envisagé de mener des travaux sur ce sujet ?

Mme Katia Roux. Pour le moment, ce n’est effectivement pas le cas. En revanche, cette année, nous devrions mener une campagne publique pour sensibiliser davantage les jeunes utilisateurs et utilisatrices en France sur ces aspects, mais également pour contribuer le plus possible au débat national et européen, aux travaux de la Commission sur le DSA. Les pistes contentieuses sont toujours intéressantes et nous n’excluons aucune action. Malheureusement, à ce jour, nous ne disposons pas d’éléments concrets à partager comme cela pouvait être le cas à la fin 2023. Quoi qu’il en soit, le sujet demeure une priorité pour nous.

M. le président Arthur Delaporte. Je me permets de rebondir sur votre propos concernant l’application du DSA, en lien avec la Commission européenne. Pouvez-vous revenir sur la manière dont vous utilisez la procédure du DSA pour effectuer des signalements ou pour apporter des éléments à la Commission dans différentes procédures ? Comment cela se passe‑t‑il concrètement ? Avez-vous des contacts directs ? Pourraient-ils être facilités ?

Mme Katia Roux. Nous en sommes pour le moment aux débuts, dans une phase de recueil des informations. Pour mémoire, nous avons été très mobilisés au moment des discussions autour du DSA pour exposer un certain nombre de nos recommandations. Nous avons salué son adoption en 2022. En effet, un certain nombre de mesures telles que l’interdiction de la publicité ciblée, la prise en compte des risques systémiques, les mesures d’atténuation à mettre en place, les audits indépendants obligatoires, le fait de proposer un fil qui ne soit pas personnalisé, nous semblent aller dans le bon sens.

Le texte comporte aussi des limites. Selon nous, il ne va pas assez loin concernant le fil par défaut et la publicité ciblée n’est pas interdite pour tous et toutes. Le modèle économique que nous dénonçons n’est pas non plus interdit. Pour le moment, l’efficacité du DSA reste encore à prouver, dans la mesure où il n’est entré pleinement en vigueur que l’année dernière.

Nous étudions la possibilité d’utiliser le DSA pour pouvoir lancer des enquêtes aboutissant idéalement à des sanctions et, à tout le moins, appeler les entreprises à leurs responsabilités. Encore une fois, avec les autres sections d’Amnesty International, nous sommes pour le moment à la phase de récolte de preuves, de données, de recherches.

Il n’en demeure pas moins que de notre point de vue, ce texte est à ce jour le plus protecteur, notamment à l’égard des mineurs et nous espérons qu’il pourra inspirer d’autres acteurs, d’autres États, d’autres régions du monde. Encore faut-il que les entreprises du numérique se prêtent au jeu. Or comme je l’indiquais plus tôt, la première publication de son rapport d’évaluation par TikTok était très en deçà des attentes et passait complètement à côté des risques systémiques de la plateforme.

M. le président Arthur Delaporte. Nous aurons l’occasion de poursuivre ces échanges avec TikTok, que nous recevrons le 12 juin prochain. Nous nous appuierons notamment sur les documents que vous avez publiés ou tous ceux que vous pourrez nous communiquer. À ce titre, notre commission reste évidemment disponible pour prolonger les échanges, surtout par écrit, notamment en lien avec le questionnaire qui vous a été adressé par Mme la rapporteure.

 

La séance s’achève à dix-sept heures quarante-cinq.


Membres présents ou excusés

 

Présents.  M. Arthur Delaporte, Mme Laure Miller, Mme Constance de Pélichy, Mme Isabelle Rauch