Compte rendu

Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs

– Audition, ouverte à la presse, de Mme Bérangère Couillard, présidente du Haut Conseil à l’Égalité entre les hommes et les femmes 2

 Audition, ouverte à la presse, de Mme Justine Atlan, directrice générale de l’association E-enfance, M. Samuel Comblez, directeur général adjoint, et Mme Inès Legendre, chargée de plaidoyer              8

 Audition, ouverte à la presse, de M. Thierry Breton, ancien commissaire européen au marché intérieur 16

 Audition, ouverte à la presse, de Mme Cécile Augeraud, commissaire divisionnaire, chef-adjoint à l’Office anti cybercriminalité (OFAC)              24

 Audition, à huis clos, de M. Nicolas Deffieux, directeur du Pôle d’expertise de la régulation numérique (PEReN) 30

Présences en réunion.................................40


Mardi
27 mai 2025

Séance de 14 heures 20

Compte rendu n° 18

session ordinaire de 2024-2025

Présidence de
M. Arthur Delaporte,
Président de la commission

 


  1 

La séance est ouverte à quatorze heures vingt.

 

La commission auditionne Mme Bérangère Couillard, présidente du Haut Conseil à l’Égalité entre les hommes et les femmes.

M. le président Arthur Delaporte. Mes chers collègues, nous reprenons nos auditions en recevant Mme Bérangère Couillard, présidente du Haut Conseil à l’égalité entre les hommes et les femmes (HCEFH) et ancienne ministre. Madame, je vous remercie d’avoir pris le temps de répondre à notre invitation, mais également de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mme Couillard prête serment.)

Mme Bérangère Couillard, présidente du Haut Conseil à l’égalité entre les hommes et les femmes. Je suis très honorée d’être invitée aujourd’hui pour cette audition et de pouvoir représenter le Haut Conseil devant la représentation nationale. La question de l’influence du réseau social TikTok sur les mineurs et des effets de son utilisation est sérieuse et grave, loin des caricatures. Celles et ceux qui, comme moi et les membres du Haut Conseil, s’intéressent aux questions d’égalité entre les femmes et les hommes savent que les réseaux sociaux ont un effet extrêmement néfaste sur les rapports entre les jeunes hommes et les jeunes femmes. L’utilisation massive de ces applications a entraîné harcèlement sexiste, violence verbale et psychologique, promotion de la pornographie ou encore montée en puissance des idées masculinistes.

Mais TikTok présente des particularités qui méritent de traiter cette application différemment des autres réseaux sociaux. Elle est aussi la plus utilisée parmi les jeunes mineurs de notre pays, ce qui accroît le risque de l’influence éducative qu’elle peut entraîner sur nos enfants. Ainsi, 70 % des usagers de TikTok en France ont moins de 24 ans, dont un enfant sur deux est âgé de 11 à 12 ans.

Environ 76 millions d’utilisateurs dans le monde ont été signalés pour avoir moins de l’âge minimal, soit 13 ans, uniquement en 2023. Le Haut Conseil à l’égalité a travaillé sur ce sujet et publié un rapport en 2022 sur la question plus large du cercle vicieux du sexisme dans le numérique. Pour le volet concernant les réseaux sociaux Instagram, TikTok et YouTube, nous nous sommes notamment appuyés sur le travail très sérieux de plusieurs étudiants de Sciences Po Paris avec lesquels nous avons travaillé en partenariat.

Ils se sont attachés à analyser les 100 contenus les plus visionnés sur TikTok en 2022. Leur constat est sans appel : les femmes sont repoussées au second plan sur TikTok. Les créatrices, tout d’abord, sont minoritaires. Parmi les 100 contenus analysés, seuls 31 sont issus de comptes identifiables comme étant gérés par des femmes ou cogérés par un couple hétérosexuel. En tout, seulement onze comptes sont gérés exclusivement par des femmes et vingt cogérés par des hommes et femmes. Les comptes de créatrices féminines sont ainsi largement absents du top 100 des vidéos les plus visionnées.

Les femmes sont aussi globalement sous-représentées dans les contenus. Seuls 36 % des personnages sont des femmes contre 64 % d’hommes. En outre, on décompte 53 % de vidéos présentant une mixité des genres. Dans les vidéos non mixtes, seuls 27 % mettent en scène une ou plusieurs femmes. La non-mixité, lorsqu’elle existe, est donc plus souvent masculine. Enfin, seuls 35 % des femmes occupent un rôle principal, les hommes en représentent 65 %. La parité pour les rôles secondaires reste la même : 38 % pour les femmes contre 62 % pour les hommes.

Mais si l’on se concentre sur le contenu en lui-même, le constat est encore plus inquiétant. L’humour dit « masculin » et donc stéréotypant est ultradominant. Ainsi, 35 % des vidéos présentent un comportement féminin stéréotypé, c’est-à-dire incluant un ou plusieurs stéréotypes féminins. Les données montrent que dans les cas où la femme correspond à un archétype de genre, elle est dépeinte respectivement comme étant la femme réservée et calme (18 %), hystérique (16 %) et séductrice (13 %). Ensuite, 61 % des vidéos présentent des comportements stéréotypés masculins. Quand les hommes sont représentés au travers d’un archétype de genre, ils le sont très largement au travers de la figure de l’homme humoriste. Ainsi, 33 % des vidéos ont pour but de divertir et 32 % sont humoristiques.

Comme sur YouTube, la récurrence de ce trait souligne que le fait d’être drôle, d’occuper le devant de la scène et de faire rire une audience mixte est largement associé aux hommes. Contrairement aux archétypes féminins, les stéréotypes masculins les plus observés sont donc valorisants. Pire encore, une image dégradante de la femme est mise en avant dans 20 % du contenu analysé. Lorsque les femmes sont représentées de manière dégradante, elles sont majoritairement humiliées. Les rapports de couples stéréotypés sont majoritairement dans les contenus humoristiques et de divertissement. Il n’est pas rare que les hommes exploitent parfois la dynamique du couple hétérosexuel traditionnel pour ridiculiser leur femme.

Nous pouvons observer des scénarios où l’homme crée du désordre dans la maison, puis la femme rentre et s’énerve, perçue comme hystérique, sous-entendant ainsi qu’il est de sa responsabilité de nettoyer le désordre. Il s’agit de stéréotypes classiques que nous combattons au quotidien, mais qui trouvent une résonance massive sur cette plateforme auprès d’une audience majoritairement mineure et alors même que nous tentons de faire changer leur mentalité par l’éducation à l’égalité. Comme vous le voyez, les contenus diffusés sur cette plateforme sont loin d’être anodins. J’aurais également pu évoquer les contenus qui sexualisent à outrance les femmes, voire les présentent comme de simples objets du désir sexuel des hommes pour aller jusqu’à promouvoir pour certains la pornographie, comme le compte d’AD Laurent récemment interdit.

Certains contenus engendrent aussi des effets néfastes sur la santé mentale des jeunes et plus particulièrement des jeunes filles. Je laisserai le soin aux professionnels de santé que vous auditionnerez et qui connaissent mieux le sujet que nous de vous présenter les différents effets néfastes d’une utilisation disproportionnée de ces applications. Mais je veux tout de même évoquer avec vous quelques pistes de réflexion. Les enfants et les jeunes qui regardent des contenus liés à la santé mentale sur leur fil « Pour toi » de TikTok sont rapidement entraînés dans des spirales de contenus qui idéalisent et encouragent les pensées dépressives, l’automutilation et le suicide. Lorsqu’un utilisateur montre un intérêt pour un contenu en lien avec la santé mentale, au bout de cinq ou six heures passées sur la plateforme, près d’une vidéo sur deux parle de ce sujet de manière potentiellement nocive. C’est dix fois plus que ce qui est présenté aux comptes n’ayant indiqué aucun intérêt pour la santé mentale.

Un autre rapport de Common Sense Media a découvert que 69 % des filles adolescentes présentant des symptômes de dépression élevés ont été exposées au moins une fois par mois à du contenu lié au suicide, qui est poussé par l’algorithme de TikTok. De plus, 45 % des filles interrogées ont aussi avoué être addicts, dépendantes, à la plateforme. Ces risques sont encore plus grands quand une jeune femme tombe sur des contenus promouvant la minceur extrême. De jeunes femmes y diffusent des régimes drastiques, des routines sportives excessives et des messages culpabilisants : « Tu n’es pas moche, tu es juste grosse », « Plaisir éphémère, regret éternel ». Ce discours, qui valorise la restriction alimentaire extrême et stigmatise la prise de poids, participe activement à la normalisation des troubles du comportement.

Au-delà de l’exposition à des images de corps dénutris et de conseils alimentaires dangereux, ces contenus exploitent la vulnérabilité des jeunes en quête de repères, de validation sociale ou d’identité corporelle. L’algorithme de TikTok, accusé de créer des bulles de contenus homogènes, renforce cette exposition et aggrave l’isolement dans des spirales toxiques. Si le rapport du Haut Conseil à l’égalité que j’ai cité précédemment ne se concentre pas exclusivement sur les effets néfastes des réseaux sociaux, nous avons tout de même pu en analyser certains éléments.

Ce sujet, tant il est grave et influence grandement l’avenir de notre société par les valeurs que ses plateformes peuvent inculquer à nos enfants, mériterait certainement un rapport complet et dédié. À ce titre, votre commission a toute sa légitimité et je serais ravie de répondre à vos questions.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Vous avez déjà évoqué ce sujet, mais le rapport rendu en novembre 2023, qui portait sur la femme et le numérique, mettait déjà en évidence ce sujet des contenus, notamment sexistes, que l’on peut trouver sur TikTok. Considérez-vous que les plateformes numériques, et particulièrement TikTok, exploitent ces contenus dans le cadre de leur modèle économique ?

Mme Bérangère Couillard. Oui, certainement. À partir du moment où un algorithme propose toujours le même thème, l’objectif porte sur des fins aussi commerciales. Nous connaissons bien la stratégie qui est portée par les réseaux sociaux en général et particulièrement par la plateforme Meta, qui consiste à utiliser les données pour promouvoir l’intelligence artificielle (IA) et un certain nombre de contenus. L’objectif consiste bien à maintenir les consommateurs, c’est-à-dire nos jeunes, le plus longtemps possible sur la plateforme, en générant un certain nombre de contenus qui les rendent dépendants, pour pouvoir ensuite leur commercialiser des contenus.

Mme Laure Miller, rapporteure. Dans ce même rapport, une de vos recommandations consistait à créer un cadre éthique commun pour le calibrage des algorithmes, comme cela est envisagé à l’échelon européen. Pourriez-vous nous en dire plus ? Comment pourrions-nous rendre cette recommandation effective ?

Mme Bérangère Couillard. La recommandation du HCEFH consiste à mettre en place des comités mixtes qui permettraient de fixer des normes claires communes à tous les algorithmes pour faire disparaître les biais de genre dans leur calibrage, mais aussi de réaliser des audits « sexués » de ces données, afin d’en limiter au maximum les biais. Ces normes seraient vraiment des conditions minimales à la mise en œuvre d’un algorithme permettant le respect des droits fondamentaux des utilisateurs et des utilisatrices. Cela permettrait de limiter notamment des contenus violents, sexistes et dégradants pour les femmes diffusés quotidiennement.

Mme Laure Miller, rapporteure. À ce titre, le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) fournit un cadre qui nous permet d’avancer. Pour autant, dans nombre de nos auditions, nous entendons qu’il existe une espèce de zone grise sur ces contenus, notamment sexistes, qui ne permettent pas d’obtenir leur retrait de la part des plateformes. Menez-vous une réflexion pour mieux qualifier ces contenus et ensuite plus facilement obtenir leur régulation et leur retrait, le cas échéant ?

Mme Bérangère Couillard. Il existe une totale impunité de la part des plateformes qui considèrent qu’il s’agit d’un domaine privé, sur lequel elles sont entièrement libres d’instaurer telle ou telle contrainte. Depuis l’élection du président Donald Trump, ce phénomène de recul est particulièrement observable sur Meta. Nous l’avions déjà connu lorsque M. Elon Musk avait pris la tête de X, anciennement Twitter. Pourtant, les réseaux sociaux régissent aujourd’hui nos vies, particulièrement la vie de nos plus jeunes.

Le HCEFH propose de mettre en place des obligations au niveau européen, pour obliger l’établissement de signaleurs de contenus et, à défaut, des signaleurs de confiance qui pourraient relever d’une organisation aux niveaux européen ou français. Ils pourraient signaler des contenus, pour procéder ensuite à leur retrait. Il faudrait évidemment établir des critères. Il est par exemple plus difficile de retirer des contenus sexistes que des contenus racistes, car il existe aujourd’hui un cadre légal beaucoup plus clair sur le racisme que le sexisme. Le droit doit donc évoluer, en instaurant notamment un délit de sexisme, comme le propose le Haut Conseil à l’égalité dans différents rapports. Au-delà du cadre légal, ces signaleurs de confiance permettraient notamment d’analyser ce qu’il se passe sur les très grandes plateformes comme TikTok et la suppression des contenus, qu’il convient d’avoir définis.

Lorsque nous avons publié le rapport sur la pornocriminalité, nous avons préconisé de pouvoir faire supprimer très rapidement des contenus qui dégradent évidemment l’image de la femme dans les vidéos pornographiques. Selon la procureure de la République de Paris, plus de 90 % des contenus pornographiques sont passibles du code pénal au titre de l’incitation au viol ou de différentes violences. Il faut en effet rappeler que 50 % de la bande passante internet est consommée par des vidéos pornographiques.

Mme Laure Miller, rapporteure. Quel regard portez-vous sur les politiques de sensibilisation au numérique ? Comment les relier à cette question du sexisme et de l’égalité entre les hommes et les femmes ? Pensez-vous qu’il faille agir plus en ce sens auprès de nos plus jeunes publics ?

Mme Bérangère Couillard. C’est une évidence. Le HCEFH recommande depuis de nombreuses années l’application des cours d’éducation à la vie affective et relationnelle, et à la sexualité (Evars), adaptés à chaque âge. Nous subissons à ce titre des tentatives de déstabilisation des plus conservateurs sur cette question. Il n’a jamais été question, comme je l’entends parfois de manière horrible, d’apprendre la masturbation à un enfant de 5 ans. C’est une aberration.

Ces cours sont adaptés, dès le plus jeune âge. Il s’agit d’apprendre le respect de son corps, à déceler des possibles violences sexuelles, ce qu’il est possible de faire ou non. À ce titre, les annonces effectuées par la ministre d’État, ministre de l’éducation nationale, sont très importantes. Elles répondent aux exigences de la mise en œuvre des Evars partout dans le pays.

En effet, cette mise en œuvre souffrait de fragilités depuis les années 2000. D’abord, il n’y avait pas de contenus généralisés ; ils étaient réalisés par chaque association qui acceptait de venir dans les établissements. À partir du moment où il existe un programme commun, vous avez la certitude que le contenu est adapté à l’âge de l’enfant – de la maternelle jusqu’au lycée –, car il a été travaillé avec le personnel de l’éducation nationale et les parents. En proposant et en formant du personnel de l’éducation nationale, depuis les infirmiers scolaires jusqu’aux professeurs et aux conseillers principaux d’éducation, il devient possible de répondre aux besoins des établissements, partout en France.

Le numérique fait partie des sujets qui doivent être abordés parce qu’il n’est pas uniquement question de sexualité, quand vient l’âge d’en parler. Mais nous abordons également les sujets d’inégalité à l’école. À titre d’exemple, de nombreuses filières, comme les filières scientifiques, demeurent boudées par les filles parce qu’elles ne sont pas préparées, ni incitées à les rejoindre. Or les filières scientifiques numériques sont des filières dites d’avenir.

Il s’agit donc d’inciter les jeunes femmes à rejoindre le numérique, mais aussi de parler des conséquences du numérique et de certains contenus sur TikTok, évoquer les algorithmes et la manière dont ils sont générés, les ingérences des puissances étrangères qui viennent modifier les contenus. Il est essentiel d’expliquer ce modèle aux enfants ou aux plus jeunes, parce qu’ils ne s’en rendent pas forcément compte. De fait, l’éducation nationale porte ainsi un grand nombre de responsabilités, mais celles-ci sont nécessaires.

M. le président Arthur Delaporte. Je cède la parole aux collègues connectés en visioconférence.

M. Thierry Perez (RN). Je vous ai écoutée avec attention, mais vous avoue ma gêne à l’égard d’une partie de votre discours. Vous évoquez des contenus sexistes masculinistes, qui sont totalement indéniables. En revanche, vous passez sous silence ces nombreuses femmes influenceuses françaises ou étrangères qui ont défrayé la chronique ces dernières années, qui font valoir avant tout l’esthétique, prônent la chirurgie esthétique auprès des plus jeunes et des plus jeunes filles. À mon sens, elles sont tout aussi potentiellement dangereuses, notamment pour les jeunes filles qui, selon les propos recueillis lors des auditions précédentes, sont encore plus addicts que les garçons aux réseaux sociaux et notamment à TikTok.

Mme Bérangère Couillard. Monsieur le député, il n’a pas été question de passer sous silence quoi que ce soit. J’ai surtout accentué mon propos sur les contenus qui promeuvent la minceur, voire la très grande maigreur des jeunes filles. Je pourrais tout autant parler des contenus qui appellent à avoir recours à la chirurgie esthétique. Mais je n’ai eu que dix minutes pour vous transmettre un certain nombre d’éléments. De fait, des contenus générés particulièrement par le public féminin incitent à recourir à la chirurgie esthétique, à promouvoir la chirurgie esthétique dans ses excès. Je les dénonce tout autant que vous. Un certain nombre de contenus devraient être davantage contrôlés. En aucun cas, il n’était question pour moi d’occulter cet aspect.

M. le président Arthur Delaporte. La recommandation numéro 4 du rapport, en page 83, évoque un certain nombre d’incriminations existantes, par exemple l’interdiction du harcèlement sexuel défini par l’article 222-33 du code pénal comme « le fait d’imposer à une personne, de façon répétée, des propos ou comportements à connotation sexuelle ou sexiste qui soit portent atteinte à sa dignité en raison de leur caractère dégradant ou humiliant, soit créent à son encontre une situation intimidante, hostile ou offensante ».

Il me semble que dans le cadre d’une interprétation extensive, de nombreux propos visibles sur un certain nombre de comptes entrent dans le cadre de cet article. Qu’en pensez-vous ? Faut-il envisager une modification législative ?

Mme Bérangère Couillard. Aujourd’hui, l’outrage sexiste existe ; mais il n’existe pas de délit de sexisme. Si un propos sexiste est tenu dans les médias, seule l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) peut sanctionner la chaîne en question, mais une forme de répétition est nécessaire.

Pour autant, nous assistons à une banalisation des propos sexistes, qui ne sont pas sanctionnés, quand les propos racistes le sont par la loi. Ce n’est pas le cas pour les propos sexistes : vous pouvez faire des blagues lourdes, sexistes ; tenir régulièrement des propos qui stéréotypent les femmes dans un rôle, mais personne ne vous sanctionnera. C’est la raison pour laquelle le Haut Conseil à l’égalité invite à mettre en place un délit de sexisme.

M. le président Arthur Delaporte. Selon l’article R. 625-8-3, « est puni de l’amende prévue pour les contraventions de la 5e classe le fait, hors les cas prévus aux articles 222-13, 222-32, 222-33, 222-33-1-1, 222-33-2-2 et 222-33-2-3, d’imposer à une personne tout propos ou comportement à connotation sexuelle ou sexiste qui soit porte atteinte à sa dignité en raison de son caractère dégradant ou humiliant, soit crée à son encontre une situation intimidante, hostile ou offensante ». Des propos ne rentreraient-ils pas dans le cadre de cet article ?

Mme Bérangère Couillard. Tout dépend de l’interprétation de la loi. Il est arrivé régulièrement de produire des lois bien dédiées pour s’assurer que l’interprétation soit très claire pour les juges. Quoi qu’il en soit, il est urgent de le refaire savoir, parce que cela n’est pas le cas aujourd’hui. Je ne connais pas aujourd’hui de sanction qui ait été prononcée pour un délit de sexisme ou quelque chose qui s’y apparente.

M. le président Arthur Delaporte. Cette information est importante. Il nous a été indiqué à plusieurs reprises que les plateformes ne retirent pas de tels contenus, car elles considèrent qu’ils ne contreviennent pas à la législation en vigueur. Pourtant, le pays d’origine, la France, peut imposer des règles spécifiques au réseau sans même tenir compte du cadre du DSA, notamment pour des motifs d’ordre public. En l’occurrence, le sexisme entre dans ce cadre. Il faut sans doute creuser cet aspect ou, à tout le moins, faire connaître le cadre légal.

Échangez-vous avec les plateformes sur des guidelines, des recommandations qu’elles pourraient conduire en termes de modération des contenus ?

Mme Bérangère Couillard. Nous n’avons pas échangé depuis la parution de ce rapport. Il faut également souligner que les politiques des plateformes ont changé. Si nous parlions aujourd’hui aux représentants de Meta, ils ne tiendraient pas les mêmes propos qu’il y a deux ans ; ils seraient bien moins allants.

Mme Laure Miller, rapporteure. Il y a quelques jours, Le Figaro faisait part d’une note du ministère de l’intérieur qui portait sur l’influence de certains prédicateurs, notamment sur TikTok, lesquels prônent le port du voile chez les très jeunes filles. Vous êtes-vous penchée sur ce sujet ? Quel est, selon vous l’impact sur la santé mentale du visionnage en boucle de vidéos qui circulent sur ce sujet ?

Mme Bérangère Couillard. Nous ne nous sommes pas penchés spécifiquement sur ce sujet. Cependant, il s’avère que lorsque l’on écrit « Islam » dans la barre de recherche sur TikTok, on accède à certains contenus. Comme je l’indiquais dans mes propos liminaires, si vous regardez des vidéos sur une thématique, au bout de quelques heures, vous recevez très rapidement des contenus radicalisés. Cela peut concerner la religion, mais aussi bien d’autres sujets, comme la maigreur, les régimes, ou la chirurgie esthétique, qu’évoquait votre collègue un peu plus tôt.

Lorsqu’un utilisateur s’intéresse à un sujet, il reçoit une multiplication de vidéos sur cette même thématique, qui deviennent de plus en plus radicales ou violentes. Je ne suis évidemment pas surprise qu’il existe de nombreux contenus qui appellent à un islam le plus radical lorsqu'on s'intéresse à la religion. C’est tout à fait la façon dont procèdent ces plateformes, et particulièrement TikTok.

M. le président Arthur Delaporte. Nous achevons notre audition. Souhaitez-vous apporter un mot de conclusion ? Si vous étiez face aux représentants de TikTok, que leur demanderiez-vous ?

Mme Bérangère Couillard. Je leur demanderais de collaborer avec les instances européennes, pour mettre en œuvre un certain nombre d’éléments. Aujourd’hui, ils se défilent, mais ils portent une très grande responsabilité.

M. le président Arthur Delaporte. Je vous remercie. Vous pourrez nous communiquer tout élément complémentaire par courriel.

La commission auditionne ensuite Mme Justine Atlan, directrice générale de l’association E-enfance, M. Samuel Comblez, directeur général adjoint, et Mme Inès Legendre, chargée de plaidoyer.

M. le président Arthur Delaporte. Mes chers collègues, nous recevons aujourd’hui l’association e-Enfance, représentée par Mme Justine Atlan, directrice générale, M. Samuel Comblez, directeur général adjoint, et Mme Inès Legendre, chargée de plaidoyer. Je vous remercie d’avoir bien voulu prendre le temps de répondre à notre invitation et vous prie également de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations, par exemple si vous recevez de l’argent des plateformes du numérique.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mmes Atlan, Legendre et M. Comblez prêtent serment.)

Mme Justine Atlan, directrice générale de l’association e-Enfance. Aucun de nous n’a d’intérêts éventuellement en conflit, à titre individuel. En revanche, effectivement, nous sommes salariés de l’association e-Enfance, qui reçoit des financements publics et privés, des subventions publiques et du mécénat d’entreprises privées. À ce titre, elle reçoit depuis de nombreuses années des financements de plusieurs plateformes, dont celle qui est évoquée par votre commission d’enquête, c’est-à-dire TikTok.

En 2024, notre financement est constitué à 55 % de mécénats privés et à 45 % de subventions publiques françaises et européennes. Le budget de l’association en 2024 s’établissait 3,4 millions d’euros et TikTok nous versait 70 000 euros, soit 2 % dudit budget. Dans le cadre de nos échanges avec les plateformes, nous sommes aussi membres d’un certain nombre de leurs safety boards, c’est-à-dire des comités d’experts certains étant dédiés aux mineurs, d’autres à la sécurité en général. Nous étions membres du safety board de Twitter, qui l’a depuis fermé ; nous sommes membres de celui de Snapchat et l’avons été également chez TikTok, mais cela n’est plus le cas depuis 2024.

M. le président Arthur Delaporte. Pour quelles raisons ?

Mme Justine Atlan. Pour différentes raisons. La principale était d’ordre éthique. Je siégeais à ce comité, mais il était difficile de continuer à demeurer dans ce cadre de réflexions, dont les échanges étaient très intéressants, mais qui n’aboutissait finalement pas à des grandes nouveautés en termes de sécurité des enfants sur Internet. En tant qu’experts, nous pouvions partager nos étonnements – vous avez déjà évoqué dans votre commission la façon dont les algorithmes poussent un certain nombre de contenus défavorables à la santé mentale des mineurs. Mais nous avons fait le constat que leur cœur de problème réside dans leur modèle économique et que leurs algorithmes n’étaient absolument pas contestés et travaillés. Nous passions notre temps à « colmater les brèches », sans toucher le cœur du problème. À partir d’un moment, cette forme de participation à des échanges qui n’étaient pas très constructifs quant à leur résultat était assez difficile à gérer. Pour autant, je n’ai pas ressenti de pression lorsque j’y siégeais.

Je souhaite à présent vous présenter rapidement l’association e-Enfance, association d’intérêt général. Nous faisons également partie des 2 % d’associations françaises reconnues d’utilité publique. Nous sommes donc soumis à deux obligations très particulières : publier chaque année nos comptes au Journal officiel de la République et obtenir la validation du Conseil d’État pour tous les changements effectués dans nos statuts.

L’objet social de l’association, créée le 2 septembre 2005, concerne la protection des mineurs sur Internet et plus spécifiquement contre tous les risques liés à l’utilisation des technologies de l’information et de la communication. Notre acte fondateur a été la charte des fournisseurs d’accès à Internet en 2005 les obligeant à proposer un contrat parental gratuit à tous les abonnés. Cette démarche était très novatrice, la France était le seul pays du monde à le pratiquer à l’époque. Nous étions en charge de tests que nous menions chaque année au regard des risques comme l’exposition des mineurs à la pornographie, déjà le risque majeur en 2005 ; la prédation sexuelle sur des outils de communication comme MSN et des questions liées aux jeux vidéo. Le grand bouleversement est intervenu au moment où ont été créés simultanément les réseaux sociaux avec Facebook et le smartphone, avec l’iPhone. Cette « mauvaise rencontre » est à la source des problèmes que rencontrent les jeunes aujourd’hui et la dissociation de ces deux usages serait certainement vertueuse.

L’association e-Enfance emploie cinquante-deux salariés. Elle mène trois actions principales pour garantir l’effectivité des droits des enfants dans l’espace numérique : la prévention sur le terrain, le numéro 3018 et le plaidoyer que nous menons depuis de nombreuses années. En ce qui concerne notre prévention sur le terrain, l’association e-Enfance est agréée par le ministère de l’éducation nationale et s’appuie sur une équipe d’une vingtaine d’animateurs salariés qui interviennent chaque année partout en France dans les écoles, les collèges et les lycées.

Nous rencontrons physiquement 200 000 jeunes, parents et professionnels chaque année pour les sensibiliser aux usages responsables et aux dangers du numérique. Nous avons également une convention avec d’autres ministères, qui accueillent également des jeunes dans des centres d’éducation, c’est-à-dire le ministère de l’agriculture et également le ministère des sports. Dans le cadre de nos échanges avec l’éducation nationale, un agrément nous permet d’intervenir dans les établissements scolaires, et nous avons également établi une convention depuis 2012 sur la lutte contre le cyberharcèlement entre élèves, qui a donné lieu au numéro de téléphone sur lequel nous reviendrons. Nous travaillons avec des acteurs de l’éducation numérique comme le Centre de liaison de l’enseignement et des médias d’information (Clemi). Nous avons participé à l’élaboration de Pix, Pix primaire et Pix parents. Nous accompagnons également les établissements qui veulent s’équiper en contrôle parental et nous travaillons également avec la direction du numérique pour l’éducation, pour accompagner le développement du numérique dans les établissements scolaires.

En termes de plaidoyer, nous avons accompagné depuis 2005 les évolutions des usages numériques des jeunes. Nous sommes intervenus régulièrement dans la régulation proposée en France et au niveau européen. Nous sommes notamment acteurs de la politique publique de lutte contre le cyberharcèlement depuis 2011 et avons œuvré afin que ce cyberharcèlement constitue une circonstance aggravante du harcèlement, ce qui est le cas depuis la loi n° 2014-873 du 4 août 2014 pour l’égalité réelle entre les femmes et les hommes.

Nous avons également participé aux travaux sur le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) en France et avons milité également afin que l’âge de 15 ans  celui de la majorité sexuelle en France – soit retenu et que le consentement des parents, qui devait avoir lieu avant 15 ans, soit immédiatement associé au consentement de l’enfant. Nous avons également œuvré dans la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique afin que le revenge porn soit pris en considération : on n’est jamais responsable de la circulation par des tiers malveillants d’un contenu que l’on a pu poster une fois.

Nous avons agi avec Mme Marlène Schiappa sur une loi sur les raids numériques : le cyberharcèlement, punissable par la loi, intervient dès un seul acte en ligne, à partir du moment où il s’inscrit dans une chaîne d’actes, qui peuvent s’assimiler à une forme de « lapidation numérique ». Nous militons très fermement depuis plusieurs années auprès des différents acteurs politiques français et européens pour mettre en place une vérification d’âge sur Internet, clé de voûte de la protection de l’enfance sur Internet. Les plateformes ont mis en place du contrôle parental intégré, des fonctionnalités adaptées aux jeunes. Mais ces fonctionnalités ne rencontrent jamais leur cible puisque les enfants mentent sur leur âge et les parents y participent largement.

Enfin, notre troisième activité, celle qui va sans doute davantage vous intéresser aujourd’hui, concerne l’opération du numéro 3018, le numéro unique de lutte contre le harcèlement et les violences numériques faites aux enfants. Il est gratuit, anonyme et confidentiel, ouvert sept jours sur sept, toute l’année, de 9 heures à 23 heures. Une application 3018 a été lancée en 2022 et permet de nous envoyer via un coffre-fort numérique sécurisé des éléments constitutifs du harcèlement ou du séparatisme, dont les utilisateurs peuvent être victimes. Actuellement, nous disposons de vingt-deux écoutants salariés juristes et psychologues, qui sont coordonnés par une coordonnatrice et une coordonnatrice adjointe. Dès la semaine prochaine, elles seront rejointes par une superviseure directrice de l’Observatoire du 3018, qui est l’ancien chef de la stratégie de l’Office mineurs, Véronique Béchu.

Le 3018 est une initiative de la Commission européenne qui, dans le cadre de son programme Safer Internet, dès la fin des années 2010, a prévu la création en Europe des helplines. Il s’agit de lignes d’appel disponibles pour les enfants, les adolescents, les professionnels et les parents, pour les aider à régler ces questions qui commençaient à émerger des usages numériques. Au préalable, le danger était surtout perçu comme émanant d’adultes qui pouvaient vouloir du mal aux enfants. Les réseaux sociaux ont changé la donne en établissant des usages nouveaux, dont le nomadisme, qui peuvent concerner les enfants dès le plus jeune âge. En effet, malgré leurs conditions générales d’utilisation (CGU), les réseaux sociaux n’ont rien mis en place d’emblée pour ne pas accepter les moins de 13 ans. En conséquence, il est également apparu que les jeunes pouvaient utiliser ces outils de communication pour se faire du mal entre eux.

Aujourd’hui, nous parlons d’une troisième époque où les plateformes elles-mêmes peuvent faire du mal aux jeunes. Dès 2010, nous avons pu créer avec Facebook, puis en 2011 avec YouTube, des points de signalement privilégiés avec les plateformes pour leur signaler des contenus illicites ou préjudiciables à des jeunes. À partir de ce préalable, les autres plateformes ont mis en place avec nous ces systèmes de signalement prioritaire que nous traitions en direct avec leurs services de modération.

En 2017, ByteDance a racheté l’application Musical.ly pour la fusionner en 2018 avec TikTok. Musical.ly était déjà assez présent auprès des jeunes et des enfants et disposait de 100 millions d’utilisateurs en Europe. À l’époque, les parents n’avaient absolument pas conscience qu’il s’agissait d’un réseau social, ni des dangers éventuels. TikTok est ensuite entré en contact avec nous et nous avons agrégé une vingtaine de plateformes avec lesquelles nous avons établi ces signalements prioritaires. Le confinement de 2020 a fait exploser les usages et a permis à TikTok de prendre une place prépondérante auprès des enfants et des adolescents qui, pour l’instant, n’est pas menacée. À la suite de ce confinement, nous avons établi le numéro 3018, décliné ensuite en une application.

Enfin, depuis le plan interministériel de lutte contre le harcèlement de 2023, nous sommes devenus le numéro unique de lutte contre le harcèlement sous toutes ses formes et de toutes les autres violences numériques faites aux enfants.

M. Samuel Comblez, directeur général adjoint de l’association e-Enfance. Durant l’année 2024, le 3018 a reçu 160 000 sollicitations émanant de jeunes, de leurs parents et de professionnels. La ligne est ouverte, bien sûr, aux mineurs, aux enfants, aux adolescents. Nous constatons un rajeunissement des utilisateurs qui nous contactent sur le 3018, bien avant l’entrée au collège : à peu près 25 % de nos utilisateurs sont des enfants très jeunes qui manifestent parfois des difficultés dans le cadre de leur utilisation de TikTok.

Des signalements sont envoyés tous les jours aux plateformes pour faire retirer des contenus. Les plateformes peuvent y répondre de différentes manières : la suppression des contenus, la fermeture des comptes ou tout au moins un avertissement envoyé à l’utilisateur, mais aussi, malheureusement, une absence de réaction de certaines plateformes à nos sollicitations, ni même de retour.

Nos écoutants sont des salariés dotés de compétences techniques suffisantes pour adresser des signalements de qualité. L’année dernière, nous avons adressé à peu près 4 000 signalements à l’ensemble des plateformes. Sur ces 4 000 signalements, le taux de contenus illicites s’établit autour de 96 % contre 4 % pour le taux de contenus préjudiciables. En 2025, nous avons procédé à 1 100 signalements depuis le 1er janvier (87 % de contenus illicites et 12 % de contenus préjudiciables).

Les contenus préjudiciables sont des contenus qui ne questionnent pas forcément le droit français, mais qui ont un impact sur le bien-être et l’état psychique du jeune et qui, à notre sens, méritent de pouvoir être remontés aux plateformes. En termes de thématiques, la principale remontée concerne « l’extorsion sexuelle » d’enfants qui sont sollicités pour obtenir des contenus à caractère sexuel. Depuis le 1er janvier 2025, nous avons déjà effectué 250 signalements de la sorte. La deuxième thématique la plus signalée concerne le cyberharcèlement avec notamment des insultes, des moqueries, des contenus textes, vidéos ou photos dégradants pour l’enfant ou l’adolescent. En 2025, nous en avons déclaré pour l’instant 237 à l’ensemble des réseaux sociaux avec lesquels nous travaillons. La troisième thématique concerne le revenge porn, c’est-à-dire des contenus à caractère sexuel envoyés à des fins de vengeance (83 depuis le 1er janvier 2025). Viennent ensuite des contenus à caractère pédocriminel. Les trois premières thématiques sont stables depuis les trois dernières années.

En termes de catégorie d’âge, 27 % de nos utilisateurs ont moins de 11 ans, 31 % sont âgés de 12 à 14 ans et 27 % ont entre 15 et 17 ans. Nous observons une légère baisse au cours du temps du nombre de collégiens qui nous appellent, mais une augmentation très marquée du nombre d’enfants en primaire, la part des lycéens étant stable. De nombreux parents, professionnels du corps enseignant et du secteur sanitaire et social font appel à nous. Les délais de réponse des réseaux sociaux à nos signalements sont très variables, chaque réseau social ayant des procédés différents, contribuant à compliquer notre tâche. Nous avons pu observer un temps moyen de retrait d’un contenu de soixante heures à partir de notre signalement.

S’agissant plus particulièrement de TikTok, nous recevons un accusé de réception à la suite d’un signalement, ainsi qu’un mail lorsque les équipes de TikTok ont réagi sur la plateforme. Dans le détail, les données sont les suivantes : une suppression des contenus dans 39 % des cas ; un avertissement qui est envoyé à l’auteur des faits (28 %) ; aucune action engagée par la plateforme (28 %) et une absence de réponse (4 %).

À partir du moment où un signalement est envoyé par le signaleur de confiance, devraient s’ensuivre une réaction et une information de qualité systématiques pour nous permettre de les transmettre aux utilisateurs, mais cela n’est pas toujours le cas. De plus, le délai de réponse reste à nos yeux insatisfaisant : si le temps moyen de retrait d’un contenu est de soixante heures ; il peut s’allonger jusqu’à cinq voire six jours, induisant évidemment un impact sur la santé mentale des jeunes qui peut être extrêmement important.

M. le président Arthur Delaporte. Y a-t-il des spécificités en la matière pour TikTok par rapport aux autres plateformes ?

M. Samuel Comblez. TikTok fait partie des plateformes dont le taux de réponse est satisfaisant à nos yeux.

M. le président Arthur Delaporte. Quels sont délais moyens par plateforme ?

M. Samuel Comblez. Snapchat et Instagram font partie des plateformes qui réagissent le plus vite, parfois en une vingtaine de minutes. Les délais sont très variables pour TikTok, de quelques heures à plusieurs jours. Les plateformes X et YouTube sont celles dont le temps de réaction est le plus long puisqu’il est de plusieurs jours.

Mme Justine Atlan. Au-delà, les plateformes ne réagissent pas de la même façon selon la nature des contenus que nous leur signalons. Nous parlons « d’urgence vitale » quand nous considérons que le contenu ou le compte que nous demandons de bloquer crée un problème de santé mentale tellement élevé chez le jeune qu’il peut provoquer un suicide. Dans ce cas, elles réagissent plus rapidement. À l’inverse, elles traitent moins rapidement les usurpations d’identité ou les piratages de compte, dont elles apprécient elles-mêmes le caractère prioritaire, alors même que ces phénomènes peuvent porter extrêmement préjudice à la santé mentale des jeunes qui en sont victimes.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Vous avez indiqué que vous touchez 200 000 jeunes par an à travers vos politiques de prévention et de sensibilisation. Mon interrogation porte plus sur les parents. Les percevez-vous plus conscients des dangers ? Faudrait-il mener une politique nationale à destination de ces parents, mais également du personnel éducatif ?

En matière de harcèlement et de contenus illicites, TikTok présente-t-il des singularités par rapport aux autres réseaux sociaux ? Nous observons par ailleurs l’existence d’une « zone grise », c’est-à-dire des contenus problématiques, mais qui ne tombent pas forcément sous le coup de la loi. Des outils comme le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) permettraient-ils davantage de les cibler et de les retirer plus efficacement ? Devons-nous renforcer notre arsenal juridique interne sur ce sujet ?

Ensuite, comment faire pour vérifier de manière effective l’âge sur Internet ? Enfin, quelles sont vos préconisations afin de protéger davantage les mineurs face aux trop nombreux contenus problématiques qui subsistent malgré le DSA ?

Mme Justine Atlan. Nous rencontrons également les parents, mais ceux qui viennent sont déjà sensibilisés. Il est plus difficile d’intéresser ceux qui le sont moins. Il s’agit là d’un véritable angle mort de la prévention depuis des années. D’un point de vue global, nous constatons néanmoins qu’aujourd’hui, les parents sont relativement inquiets face à un phénomène qui est quand même relayé par les médias. Simultanément, si on ne leur propose pas de solutions, certains préfèrent rester dans le déni plutôt que d’affronter la réalité des risques qu’encourent leurs enfants. Il existe une pression sociale très marquée sur l’équipement des jeunes en smartphones, de plus en plus jeunes. À titre d’exemple, nous nous sommes rendus dans une classe de CP où la moitié des élèves en disposaient déjà.

Le discours ambiant porte sur la nécessité de socialisation des enfants et des adolescents avec leurs pairs, laquelle passerait aussi forcément par les réseaux sociaux et le smartphone. Les priver de smartphones et de réseaux sociaux reviendrait ainsi à les priver de socialisation, conduisant les parents à une forme de culpabilité. Les parents témoignent aussi souvent de leurs difficultés à gérer l’absence de doctrine de l’éducation nationale concernant le numérique. De plus, quand bien même ils aimeraient établir des limites d’équipement ou d’âge, l’école les oblige à en installer, à un moment.

Honnêtement, les parents portent seuls depuis vingt ans cette arrivée massive des usages numériques dans la vie de tous, y compris de leurs enfants et adolescents. On ne cesse de leur répéter que cela relève de leur responsabilité. Personne, dans le monde adulte encadrant, ne les aide dans ce rôle-là. À l’inverse, il existe une interdiction très claire de vendre de l’alcool ou du tabac aux mineurs. À ce titre, il est vraiment temps de responsabiliser les plateformes et de leur demander de jouer leur rôle d’adultes. Les parents confient leurs enfants à l’école plusieurs heures par jour. Ils devraient pouvoir confier leurs adolescents aux plateformes avec le même niveau de confiance. Si l’école est perfectible, les plateformes le sont bien plus encore. Il est temps d’apporter des solutions concrètes aux parents et d’arrêter de leur demander de tout porter seuls.

M. Samuel Comblez. Les parents ont conscience des risques, mais nous demandent des outils, des moyens pour pouvoir dialoguer avec les jeunes. Nous remarquons depuis plusieurs années une augmentation très importante du nombre de demandes d’intervention auprès des enseignants, mais aussi en dehors du monde scolaire, c’est-à-dire les coachs sportifs, le monde sanitaire et social, les psychologues, les psychiatres qui travaillent au contact des jeunes. À ce titre, nous intervenons auprès des professionnels qui travaillent dans les maisons des adolescents et portons un programme de sensibilisation de ces professionnels à la sphère numérique. Les professionnels ont besoin de recevoir, dès leur formation initiale, des formations concrètes, qui doivent également être réactualisées au fil du temps, tant l’univers numérique est très mouvant.

Mme Inès Legendre, chargée de plaidoyer de l’association e-Enfance. De grandes lignes directrices pour une meilleure protection des mineurs prometteuses ont été publiées dans le cadre du DSA. Elles ne sont pas encore adoptées définitivement et font l’objet d’une consultation publique, à laquelle nous convions tout le monde à contribuer. Ces grandes lignes visent à encadrer les comptes pour les mineurs, à partir d’une protection par défaut, pour éviter le profilage comportemental.

Mais le préalable consiste à mettre en place un contrôle systématique de l’âge protecteur de la vie privée et de la sûreté des mineurs. Il faudrait également renforcer la modération locale et humaine sur les plateformes, qui fait encore défaut. Cette modération devrait également être proportionnée au nombre d’utilisateurs actifs dans chaque pays et aux chiffres d’affaires générés par la plateforme.

Mme Laure Miller, rapporteure. Si vous étiez ministre du numérique ou commissaire européen sur ce sujet, quelles seraient vos préconisations concrètes ?

Mme Justine Atlan. Il est aujourd’hui beaucoup question d’une interdiction des réseaux sociaux pour les moins de 15 ans. Ce seuil, qui correspond par ailleurs à la majorité sexuelle et à l’entrée au lycée, nous semble pertinent. De façon très pragmatique, nous aimerions déjà que les plateformes appliquent leur propre restriction, qui porte sur les moins de 13 ans. Aujourd’hui, l’agrégation de différents seuils d’âge – 13 ans, 15 ans et 18 ans – est très compliquée à gérer pour les parents.

Il faut simultanément souligner que nous nous heurtons aussi à un manque d’harmonie sur cet âge au niveau européen, lequel constitue la faille du RGPD depuis 2018 et dont profitent les plateformes pour ne rien mettre en place. Comme nous l’avons déjà indiqué, la problématique concerne conjointement les réseaux sociaux et le smartphone, dont ont conscience les jeunes un peu plus âgés, les jeunes adultes, lorsque nous les interrogeons. Ils nous disent ainsi que la simple interdiction des réseaux sociaux au moins de 15 ans en ne changeant rien sur le smartphone ne réglerait pas tout le problème. Nous serions donc favorables à l’interdiction de la vente des smartphones aux moins de 15 ans.

Il nous faut, jeunes et moins jeunes, réinterroger les usages de cet outil. Nous avons été pris de court par une invention extraordinaire dans laquelle nous nous sommes plongés, mais qui nous empêche de réfléchir, notamment à chacun de ses usages distincts. Nous devons être capables de sélectionner pour un enfant ou un adolescent les usages réellement nécessaires, comme le téléphone, les SMS, les services de géolocalisation par exemple.

Il nous paraît également important de repenser effectivement les alternatives au numérique. Depuis quinze ans, nous n’arrivons plus à créer du lien, à nous parler, à nous informer autrement que par le numérique. Les jeunes en pâtissent largement. Il faudrait donc créer des alternatives plus fortes, réinvestir dans des infrastructures d’offres d’activités sportives, culturelles, artistiques, des lieux d’échange, de partage d’activités, implantées partout localement.

Les parents peuvent succomber à la facilité et la praticité d’un outil numérique qui ne prend pas de place et qui donne accès à une très large gamme de services. Mais in fine, l’enfant se retrouve seul devant cet écran. Aujourd’hui, ce n’est pas tant l’écran en lui-même, mais « l’excès d’écran » qui pose problème. Nous estimons nécessaire de poser une norme de modération obligatoire pour ces systèmes de communication en ligne. Les plateformes doivent être pénalisées si elles ne le font pas d’emblée.

Par ailleurs, il faut conduire le chantier de la doctrine de l’éducation nationale. Il s’agit non seulement d’éduquer évidemment les jeunes aux médias et à l’information, mais aussi de les informer sur leurs droits. Dès le plus jeune âge, il faut également permettre à l’enfant d’avoir conscience de son corps, y compris ses aspects psychiques et son fonctionnement neurologique. Pour pouvoir être des utilisateurs éclairés du numérique, il est nécessaire de comprendre comment fonctionne notre cerveau, les besoins fondamentaux d’un être humain, ses réactions aux stimuli et ses interactions, éléments sur lesquels sont fondés les modèles des plateformes.

Plus largement, nous portons des recommandations visant à traiter les usages numériques avec les mêmes avertissements que ceux relatifs à la santé ou aux jeux d’argent. Il peut s’agir par exemple pour toutes les campagnes de publicité, de promotion, de vente d’outils numériques, de prévoir des bandeaux d’information systématiquement obligatoires sur les risques, sur les âges, sur les numéros comme le 3018 ou l’application associée. Ces dispositifs ne sont pas coûteux à mettre en œuvre. Nous disposons d’autres propositions, mais le temps nous manque pour les évoquer ; nous vous les adresserons.

M. le président Arthur Delaporte. Nous allons recevoir après votre audition l’ancien commissaire européen au marché intérieur Thierry Breton. Selon vous, les procédures et sanctions actuellement appliquées aux plateformes sont-elles adaptées, pertinentes et suffisamment rapides ? Échangez-vous avec les régulateurs européen ou français ?

Mme Justine Atlan. Nous échangeons effectivement avec ces deux régulateurs. Le régulateur européen nous saisit systématiquement quand il ouvre une enquête sur une plateforme, afin d’obtenir des informations.

L’Europe s’est malgré tout relativement saisie de ce sujet et a ouvert de telles enquêtes assez rapidement. La difficulté réside peut-être dans les moyens disponibles pour les mettre en œuvre le plus rapidement possible.

Pour l’instant, nous ne contestons pas le montant des sanctions qui est quand même assez significatif, s’il est réellement appliqué. Il est absolument nécessaire de mettre en œuvre le DSA et nous travaillons en ce sens, de manière quasiment quotidienne avec l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), pour partager notre expérience et l’aider à faire appliquer le DSA.

J’estime que l’Europe doit appliquer systématiquement, mais aussi répétitivement les amendes, lorsque les plateformes contreviennent aux obligations.

M. le président Arthur Delaporte. Je vous remercie. Vous pouvez nous adresser tout complément écrit que vous considérez utile.

La commission auditionne ensuite M. Thierry Breton, ancien commissaire européen au marché intérieur.

M. le président Arthur Delaporte. Nous recevons M. Thierry Breton, ancien commissaire européen au marché intérieur, chargé également de la politique industrielle, du tourisme, du numérique, de l’audiovisuel, de la défense et de l’espace. Monsieur Breton, votre témoignage sera précieux, puisque vous avez été au cœur de la mise en œuvre du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA). Je vous remercie d’avoir pris le temps de répondre à notre invitation, mais également de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Breton prête serment.)

M. Thierry Breton, ancien commissaire européen au marché intérieur. Je vous remercie de m’avoir convié à votre commission d’enquête parlementaire sur TikTok. Je relève que vous auriez également pu vous intéresser à d’autres plateformes. Je rappelle que la Commission européenne est la seule institution à disposer du pouvoir de proposer des textes législatifs, directives ou règlements. Dès mon arrivée, je me suis attaché à travailler pour établir un marché numérique unifié. Nous avions, jusqu’à il y a quelques années, vingt-sept marchés numériques en Europe, contre un seul aux États-Unis et en Chine.

L’histoire commence dans ce domaine au début du siècle. C’est en se fondant sur les données personnelles que les premières plateformes sont progressivement arrivées. La première d’entre elles a été Facebook, qui a bénéficié immédiatement d’une profondeur de 330 millions de consommateurs américains. L’Europe n’a pas pu agir de la sorte, étant caractérisée par vingt-sept marchés et autant de régulations, mais aussi quinze langues.

En ma qualité de commissaire, je me suis donc attaché à proposer aux colégislateurs un ensemble de règlements et non de directives, de façon à lutter contre cette fragmentation. Avec mes équipes, nous avons travaillé sur cinq règlements différents : le règlement sur la gouvernance des données (Data governance act ou DGA) ; le règlement sur les données (Data act), qui permet de savoir à qui appartiennent les données ; le DSA pour organiser la vie sur les réseaux ; le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA) pour organiser une saine concurrence économique dans cet espace informationnel et, enfin, le règlement européen sur l’intelligence artificielle (AI Act).

Ces textes ont ensuite été soutenus par la plus grande approbation de la part de nos colégislateurs. Le Conseil les a approuvés à l’unanimité et seuls 10 % des parlementaires européens s’y sont opposés. Nous disposons aujourd’hui d’un corpus législatif extrêmement puissant, centré sur un seul régulateur, une seule loi et un marché intérieur digital unifié, qui nous avait fait défaut au début des années 2000 et avait ainsi contribué à notre retard. Cette unicité doit permettre à nos entreprises de se saisir de la formidable opportunité que constitue notre marché de 450 millions de consommateurs, à partir d’une règle enfin unifiée.

Dans ce contexte, le DSA représente notre « vivre ensemble » sur les réseaux. Il s’agit d’une loi horizontale, qui offre un cadre permettant d’agir vite. À partir de ce cadre, il est désormais possible de connecter des éléments supplémentaires, d’intégrer des éléments nouveaux. On résume souvent à tort le DSA en indiquant qu’il s’agit d’une loi qui interdit la liberté d’expression. C’est totalement faux : nous n’aurions jamais obtenu le soutien de 90 % du Parlement européen s’il avait été attentatoire à la liberté d’expression. En revanche, nous n’avons pas tout prévu. Les législateurs peuvent décider de sanctionner par des lois supplémentaires certains harcèlements ou comportements déviants – comme l’incitation au suicide – qui circulent sur les réseaux ; et de les connecter au DSA.

Je souhaite également rendre hommage aux deux colégislateurs, en particulier au Parlement européen. En compagnie de mes collaborateurs, nous avons effectué de très nombreuses consultations publiques auprès du monde entier, de toutes les plateformes et entreprises qui étaient intéressées, de tous les gouvernements, des ONG, des organisations syndicales, et du monde académique, afin qu’ils soient associés à nos réflexions. Ensuite, nous avons pris des décisions et formulé nos propositions. Le Parlement s’est emparé de ces sujets, certains parlementaires se sont ainsi spécialisés sur ces questions et ont développé de très grandes compétences dans ces domaines.

TikTok représente une plateforme particulière, selon deux aspects assez singuliers. D’une part, elle est extraordinairement populaire chez les jeunes ; d’autre part, elle est chinoise, mais la Chine en a interdit son usage. Lorsque j’ai travaillé sur ce dossier, cet élément m’a surpris et j’invite donc la commission à se questionner à ce propos. Peut-être serait-il intéressant d’interroger ceux qui ne voudraient rien répondre à la commission sur cette question. Pour ma part, je n’ai jamais obtenu de réponse. Ensuite, compte tenu de son audience auprès des jeunes, cette plateforme requiert évidemment une attention toute particulière.

En élargissant la question, nous pouvons considérer que nous vivons un moment singulier, inédit. Pour la première fois dans l’histoire de l’humanité, deux éléments nouveaux voient le jour. En premier lieu, nous laissons, de manière consciente ou inconsciente, dans l’espace informationnel une trace qui est désormais indélébile. L’ensemble des informations que nous générons quotidiennement, volontairement ou non, dans l’espace informationnel, représente aujourd’hui une trace personnalisée qui va constituer quelque part une sorte de double numérique, certains parleront d’avatar. Or lorsqu’elles sont agrégées, récupérées, compactées, elles disent beaucoup de ce que nous sommes.

Le deuxième élément inédit tient au fait que sur ces plateformes, les paquets d’informations sont poussés par des algorithmes. Il s’agit là d’une deuxième singularité par rapport à tout ce qui existait auparavant, où l’on restait dans le cadre du one-on-one, ou du one-to-many, c’est-à-dire une situation sans intermédiaire entre celui qui était à l’origine du message et celui qui le recevait.

Ces deux éléments ont figuré au cœur de notre travail ; nous y avons consacré beaucoup de temps, en nous interrogeant sur les questions clés. Quelles données m’appartiennent ? Quelles sont celles qui peuvent être partagées, utilisées à mon insu ? Comment disposer d’une transparence sur les algorithmes ? Cette transparence constitue un élément clé, sur lequel je voulais attirer l’attention de la commission, et qu’il faudra sans doute creuser en particulier pour parler de la plateforme TikTok, des contenus qu’elle pousse, selon quelle manière et à partir de quelle information.

Encore une fois, le DSA ne prive personne de la parole. Il respecte l’ensemble de notre corpus législatif, tout particulièrement la liberté d’expression, qui est une valeur cardinale et l’équivalent du 1er amendement aux États-Unis.

M. le président Arthur Delaporte. Vous avez évoqué l’idée que notre commission d’enquête aurait pu s’intéresser à d’autres plateformes. Nous avons choisi de concentrer nos travaux sur la plateforme TikTok, sans oublier les autres. Simplement, aux yeux des députés présents lors des débats sur la création de cette commission d’enquête, TikTok concentrait un certain nombre de problématiques que vous avez rappelées, à la fois sur les questions de l’algorithme et de la vulnérabilité de son public, puisqu’elle est la plateforme la plus fréquentée par les jeunes. Les préconisations que madame la rapporteure formulera dans son rapport seront élargies à d’autres plateformes.

M. Thierry Breton. Il ne s’agissait pas pour moi de formuler une critique. Je suis sensible à votre argument sur la jeunesse et la nécessité d’agir vite en matière d’enquête, précisément à ce titre.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Je vous remercie pour ce propos introductif, qui nous permet de mesurer l’ampleur de l’avancée permise par le DSA. À ce titre, pouvez-vous nous indiquer à partir de quand vous avez commencé à aborder le sujet ?

Ensuite, dans le cadre de ces négociations, quelles relations avez-vous pu entretenir avec les différentes plateformes ? Étaient-elles à l’écoute ? Vous ont-elles donné le sentiment de vouloir coopérer ?

Par ailleurs, la question du changement de la nature de la responsabilité des plateformes s’est-elle posée ? Nous savons que le débat entre éditeur et hébergeur est souvent prégnant. La question d’un contrôle a priori plutôt qu’a posteriori a-t-elle été envisagée ? Elle est aujourd’hui mise en lumière par les délais inhérents au signalement et à la suppression de contenus très problématiques.

De plus, nous avons reçu des familles de victimes qui ont évoqué la problématique du contrôle de l’âge, qui n’est absolument pas aujourd’hui respecté ; des contenus illicites qui ne sont pas suffisamment modérés ou des délais de modération qui ne sont vraiment pas satisfaisants. Des zones grises nous rendent parfois impuissants face à des contenus très problématiques, mais qu’il est compliqué de faire retirer. Quel regard portez-vous à ce sujet ? Faut-il accélérer l’application du DSA ?

M. Thierry Breton. S’agissant de la genèse, il faut rappeler que le travail a été très difficile pour parvenir à une architecture intégrant l’ensemble des éléments évoqués. Il me semble que le DSA répond à toute la problématique. Désormais, l’enjeu porte sur l’exécution, qui ne m’appartient plus puisque j’ai démissionné de la Commission européenne le 16 septembre 2024, pour des raisons qui m’étaient propres. Depuis, je ne sais pas ce qui se passe.

Nous avons recruté des équipes, qui regroupent près de 200 personnes, toutes extrêmement compétentes. Le DSA établit l’obligation de produire des rapports, qui peuvent provenir des signaleurs de confiance établis par loi, ou de l’ensemble des régulateurs nationaux. Nous avons en effet organisé un conseil, appelé le DSA board. Le système mis en place est donc très harmonisé, homogène, et peut travailler efficacement. Lorsque les équipes constatent l’existence d’un certain nombre de questions et que les réponses sont insatisfaisantes, elles proposent au commissaire d’ouvrir une enquête. C’est à ce titre que j’ai accepté que deux enquêtes soient ouvertes, sur TikTok et ensuite sur d’autres plateformes.

S’agissant de la genèse du règlement, j’ai été personnellement ciblé de manière très directe par des lobbyistes, certains cherchant à m’affaiblir, afin que ce règlement ne voie pas le jour. Mais nous avons surmonté ces obstacles, sans naïveté. Je rappelle que 1 200 lobbyistes exercent à Bruxelles ; j’ai dû affronter des campagnes de désinformation cherchant à me déstabiliser. Je tiens à rappeler ces difficultés, que nous avons su dépasser. Notre texte a été proposé au collège des commissaires, puis transmis au Parlement, qui a lui aussi subi des pressions, au même titre que les États membres.

Aujourd’hui, ce texte existe néanmoins ; il est opérationnel et doit désormais être mis en exécution avec la plus grande vigueur et le maximum de célérité. Je précise que nous avons veillé à mener des interactions et des échanges préalables avec les acteurs concernés. Dans le rôle de régulateur qui était le mien, j’ai consacré beaucoup de temps à expliquer le contenu du texte, à rencontrer l’ensemble des plateformes dont nous pressentions qu’elles allaient devenir des plateformes systémiques, c’est-à-dire celles qui ont plus de 45 millions d’utilisateurs, pour bien leur expliquer ce qui allait se passer.

Il s’agit de régulations ex ante. Les entreprises qui veulent bénéficier de notre marché intérieur doivent respecter les lois qui s’y appliquent. J’ai donc rencontré longuement ces plateformes pour leur expliquer à plusieurs reprises ce qu’elles devaient faire pour se préparer à la mise en place de notre réglementation. À mon initiative, nous avons même proposé de réaliser des tests « en blanc » avant que la loi ne rentre en vigueur. En effet, je souhaitais que celle-ci puisse s’appliquer le plus rapidement possible, car elle a pour objet de protéger nos enfants. Il ne s’agit pas de sanctionner pour le plaisir ou d’essayer de récupérer telle ou telle somme d’argent.

Cette loi répond à une très grande partie de toutes les questions que vous vous posez, me semble-t-il, au sein de la commission. Mais elle doit être exécutée. Il n’est plus possible d’attendre un an avant d’obtenir les résultats. Naturellement, il est nécessaire de respecter le principe du contradictoire et les cas doivent être solides. Mais compte tenu de l’urgence, il faut être en mesure d’appliquer la loi. Faut-il pour autant la changer ? Non. Plutôt que de produire une nouvelle loi, il faut appliquer pleinement et intégralement celle qui existe.

Ensuite, les législateurs que vous êtes pouvez ressentir le besoin d’ajouter des éléments nouveaux, pour transposer des interdictions régulant la vie physique à la vie numérique. Dans certains cas, il convient d’ailleurs d’agir et de réagir, de manière urgente.

La question de l’âge est extrêmement compliquée et peut faire l’objet de contournements. En tant que commissaire, j’ai milité pour l’instauration de la e-identité, du ewallet. Le travail a été très difficile, mais il a été accompli. Ici aussi, les Gafam se sont opposées à notre action. Vous n’imaginez pas le nombre de réunions que j’ai conduites à ce titre, y compris avec les autorités des États-Unis. Elles se plaignaient, estimant que j’en voulais aux grandes entreprises américaines. Je leur répondais que je ne faisais qu’appliquer le mandat confié par nos colégislateurs pour mieux protéger dans l’espace européen nos enfants, nos concitoyens, nos entreprises.

Il est dans l’intérêt des Gafam que la fragmentation actuelle perdure, car elle évite l’émergence de champions européens. Certaines d’entre elles se sont considérées à un moment, ou se considèrent peut-être encore aujourd’hui, comme des entités supranationales qui se substituent à la défaillance des États, épousant ici la doxa des libertariens. Elles veulent tout offrir, y compris des fonctions régaliennes, comme frapper monnaie ou se charger de l’identité numérique, du passeport numérique.

Je me suis opposé à ces tentatives, me suis battu et j’ai réussi à convaincre mes collègues de proposer un texte, désormais en discussion. Grâce à celui-ci, il sera enfin possible de contrôler de façon réelle qui est qui dans l’espace informationnel. Il devrait être publié en 2026, mais tout ce que vous pourrez entreprendre pour inciter Bruxelles à aller plus vite ira dans le bon sens, selon moi.

Mme Laure Miller, rapporteure. Lors de vos travaux, vous êtes-vous questionné sur la nature de la responsabilité des plateformes ? Ensuite, quels sont les facteurs de blocage à l’application des textes dont vous soulignez qu’ils ont fait l’objet qu’une quasi-unanimité au Parlement européen ?

M. Thierry Breton. Nous avons traité la question de la responsabilité en nous fondant sur les algorithmes. Ces algorithmes sont en effet opaques et peuvent pousser des contenus à forte viralité. Dans le cadre de la fonction de pédagogie qui était aussi la mienne, j’ai voulu, en permanence, alerter les patrons de ces plateformes sur cette responsabilité.

Un événement à forte viralité, comme le drame du 7 octobre 2023, peut engendrer des tsunamis d’informations sur les réseaux, et générer des commentaires, des contenus additionnels qui risquent d’être poussés ensuite par les algorithmes et se transformer progressivement en désinformations massives, fake news, ou informations en dehors du champ de la loi qu’un législateur a proposée dans son propre espace physique. Un réseau est par définition mondial et nous n’en régulons qu’une partie. Or les individus qui sont concernés par cette régulation sont localisés dans un espace qui n’est plus seulement territorial, mais également celui de l’appartenance à une communauté. Dès la survenue de la tragédie du 7 octobre, j’ai immédiatement écrit à l’ensemble des grandes entreprises du numérique en leur demandant de réguler plus que jamais leurs plateformes.

Lorsque le 12 août 2024, M. Elon Musk, propriétaire de Twitter devenu X, a annoncé qu’il offrirait l’accès à sa plateforme à M. Donald Trump, candidat à la présidence des États-Unis, il expliquait qu’il pratiquerait à cet effet des stress tests techniques pour vérifier que l’infrastructure technique était en mesure de supporter les connexions simultanées qui devaient être générées. J’ai alors écrit qu’un événement à la forte viralité potentielle nécessitait également des stress tests en matière de régulation.

Pour répondre à votre question, le sujet est maintenant traité. Une plateforme s’envisage par ses usagers, son accès à des informations et ses algorithmes. La régulation traite désormais de la neutralité nécessaire de ces plateformes. Je me suis battu pour que l’on puisse enfin accéder à ces algorithmes, ce qui est désormais possible pour ceux qui disposent des compétences idoines. Il s’agit du cœur du sujet, qui permettra de réguler ce qui se passe et forcer les plateformes à respecter l’engagement à respecter la loi européenne, lorsqu’elles opèrent en Europe.

Mais vous savez bien mieux que moi : pour être effective, une loi doit être appliquée, et le plus rapidement possible.

Mme Laure Miller, rapporteure. Je me permets de réitérer ma question : quels sont les facteurs de blocage, puisque la volonté politique semble exister ? Pourquoi certaines enquêtes n’ont-elles toujours pas abouti ?

M. Thierry Breton. Si vous me le permettez madame la rapporteure, je retournerais la question à ceux qui m’ont succédé.

M. Stéphane Vojetta (EPR). La question de TikTok tient particulièrement à cœur à notre commission d’enquête, dans la mesure où il s’agit de la plateforme préférée des enfants et des adolescents.

Je reconnais certains des défis que vous avez mentionnés, notamment le biais favorable des Gafam pour la fragmentation réglementaire en Europe, qui les favorise. Vous nous encouragez à inciter Bruxelles à agir. Je souhaite à ce titre évoquer l’initiative parlementaire que nous avions prise avec M. le président afin de créer une régulation et encadrer en France ce qu’on appelait l’influence commerciale, notamment afin d’attirer l’attention de Bruxelles sur ce sujet, qui était insuffisamment traité par le DSA et le DMA, selon nous.

À cette occasion, nous avions souffert de la contradiction que nous avait apportée la Commission, à laquelle vous apparteniez à l’époque. Celle-ci avait en effet demandé de manière assez ferme que notre texte soit a minima modifié, voire idéalement abrogé. Avec l’appui du gouvernement français, nous avions réussi à établir une négociation qui nous a permis d’aboutir à une modification du texte, notamment pour revenir en arrière sur l’étendue géographique des règles que nous mettions en place. Cette loi sur les influenceurs est entrée en vigueur ; elle est désormais modifiée.

Cependant, compte tenu de votre perspective d’ancien commissaire européen, comment pouvons-nous, en tant que législateurs nationaux, forcer Bruxelles à agir sur les éléments qui restent à accomplir dans le cadre de la régulation européenne, notamment sur la vérification d’âge ? Il s’agit notamment d’imposer de nouvelles obligations à des plateformes quand les règles de fonctionnement de l’Union européenne nous retirent de facto cette prérogative et nous empêchent de nous prononcer par voie législative sur les obligations qui devraient peser sur les plateformes.

Ma deuxième question est liée à votre expérience. Vous avez parlé à juste titre de l’effort de lobbying des Gafam, un effort qui pèse surtout sur Bruxelles. Vous avez ainsi évoqué les pressions dont vous aviez été l’objet. Avez-vous connaissance des plateformes qui étaient impliquées dans ce lobbying ? TikTok en faisait-elle partie ? De quel type de pressions s’agissait-il ?

Par ailleurs, M. Mark Zuckerberg s’est réjoui de l’élection d’un nouveau président américain, considérant qu’il l’aidera à lutter contre les amendes que souhaite imposer l’Union européenne à ceux qui oseraient ne pas respecter les règles qu’elle a édictées. Comment réagissez-vous à ces propos ?

M. Thierry Breton. Je connais bien M. Mark Zuckerberg, qui a longtemps financé le parti démocrate. Visiblement, il a changé d’avis entre le mois de novembre 2024 et le mois de janvier 2025. Cela peut arriver à tout le monde et je n’ai pas d’autre commentaire à formuler à ce sujet. J’ai passé beaucoup de temps avec lui. Je suis allé le rencontrer avec mes équipes, nous avons réalisé des tests en blanc ; il était très positif et très réactif, comprenait parfaitement ce que nous faisions.

S’agissant du lobbying, je ne veux pas rentrer dans le détail, au-delà de ce qui a été rendu public. Des journaux ont par exemple découvert certains documents de Google qui ont révélé que l’entreprise m’avait ciblé de façon très précise et la stratégie employée pour m’empêcher de mener à terme le travail que m’avaient confié les colégislateurs.

Lorsque nous nous sommes lancés dans cette tâche, nous avons immédiatement ambitionné d’atteindre une dimension européenne, à la hauteur des 450 millions d’habitants de l’Union européenne. Nous nous sommes battus pour mettre en œuvre le plus rapidement possible des règlements, c’est-à-dire d’application directe, et non des directives. Il ne s’agissait pas d’empêcher les législateurs nationaux de travailler, mais d’éviter de reproduire des phénomènes de fragmentation. Nous avons donc fait en sorte de travailler en amont avec ces législateurs nationaux.

Le règlement a ainsi été adopté, mais les parlements nationaux peuvent ensuite affiner et apporter des éclaircissements, à partir d’un cadre transverse. Les régulateurs nationaux travaillent ensemble, en dépit des difficultés que cela a suscitées. Désormais, le DSA board existe et se réunit pratiquement tous les mois.

Au-delà, les sujets que nous abordons aujourd’hui sont techniques, compliqués, mais essentiels pour notre vie à tous et pour le travail parlementaire qui va progressivement s’approprier cet espace informationnel. Précédemment, il a été fait mention de la marchandisation sur TikTok. Grâce au DSA, j’ai découvert lorsque j’étais commissaire que la plateforme s’apprêtait à lancer l’application TikTok Lite. Celle-ci, qui ciblait particulièrement les plus jeunes, avait pour objet de donner aux utilisateurs des points en fonction du nombre d’heures passées sur l’application et de « récompenser » les plus assidus par des cadeaux.

Lorsque nous avons eu vent de ce projet, nous avons immédiatement pris contact avec la plateforme, dans la mesure où il était en contradiction absolue avec les règles du DSA. La discussion a été très animée, très violente, mais en vingt-quatre heures, l’application a été retirée. De fait, un régulateur doit être capable d’exercer cette puissance, cette pression et de communiquer, comme je l’ai fait fréquemment lorsque j’étais régulateur.

J’ai également écrit à l’ensemble des ministres de l’éducation de l’Union européenne pour leur indiquer qu’il me semblait indispensable que les enfants et les parents sachent que l’espace informationnel est contrôlé. Il n’y a plus d’impunité, on ne peut plus faire n’importe quoi, on ne peut plus harceler n’importe qui en se cachant derrière un pseudo. J’avais ainsi proposé de créer dans chaque établissement scolaire un « référent DSA », de la même manière qu’il existe des psychologues. J’ai reçu des retours à ce sujet et sais que la démarche a débuté ; il serait peut-être souhaitable qu’elle se poursuive.

Je n’ai absolument pas de conseil à donner à mes successeurs, ni à qui que ce soit ; je ne m’inscris pas dans cette logique. Simplement, notre intérêt général consiste à faire en sorte que cette loi s’applique le plus rapidement possible. Comme toutes les nouvelles lois, elle n’est pas parfaite et il importe que vous puissiez progressivement la faire progresser, l’améliorer. Le cadre le permet.

M. le président Arthur Delaporte. Vous avez insisté à juste titre sur le caractère central des algorithmes. Le DSA indique que le dispositif de l’algorithme peut être mis à disposition des autorités pour les contrôles. Mais cette transparence est toute relative ; elle reste extrêmement elliptique et très souvent insuffisante. Finalement, aujourd’hui, l’algorithme n’est pas vraiment plus transparent pour le citoyen qu’il ne l’était hier. Je n’ai pas non plus l’impression que les plateformes le mettent à la disposition des autorités de contrôle.

M. Thierry Breton. Sur ces questions, je suis soumis à certaines obligations et ne dispose plus d’aucune information depuis que j’ai quitté la Commission. L’ensemble des enquêtes qui ont été lancées ont été annoncées publiquement. Un rapport d’étape avait été rédigé à la fin 2023, au tout début de l’application du règlement. Je vous mentirais en vous disant qu’il n’existait pas un certain nombre de suspicions, mais puisque des enquêtes sont en cours, je ne peux évoquer ce sujet de manière plus détaillée. À mon époque, elles n’avaient pas été lancées formellement. Si tel avait été le cas, j’aurais rendu public ce rapport.

La Commission a recruté des personnes aux compétences extrêmement fortes sur ces questions. Il s’agit par exemple d’Européens partis travailler dans la Silicon Valley avant de revenir sur leur continent et contribuer à notre action. Au-delà, il me semble opportun de démontrer que nous pouvons faire usage des moyens qui sont donnés, y compris coercitifs, dans la mesure où la nécessité s’exprime sur ces questions.

M. Emmanuel Fouquart (RN). Nos différentes auditions témoignent de l’urgence de la situation vis-à-vis des mineurs. De quelle manière pourrons-nous appliquer les futures recommandations qui seront formulées au niveau européen ?

M. Thierry Breton. Je rappelle que l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) est compétente sur ces sujets et fait partie du DSA board. À ce titre, elle est en mesure d’agréger l’information et de la partager.

Nous vivons un contexte politique et géopolitique particulier, mais il me semble nécessaire d’en faire abstraction parce qu’il s’agit surtout d’appliquer les lois qui ont été votées par notre démocratie – en particulier sur TikTok – dont vous êtes les représentants, au même titre que vos collègues européens. À mon sens, l’erreur serait d’accepter de rentrer dans des calculs de négociation comme je peux le lire ici ou là, un arbitrage entre réduction des droits de douane en échange de la révision de certaines lois. Si tel était le cas – je sors ici de mon champ de compétences –, cela voudrait dire que notre intégrité territoriale et démocratique est à vendre. Il s’agirait là d’un tout autre projet pour nous en Europe.

M. le président Arthur Delaporte. Je vous remercie. Nous sommes à votre disposition pour toute information complémentaire que vous souhaiteriez fournir par écrit à la commission d’enquête. Je précise que madame la rapporteure et moi-même, nous nous rendrons à Bruxelles pour rencontrer les services de la Commission européenne mercredi 4 juin. Nous avons par ailleurs auditionné l’Arcom mardi dernier.

La commission auditionne ensuite Mme Cécile Augeraud, commissaire divisionnaire, chef-adjoint à l’Office anti cybercriminalité (OFAC).

M. le président Arthur Delaporte. Nous accueillons à l’instant Mme Cécile Augereau, commissaire divisionnaire et chef adjoint à l’Office anticybercriminalité (Ofac). Madame, je vous remercie de prendre le temps de répondre à notre invitation, mais également de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(Mme Augeraud prête serment.)

Mme Cécile Augeraud, commissaire divisionnaire, chef-adjoint à l’Office anti-cybercriminalité (Ofac). J’interviens effectivement au nom de l’Office anticybercriminalité, un office relevant de la Direction nationale de la police judiciaire. Issu de structures relativement anciennes, l’Ofac n’existe sous sa forme actuelle que depuis le 1er décembre 2023, sur le fondement d’un décret du 23 novembre 2023. Cet office est une structure centrale, dotée d’un effectif de 167 personnels, d’un maillage territorial avec onze antennes, auquel il faut ajouter ce jour dix-huit détachements constituant un effectif de 226 personnels. À l’horizon 2027, l’Ofac devrait comporter quarante-cinq détachements.

L’Office gère le budget cyber de la police nationale et a vocation à intégrer des policiers, des gendarmes et des douaniers. Il est chargé de la déclinaison des trente-sept mesures du plan cyber de la police nationale pour une police plus cyber, une cyberpolice plus efficace qui détecte, qui partage et qui protège.

L’Ofac remplit quatre missions essentielles : enquêter, appuyer, renseigner et détecter. Dans cette dernière mission, nous sommes confrontés à des contenus issus de TikTok ; à travers Pharos, la plateforme d’harmonisation, d’analyse, de recrutement et d’orientation des signalements. Pharos a été ouverte au public en 2009, très rapidement après l’essor des réseaux sociaux. Cet outil est destiné à centraliser les signalements en un point unique, aux fins de recoupement, mais également pour une meilleure compréhension et une détection plus rapide des phénomènes. Pharos est une entité qui ne peut recevoir que les contenus illicites, publics et en ligne, avec une exception notable, qui porte sur le traitement des urgences vitales. En cas d’urgence vitale, le signalement est traité même si les critères précités ne sont pas respectés.

La force principale de cette plateforme réside dans sa double capacité d’action. Il s’agit d’abord d’une capacité d’action judiciaire : Pharos peut initier des procédures sur le fondement des signalements qui y sont faits, sous l’autorité du Pôle national de lutte contre la haine en ligne, pour tout ce qui relève de la haine en ligne ; et sous l’autorité du parquet de Nanterre pour les autres types de mesures. Pharos dispose aussi de pouvoirs administratifs forts qui donnent à son action un rôle encore plus conséquent.

Cette plateforme fonctionne sept jours sur sept, vingt-quatre heures sur vingt-quatre, depuis janvier 2021. Elle réunit à ce jour quarante-quatre enquêteurs, policiers et gendarmes, qui sont répartis en quatre entités : une cellule qui traite les signalements dits généralistes ; une cellule de lutte contre la haine en ligne – soit les signalements les plus complexes à caractériser et dont les prescriptions ne sont pas forcément les mêmes que celles des autres infractions  ; une cellule consistant en un pôle rôle judiciaire ; une cellule des mesures administratives chargée de mettre en œuvre l’article 6-1 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), pour le retrait des contenus pédocriminels et apologétiques du terrorisme. Désormais, Pharos a aussi en charge les contenus relatifs aux actes de torture et de barbarie en matière administrative. Enfin, cette cellule administrative met en place les mesures de l’article 6-1-1 de la LCEN, c’est-à-dire celles qui sont issues du règlement sur les contenus terroristes en ligne (terrorist content online ou TCO). Les pouvoirs exorbitants de cette cellule sont néanmoins contrôlés par la personnalité qualifiée de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), qui examine chacune des demandes de retrait des mesures formulées par la cellule administrative de Pharos.

M. le président Arthur Delaporte. Je vous remercie. En compagnie de M. Stéphane Vojetta ici présent, j’ai eu l’occasion de visiter les services de l’Ofac il y a deux ans. Nous avions pu y observer le professionnalisme, l’engagement des agents, mais également la faiblesse des moyens qui étaient les vôtres par rapport aux enjeux de la régulation du numérique.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Je souhaiterais que vous puissiez évoquer en détail le bilan des contenus qui ont été portés à votre connaissance sur TikTok dans les années précédentes et dont Pharos a demandé aux hébergeurs le retrait ou la limitation de la visibilité. Avez-vous des liens directs avec TikTok ? Quelle est la part des contenus qui ont pu être retirés après signalement ? Quel est votre jugement sur l’évolution de la modération, particulièrement dans le cadre européen aujourd’hui à notre disposition à travers le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) ? La modération est-elle plus soutenue ou à l’inverse, les contenus problématiques non modérés sont-ils encore très présents ?

Mme Cécile Augeraud. En 2024, Pharos a reçu 9 027 signalements concernant 5 554 contenus distincts hébergés sur TikTok ; sur un total de plus de 222 000 signalements. Les signalements liés à des contenus présents sur TikTok représentent donc environ 4 % du total des signalements reçus par la plateforme. Par rapport à 2023, il s’agit quasiment d’un doublement du nombre de signalements de contenus issus de TikTok, puisqu’ils s’établissaient alors à 5 010, sur un total d’environ 211 000 signalements.

S’agissant de la nature de ces signalements, plusieurs grandes catégories ressortent et représentent à elles seules 70 % du total. Il s’agit d’abord des discriminations, qui relèvent plutôt de la provocation publique à la haine et à la discrimination raciale, ethnique ou religieuse, ainsi que des injures et diffamations xénophobes ou discriminatoires. Nous recevons également des signalements concernant des menaces, des révélations de faits connus hors Internet, par exemple des annonces de troubles à l’ordre public ; mais aussi des vidéos de violences sur la voie publique mises en ligne. La dernière grande catégorie concerne les faits relatifs au terrorisme.

S’agissant de 2025, nous avons reçu à la mi-mai 4 441 signalements sur Pharos, sur 3 145 contenus différents et rapporté 80 000 signalements reçus sur la plateforme pour la même période. Il s’agit donc d’une proportion plus élevée encore que l’année précédente, puisqu’elle atteint 5,5 % contre 4 % en 2024. Les quatre grandes catégories restent également les mêmes pour cette année. En revanche, nous constatons une baisse de la proportion de contenus terroristes : ils représentaient 15,6 % des signalements en 2024, contre 10,5 % pour ce début d’année 2025.

En revanche, en dehors des principales catégories, nous observons une très forte hausse des atteintes aux mineurs, passant de 3,15 % en 2024 à 7,5 % en 2025. Il ne s’agit pas de pédocriminalité, mais de contenus provenant de mineurs qui vont être détournés, comme des images détournées d’enfants jouant sur la plage, des contenus s’inscrivant dans des campagnes très spécifiques. Je pense par exemple à l’émoji « pizza », qui renvoie ceux qui les consultent vers des messageries privées, essentiellement Telegram, pour permettre des échanges pédocriminels.

Je souhaite également apporter un éclairage sur les contenus d’atteintes corporelles, puisque le hashtag SkinnyTok a été évoqué à de multiples reprises. Les signalements que nous avons reçus en la matière sont demeurés malgré tout dans des proportions relativement réduites. Parmi les derniers signalements reçus, les enquêteurs de la plateforme ont toutefois relevé le compte d’une jeune femme anorexique qui montre son quotidien en incitant à l’anorexie. Ce type de contenu existait déjà sur les blogs avant l’explosion des réseaux sociaux, mais il inquiète encore plus sur TikTok en raison de l’algorithme particulièrement puissant de cette plateforme.

Concernant la haine en ligne hors terrorisme, Pharos a procédé à 195 notifications au titre de l’article 6, qui ont été adressées à TikTok pour lui signaler qu’elle hébergeait des contenus illicites. Des retraits ont été effectués par TikTok dans à peu près 60 % des cas.

S’agissant des signalements qui nous sont adressés en lien avec des contenus TikTok, les enquêteurs sont également soumis à deux difficultés. D’abord, nous sont parfois signalés des commentaires haineux intervenant sous certaines publications, qui elles ne sont pas problématiques. Or il peut être parfois difficile de retrouver ces contenus-là pour procéder aux constatations. Ensuite, se pose également le problème de propos tenus dans le cadre de lives qui sont diffusés sur TikTok, où par définition, nous arrivons trop tard pour procéder à des constatations.

Pharos dispose de pouvoirs administratifs forts, notamment en matière de pédocriminalité et de terrorisme. À ce titre, 750 contenus présents sur TikTok ont fait l’objet en 2024 de demandes de retrait au titre de l’article 6-1 de la LCEN. Sur cette même année 2024, Pharos a procédé à 87 410 demandes de retrait au total. En conséquence, ces demandes de retrait représentent moins de 1 % des demandes de retrait formulées au total.

Il faut cependant relever que la répartition est particulièrement parlante, puisque sur ces demandes, 749 demandes l’ont été pour des faits relevant du terrorisme, soit 11 % des demandes de retrait formulées par la plateforme, qui en a formulé 6 679 en 2024. Pharos a souhaité, en quelque sorte, « marquer le coup » et utiliser largement l’article 6-1-1 de la LCEN, en lien avec le règlement TCO sur les contenus relevant du terrorisme. À ce titre, 134 injonctions de retrait TCO ont été formulées par Pharos pour des contenus présents sur TikTok, sur un total de 159 injonctions de retrait TCO. La très grande majorité de nos injonctions TCO concernent donc des contenus présents sur TikTok. C’est peut-être aussi une des explications que l’on peut donner au changement de proportion entre le terrorisme et les atteintes aux mineurs constatées entre 2024 et 2025, la plateforme ayant sans doute plus pris conscience de notre très grande attention.

Enfin, 76 contenus ont été traités en urgence vitale par Pharos pour des contenus présents sur TikTok, sur un total de 690 urgences vitales traitées en tout au titre de l’année 2024. J’ajoute également que vingt procédures judiciaires ont été ouvertes depuis le début de l’année 2025 sur le fondement de signalement de contenus présents sur TikTok.

Vous m’avez également interrogée sur nos relations avec TikTok. Depuis déjà un certain temps, nous avons fait le constat d’un besoin accru de contact et de coopération avec les fournisseurs de services Internet. À ce titre, le bureau d’aide à l’enquête numérique (BAEN) a été créé en 2014. En dehors de la préfecture de police de Paris, ce bureau est identifié par les fournisseurs comme l’interlocuteur unique pour la police nationale. Il sert d’intermédiaire entre les enquêteurs et les fournisseurs, dont TikTok, qui désignent chacun en leur sein un contact réservé.

Ce contact réservé est particulièrement réactif et proactif. Il réagit à nos demandes et les enquêteurs ne signalent aucune difficulté particulière le concernant, à la réserve près du suivi de nos notifications au titre de l’article 6. S’agissant de Pharos, TikTok prend assez rapidement en compte les demandes de retrait que nous formulons, essentiellement au titre de l’article 6-1. Au titre du 6-1-1, toutes nos inventions de retrait ont été suivies d’effet. Comme je vous l’indiquais, au titre de l’article 6, nous sommes plus limités quant au suivi assuré par TikTok. Par ailleurs, au titre de l’article 18 du DSA et de la notification de soupçon d’infraction pénale avec menace pour la vie ou la sécurité des personnes, TikTok effectue également des signalements à Pharos ; 33 en 2024, mais déjà 51 pour ce début d’année 2025.

Enfin, l’Ofac ne dispose pas d’une vision globale sur l’action des réseaux sociaux pour pouvoir s’exprimer sur le respect par ses derniers de leurs obligations issues de la réglementation européenne en matière de modération. Cependant, la modération mise en place par TikTok se mesure au nombre de signalements effectués sur Pharos. Or nous constatons une augmentation régulière du nombre de ces signalements. Nous resterons donc très attentifs à la poursuite de cette augmentation et au traitement particulier sur les signalements issus de contenus provenant de TikTok.

M. le président Arthur Delaporte. Vous indiquez avoir effectué environ 750 demandes de retrait en 2024 au titre de l’article 6-1 de la LCEN. De son côté, le rapport de transparence de TikTok en mentionne seulement 250 au deuxième semestre et environ 170 au premier semestre. Je m’interroge sur cette différence, ainsi que sur la catégorisation des demandes de retrait venant du Gouvernement, qui sont inférieures aux chiffres que vous avez indiqués. Sur le deuxième semestre 2024, sont ainsi dénombrées 197 demandes de retrait de contenus terroristes, une d’exploitation sexuelle de mineurs, une trentaine d’appels à la haine, quatre contenus relatifs aux crimes organisés ou violents. Nous sommes loin des 750 demandes que vous évoquez. Comment l’expliquez-vous ?

Mme Cécile Augeraud. Je n’ai aucune explication concernant les chiffres fournis par TikTok dans son rapport de transparence. L’outil Pharos n’est pas un outil statistique, notre comptabilisation est essentiellement manuelle. Nous allons modifier bientôt notre outil, ce qui nous permettra à l’avenir d’être beaucoup plus précis dans nos chiffres. En revanche, les chiffres sont comptabilisés uniquement par les membres de la cellule de blocages et sont suivis par la personnalité qualifiée de l’Arcom. Je pourrai vous communiquer à l’issue de cette audition l’infographie qui reprend nos différents chiffres.

Mme Laure Miller, rapporteure. Avez-vous une idée de la proportion des contenus que vous signalez qui concernent des mineurs ? Estimez-vous que la loi française devrait changer, pour permettre d’incriminer des contenus qui ne sont pas aujourd’hui sanctionnés ?

Mme Cécile Augeraud. Quand nous traitons un contenu, nous ne savons pas qui nous le signale. Nous qualifions ensuite ces contenus, dont certains concernent les mineurs, sans que je puisse pour autant vous donner des proportions. En revanche, les signalements de pédocriminalité sont très limités, puisque nous n’avons fait qu’une notification à ce titre pour l’année 2024.

S’agissant des contenus signalés, sur Pharos, nous nous efforçons de trouver une qualification pénale qui pourrait correspondre à une exposition particulière. Je pense par exemple aux incitations au suicide qui peuvent particulièrement toucher des adolescents. Nous avons ainsi reçu 14 signalements pour ce type de fait en 2024, pour 10 contenus différents. Cependant, pour pouvoir traiter ces contenus à ce titre, il faut qu’une tentative de suicide soit intervenue. Nous les envisageons aussi sous l’angle du harcèlement, pour pouvoir prendre en compte un signalement et le traiter.

M. le président Arthur Delaporte. Estimez-vous que les effectifs dont vous disposez devraient être augmentés ?

Mme Cécile Augeraud. En toute matière, on est forcément plus pertinents si l’on est plus nombreux. Je rappelle cependant que puisque Pharos fonctionne vingt-quatre heures sur vingt-quatre et sept jours sur sept, nous pouvons traiter un maximum de signalements. À ce titre, l’Ofac est surtout attentive à l’extension des pouvoirs de Pharos, notamment de la cellule des mesures administratives, composée de quatre agents qui traitent les demandes de retrait de contenus pédocriminels, terroristes et au titre du TCO. Dans le cadre du projet de loi visant à sortir la France du piège du narcotrafic, les pouvoirs de Pharos seront encore plus étendus pour pouvoir mieux détecter les contenus en lien avec les stupéfiants.

Cette augmentation du nombre de missions nous imposera d’être particulièrement attentifs quant à la charge de travail et la capacité de la plateforme d’être toujours aussi efficiente pour pouvoir répondre dans des délais très courts, sans obérer naturellement le traitement des urgences vitales.

M. le président Arthur Delaporte. Si vous deviez comparer l’attitude de TikTok et celles des autres plateformes en termes de célérité et d’efficacité, comment la qualifieriez-vous ?

Mme Cécile Augeraud. Cela dépend des contenus. Pour certains d’entre eux, la rapidité est réelle et le suivi effectif. Nous le constatons sur les injonctions TCO, pour lesquelles les contenus ont tous été retirés dans l’heure, conformément au texte. En revanche, nous sommes confrontés à de plus grandes difficultés sur les contenus liés à la discrimination avec l’ensemble des réseaux sociaux, dans la mesure où cette matière pose le plus de difficultés en termes de qualification et où les plateformes examinent les demandes avec leur propre prisme. Par exemple, les plateformes américaines portent un regard très particulier sur la discrimination et la liberté d’expression, qui n’est pas forcément identique à celui que nous pourrions avoir en France. Certaines plateformes américaines sont donc beaucoup moins promptes encore que TikTok à traiter et suivre ce genre de signalement. Je pense qu’à ce titre, TikTok se situe dans une moyenne acceptable.

M. le président Arthur Delaporte. Vous évoquez vos discussions avec les services de modération sur les retraits de contenus problématiques, notamment liés à la protection des mineurs. Pouvez-vous nous donner plus de détails sur des flous juridiques ou des différences d’interprétation ? Cela impliquerait-il de faire évoluer le droit pour le rendre plus explicite et faciliter les échanges avec les plateformes ?

Mme Cécile Augeraud. Nous n’identifions pas aujourd’hui de véritables failles dans la législation qui nous empêcheraient réellement d’agir. Les plateformes sont surtout incitées à agir face au risque de l’application de sanctions financières en cas de non-suivi des demandes de retrait ou des injonctions de retrait, ces sanctions financières étant particulièrement conséquentes. Un autre enjeu pour les plateformes concerne leur image. Elles sont très attachées à donner une image la plus lisse possible sur certains types de contenus, essentiellement sur les contenus pédocriminels. Il faudrait les sensibiliser également sur le préjudice d’image au-delà des contenus pédocriminels, pour tout ce qui concerne les mineurs, mais aussi parfois communiquer davantage sur les absences de retrait ou sur les divergences d’interprétation en temps réel.

M. le président Arthur Delaporte. Je vous remercie pour vos propos et plus largement, pour le travail que vous réalisez avec vos collègues au sein de l’Ofac. Vous pourrez nous communiquer tout élément complémentaire si vous le souhaitez.

Enfin, la commission auditionne à huis clos, M. Nicolas Deffieux, directeur du Pôle d’expertise de la régulation numérique (PEReN).

M. le président Arthur Delaporte. Nous recevons M. Nicolas Deffieux, directeur du Pôle d’expertise de la régulation numérique (Peren). M. Deffieux, cette audition se déroulant à huis clos, vous aurez la possibilité, si vous le souhaitez, de retrancher une partie de vos propos du compte rendu qui sera publié sur le site de l’Assemblée. Nous serons peut-être amenés à suspendre brièvement en raison de la loi relative au droit à l’aide à mourir, le temps d’aller voter. Je vous souhaite la bienvenue et vous remercie de bien vouloir nous déclarer tout intérêt public ou privé de nature à potentiellement influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».

(M. Deffieux prête serment.)

M. Nicolas Deffieux, directeur du Pôle d’expertise de la régulation numérique (Peren). Directeur du Peren rapidement après sa création en août 2020, je suis fonctionnaire et j’ai travaillé d’abord à l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) pendant onze ans, puis à l’Autorité de la concurrence pendant huit ans, en tant que rapporteur général adjoint dans les services d’instruction, plus spécifiquement sur les plateformes numériques et les télécommunications.

Le Pôle d’expertise de la régulation numérique est un service à compétence nationale d’expertise technique mutualisé entre différents services de l’État. Il est également à la disposition de certaines autorités administratives indépendantes et d’autorités publiques indépendantes qui conduisent des missions de régulation des plateformes numériques. Nous disposons aussi d’un accord de partenariat avec la Commission européenne, qui est régulateur du numérique dans le cadre du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA) et du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA). La Commission a la possibilité de faire appel à nos services dans un cadre qui est soumis à des causes de confidentialité.

Le Peren est né à la suite des États généraux du numérique de 2019, qui avait constaté que les services de l’État n’étaient pas forcément bien armés face aux grandes plateformes, en particulier en termes d’analyse des données et d’expertise numérique. Il avait donc été décidé de tester un schéma dans lequel, au lieu de rajouter quelques data scientists à chaque régulateur, il fallait plutôt mettre en place un pôle d’expertise à la disposition de l’ensemble des régulateurs. En effet, même si les champs juridiques sont extrêmement différents, la réponse technique, informatique ou même mathématique peut être la même, soulignant l’intérêt de mutualiser les moyens.

Le Peren comprend une trentaine de personnes. Certaines disposent d’une expertise technique et informatique, développent du code informatique pour aider les régulateurs à mettre en œuvre la régulation, à détecter des phénomènes. Mais nous assurons également un rôle d’aide à la conception de la régulation, pour évaluer si certaines règles sont parfois ambiguës d’un point de vue technique, voire si elles ne peuvent pas être transposées techniquement.

Dans le champ de la protection des mineurs, plusieurs travaux ont été réalisés. Nous avons ainsi œuvré à l’assistance technique sur le contrôle parental et notamment le « décret Studer ». Nous sommes aujourd’hui mobilisés dans le cadre des travaux sur le contrôle parental par le groupe des régulateurs qui a été créé par la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique dite loi SREN. Nous vérifions ainsi que les modalités pratiques de contrôle parental qui sont mises en œuvre sur différents smartphones sont suffisamment fonctionnelles et ne peuvent pas être contournées trop facilement en fonction des générations de smartphones et des différents systèmes d’exploitation utilisés.

Nous avons également fourni une assistance technique sur les sujets de vérification d’âge. En compagnie de la Commission nationale de l’informatique et des libertés (Cnil) et de l’École polytechnique, nous avons créé un prototype de transmission de la preuve d’âge en double anonymat. Nous avons travaillé ensuite en coordination avec l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) et la Cnil sur la détermination du référentiel qui a été publié par l’Arcom.

Des travaux ont également été initiés sur l’économie de l’attention et les différents éléments d’interface ou algorithmiques qui conduisent les utilisateurs à rester le plus longtemps possible sur une application. Nous avons également travaillé avec le secrétariat général des affaires européennes pour fournir un appui technique sur les questions de chiffrement et notamment la détection de contenus pédocriminels sur les messageries chiffrées de bout en bout.

Par ailleurs, nous avons élaboré un concept avec l’Arcom, une plateforme de signalement destinée aux signaleurs de confiance : les dates de signalement sont enregistrées, afin que l’Arcom dispose de données sur les délais de traitement des signalements par les plateformes. Enfin, nous avons conduit des travaux pour la Commission européenne dans le cadre de ses investigations sur le DSA. En particulier, nos apports concernent l’établissement de méthodologies de démonstrations robustes et utilisables dans les contentieux.

Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Avez-vous examiné l’algorithme de recommandation de TikTok, qui apparaît particulièrement performant ? Pouvez-vous nous livrer votre analyse à ce sujet ? Entretenez-vous des liens quotidiens avec les plateformes et les réseaux sociaux ?

M. Nicolas Deffieux. Nous avons conduit plusieurs travaux sur TikTok, dont notamment une analyse de bulles de filtre. Lors d’une expérimentation, nous avons instrumenté des smartphones pour simuler l’intérêt d’un utilisateur virtuel pour une thématique de vidéos. Cela nous a permis d’obtenir des données quantitatives sur la vitesse à laquelle l’algorithme de TikTok détectait un intérêt pour un sujet, mais aussi un changement d’intérêt vers une thématique différente. Il apparaît que l’algorithme de TikTok est vraiment très puissant et rapide et détecte ces phénomènes. Ce premier travail a été transmis à la Commission en 2023, lorsqu’elle avait inauguré son centre d’analyse sur la transparence algorithmique, avec lequel nous travaillons.

Nous avons aussi été interrogés par la commission d’enquête du Sénat sur l’utilisation du réseau social TikTok, le fonctionnement de son algorithme, son exploitation des données, sa stratégie d’influence. À cette occasion, nous avons montré que deux types d’analyses sont possibles. Le premier type d’analyse concerne la compréhension des mécanismes de captation de l’attention intégrés à l’application, soit par des éléments d’interface, soit par une sorte de filtrage ou de fonctions qui alimentent l’algorithme et sont déjà présentes sur le smartphone. Dans le code de l’application TikTok, il existe en effet du machine learning, mais nos observations sur ce champ-là sont assez limitées.

Le premier obstacle concerne le cadre juridique approprié pour pouvoir se lancer dans ce type d’analyses. En effet, elles mobilisent des techniques de reverse engineering pour décortiquer le code, accéder à un système de traitement automatisé de données. Or il n’est pas possible d’y parvenir sans avoir été mandaté par une administration dotée de la compétence juridique, sauf à disposer nous-mêmes d’un cadre approprié.

Mais la partie la plus importante a trait aux serveurs de TikTok qui envoient les contenus sur le smartphone, par lots. Lorsque vous êtes connecté, le serveur de TikTok envoie huit vidéos en bloc, qui sont stockées sur le smartphone, avant d’être lues. Les travaux réalisables sur ces serveurs consisteraient à accéder de manière privilégiée aux données internes de l’algorithme, sur les serveurs. TikTok a mis en place des centres de transparence physiques, mais nous n’avons jamais pu les visiter. En outre, même si nous avions accès aux données internes de l’algorithme, cela ne serait pas forcément le plus utile, dans la mesure où il est difficile de les décrypter. Il serait plus intéressant de pouvoir accéder à des interfaces de test, c’est-à-dire pouvoir nous-mêmes tester l’algorithme avec nos propres algorithmes, dans des conditions bien plus efficaces que l’utilisation via des smartphones. Mais même dans ce cas, il existerait des risques de manipulation si TikTok modifiait le comportement de l’algorithme qui sert aux tests.

M. le président Arthur Delaporte. Je suspends la séance pour quelques minutes pour nous permettre d’aller voter en séance publique. Je vous prie de nous excuser pour cette contrainte indépendante de notre volonté.

L’audition est suspendue de dix-huit heures vingt-cinq à dix-huit heures trentecinq.

M. le président Arthur Delaporte. Nous reprenons notre audition.

M. Nicolas Deffieux. Laissez-moi reprendre mon intervention sur les travaux que nous menons. Je vous expliquais qu’il nous serait utile de pouvoir tester le fonctionnement de l’algorithme pour lui envoyer des requêtes et voir comment il se comporte, plutôt qu’accéder au code lui-même. À ce sujet, nous avons parfois été sollicités pour voir si nous pouvions créer des profils, par exemple d’adolescents, et étudier ce qui serait montré par TikTok de manière statistique et robuste, dans le cadre d’une expérimentation. Cependant, cela nécessite non seulement de créer des comptes avec une forme de fausse identité, mais aussi d’interagir avec la plateforme et sans doute de poster du contenu pour que l’algorithme pense qu’il est face à utilisateur réel. Or si nous maîtrisons la mécanique technique et la compétence statistique, nous ne disposons pas du cadre juridique adéquat pour mener l’expérimentation. Mais il existe quand même des possibilités.

M. le président Arthur Delaporte. À ce sujet, quelles sont les limites du cadre juridique actuel ? Que faudrait-il corriger pour pouvoir mener ce type d’expérimentation ?

M. Nicolas Deffieux. Il faut distinguer plusieurs sujets. La collecte automatisée des données est souvent interdite par les conditions générales d’utilisation (CGU) de la plateforme. Pour pouvoir outrepasser ces CGU et utiliser les données collectées dans un objectif de régulation, il faut bénéficier d’une compétence juridique spécifique, être doté de pouvoirs d’enquête. Or nous sommes un service de pure expertise technique, nous ne sommes ni régulateur, ni enquêteur et ne pouvons qu’au plus conduire des tests par nous-mêmes. De même, nous ne pouvons pas utiliser des identités d’emprunt, comme le peuvent les enquêteurs de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF).

En revanche, nous pouvons utiliser les possibilités prévues par le DSA. Le règlement prévoit en particulier que les plateformes doivent mettre à disposition des chercheurs un certain nombre d’interfaces de programmation d’application (API) pour accéder aux données. Or, depuis la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection des œuvres culturelles à l’ère numérique, le Peren exerce une mission de recherche publique. Nous sommes un organisme de recherche, enregistré au registre national des structures de recherche.

En pratique, la situation est plus compliquée ; nos demandes ont enregistré un succès variable auprès des plateformes. Par exemple, nous n’avons rencontré aucune difficulté pour accéder au registre des publicités, obligation formulée par le DSA. Dans un autre cadre, nous conduisons un projet de recherche sur la détection des discours haineux sur les réseaux sociaux et, à ce titre, nous avons demandé en avril 2024 d’accéder à une API existante, qui est proposée par TikTok aux chercheurs. Mais TikTok nous a demandé de justifier que les accès qui nous seraient fournis ne seraient pas partagés avec d’autres membres du Gouvernement. Nous avons donc dû effectuer des réponses très complètes, pour expliquer le fonctionnement du Peren en termes de sécurité des données et apporter des garanties éthiques, au titre de notre mission de recherche. Depuis un an, nous échangeons à ce titre et la semaine dernière, TikTok nous a adressé une nouvelle salve de questions pour fournir des justifications sur les statuts et soumettre un nouveau projet de recherche. La plateforme nous a demandé de lui apporter la garantie que nous respections les conditions de l’article 40, paragraphe 8 du DSA, qui ne concerne pas les projets de recherche généraux, mais les projets de recherche des chercheurs agréés au sens du DSA.

En résumé, la démarche est difficile, les projets de recherche sont vérifiés par les plateformes quand nous formulons des demandes d’accès, et nos réponses ne les ont pas satisfaites. La prochaine étape consisterait pour nous à porter ces éléments à la connaissance de l’Arcom et de la Commission européenne. Mais nous n’avons pas insisté sur cette question, dans la mesure où la loi SREN de 2024 a fait évoluer la rédaction de la mission de recherche pour le Peren. Un décret est en cours de finalisation et nous reprendrons nos demandes dès le nouveau cadre adopté.

M. le président Arthur Delaporte. Vous avez également évoqué la base de données publicitaires. Il y a un mois et demi est intervenue à Sciences Po Paris une série de « sprints » réunissant des chercheurs qui essayaient d’explorer les différentes bases de données. Il est apparu à cette occasion que la base de données de TikTok était très faiblement exploitable. La Commission européenne s’en est d’ailleurs saisie pour ouvrir une enquête à ce propos. Quelles leçons en avez-vous tiré ?

M. Nicolas Deffieux. Nous avons participé aux sprints et avons notamment animé l’un d’entre eux. Nous avons formulé les constats que vous avez évoqués.

Cela signifie bien que les difficultés rencontrées pour accéder à l’API ne préjugent pas de la qualité des données disponibles lorsque nous parvenons finalement à y accéder. Il est très facile de formuler une demande et d’accéder à l’API sur les registres publicitaires de TikTok. En revanche, ensuite, de nombreuses fonctionnalités sont manquantes. En outre, nous ne pouvons même pas juger du contenu de l’API pour laquelle nous avons effectué une demande il y a an, puisque l’accès ne nous a pas été donné.

M. le président Arthur Delaporte. Dans ce cadre, nous sommes preneurs de suggestions de modifications que vous pourriez nous adresser par écrit concernant la base légale, afin que nous puissions les évoquer dans notre rapport.

M. Nicolas Deffieux. Ce sujet est très délicat. Depuis le DSA, qui est quand même un règlement d’harmonisation maximale, il est très difficile d’établir une quelconque obligation supplémentaire qui viendrait peser sur les plateformes. La Commission exerce à ce titre une grande vigilance. À titre d’exemple, certaines dispositions de la loi SREN nous concernaient. La Commission nous a demandé d’apporter des garanties et de réécrire un certain nombre d’éléments pour s’assurer qu’ils ne contreviendraient pas au DSA.

M. le président Arthur Delaporte. Je vous ai interrompu dans vos propos. Vous étiez en train d’évoquer les différentes études.

M. Nicolas Deffieux. S’agissant du fonctionnement de l’algorithme de TikTok, je souhaite apporter un certain nombre d’éléments supplémentaires. TikTok ou ByteDance ont eux-mêmes publié des informations sur un algorithme de recommandation qui est décrit dans la presse comme « l’algorithme de TikTok ». Il s’agit effectivement d’un algorithme de ByteDance, mais nous ne savons pas s’il s’agit de celui qui est effectivement utilisé sur le service grand public, que tout le monde utilise. En effet, au même titre que Google, TikTok mène une activité commerciale dans laquelle la plateforme vend l’algorithme de recommandation. Cependant, en dépit de cette incertitude, cet algorithme fournit quand même des informations sur la manière dont TikTok code.

Cet algorithme s’appelle « BytePlus Recommend », le système porte le nom de Monolith. Il fonctionne dans le cadre d’un entraînement continu, un apprentissage quotidien. TikTok soutient qu’il constitue un avantage concurrentiel par rapport à d’autres systèmes. Il est donc possible d’imaginer qu’il figurerait également dans l’algorithme de l’application TikTok. La plateforme met en avant la fraîcheur des contenus pour l’algorithme : l’algorithme n’a pas une mémoire très profonde, mais place une prime sur les contenus très récents. L’index étant très récent, cela peut induire une viralité plus grande, en l’absence d’effet d’inertie ou de long historique.

En résumé, le contenu récent est davantage est promu et mis en avant par cet algorithme. Encore une fois, nous ne sommes pas certains que cet algorithme soit strictement identique à celui qui est utilisé concrètement. Nous ne disposons pas d’informations certaines sur l’algorithme du TikTok.

M. le président Arthur Delaporte. Pensez-vous que nous pourrions poser aux responsables de TikTok une question précise pour savoir s’il s’agit bien de l’algorithme qui est réellement utilisé par l’application ?

M. Nicolas Deffieux. Il serait effectivement très utile qu’ils précisent si l’algorithme est le même, ou à défaut les différences et les paramètres spécifiques.

M. le président Arthur Delaporte. Cet algorithme a-t-il été rendu public ? L’avez-vous analysé ? Ou ne s’agit-il que d’une analyse à partir de critères que TikTok a elle-même fournis dans un rapport ?

M. Nicolas Deffieux. Nous n’avons pas conduit une analyse par nous-mêmes. Je rapporte les éléments saillants d’une publication effectuée par TikTok. Nous pourrons vous adresser la référence.

M. le président Arthur Delaporte. Je vous remercie, nous serions évidemment preneurs.

M. Nicolas Deffieux. Je souhaite également répondre à l’une de vos autres questions concernant nos échanges avec les réseaux sociaux et TikTok. Nous communiquons très rarement de manière directe avec les plateformes. Ces interactions ont cependant lieu dans le cadre de différentes instances. Des échanges directs sont ainsi intervenus à l’occasion d’un panorama que nous avons réalisé sur les systèmes de vérification ou d’estimation d’âge auxquels les plateformes ont recours. Nous avons interrogé Meta, Google et X, en direct. TikTok avait refusé un entretien, mais nous a communiqué des éléments par écrit, nous indiquant qu’elle se fondait simplement sur la date de naissance déclarée par l’utilisateur au moment de la connexion. Elle a également précisé que ses modérateurs s’intéressent à certains utilisateurs lorsque quelque chose de louche apparaît à leurs yeux. Lorsque tel est le cas, ils formulent une demande de vérification d’âge formelle, soit par transmission de carte d’identité, soit en passant par un site tiers comme Yoti.

Par ailleurs, nous avons également interagi avec les plateformes dans le cadre d’expérimentations que nous avons menées. Par exemple, nous avons eu des relations avec Snapchat sur la fonctionnalité « My AI ». Snapchat ne nous a pas laissés faire facilement et nous a même menacés de poursuite si un problème survenait, ce qui n’a pas été le cas. Nous avons également conduit quelques expérimentations, notamment concernant les questions de personnalisation sur YouTube, qui se montre plutôt coopératif. À chaque fois que nous procédons de la sorte, nous agissons dans un cadre assez formel. Nous sollicitons les plateformes pour savoir si nos expérimentations peuvent entraîner des problèmes de sécurité ou pour leurs utilisateurs.

J’ai déjà évoqué plus tôt nos demandes auprès de TikTok sur les API académiques, qui n’ont pas été couronnées de succès. Il y a quelques années, Google nous a bénévolement laissés tester son système de recommandations. Nous avons ainsi pu emmagasiner de l’expérience sur l’état de l’art en ayant accès aux deux côtés de l’algorithme. Nous pouvions ainsi programmer nous-mêmes des paramètres de l’algorithme et observer les effets du côté des utilisateurs. Cela nous a permis de développer des outils pour mieux comprendre le fonctionnement de ces algorithmes.

Tels sont en résumé nos contacts directs avec les plateformes de réseaux sociaux. Globalement, nos relations s’exercent surtout avec les administrations qui nous adressent des questions et qui, ensuite, interagissent éventuellement avec les plateformes.

Mme Laure Miller, rapporteure. Lorsque nous avons auditionné les familles dont les enfants ont été victimes de TikTok, elles nous ont régulièrement indiqué que le contrôle parental était très facilement contournable. En outre, certains parents éprouvent des difficultés à le paramétrer et le mettre en œuvre. Avez-vous déjà analysé les différents systèmes qui existent aujourd’hui ? Avez-vous des préconisations pour renforcer ces systèmes parentaux ?

Par ailleurs, vos travaux sont-ils publics ou uniquement destinés à l’instance qui vous les commande ?

M. Nicolas Deffieux. Je réponds tout d’abord à votre deuxième question. Lors de chaque projet, nous effectuons un cadrage et demandons quel est le statut de confidentialité des travaux qui nous sont demandés. Nous sommes favorables à des publications, afin de rendre notre travail plus visible, mais cela intervient rarement. Dans le domaine du contrôle parental, cela me semblerait d’autant plus pertinent.

Ensuite, vous mentionnez le fait que les contrôles parentaux n’étaient pas efficaces et simultanément facilement contournés, mais ces éléments ne ressortent pas de nos observations pour l’instant. J’ignore si vous avez interrogé l’Agence nationale des fréquences (ANFR), qui est compétente pour vérifier si les obligations introduites par la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet, dite « loi Studer », sont bien respectées par les plateformes. L’Agence a produit un rapport juste avant l’entrée en vigueur de la loi et en publiera un nouveau, précisément pour répondre à cette question de la bonne application de la loi au sens strict.

De notre côté, nous travaillons sur un champ différent. Nous nous intéressons également aux smartphones plus anciens que ceux qui ont été produits depuis la loi. En effet, il arrive fréquemment que les parents donnent un ancien smartphone à leur adolescent plutôt que de leur en acheter un neuf. Il est donc important de connaître l’état du contrôle parental sur des dispositifs qui sont encore en circulation, mais qui ne sont pas visés par l’obligation.

Mais en résumé, à titre d’observation préliminaire, nous n’avons pas observé que les systèmes étaient mal faits, insuffisants ou faciles à contourner. Peut-être sont-ils mal connus ou difficiles à configurer. En revanche, lorsqu’ils sont bien configurés, ils sont malgré tout relativement efficaces.

Mme Laure Miller, rapporteure. Pourrions-nous obtenir les travaux que vous avez déjà réalisés, ou vous en demander certains qui n’ont pas été rendus publics ? Je rappelle que, dans le cadre d’une commission d’enquête, le rapporteur dispose d’un certain nombre de pouvoirs pour obtenir des pièces auprès des administrations.

M. le président Arthur Delaporte. Mme la rapporteure a tout à fait raison. Demander la liste de tous les travaux que vous avez pu réaliser fait partie de ses prérogatives. Parmi cette liste, elle pourra demander la communication de certains travaux dans le cadre de la commission d’enquête.

M. Nicolas Deffieux. Bien sûr. Je précise néanmoins que certains rapports sont encore en cours de rédaction.

M. le président Arthur Delaporte. Nous ne vous demanderons naturellement pas de nous communiquer un rapport qui n’a pas été encore rédigé. Simplement, à l’occasion de votre audition, nous avons découvert des études dont nous n’avions pas connaissance. Nous sommes preneurs de tout élément, y compris non finalisé, nous permettant de mieux comprendre la question de l’algorithme.

Précédemment, nous avons auditionné Thierry Breton, ancien commissaire européen au marché intérieur, qui mentionnait l’importance de la transparence de l’algorithme. Mais quand nous sommes rentrés dans le détail des demandes de la Commission en termes de contenus, il n’a pas été en mesure de nous l’indiquer, soit parce que le dossier est en cours, soit parce qu’il ne savait pas. En conséquence, nous souhaitons vraiment mieux comprendre l’algorithme, l’applicabilité des mesures de vérification d’âge et les différents dispositifs qui existent ou qui pourraient exister, selon votre expertise.

M. Nicolas Deffieux. Nous menons également des travaux assez théoriques sur cette question, pour savoir s’il est possible d’auditer un algorithme de plateforme. L’un de nos doctorants a travaillé sur la question de savoir si une plateforme parfaitement efficace et efficiente est toujours capable de tromper un auditeur. Cela peut arriver, dans des cas limités. Or des audits produisent des effets de masse, qui permettent de déceler certaines informations. Par ailleurs, nous n’avons pas démontré que les plateformes voulaient absolument mentir.

Ensuite, il existe une réelle difficulté pour mener des audits concernant TikTok. Cette difficulté tient au nombre de boucles de rétroaction : chaque élément que l’on regarde entraîne un effet sur d’autres éléments. Les paramètres sont tellement nombreux que lorsque nous agissons sur un aspect, l’ensemble de la structure évolue. Par exemple, un sujet est-il « naturellement » viral, entraînant les influenceurs à s’en emparer ou est-ce parce qu’un influenceur l’a évoqué qu’il devient viral ? Ou est-ce le rôle de l’algorithme ? Ce dilemme de « la poule et l’œuf » n’est pas facile à résoudre. Les interdépendances rendent les objets complexes à analyser.

Cependant, lorsque les questions sont simples et que l’on sait isoler des points particuliers, nous parvenons à répondre statistiquement à des questions, à condition d’avoir un minimum d’accès à des données. Il est quasiment impossible de comprendre le fonctionnement de l’algorithme dans sa généralité à travers un reverse engineering. En revanche, nous savons traiter des questions précises qui intéressent les régulateurs.

Mme Laure Miller, rapporteure. Lors de nos auditions, revient souvent le sentiment que la modération n’est pas satisfaisante, a fortiori sur le réseau social TikTok, que certains contenus problématiques peuvent être retirés, mais qu’ils ne le sont pas tous. Nous pourrions donc être tentés de conclure que tout dépend de la bonne ou mauvaise volonté de TikTok et que par ailleurs les utilisateurs  notamment les jeunes – peuvent être amenés à contourner certains mots-clés avec des émojis pour essayer d’accéder quand même à un contenu de façon détournée.

Pouvez-vous nous confirmer que, techniquement, une plateforme est en capacité si elle le veut de modérer en temps réel ce type de contenu problématique ? Si ces contenus demeurent malgré tout, s’agit-il donc bien de mauvaise volonté ?

M. Nicolas Deffieux. Je ne dispose pas assez d’éléments pour répondre à cette question. Le niveau de complexité est réel, et nous rencontrons des difficultés à effectuer la mesure de cette bonne ou mauvaise volonté. Notre projet sur la haine en ligne visait précisément à répondre à cette question. Il existe des éléments de contexte, des éléments dynamiques, comme des émojis au sens caché que seuls des initiés comprennent, qui semblent a priori difficiles à programmer.

Mme Laure Miller, rapporteure. Je comprends. Cependant, il existe des contenus suffisamment médiatisés, comme la tendance hashtag SkinnyTok qui prône l’anorexie. Un autre exemple est celui de la scarification, où l’on sait que l’émoji zèbre conduit à des contenus de ce type sans avoir besoin de taper le mot-clé. Les équipes des plateformes sont informées et, techniquement, elles semblent pouvoir être en mesure de réagir.

M. Nicolas Deffieux. Je précise ma réponse. Dans certains cas, il est facile de faire la lumière sur des contenus qui ne devraient plus être mis en avant. Mais cela ne signifie pas que la modération soit simple. À partir du moment où TikTok va interdire les zèbres, un autre hashtag sera créé dans la minute. Il faudra ensuite un certain temps avant que la plateforme comprenne qu’une autre association permet de trouver les contenus, même si elle produit des efforts. Cela ne signifie pas que ces efforts ne doivent pas être entrepris ; ce genre de contenus ne devraient pas subsister pendant longtemps.

Au-delà, cette matière est extrêmement compliquée à traiter, car elle concerne la liberté d’expression. A posteriori, il existe cependant de nombreuses occurrences où il aurait été facile de modérer automatiquement en fonction de certains mots-clés.

M. le président Arthur Delaporte. Compte tenu de l’ampleur de la tâche qui vous est confiée, estimez-vous que les moyens à votre disposition sont à la hauteur des enjeux ?

M. Nicolas Deffieux. Nous ne sommes pas en prise directe sur ces sujets. Nos moyens dépendent surtout des sollicitations formulées par les régulateurs. À l’heure actuelle, nous sommes en mesure de répondre aux sollicitations qui nous sont adressées. Trente personnes s’y consacrent. Il peut nous arriver de refuser certains projets, mais lorsque cela est le cas, les administrations le conçoivent et cela ne crée pas de problème. Nous n’avons jamais refusé des projets considérés comme extrêmement stratégiques par les administrations qui nous sollicitent.

Si nos moyens sont relativement modestes par rapport à ceux dont disposent la Commission et d’autres services, j’estime que nous sommes extrêmement performants. Je salue le travail réalisé par l’équipe.

M. le président Arthur Delaporte. Nous le saluons également, même si une partie de ce travail nous est à ce stade inconnu. Encore une fois, nous serions preneurs de tous les éléments que vous pourriez nous communiquer, au-delà du questionnaire qui vous a été transmis.

La séance s’achève à dix-neuf heures vingt.


Membres présents ou excusés

 

Présents. M. Arthur Delaporte, M. Emmanuel Fouquart, Mme Laure Miller, Mme Constance de Pélichy, M. Thierry Perez, M. Thierry Sother, M. Stéphane Vojetta