Compte rendu
Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs
– Table ronde, ouverte à la presse, réunissant des plateformes :......2
• Meta – M. Anton’Maria Battesti, directeur des affaires publiques France, et Mme Aurore Denimal, responsable des affaires publiques France
• X – Mme Claire Dilé, directrice des affaires publiques
• YouTube – M. Thibault Guiroy, directeur des affaires publiques France et Europe du Sud
– Audition, ouverte à la presse, de M. Simon Corsin, fondateur de Mindie46
– Présences en réunion................................47
Mardi
17 juin 2025
Séance de 14 heures
Compte rendu n° 28
session ordinaire de 2024-2025
Présidence de
M. Arthur Delaporte,
Président de la commission
— 1 —
La séance est ouverte à quatorze heures cinq.
La commission auditionne conjointement M. Anton’Maria Battesti, directeur des affaires publiques France de Meta, et Mme Aurore Denimal, responsable des affaires publiques France ; Mme Claire Dilé, directrice des affaires publiques de X, et M. Thibault Guiroy, directeur des affaires publiques France et Europe du Sud de YouTube.
M. le président Arthur Delaporte. Notre commission d’enquête se réunit pour la soixantième fois. Depuis environ trois mois, nous avons déjà entendu 144 personnes, durant plus de 75 heures.
Nous recevons en audition conjointe les représentants de Meta, de X et – en visioconférence – de YouTube. Les représentants de Snapchat ont également été convoqués, mais ils n’étaient pas disponibles et seront auditionnés la semaine prochaine.
Même si notre commission d’enquête a pour objet d’étudier les effets psychologiques de TikTok sur les mineurs, nous avons constaté une forme d’interopérabilité entre les plateformes. Les utilisateurs – et parfois les influenceurs problématiques – ont à la fois des comptes sur Instagram, Snapchat, YouTube ou X. Vous comprendrez donc que nous ayons souhaité vous entendre.
Nous avions envisagé d’élargir la commission d’enquête à l’ensemble des plateformes, car elles s’inspirent les unes des autres et peuvent toutes affecter la santé mentale des mineurs. Mme la rapporteure m’a convaincu de circonscrire nos travaux à TikTok, en raison de son caractère émergent, de sa très forte attractivité vis-à-vis des jeunes et de la spécificité de son algorithme. Néanmoins, les conclusions de nos travaux – qui devront être présentées au plus tard le 12 septembre – pourront dépasser ce cadre. La loi a en effet vocation à s’appliquer de façon universelle et la régulation ne peut concerner un seul acteur économique.
Je vais vous donner la parole pour une intervention liminaire, qui précédera notre échange sous forme de questions et réponses, et je vous remercie de préciser tout intérêt public ou privé de nature à influencer vos déclarations.
Auparavant, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.
(M. Anton’Maria Battesti, Mme Aurore Denimal, Mme Claire Dilé et M. Thibault Guiroy prêtent successivement serment.)
M. Anton’Maria Battesti, directeur des affaires publiques France de Meta. Je suis directeur des affaires publiques pour Meta en France. Étant dans cette entreprise depuis bientôt douze ans, j’ai une certaine expérience des sujets qui vous intéressent, et qui sont plus ou moins nouveaux. En tout cas, il est important d’aborder la question des contenus, de savoir qui décide et comment, et d’essayer d’améliorer les choses.
Notez que sous l’impulsion de la France, l’Europe s’est dotée d’un cadre exigeant et performant. Le « jeune » règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), dit Digital services act (DSA), a déjà trouvé des applications très concrètes.
Nous sommes là pour répondre à vos questions. Je ne serai pas trop long, afin de laisser du temps à l’échange. Une actualité récente peut néanmoins vous intéresser et être pertinente pour vos travaux. Instagram propose désormais des comptes pour les adolescents, qui permettent de distinguer les 13-15 ans et les 16-18 ans et d’encadrer le temps passé sur l’application, les contenus auxquels ils peuvent être exposés, ainsi que les possibilités de prendre contact avec eux. La supervision et l’autorisation parentale constituent la clé de voûte du dispositif. Nous aurons certainement l’occasion de traiter l’ensemble de ces sujets, mais je tenais à mentionner ce produit dès à présent.
Mme Aurore Denimal, responsable des affaires publiques France de Meta. La vérification de l’âge est un sujet à propos duquel nous sommes très engagés. Il sera intéressant de l’évoquer, pour apprécier les effets que produisent les comptes « Ado » et ceux qu’ils pourraient produire s’ils atteignaient leur cible de manière pleine et entière.
Mme Claire Dilé, directrice des affaires publiques de X. Je suis chargée des affaires publiques de la plateforme X en France, depuis environ quatre ans.
J’ai pris le parti d’une intervention peut-être un peu longue, mais complète, afin d’aborder l’ensemble des questions posées dans le questionnaire qui nous a été adressé. Il est important pour nous de pouvoir expliquer les mesures que nous prenons.
X est une plateforme d’information en temps réel, où la conversation est publique. Selon notre dernier rapport de transparence établi dans le cadre du DSA, qui a été publié en avril, nous totalisons 17 millions d’utilisateurs mensuels actifs et 11 millions de personnes possèdent des comptes en France.
Notre ambition est de servir et de protéger la conversation publique et de garantir un environnement sûr pour que chacun puisse y participer librement et en toute confiance.
L’approche de X en matière de sécurité est étayée par ses conditions d’utilisation, y compris les règles et politiques, qui sont conçues pour garantir que tout utilisateur puisse participer à la conversation publique de manière sûre. Chacun doit pouvoir s’exprimer sur la plateforme et nous ne tolérons pas les comportements qui harcèlent, menacent ou intimident dans le but de faire taire la voix d’autrui. Nous nous engageons à maintenir un environnement inclusif, où des perspectives diverses peuvent être partagées, débattues et appréciées.
Notre service se caractérise par le fait que les utilisateurs rejoignent une conversation sur les sujets qui les intéressent ou sur ce qui se passe dans le monde à un moment donné. C’est un peu comme un groupe WhatsApp global, public et en temps réel. Les gens viennent principalement sur X pour suivre et commenter l’actualité sportive, politique et culturelle ou du monde du divertissement, pour débattre de sujets de société ou pour échanger avec leur communauté.
Nous essayons de créer les conditions pour que les utilisateurs puissent être activement engagés dans la conversation, tout en leur laissant le choix de l’utilisation qu’ils souhaitent avoir du service. Ils peuvent contrôler et personnaliser leur expérience sur X.
Ainsi, ils peuvent consulter un fil d’actualité organisé par notre algorithme de recommandation, voir les publications des comptes auxquels ils sont abonnés de manière antéchronologique, ou encore accéder aux listes qu’ils ont créées ou qui existent déjà. Nous leur fournissons des outils de contrôle du contenu qu’ils souhaitent voir, en fonction des sujets qui les intéressent ou de la sensibilité des publications. Ils ont la possibilité de protéger leurs posts et de limiter les personnes pouvant leur envoyer des messages privés. Ils peuvent également gérer les notifications qu’ils reçoivent de la part de la plateforme et avoir recours aux fonctionnalités de sécurité, telles que l’exclusion des mots clés, les contrôles de conversation ou les fonctions de blocage et de silence. Enfin, ils peuvent dépersonnaliser leur expérience et limiter le partage de leurs données avec des tiers.
Afin de garantir la sûreté des utilisateurs sur le réseau, X s’appuie sur un ensemble de règles et de politiques. Elles s’articulent autour de trois piliers : la sécurité, la confidentialité et l’authenticité. La conduite haineuse, les comportements inappropriés et violents, ainsi que les discours violents, l’exploitation sexuelle des enfants ou la nudité non consentie sont notamment proscrits sur la plateforme.
Concernant l’application de notre politique, notre philosophie est la suivante : nous permettons aux utilisateurs de comprendre les différentes facettes d’un problème et nous encourageons une discussion ouverte autour d’opinions et de points de vue différents. Cette approche permet la coexistence de nombreuses formes de discours sur notre plateforme et promeut en particulier le contre-discours.
Lorsque nous prenons des sanctions, elles peuvent concerner une partie précise du contenu – un post ou un message privé par exemple –, ou un compte. Nous pouvons également avoir recours à une combinaison de ces options. Dans certains cas, nous intervenons, car le comportement concerné enfreint les règles de fonctionnement de X. Dans d’autres, nous agissons en réponse à une demande légale valide d’une entité autorisée dans un pays donné.
Nous prenons des mesures de suspension d’un compte si nous déterminons qu’un utilisateur a enfreint de manière répétée nos politiques ou a commis des infractions à des politiques spécifiques qui représentent un risque majeur pour X – publication d’un contenu illégal, tentative de manipulation de la plateforme ou d’envoi massif de messages indésirables aux utilisateurs, utilisation de la plateforme pour inciter à la violence, etc. – ou qui constituent une menace pour nos utilisateurs – fraude, violation de la vie privée, menace violente, harcèlement ciblé, etc. Toutes nos décisions de modération sont compilées dans notre rapport de transparence globale, que nous mettons à jour tous les six mois et que vous pouvez consulter librement sur notre site internet.
Ce travail de modération est conduit par une équipe internationale et pluridisciplinaire, qui est disponible vingt-quatre heures sur vingt-quatre et maîtrise plusieurs langues.
Afin de garantir que nos modérateurs sont habilités à remplir leurs fonctions, nous leur fournissons un système de soutien solide. Chaque modérateur suit une formation approfondie et des cours de remise à niveau, dispose de différents outils lui permettant d’accomplir efficacement son travail et bénéficie d’une série d’initiatives en matière de bien-être. Nous continuons à investir dans la sécurité, notamment dans nos équipes et nos technologies, et nous mettons en place un centre d’excellence dédié à la modération de contenus.
J’aborderai la question de la protection des mineurs dans le cadre de la discussion.
M. Thibault Guiroy, directeur des affaires publiques France et Europe du Sud de YouTube. YouTube a pris des mesures pour protéger les mineurs sur la plateforme. Dans ce domaine, notre approche est guidée par des grands principes que nous avons élaborés – comme nous le faisons toujours – en collaboration avec des experts de la protection de l’enfance.
Le premier de ces principes est que la vie privée, la sécurité physique, la santé mentale et le bien-être des enfants et des adolescents exigent des protections particulières en ligne et qu’ils doivent être au cœur de la conception de nos produits. C’est pour cette raison que nous avons créé YouTube Kids il y a dix ans, en 2015. Il s’agissait de mettre à la disposition des parents une application permettant aux enfants de moins de 13 ans de regarder des vidéos adaptées à leur âge.
YouTube Kids est disponible dans plus de quatre-vingts pays. Cette version filtrée de YouTube propose des contenus adaptés aux enfants grâce à un système fondé sur les retours des parents, des filtrages automatiques et des examens manuels.
Parmi les spécificités de YouTube Kids, figurent des profils adaptés selon l’âge, pour les plus petits de 4 ans et moins, pour les petits de 5 à 8 ans et pour les grands de 9 à 12 ans. Les parents ont plusieurs paramètres de contrôle. Ils peuvent bloquer très rapidement des contenus ou des chaînes entières, désactiver la fonctionnalité de recherche de contenus, désactiver la lecture automatique ou mettre en place un minuteur, par exemple pour limiter le temps d’écran à trente minutes. Les parents peuvent aussi faire en sorte que leurs enfants n’aient accès qu’à un corpus de contenus qu’ils auront eux-mêmes choisi.
Les contenus jugés trop commerciaux, tels que les vidéos qui se concentrent sur le déballage de produits ou qui encouragent directement les enfants à dépenser de l’argent, sont supprimés de YouTube Kids. Par ailleurs, les placements de produits payants n’ont jamais été autorisés sur YouTube Kids.
Outre YouTube Kids, nous proposons, depuis 2021, des expériences supervisées sur la plateforme YouTube classique. Les parents ont la possibilité de créer des comptes supervisés et de restreindre l’expérience des mineurs sur la plateforme, en limitant les contenus qu’ils peuvent regarder et rechercher. Les paramètres définis pour ces comptes modifient également en profondeur les fonctionnalités que les enfants peuvent utiliser. Le paramètre « Découverte » propose une gamme de vidéos généralement adaptée aux utilisateurs de 9 ans et plus, tandis que le paramètre « Découverte Plus » propose une gamme de vidéos plus large, généralement adaptée aux spectateurs de plus de 13 ans. Enfin, un dernier paramètre permet d’accéder à pratiquement tout YouTube, à l’exception des vidéos marquées comme réservées aux plus de 18 ans.
Pour certains de ces paramètres, les fonctionnalités disponibles sur la version standard de YouTube sont désactivées. Ainsi, les mineurs utilisant la plateforme avec ces paramètres ne peuvent pas regarder ou poster des diffusions en direct, créer des chaînes ou des vidéos courtes, poster des commentaires, réaliser des achats ou souscrire à des contenus payants.
D’autres fonctionnalités, que je ne détaillerai pas, existent pour protéger les mineurs sur la plateforme. Nous avons notamment instauré des rappels pour inciter à faire une pause ou signaler l’heure du coucher. Ils sont activés par défaut, pour limiter le temps d’écran de tous les utilisateurs âgés de 13 à 18 ans. Ces rappels sont proposés depuis 2018, mais nous les rendons chaque année un peu plus présents et plus réguliers, afin de tenir compte de l’évolution des usages et des retours des parents.
En 2018, YouTube a créé une équipe d’experts indépendants dans les domaines des contenus pour enfants, du développement de l’enfant, de l’apprentissage numérique et de la citoyenneté. Issus de milieux scientifiques, universitaires et associatifs, ces treize experts internationaux constituent un comité qui conseille YouTube sur l’évolution des besoins des jeunes, en s’appuyant sur des travaux de recherche reconnus et sur sa propre expertise. Ils donnent également leurs avis sur les produits, les règles et les services que nous proposons aux jeunes et aux familles.
Enfin, des mesures ont été prises pour réduire la recommandation de contenus nocifs pour les plus jeunes. Selon les experts que je viens de mentionner, les adolescents sont plus susceptibles que les adultes de développer des croyances négatives sur eux-mêmes, lorsque les contenus qu’ils consomment les exposent de manière répétée à des messages sur des standards, notamment physiques. Depuis 2023, nous avons identifié des catégories de contenus qui peuvent paraître totalement inoffensifs lorsqu’ils sont visionnés de manière isolée, mais qui peuvent s’avérer néfastes ou toxiques à long terme pour la santé mentale des adolescents lorsqu’ils sont visionnés de manière répétée. Nous avons pris la décision de restreindre leur diffusion, en limitant les recommandations de ces contenus sur la plateforme.
Je vais citer quelques-unes de ces catégories et nous pourrons approfondir le sujet pendant la discussion. Il s’agit notamment de l’idéalisation de normes malsaines ou de comportements problématiques, de niveaux de forme physique ou de poids corporels spécifiques, de la comparaison de caractéristiques physiques et de l’idéalisation de certains types par rapport à d’autres. L’une de nos expertes expliquait récemment que si une jeune fille peut sans problème regarder une vidéo sur le contouring, elle commencera certainement à se poser des questions sur son apparence physique si elle en regarde dix ou quinze. Une dernière catégorie concerne l’encouragement à l’intimidation physique ou au dépassement physique, la violence verbale et les interactions conflictuelles de manière générale.
J’évoquerai plus tard les autres initiatives qui ont été prises, notamment les panneaux d’information à destination des adolescents concernant la prévention des troubles de santé mentale.
Mme Laure Miller, rapporteure. Chacun est dans son rôle et il est normal que vous mettiez en évidence les mesures prises par vos plateformes respectives pour améliorer la pertinence du contenu proposé à vos utilisateurs. Certaines de ces initiatives sont intéressantes, mais nous souhaitons surtout évoquer les dysfonctionnements – vous reconnaîtrez sans doute qu’ils existent – et les solutions qui permettraient d’y mettre fin.
Mon fils de 5 ans a un tracteur électrique à deux vitesses, dont la première est destinée aux plus petits. Malheureusement, le fabricant n’a pas prévu de pouvoir empêcher l’utilisation de la vitesse la plus rapide. Par conséquent, avoir deux vitesses ne sert à rien. Mon fils cherche en permanence à passer la seconde vitesse, parce qu’elle lui procure davantage de sensations fortes.
Pour transposer cet exemple dans le domaine des plateformes, si vous élaborez des dispositifs pour protéger nos enfants, il faudrait les imposer au lieu de seulement les proposer, car ils ne les utiliseront pas d’eux-mêmes.
Pourriez-vous nous donner des précisions sur vos modèles économiques ? Comment fonctionnent vos algorithmes ? Leur objectif est-il de capter l’attention des utilisateurs et de les « retenir » pour qu’ils visionnent davantage de publicités ?
M. Anton’Maria Battesti. Je possède également ce tracteur et, théoriquement, une bride peut être vissée pour empêcher l’utilisation de la seconde vitesse. Cet exemple montre en tout cas que l’information donnée aux parents et aux consommateurs est essentielle pour qu’ils puissent se servir correctement de nos outils.
S’agissant de notre modèle économique, la publicité représente l’essentiel du chiffre d’affaires de Meta. Vous avez le choix entre un modèle payant sans publicité et un modèle gratuit avec de la publicité ciblée en fonction de différents critères, comme vos centres d’intérêt, votre âge ou votre localisation. L’objectif est de vous proposer l’expérience publicitaire la plus pertinente possible. Ce n’est pas une boîte noire. En cliquant dessus, vous pouvez accéder à des explications sur les raisons pour lesquelles vous voyez telle ou telle publicité. Cet outil de transparence vous permet d’ajuster votre expérience publicitaire, si vous le souhaitez. Je donnerai aux administrateurs un document public – le « Meta Consumer profiling techniques » –, qui est publié dans le cadre du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques), dit Digital markets act (DMA). Vous y trouverez beaucoup plus de détails sur notre façon de fonctionner.
Les principes que je viens de vous décrire ne concernent pas les mineurs, puisque le DSA nous demande de ne pas leur proposer de publicité. C’est tout à fait bien qu’ils ne soient pas exposés à de la publicité sur nos plateformes. Ils peuvent l’être par ailleurs, dans d’autres types d’expériences vidéoludiques, mais pas sur les réseaux sociaux, et ça doit continuer ainsi.
Pour ce qui est de l’attention, il faut que vous ayez une bonne expérience pour que vous utilisiez le service. Il n’existe pas de compagnie aérienne sans passagers. Si vous n’êtes pas en confiance, vous ne venez pas. Par conséquent, il est important que le réseau ne soit pas une poubelle. Sinon, les gens s’en détournent et préfèrent d’autres expériences. Il faut également préserver les annonceurs. J’ai connu quelques campagnes de boycott radicales. Quand ils ne veulent pas que leurs marques soient associées à certains contenus, ils le font comprendre et arrêtent de faire des campagnes sur vos plateformes. Quand votre chiffre d’affaires dépend de la publicité, c’est un paramètre important.
L’objectif est que vous ayez une bonne expérience. Vous pouvez appeler ça « économie de l’attention », mais il faut quand même que vous trouviez de l’intérêt à ce qui vous est proposé. Au-delà des règles et des lois qui doivent – cela va de soi – être respectées, il ne faut pas dériver vers des choses qui ne seraient pas dans l’intérêt économique de la plateforme.
Mme Claire Dilé. Le modèle économique de X repose sur trois éléments. La publicité est l’un d’eux. Nous travaillons avec des annonceurs et beaucoup de marques qui utilisent notre service comme un espace publicitaire. Nous avons également développé les abonnements. Cette utilisation payante du service ne s’accompagne d’aucune publicité. Enfin, nous commercialisons les accès aux interfaces de programmation d’application (API).
Notre modèle repose donc sur ces trois éléments, mais principalement sur les annonceurs.
M. le président Arthur Delaporte. Quelle est la répartition entre ces sources de revenus, en pourcentage ?
Mme Claire Dilé. Je n’ai pas ces chiffres avec moi. Je pourrai regarder, mais vous pouvez retenir que nos revenus proviennent principalement de la publicité et des annonceurs.
Nous ne leur proposons pas de publicité ciblée, mais les mineurs ne constituent de toute façon pas un public cible pour X. Il est important de le mentionner.
Concernant le fonctionnement de notre algorithme, j’ai rappelé dans mon propos introductif que les utilisateurs pouvaient choisir entre une présentation algorithmique et antéchronologique de leur fil d’actualité.
Les centres d’intérêt renseignés au moment de l’inscription sur la plateforme, les interactions avec les différents types de contenus, les comptes suivis, les contenus partagés ou aimés, tous ces éléments informent l’algorithme des contenus qui sont censés nous intéresser. Les propositions sont faites sur la base de ces signaux.
Nous sommes conscients que ces recommandations peuvent amplifier les contenus. Or il est important pour nous d’avoir une approche responsable. C’est la raison pour laquelle tous les contenus préjudiciables ou contraires à la loi sont exclus des recommandations algorithmiques. On les filtre pour limiter leur visibilité sur le réseau.
En tant qu’utilisateur, vous avez en outre la possibilité d’indiquer que vous n’êtes pas intéressé par un contenu. Dans ce cas, il ne vous sera pas reproposé. Vous pouvez également filtrer des comptes.
Un réseau comme X a intérêt à proposer à ses utilisateurs un environnement sûr, y compris pour des raisons économiques. Les annonceurs et les marques avec lesquels nous travaillons sont très sensibles à cet aspect-là. Nous sommes certifiés par des organismes comme DoubleVerify, qui informent les annonceurs de la capacité des différents réseaux à préserver leur intégrité et leur réputation. C’est un élément que nous suivons avec beaucoup d’attention. Nous faisons en sorte que notre réseau soit sûr.
M. Thibault Guiroy. Je ne possède pas le tracteur auquel vous avez fait référence, mais l’analogie est intéressante, notamment pour aborder les questions liées à la vérification de l’âge et appréhender la manière dont nous pouvons offrir une expérience appropriée à chaque utilisateur en fonction de son âge.
Le modèle économique de YouTube repose sur deux piliers, qui sont d’une part la publicité, et d’autre part les revenus issus des abonnements YouTube Premium. Nous avons 125 millions d’abonnés dans le monde. S’agissant des revenus publicitaires, nous les partageons avec les créateurs des contenus, qui en conservent 55 %. Le reste revient à YouTube.
L’algorithme de recommandation de YouTube a pour but d’aider chaque utilisateur à découvrir les vidéos qu’il a envie de regarder, en optimisant sa satisfaction sur le long terme. Ce point est important, car nous sommes une plateforme de temps long, sur laquelle les utilisateurs passent beaucoup de temps à regarder majoritairement des contenus longs.
Pour associer chaque utilisateur aux vidéos qu’il est le plus susceptible de regarder et d’apprécier, l’algorithme de recommandation utilise plus de 80 milliards de signaux. Dans les grandes lignes, il s’agit de ce que l’utilisateur regarde, des chaînes auxquelles il est abonné, des contenus qu’il n’a pas regardés ou du temps pendant lequel il a regardé un contenu. Les historiques de visionnage et de recherche peuvent cependant être désactivés à tout moment, pour avoir une expérience sans recommandation.
Le système prend par ailleurs en considération le fait que d’autres utilisateurs ont regardé une vidéo jusqu’à la fin, ce qui est souvent un signe de qualité, ou qu’ils ont abandonné peu de temps après avoir commencé à la visionner.
Le pays de l’utilisateur et l’heure de la journée peuvent aider à lui proposer des actualités locales pertinentes.
D’autres éléments importants sont les mentions « j’aime » et « je n’aime pas », les partages, les commentaires – notamment la mention « pas intéressé » qu’il est possible d’indiquer pour refuser une recommandation de contenu et s’assurer que celui-ci ne sera pas reproposé – ou les sondages effectués avant ou après le visionnage pour savoir si le contenu proposé était pertinent et de qualité.
Ces signaux peuvent être complétés ou modifiés par nos grands principes en matière de responsabilité. YouTube accorde une prime aux contenus qui font autorité ou qui sont considérés comme fiables et les remontent dans la sélection, notamment en réponse à des recherches sur des thèmes de société, comme les élections ou le réchauffement climatique. Il peut s’agir de contenus de médias, mais aussi de contenus proposés par certains créateurs jugés particulièrement fiables.
À l’inverse, la visibilité des contenus qui sont à la limite de franchir nos conditions d’utilisation, mais qui ne les franchissent pas, peut être réduite.
Enfin, je préciserai qu’il était totalement impossible, même avant l’entrée en vigueur du DSA, de faire de la publicité ciblant les mineurs sur la plateforme.
M. le président Arthur Delaporte. Nous allons essayer d’organiser nos débats en trois temps, en commençant par le modèle économique et l’algorithme. Nous aborderons ensuite les logiques de modération et enfin les questions de vérification d’âge et de protection des mineurs.
Vous avez tous plus ou moins reconnu que votre modèle repose sur l’économie de l’attention, qui vous permet de vendre de la publicité. Théoriquement, vous ne pouvez pas cibler les mineurs, mais peut-être le faites-vous du côté de Meta ? Il me semble que vous n’avez pas totalement clarifié ce point, contrairement à X.
Les influenceurs obtiennent plus de vues, et donc sont mieux rémunérés, lorsqu’ils tiennent des propos cash ou clash, car l’algorithme renforce leur visibilité. Considérez-vous comme un problème, au moins d’un point de vue éthique, que des contenus qui peuvent être qualifiés de problématiques génèrent davantage de trafic et de revenus que des contenus de qualité, qui sont moins viraux ?
M. Thibault Guiroy. Ce que je viens de vous décrire répond à votre question. Nous avons deux systèmes qui vont totalement à l’encontre d’une mise en avant des contenus qui génèrent potentiellement du clash ou sont de piètre qualité. Nous accordons une prime aux contenus de médias ou de sources qui font autorité, en les affichant de manière prééminente. Cette pratique est peut-être contre-intuitive sur un plan économique, mais nous avons décidé de prendre ce parti chez YouTube. Par ailleurs, nous réduisons la viralité et la visibilité de certains contenus que nous ne pouvons pas supprimer, parce qu’ils ne violent ni la loi française ni nos conditions d’utilisation, mais qui sont potentiellement nuisibles ou que nous ne souhaitons pas voir recommandés. Nous le faisons de manière transparente, conformément aux obligations fixées par le règlement sur les services numériques, le DSA, mais nous n’hésitons pas à le faire à chaque fois que c’est nécessaire.
Mme Claire Dilé. Nous avons une sorte de pyramide avec différents étages. Le premier, ce sont nos conditions d’utilisation, qui sont comparables aux règles d’un jeu de société. Elles s’appliquent de façon globale. Le deuxième, c’est la loi applicable en France, notamment la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. Nous suspendons sur le territoire national tous les contenus qui sont illégaux.
Nous réfléchissons par ailleurs à la granularité de la modération. Certains contenus violent assez clairement nos règles de fonctionnement et certains contenus violent assez clairement la loi, mais d’autres sont plutôt du domaine du clash. Pour ces contenus gris, nous développons des filtres de visibilité. Nous avons lancé une action de modération qui s’appelle Freedom of Speech, not Freedom of Reach. Les contenus dont nous considérons qu’ils violent de manière potentiellement moins grave certaines de nos règles sont affichés comme tels et désamplifiés algorithmiquement. Nous empêchons en outre les gens d’interagir avec ces contenus. C’est une façon un peu plus fine d’agir sur ces contenus gris, mais néanmoins sensibles.
X est moins une plateforme d’influenceurs aujourd’hui, mais nous conservons un programme pour les créateurs de contenu. Les règles qui régissent le fonctionnement de ce type d’activité sur la plateforme sont plus strictes que les règles applicables aux utilisateurs classiques. Je ne vais pas vous les détailler, mais par exemple un créateur de contenu ne peut pas faire de la promotion en utilisant des événements sensibles de l’actualité. Il ne peut pas monétiser une tragédie. Même si ça coule de source, il s’agit de l’une de nos règles.
M. le président Arthur Delaporte. Depuis quelques mois, je suis surpris par l’augmentation du nombre de publicités relatives aux cryptomonnaies sur X. J’ai l’impression de ne voir que ça, alors que je ne clique jamais dessus. En outre, ces publicités sont souvent accolées aux publications de M. Elon Musk et de M. Donald Trump. Leur contenu politique est-il particulièrement mis en avant par l’algorithme ? Comment expliquez-vous la recrudescence des publicités concernant les cryptomonnaies, dont il est d’ailleurs probable qu’une grande partie contrevienne au droit français ?
Mme Claire Dilé. Les règles sont plus strictes pour les publicités. Je n’ai pas sous les yeux les publicités sur la cryptomonnaie auxquelles vous faites référence, mais elles peuvent être couvertes par ces règles.
Nous avons deux façons d’agir, d’une part la détection – qui fonctionne très bien pour certains types de contenu et moins bien pour d’autres, notamment ceux basés sur du texte – et d’autre part le signalement. Aujourd’hui, nous nous reposons principalement sur les signalements. Normalement, vous devez avoir la possibilité de signaler ces publicités. La plateforme s’engage à les retirer de plus en plus rapidement. Nous travaillons également au renforcement de la détection, afin de proposer un environnement plus sécurisé. Voilà globalement comment nous fonctionnons.
N’hésitez pas à m’envoyer ces publicités, si vous voulez que nous les examinions de façon plus précise.
M. le président Arthur Delaporte. Je vais vous envoyer tout mon fil X !
Mme Claire Dilé. Le fonctionnement de notre algorithme est identique pour tous les comptes, y compris ceux que vous avez mentionnés. J’ajoute qu’il est toujours possible de bloquer ou de mettre en sourdine des comptes qu’on ne souhaite pas suivre.
M. Anton’Maria Battesti. On peut se focaliser sur les contenus problématiques, mais les contenus positifs sur les droits des LGBTQI – c’est le mois des fiertés – ou le changement climatique ont également des audiences de plusieurs millions de personnes. Des choses très positives pourraient faire de l’ombre à ces choses très négatives. Je tiens à vous rassurer sur le fait qu’il n’y a pas de préférence pour les choses négatives par rapport aux choses positives.
S’agissant de l’argent et du modèle économique, la relation entre les influenceurs et les marques est directe sur Instagram. Les marques leur donnent de l’argent pour qu’ils fassent la promotion de leurs produits. La réglementation nous demande de garantir la transparence et de faire en sorte que ce soit bien affiché, ce qui est tout à fait normal. En revanche, nous n’avons aucun intérêt dans cette relation commerciale.
En ce qui concerne la publicité, les annonceurs comme Nike ou Adidas veulent savoir si les utilisateurs aiment faire du sport, plutôt que s’ils suivent telle ou telle personne. C’est plus parlant pour eux de savoir que vous avez liké la page du Stade de France ou la page du PSG. Ce sont ces signaux-là qui sont pertinents pour les annonceurs et qui leur permettent de cibler un homme entre 35 et 45 ans, urbain, qui s’intéresse au sport et qui pourrait acheter une nouvelle paire de Nike par exemple.
Vous trouverez beaucoup de précisions dans les documents que nous pourrons vous transmettre, mais je ne voulais pas laisser circuler l’idée que nous aurions un quelconque intérêt économique avec ces individus. Nous pourrons discuter de leur présence sur les plateformes et de la manière de la réguler, mais je préférais être clair à ce sujet.
M. Thierry Sother (SOC). Des études universitaire et scientifique ont prouvé que les propos radicaux étaient « poussés » par les algorithmes, car ils permettaient plus d’interactions. Vos différentes plateformes ont-elles recours à de telles pratiques pour maintenir l’attention et s’assurer d’une présence accrue de leurs utilisateurs ?
M. Anton’Maria Battesti. Je ne peux répondre que pour Meta.
Il faut avoir une approche globale de l’économie dite de l’attention. Elle concerne aussi la télévision – je me souviens des débats sur la télé poubelle – ou les jeux vidéo. Nous devons engager collectivement une réflexion à propos des écrans et de la concurrence qui peut exister en matière de temps passé. Néanmoins, je voudrais vous rassurer sur le fait que ce phénomène n’est pas nouveau. On a toujours cherché à faire en sorte que les gens regardent le programme qu’on propose plutôt que celui du voisin. La nouveauté est que nous sommes à l’heure des réseaux sociaux.
Je serai intéressé par les études auxquelles vous avez fait référence, car il en existe de nombreuses et nous avons observé que ce n’étaient pas forcément les contenus radicaux qui suscitaient le plus d’engagement, c’est-à-dire qui étaient le plus likés, commentés ou partagés. Il peut aussi s’agir de contenus positifs – et c’est mieux comme ça.
Parfois, certains contenus font réagir les gens de manière énervée. Ils peuvent être choqués par une actualité ou par ce qu’ils voient. Ça ne fait pas d’eux des radicaux. Ils réagissent à une situation de façon outragée, émotive, etc. En tous cas, ils réagissent, positivement ou négativement. Un réseau social fonctionne horizontalement. Vous ne faites pas que recevoir du contenu, comme à la télévision. Vous pouvez réagir et partager avec d’autres utilisateurs. C’est ce qui est vraiment différent. Il faudrait entrer dans les détails pour déterminer quels contenus font réagir, positivement ou négativement.
Mme Claire Dilé. Tout dépend de ce que vous considérez comme des contenus radicaux. Ce qui relève de la conduite haineuse, du discours violent, du harcèlement ou des abus est interdit.
Effectivement, il y a une forme d’émotion dans ce que partagent les gens. Potentiellement, cela suscite de l’engagement autour d’événements internationaux qui peuvent choquer ou amener à réfléchir. Je ne vais pas répéter ce qui a été dit par Anton’Maria Battesti, car c’est la même chose pour X que pour Meta. L’algorithme fait remonter les contenus qui suscitent de l’engagement dans le fil de recommandation, car il considère que les contenus qui sont partagés ou likés intéressent les utilisateurs.
Quel est notre intérêt en matière de promotion des contenus ? Ce n’est que mon expérience, mais je constate que nous travaillons beaucoup avec des annonceurs qui sont des marques. Leur intérêt est d’avoir un environnement sûr et sans controverse. L’intérêt économique d’une plateforme comme la nôtre est donc de proposer un tel environnement. À mon avis, ce n’est pas dans notre intérêt de procéder comme vous l’avez indiqué. Néanmoins, l’algorithme fonctionne en effet sur la base de l’engagement que suscitent les contenus.
M. Thibault Guiroy. Nous n’avons absolument aucun intérêt à pousser ces contenus. Chez YouTube, nous allons même dans la direction opposée, en déviralisant des contenus qui ne contreviennent pas directement à nos conditions d’utilisation. Dans les 80 milliards de signaux utilisés pour recommander des contenus, il n’y a aucun critère lié à la radicalité des propos. En outre, comme l’ont dit mes collègues, ces contenus-là ne sont pas particulièrement attractifs pour les annonceurs. J’ajoute que sur YouTube, il est possible de démonétiser certains contenus. Les contenus qui sont déviralisés ont, par essence, vocation à l’être.
Même si c’est un peu ancien, certaines études ont pu prétendre que telle ou telle opinion politique était plus représentée sur telle ou telle plateforme. En réalité, nous constatons que certains partis, souvent les plus radicaux, s’emparent mieux que d’autres des plateformes en ligne, ce qui peut donner l’impression que les opinions radicales sont davantage récompensées sur certaines plateformes. La solution serait que tous les autres partis du spectre politique investissent également les plateformes et y soient représentés. Parfois, nous n’avons pas la possibilité de montrer une pluralité d’opinions sur un sujet, parce que les vidéos ou les chaînes qui permettraient de le faire n’existent pas.
Sur notre plateforme, la monétisation des contenus n’est pas automatique. Il s’agit d’une décision purement discrétionnaire de la part de YouTube. Pour l’obtenir, il faut avoir au moins 1 000 abonnés et des contenus qui ont totalisé 4 000 heures de visionnage au cours des douze derniers mois. Elle n’est donc pas ouverte au premier venu qui souhaiterait diffuser des contenus extrêmement radicaux et en tirer profit.
M. Stéphane Vojetta (EPR). Le tracteur du fils de Mme la rapporteure nous livre un exemple très pertinent. Le passage de la première à la seconde vitesse illustre la capacité que nous avons, en tant que parents, d’exercer un contrôle sur des modes d’utilisation qui peuvent devenir dangereux.
Vous avez décrit avec beaucoup de précision l’ensemble des instruments que vous mettez à disposition des parents et des familles pour contrôler et encadrer l’usage des réseaux par les enfants et les adolescents, mais quel est, pour chacune de vos plateformes, le taux d’utilisation de ces outils pour les comptes que vous identifiez comme appartenant à des mineurs ?
Pour reprendre cette analogie, ne pensez-vous pas que la solution idéale serait, plutôt que d’empêcher le passage d’une vitesse à l’autre, de vendre un tracteur configuré par défaut avec la première vitesse ? Il reviendrait aux parents qui le souhaitent de débrider le véhicule, de manière volontaire, pour permettre son utilisation à une vitesse plus rapide.
M. le président Arthur Delaporte. Vous avez pris un peu d’avance par rapport à notre programme, mais en effet le tracteur n’aurait-il pas dû être vendu bridé par défaut ? Ne devrait-il pas en être ainsi également pour les réseaux sociaux ? Pourquoi ne pas bloquer certaines fonctionnalités par défaut ? Sinon, il est trop facile de créer un compte majeur quand on est mineur.
Mme Aurore Denimal. Dans le monde, 54 millions de jeunes ont accès aux comptes « Ado » et 97 % restent dans le dispositif. Son utilisation est donc massive.
Les comptes « Ado » sont un dispositif par défaut, comme un tracteur qui serait vendu bridé.
M. Anton’Maria Battesti. Nous ne fabriquons pas de terminaux. Nous pourrions réfléchir collectivement à une approche centralisée, qui permettrait d’adapter les équipements en fonction de l’âge et de prendre en compte toute l’expérience numérique (jeux vidéo, plateformes de contenus, réseaux sociaux, etc.). Certains produits sont adaptés pour les enfants, comme les appareils VTech, mais que se passe-t-il entre 8 et 15 ans ? Il existe plein de contrôles parentaux et de systèmes divers, mais nous pourrions aborder le sujet autrement, en impliquant les opérateurs de télécoms, les fabricants de téléphones, les plateformes, etc. Même si des progrès ont été faits, nous devons continuer à avancer dans ce domaine.
Mme Claire Dilé. Pour reprendre l’image du tracteur et de ses différentes vitesses, les plus jeunes ont l’interdiction de le conduire. Vous n’avez pas le droit d’être sur X entre 0 et 13 ans. Nous n’avons pas de version Kids. Entre 13 et 15 ans, il existe une procédure de consentement parental. Si vous essayez de vous inscrire en indiquant l’âge de 14 ans, nous vous renverrons vers le formulaire de consentement, qui devra être rempli par le parent ou le tuteur légal. Jusqu’à l’anniversaire des 16 ans, il faut une autorisation pour être sur le réseau social. Entre 16 et 18 ans, les mineurs sont placés dans un environnement protégé, qui est identique à celui qui s’applique par défaut aux utilisateurs verrouillés. Tout le monde peut d’ailleurs décider d’évoluer dans cet environnement.
Entre 16 et 18 ans, les paramètres en matière de vie privée, de sûreté et de sécurité sont renforcés, ce qui signifie que certains types de contenus, notamment des contenus sensibles, ne sont pas accessibles. Même en cliquant sur ces contenus, ils resteront derrière un filtre. Par ailleurs, les jeunes ne peuvent pas être contactés par des messages personnels et privés et leurs tweets seront vus seulement par leurs amis. La géolocalisation est en outre désactivée par défaut et le mode de recherche est sécurisé, puisque l’option Safe Search est activée par défaut. Enfin, modifier l’âge renseigné au moment de l’inscription est impossible. S’il est compris entre 16 et 18 ans, il ne sera pas possible de prétendre que vous avez en fait 22 ans.
L’une des pierres angulaires de l’efficacité de ce dispositif est la vérification de l’âge. Le sujet sera probablement abordé plus tard dans notre discussion, mais je voulais expliquer le type d’environnement dans lequel évoluent les utilisateurs mineurs.
M. Thibault Guiroy. YouTube Kids connaît un succès très important en France depuis dix ans et compte plusieurs dizaines de millions d’utilisateurs dans le monde. Les parents manifestent un réel engouement pour cette plateforme.
Nous redirigeons vers YouTube Kids les parents qui, à partir de la plateforme YouTube classique, consultent majoritairement des contenus qui se trouvent sur cette plateforme. Nous organisons régulièrement des campagnes à destination du grand public pour améliorer sa notoriété et faire en sorte qu’elle soit mieux connue des parents.
Le taux d’adoption des expériences supervisées – que j’ai évoquées dans mon propos introductif – est également excellent. Je vous communiquerai les chiffres après l’audition. Nous proposons le paramètre « Découverte » pour les 9-12 ans, car nous avons constaté qu’à partir d’un certain âge, certains enfants ne souhaitaient plus rester sur la plateforme YouTube Kids. Ils voulaient suivre certains contenus en particulier ou accéder à une gamme de contenus beaucoup plus large. Les expériences supervisées répondent à cette demande.
Monsieur le député Vojetta, vous estimez qu’il est important que les outils de contrôle parentaux soient disponibles par défaut sur les terminaux. Nos collègues ingénieurs de Google ont développé la solution Family Link, qui permet des réglages fins. Elle est désormais offerte à toute personne utilisant un téléphone équipé de l’OS Android.
Tous ces garde-fous devraient permettre de répondre à vos préoccupations.
Mme Laure Miller, rapporteure. Vous avez tous indiqué que vous n’aviez aucun intérêt économique à promouvoir des contenus négatifs et à leur laisser prendre de l’ampleur sur vos plateformes. Pourriez-vous affirmer qu’aucune solution technique ne permet de paramétrer l’algorithme pour que les contenus négatifs qui suscitent beaucoup de réactions et d’engouement ne soient plus mis en avant ?
M. Anton’Maria Battesti. Dans ce domaine, il faut certainement combiner la technique et l’humain.
La plupart des contenus que vous voyez sont ceux que vous décidez de suivre. Ils proviennent des pages ou des comptes auxquels vous êtes abonnés. Lorsque ce n’est pas le cas, il s’agit souvent de contenus partagés par l’un de vos contacts, c’est-à-dire un ami ou un proche. Je ne sais pas quelle marge de manœuvre nous avons dans ce domaine, mais en effet vous êtes susceptible de voir des contenus partagés par quelqu’un que vous connaissez.
Des évolutions sont intervenues dans les barres de recherche, sur Instagram et Facebook. Après avoir fait l’objet d’une vérification, les fake news ont vu leur visibilité s’effondrer de 90 %.
Les logiques que vous évoquez existent. Je n’ai pas de réponse à vous apporter immédiatement, mais votre question est pertinente et ouvre une réflexion pour l’avenir. Des études permettraient peut-être d’avancer. Nous ne devons pas non plus être trop interventionnistes. Gardons à l’esprit que nous sommes une plateforme d’expression. Les gens viennent pour ça. Néanmoins, nous sommes sortis de l’époque où il n’y avait pas tous ces dispositifs. Il faut continuer à approfondir le sujet.
Mme Laure Miller, rapporteure. Votre réponse est intéressante, mais la question s’adressait surtout à X. J’aimerais d’ailleurs la compléter. S’agissant des contenus de MM. Elon Musk et Donald Trump, leur mise en avant n’est pas le fruit de notre imagination. Des médias ont mis ce phénomène en évidence. Il ne m’a pas semblé que vous le contestiez. En revanche, pouvez‑vous me confirmer que les utilisateurs doivent indiquer qu’ils ne sont pas intéressés par ces contenus pour qu’ils disparaissent de leur fil ?
Mme Aurore Denimal. Je ne réponds pas à la place de X, mais je voulais compléter ce qu’a dit M. Anton’Maria Battesti.
Ce n’est pas dans notre intérêt de promouvoir des contenus sensibles. Nous avons déjà des outils qui permettent aux utilisateurs de les signaler, d’indiquer les contenus qu’ils ne veulent pas voir, de masquer des mots, etc. Nos ingénieurs ont également développé des outils internes, avec des technologies d’IA, qui permettent de masquer automatiquement les contenus sensibles. Vous avez probablement vu ce type d’écran sur Instagram.
S’agissant des algorithmes de recommandation, les plateformes Meta laissent la possibilité aux utilisateurs de choisir les contenus qui leur sont proposés. Ils peuvent décider de les limiter aux comptes qu’ils suivent ou de les présenter chronologiquement. Ce n’est pas parfait, mais les utilisateurs ont quand même la main sur les contenus qu’ils voient, au moins dans une certaine mesure.
Mme Claire Dilé. Notre algorithme est configuré avec des filtres qui permettent d’exclure les contenus préjudiciables, ceux qui sont potentiellement violents, évidemment ceux qui sont contraires à la loi, etc. Il est entraîné par des outils d’apprentissage automatique, à partir de contenus qui lui sont montrés, afin de reconnaître ces contenus et les contenus similaires. Ce n’est pas complètement infaillible. Ça reste une machine. En tout cas, c’est ainsi que ça doit fonctionner.
Est-ce que nous pouvons faire mieux ? C’est évident et l’IA peut être un moyen d’améliorer la reconnaissance de ce type de contenus.
M. le président Arthur Delaporte. Je suis désolé de vous interrompre, mais la question portait sur une éventuelle mise en avant des contenus politiques de MM. Donald Trump et Elon Musk.
Mme Claire Dilé. J’y viens. Je voulais d’abord répondre à la question de Mme la rapporteure, pour être complète.
Comme je l’ai expliqué, l’algorithme fonctionne à partir de signaux qui montrent l’intérêt des utilisateurs pour certains contenus. Ils amplifient les contenus qui suscitent de l’engagement.
Il n’y a pas de raison pour que les deux comptes que vous avez mentionnés soient particulièrement mis en avant. Par qui le seraient-ils ? En revanche, ces personnes tweetent beaucoup et leurs comptes sont suivis par beaucoup de personnes. Donc, ils suscitent de l’intérêt. Par rapport à d’autres comptes qui ont des millions de followers, ces comptes peuvent d’ailleurs générer moins d’engagement.
Concernant le fait de potentiellement pousser les contenus du président américain, l’algorithme ne prend pas en compte la dimension politique. Il se fonde sur des signaux qui permettent d’identifier ce qui intéresse les gens. Néanmoins, ça reste un gros compte.
M. le président Arthur Delaporte. Connaissez-vous l’étude réalisée par l’université technologique du Queensland ?
Mme Claire Dilé. Cela ne me dit rien.
M. le président Arthur Delaporte. Elle analyse les biais constatés sur X durant les élections de 2024. Elle montre que l’algorithme de la plateforme a été modifié pour augmenter la visibilité des posts de M. Elon Musk à la suite de son soutien à M. Donald Trump.
Mme Claire Dilé. Si la question est de savoir si j’ai connaissance de cette étude, je n’en ai pas connaissance.
S’agissant de l’algorithme de X, une enquête de la Commission européenne est en cours. En tant qu’entreprise, nous collaborons avec elle. Nous travaillons en bonne intelligence avec ses services. S’il y a un souci avec notre algorithme, le DSA donne les moyens à la Commission européenne de le vérifier. Elle a les moyens de s’assurer qu’il n’y a pas de problème avec notre algorithme.
M. le président Arthur Delaporte. Ou de constater qu’il y en a…
Si vous pouvez modifier l’algorithme pour augmenter la visibilité de certains posts, vous pouvez le faire plus largement et agir de manière proactive sur certains contenus, au-delà de la prise en compte de l’engagement.
Mme Claire Dilé. Est-ce une question ?
M. le président Arthur Delaporte. Oui. Si vous pouvez modifier la visibilité de certains posts à caractère politique, vous pouvez le faire de manière plus générale et agir sur l’algorithme pour qu’il ne tienne pas seulement compte de l’engagement des utilisateurs. Est-ce que vous le confirmez ?
Mme Claire Dilé. À ma connaissance, nous ne pouvons pas faire ça.
M. le président Arthur Delaporte. À votre connaissance…
Mme Laure Miller, rapporteure. Pouvez-vous nous décrire comment fonctionne la modération pour chacune de vos plateformes ? Combien avez-vous de modérateurs sur le continent européen ? Sont-ils formés et, le cas échéant, de quelle façon ?
M. le président Arthur Delaporte. Vous pouvez commencer par nous indiquer combien vous avez de modérateurs et comment leur nombre a évolué.
M. Anton’Maria Battesti. À l’échelle globale, le chiffre que je peux vous citer est de 15 000 modérateurs. Les rapports transmis à la Commission européenne dans le cadre du DSA font état d’environ 600 personnes qui travaillent pour le marché français. Nous sommes obligés d’être transparents à ce sujet et c’est très bien. Néanmoins, l’effort en matière de modération doit s’apprécier en prenant également en compte l’IA. Elle joue un rôle énorme dans la modération de plateformes comptant plusieurs centaines de millions d’utilisateurs. C’est un peu comme le pilotage automatique, qui aide les pilotes dans les avions.
Le nombre de modérateurs n’est pas le seul élément important. Ce qui compte, c’est plutôt la combinaison entre la technologie et l’humain.
M. le président Arthur Delaporte. S’agissant du nombre de modérateurs, la tendance est-elle à la hausse ou à la baisse ? Chez TikTok, ces effectifs ont baissé de 20 %. Est-ce également le cas chez Meta ?
M. Anton’Maria Battesti. À ma connaissance, les chiffres sont stables. Il faudrait reprendre les rapports de transparence de ces dernières années, mais ceux que j’ai consultés montrent une certaine stabilité, même une légère hausse.
Mme Aurore Denimal. Selon nos rapports de transparence, le nombre de modérateurs évolue plutôt à la hausse.
M. le président Arthur Delaporte. Malgré les améliorations de l’IA, vous avez quand même recruté des modérateurs…
M. Anton’Maria Battesti. Ce n’est pas incohérent. C’est ceinture et bretelles ! Il faut des humains, parce que l’IA ne peut pas tout faire, et il faut plus d’IA pour ce qu’elle sait faire.
M. Thibault Guiroy. Chez Google, 20 000 personnes effectuent de la modération de contenus. Le dernier rapport remis à la Commission européenne indique qu’un peu plus de 400 personnes sont francophones, pour modérer les contenus français. Ces chiffres sont relativement stables.
Mme Claire Dilé. Dans le dernier rapport de transparence publié dans le cadre du DSA, nous avons indiqué que 1 486 personnes effectuaient de la modération de contenu, dont 63 de langue maternelle française et 73 pour lesquelles le français est la deuxième langue. Ces chiffres n’ont pas évolué depuis les précédents rapports.
M. le président Arthur Delaporte. Nous vérifierons tout ça.
Mme Aurore Denimal. Je peux préciser les chiffres de Meta. Pour la période allant d’avril à septembre 2023, nous disposions de 206 modérateurs. Pour la dernière période qui a fait l’objet d’un rapport, c’est-à-dire la fin de l’année 2024, ils étaient 630. L’évolution est donc importante.
M. Thierry Sother (SOC). Je souhaite revenir sur la modération, pour évoquer un exemple qui a été documenté et repris dans la presse. En février 2023, à l’occasion du Super Bowl aux États-Unis, de nombreux articles de presse ont mentionné que l’algorithme de X avait été modifié dans la nuit pour mettre spécifiquement en avant les contenus du propriétaire de la plateforme. Quatre-vingts personnes ont été mobilisées pour rendre ses tweets 1 000 fois plus visibles.
Plus récemment, en janvier, le « 20 heures » d’une chaîne du service public a, dans une rubrique intitulée « L’œil du 20 heures », fait l’expérience de créer un nouveau profil sur X – je suis désolé de cibler cette plateforme. Sans suivre aucun compte et sans avoir d’activité spécifique, les contenus des comptes évoqués tout à l’heure par M. le président étaient particulièrement mis en avant.
Les plateformes ont la capacité d’augmenter la visibilité de certains contenus. Puisqu’elles ont intérêt à offrir l’espace le plus sécurisé possible aux annonceurs, desquels elles tirent leur profit, pourquoi ne modifient-elles pas leur algorithme pour privilégier les contenus les moins toxiques ? J’emprunte ce terme à David Chavalarias, qui est chercheur au Centre national de la recherche scientifique (CNRS) et qui a démontré une forte croissance des contenus toxiques dans le fil des utilisateurs les plus fréquents de X.
Mme Claire Dilé. J’ai lu les mêmes articles que vous concernant le compte du propriétaire de X. Je vous ai expliqué comment fonctionne notre algorithme. À ma connaissance, il n’amplifie pas les contenus de cet utilisateur en particulier. Je ne peux pas vous apporter plus de précisions, parce que je n’en ai pas.
M. le président Arthur Delaporte. Vous n’aviez pas connaissance de biais liés à la modification de l’algorithme, mais vous en avez appris l’existence dans la presse, est-ce exact ?
Mme Claire Dilé. Ce n’est pas exactement ce que j’ai dit. J’ai lu les articles de presse qui évoquent ce sujet, mais à ma connaissance, l’algorithme ne pousse pas certains comptes de manière spécifique, y compris ceux que vous avez mentionnés.
M. le président Arthur Delaporte. Donc, c’est la presse qui se trompe…
Mme Claire Dilé. Je vous fais cette réponse, car j’ai prêté serment au début de cette audition et que je me dois d’être totalement honnête avec vous.
M. le président Arthur Delaporte. Je ne sais pas si vous répondez totalement à la question de M. Sother.
Mme Laure Miller, rapporteure. Pour revenir à la modération, pouvez-vous nous indiquer combien de modérateurs sont situés sur le continent européen, en précisant dans quels pays ils se trouvent. Quelle est la part de la sous-traitance ?
M. Anton’Maria Battesti. Je ne dispose pas de tous les chiffres, mais je vous rassure sur le fait que des Français travaillent à la modération chez Meta.
Quand je parle de modération, j’englobe celle qui est effectuée au jour le jour par des gens devant des écrans, mais aussi la supervision et les équipes qui traitent de sujets particulièrement sensibles comme la lutte contre le terrorisme, la protection de l’enfance ou celle des élections. Nous disposons de rapports à ce sujet et je pourrai vous les transmettre.
Aucun modérateur n’est basé à Paris. Ces personnes sont notamment à Dublin. Il est de notoriété publique que nous avons eu un centre de sous-traitance à Barcelone. Le gouvernement français l’avait visité il y a quelques années – en 2019, je crois –, dans le cadre de la mission de régulation des réseaux sociaux dirigée par M. Loutrel. Il n’y a rien de mystérieux. Il faudrait que je recherche des chiffres à jour concernant la sous-traitance. Je ne les ai pas.
En tout cas, il y a bien des Français parmi les modérateurs, même s’ils ne sont pas basés à Paris. À l’heure du numérique, ils peuvent exercer leur métier de n’importe où. Ils restent néanmoins proches géographiquement, rassurez-vous ! J’espère avoir répondu à vos questions.
M. le président Arthur Delaporte. Vos réponses manquent un peu de précision concernant la géographie, mais vous nous transmettrez ces informations.
Mme Claire Dilé. Nous avons des modérateurs partout dans le monde, parce que la modération doit être effectuée en temps réel, au moment où les violations potentielles des règles de la plateforme surviennent. Je ne connais pas la localisation précise de ces équipes dans l’Union européenne, mais je pourrai vous communiquer ces informations par écrit. Je n’avais pas particulièrement préparé cette question.
M. le président Arthur Delaporte. Elle figurait pourtant dans le questionnaire que nous vous avions transmis.
M. Thibault Guiroy. Je ne connais pas la répartition des modérateurs au sein de l’Union européenne.
Nous disposons d’un très grand centre de sécurité à Dublin. Ce n’est pas un secret, puisque la ministre chargée de l’IA et du numérique, Clara Chappaz, s’y est rendue il y a quelques semaines.
S’agissant de la localisation de nos personnels, il est important de préserver leur sécurité. Par conséquent, il est préférable de ne pas être extrêmement précis à ce sujet, sauf dans nos réponses à vos services ou à la Commission européenne.
Nous disposons également d’un bureau de renseignement. Des équipes interviennent en amont de la modération pour analyser ce qui se passe sur l’intégralité du web, dont les plateformes, les messageries privées, etc. Elles essayent d’anticiper les menaces qui peuvent ensuite toucher d’autres plateformes. Ces équipes sont francophones et connaissent parfaitement le contexte local. Elles sont en mesure de réagir très rapidement lorsqu’un incident survient, comme nous avons malheureusement pu le vérifier au cours des dernières semaines.
Nous avons donc 402 modérateurs francophones dans l’Union européenne, selon les derniers rapports que nous avons soumis à la Commission européenne. Je ne connais pas la part de sous-traitance, mais je vais me renseigner et je transmettrai cette information à vos services.
M. le président Arthur Delaporte. Les réseaux exposent les mineurs à des scènes choquantes ou à des propos choquants. La qualité de la modération constitue donc un enjeu majeur. La localisation des équipes peut être importante, car elle influe sur leur connaissance du contexte. C’est également un élément de comparaison entre les différentes plateformes.
Pouvez-vous nous expliquer pourquoi X ne dispose que de 1 000 modérateurs ? Avez‑vous vingt fois moins de modérateurs que les autres parce que votre algorithme de modération est vingt fois plus efficace ? Êtes-vous vingt fois moins performants qu’eux ?
Mme Claire Dilé. Non, ce n’est pas lié à ça. Tout d’abord, nous sommes une plus petite entreprise. Nous n’avons que 11 millions de comptes en France. Vous allez me dire que ce n’est pas le même ratio…
M. le président Arthur Delaporte. Vous avez deux fois moins de comptes que d’autres, mais vous avez dix fois moins de modérateurs.
Mme Claire Dilé. La modération est évidemment une question de personne, mais nous utilisons également des algorithmes pour détecter certains contenus. En matière d’exploitation sexuelle des enfants, de terrorisme ou de discours violent par exemple, le traitement est automatisé. Les modérateurs interviennent plutôt après des signalements. Ils traitent les contenus spécifiques, qui nécessitent de comprendre le contexte.
Regardez les temps de réponse qui sont mentionnés dans nos rapports de transparence. Ils sont relativement courts.
L’efficacité de notre modération est liée à la manière dont nous gérons les volumes. Au‑delà du nombre de personnes, nous souhaitons disposer d’équipes internes et de centres d’excellence, dans lesquels les employés sont mieux formés et comprennent mieux les enjeux et les subtilités des règles. Je comprends votre question sur le nombre de personnes, mais la situation doit être appréciée de manière globale, en tenant compte de la formation, des outils technologiques, etc.
M. le président Arthur Delaporte. Vous avez raison. C’est la raison pour laquelle la localisation des modérateurs est également un élément important pour nous.
Chez YouTube, considérez-vous que la performance de la modération soit liée au nombre de modérateurs ?
M. Thibault Guiroy. Nous utilisons un mélange d’intelligence artificielle et de revue humaine.
Nous retirons 8 à 9 millions de vidéos par trimestre dans le monde et, ce qui est assez peu, environ 65 000 par trimestre en France. Dans 95 % des cas, ces contenus ont d’abord été signalés par l’intelligence artificielle, mais une intervention humaine peut être nécessaire. Ce coût est incompressible, notamment lorsqu’il faut comprendre le contexte. Une machine n’est pas en mesure de le faire, en tout cas pour le moment. Si vous prenez l’exemple d’une vidéo réalisée dans une zone de guerre, elle ne saura pas dire si la vidéo relève de l’apologie du terrorisme ou d’un témoignage journalistique, si elle est extraite d’un documentaire, etc.
Nous nous appuyons énormément sur l’intelligence artificielle, mais nous avons aussi besoin de modérateurs humains.
Par ailleurs, le règlement sur les services numériques nous oblige – nous le faisions déjà chez YouTube – à donner aux utilisateurs la possibilité de faire appel de la décision lorsqu’un de leurs contenus est supprimé de la plateforme. Ce sont des cas où nous avons besoin de modérateurs humains. En outre, la personne qui traite l’appel doit être différente de celle qui a pris la première décision.
Mme Aurore Denimal. Je ne l’avais pas mentionné, car il ne s’agit pas vraiment d’un modérateur, mais nous avons quelqu’un à Paris qui répond notamment aux réquisitions judiciaires et qui traite les cas extrêmement graves de pédopornographie, sextorsion, suicide ou conduite terroriste avec un risque imminent. Cette personne connaît parfaitement le contexte franco-français et peut répondre à ces urgences.
Comme YouTube, Meta permet aux utilisateurs de faire appel des décisions, à plusieurs niveaux. Ce sont des modérateurs humains qui interviennent, et pas seulement une machine. Nous avons également un conseil de surveillance pour revoir certains contenus. Nous pourrons y revenir, si le sujet vous intéresse.
M. le président Arthur Delaporte. Voulez-vous ajouter quelque chose, madame Dilé ?
Mme Claire Dilé. Non, pas particulièrement. J’ai dit tout ce que j’avais à dire.
Mme Laure Miller, rapporteure. J’ai l’impression que vous êtes surpris par le niveau de détail que nous attendons dans vos réponses. Nous avons eu ce même sentiment lors de l’audition des représentants de TikTok. Malgré le questionnaire qui vous a été remis au préalable, vous ne semblez pas maîtriser – au moins certains d’entre vous – toutes les données relatives à la modération. Or cette dernière occupe une place centrale dans nos travaux, car de nombreux contenus problématiques subsistent sur les différentes plateformes.
Quelle est, pour chacune de vos plateformes, la stratégie en matière de modération ? Repose-t-elle sur de grandes lignes directrices ? Le cas échéant, qui les fixe ? Comment sont-elles déclinées par les modérateurs qui sont derrière leur ordinateur ?
En moyenne, combien de contenus sont modérés par chaque modérateur ?
M. Anton’Maria Battesti. Nous essayons d’être le plus précis possible. Nous vous transmettrons les éléments qui pourraient manquer, mais essayons d’avancer dès aujourd’hui.
Je ne connais pas la part de sous-traitants parmi les 15 000 personnes que j’évoquais. Néanmoins, tous les modérateurs appliquent les mêmes règles et reçoivent le même entraînement. Ce qui compte, c’est que les règles s’appliquent.
S’agissant des règles, les standards de la communauté sont publics. Leurs évolutions peuvent également être consultées. Ils fixent de manière très détaillée ce qu’il est possible de faire et de ne pas faire sur la plateforme. Je ne vais pas vous les lire, parce qu’il faudrait un certain temps, mais ces règles existent. Il est vraiment important que nos utilisateurs les connaissent et les respectent.
Nous nous appuyons sur des professionnels qui viennent de tous les horizons, qui ont toutes les nationalités et qui pratiquent toutes les langues. C’est une équipe internationale. Nos utilisateurs se trouvent à 80 % en dehors des États-Unis d’Amérique. Nous devons en tenir compte. Tout le monde n’est pas là-bas ou dans l’Union européenne. Ces professionnels ont des expériences variées, notamment dans le domaine juridique. Certains ont travaillé pour la justice. Nous avons également des avocats.
Le processus de modération nous amène à effectuer beaucoup de consultations sur le terrain. Nous travaillons avec des associations, des ONG ou des experts de certains sujets. Pour vous citer un exemple, le déni de l’holocauste, donc le négationnisme, était auparavant soumis à la loi locale. Quoi qu’on en pense, il n’est pas illégal dans tous les pays. Nous l’avons toutefois intégré dans les règles de l’entreprise – les standards de la communauté – et il est désormais interdit partout. Nous avons pris cette décision, car beaucoup de parties prenantes nous le demandaient. Elles considéraient qu’autoriser ce type de contenus était inacceptable.
Nos règles ont beaucoup évolué. L’important est de le faire de manière transparente. Il faut que ce soit connu et auditable.
Pour ce qui est des chiffres, je ne veux pas être trop long, parce que tout est accessible en ligne. Vous trouverez la part de contenus qui est modérée par l’humain et celle qui fait l’objet d’une détection proactive, c’est-à-dire par la machine. Les contenus terroristes sont identifiés à 99 % par la machine et il y a d’autres domaines dans lesquels elle est assez efficiente. La prévalence des contenus problématiques, c’est-à-dire la part qu’ils représentent pour 10 000 contenus postés par exemple, est une autre donnée disponible. Tout ça est intéressant pour évaluer l’efficacité de nos dispositifs.
On a parfois l’impression que tout est négatif, mais est-ce vrai, est-ce mesurable ? Nous avons fait d’énormes progrès. La réglementation a joué un rôle, mais la notion de transparence est vraiment essentielle. La modération ne doit pas être une boîte noire. Les questions que vous nous posez le sont depuis un certain nombre d’années. Ce qui a changé depuis le DSA, c’est que j’ai beaucoup plus de choses à dire et à montrer. Il y a cinq, six ou sept ans, nous communiquions moins. Nos chiffres étaient moins précis. Nous pouvons collectivement nous féliciter de ces évolutions.
Nous ne voulons pas vous inonder de chiffres aujourd’hui, mais nous veillerons à ce que vous ayez toutes les données qui vous intéressent.
Mme Claire Dilé. Nos règles communautaires reposent sur trois piliers : la vie privée, la sécurité et l’authenticité. Elles sont publiques et accessibles à tous. Nous rendons également publique la façon dont nous appliquons ces règles, c’est-à-dire les différentes sanctions appliquées en fonction des différents types d’infractions.
Ces règles ont été progressivement consolidées, en fonction des violations qui étaient observées sur la plateforme et de l’évolution des usages. Par exemple, nous avons constaté qu’en ce moment, certains utilisateurs malveillants utilisaient un mot de manière détournée, avec l’intention de nuire. Nous travaillons avec des partenaires associatifs et des signaleurs de confiance, que nous n’avons pas encore évoqués, pour détecter et gérer ces pratiques.
Après les événements du 7 octobre 2023, nous avons observé une montée de l’antisémitisme en Europe. En réaction, nous avons fait évoluer les règles encadrant le traitement de ce sujet sur la plateforme, pour intégrer les nouveaux termes et les nouveaux usages que nous avons malheureusement vus apparaître. Nous avons modifié nos outils de formation en interne et nous les avons envoyés à des modérateurs contractuels pour qu’ils en prennent connaissance. C’est l’une des raisons pour laquelle nous souhaitons renforcer nos équipes en interne. Cela nous permettra de mieux les former à l’application de nos règles.
La modération est effectuée par rapport à nos règles communautaires, mais nous avons également des personnes en interne qui s’assurent du respect de la loi et du retrait des contenus illégaux. Ils connaissent les lois françaises, les lois en Europe ou dans d’autres juridictions.
M. Thibault Guiroy. Chez YouTube, nous avons également deux grilles de lecture – le droit français et nos conditions d’utilisation – pour retirer des contenus. Les différences entre les deux sont ténues, ce dont nous pouvons nous féliciter. Généralement, ce qui contrevient au droit français contrevient également à nos conditions d’utilisation.
Comme X et Meta, nous avons besoin de flexibilité et nous faisons évoluer nos politiques de retrait de contenus très fréquemment. L’exemple le plus marquant est la période de la pandémie de covid. D’un jour à l’autre, les injonctions, y compris du corps médical, étaient totalement contradictoires, notamment concernant la prise d’hydroxychloroquine. Nous avions besoin d’un avis sur certains contenus, pour les retirer le plus rapidement possible après signalement. Nous nouons donc des partenariats avec l’écosystème externe, avec les signaleurs de confiance ou avec l’Organisation mondiale de la santé. Une équipe de YouTube est d’ailleurs spécialisée dans le domaine de la santé.
Donc, nous faisons évoluer nos politiques de retrait très régulièrement, pour tenir compte des événements internationaux, comme les conflits qui se déroulent actuellement. Nous avons par ailleurs mesuré l’efficacité de notre modération et je peux vous citer quelques chiffres. On évalue le taux de succès de la modération en calculant un taux de vues non conformes. Ce système est probablement assez proche de celui de Meta. Au premier trimestre 2025, notre taux de vues non conformes était de 0,1 %. Cela signifie que pour 10 000 vues de contenus sur YouTube, seulement dix concernaient des contenus qui ont ensuite été retirés en raison de leur non-conformité à nos conditions d’utilisation. Un autre indicateur que nous suivons est le nombre de vues générées par un contenu avant qu’il soit supprimé. Or 80 % des vidéos sont retirées avant d’avoir généré dix vues et 55 % le sont avant d’avoir généré une seule vue.
La séance est suspendue de quinze heures trente-cinq à quinze heures cinquante.
Mme Laure Miller, rapporteure. Nous avons auditionné des jeunes, victimes des réseaux sociaux. Outre leurs témoignages relatifs à TikTok, l’un d’entre eux a fait part de son sentiment d’avoir été submergé par des contenus prônant l’automutilation et la scarification sur Instagram. Lorsque nous l’avons rencontré, il allait mieux, mais il lui a été difficile de s’en sortir. L’automutilation et la promotion du suicide ne sont pas des sujets nouveaux et je sais que vous vous en êtes saisis. Comment parvenez-vous à modérer ces contenus, alors qu’il faut parfois utiliser des hashtags ou des mots détournés pour les faire apparaître ? Avez-vous fait évoluer votre modération ?
M. Anton’Maria Battesti. Il serait intéressant de savoir à quelle époque ce jeune a vécu ces choses terribles. Nous ne pouvons que reconnaître que, dans ce cas, quelque chose ne va pas. Nous faisons de notre mieux et nous devons faire plus que notre mieux. Notre travail consiste certes à expliquer ce qui fonctionne, mais aussi à reconnaître quand cela ne va pas.
Une fois qu’on a dit cela, que fait-on ? La logique des comptes « Ado » vise notamment à traiter la question des contenus, mais aussi le temps passé ou les contacts. L’objectif est que les adolescents ne soient plus exposés à des contenus problématiques, tels que ceux promouvant la chirurgie esthétique, la violence, la mutilation, etc. Les contenus auxquels ils sont exposés doivent être adaptés à leur âge. Ce n’est pas encore le cas à 100 %, mais nous devons viser ces 100 %.
Le DSA est très exigeant dans le domaine de la protection des mineurs, comme nous le sommes tous, que nous soyons parents ou non. Les comptes « Ado » sont l’expression pratique de l’idée qu’il faut offrir un cadre adapté à ces publics. Toutes les personnes éligibles au compte « Ado » et inscrits sur la plateforme ont un compte « Ado ». Nous vous enverrons des détails sur leur fonctionnement.
Mme Aurore Denimal. Les contenus sensibles faisant l’objet de restrictions portent nomment sur le suicide, l’automutilation ou encore la chirurgie esthétique.
En outre, couplée aux comptes « Ado », la supervision parentale permet aux parents de se co-saisir du sujet – avec les plateformes, qui sont évidemment actrices en la matière. Les parents peuvent voir les comptes que leurs enfants suivent et les sujets qui les intéressent, afin d’engager des discussions avec eux. Encore une fois, la supervision parentale ne se substitue pas au rôle des plateformes et à notre obligation de restreindre la visibilité de ces contenus. C’est simplement un outil supplémentaire.
M. Anton’Maria Battesti. Nos partenaires comme e-Enfance ou Point de contact nous alertent sur l’émergence des nouvelles pratiques. Nous l’avons vu dans d’autres domaines, comme l’antisémitisme ou les discours de haine, certains mots peuvent être détournés. Je salue leur travail, parce que sans eux, nous ne parviendrions pas à détecter certaines tendances. Avec les signaleurs de confiance, le 3018 et les mesures instaurées par e-Enfance ou Génération numérique pour l’éducation numérique, il existe un écosystème français remarquable.
Mme Claire Dilé. Il faut distinguer l’exposition à des contenus qui promeuvent le suicide ou l’automutilation et appellent une modération, de la protection des utilisateurs qui ont ce type de comportement sur la plateforme. Ces deux volets sont aussi importants l’un que l’autre.
Quand des utilisateurs recherchent du contenu en utilisant des mots liés au suicide ou à l’automutilation, ils sont renvoyés vers notre partenaire SOS Amitié, dont la hot-line peut leur apporter de l’aide et du soutien.
Cette protection fait aussi partie du mandat de la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements, Pharos, avec laquelle nous coopérons en France. Pharos a d’ailleurs déjà contacté le réseau – la plateforme a mon numéro de téléphone personnel, entre autres – parce qu’un utilisateur avait posté un contenu non pas illégal, mais laissant entendre qu’il pourrait attenter à ses jours ou mettre sa vie en danger. Le cas échéant, nous fournissons les données utilisateurs à la plateforme, pour qu’elle puisse remonter jusqu’à eux, afin de les protéger.
Mme Laure Miller, rapporteure. Si je tape « scarification », je serai orientée vers une plateforme de type SOS Amitié ou autre. Mais que se passera-t-il si j’utilise un mot détourné ou mal orthographié, par exemple « sc4rification » ? Parvenez-vous à adapter le système de protection aux mots-clés détournés, notamment par le jeune public ?
M. Anton’Maria Battesti. Oui. Nous pourrions faire le test, mais j’imagine que vous n’avez pas de compte « Ado ».
M. le président Arthur Delaporte. Ces mots détournés peuvent aussi être utilisés par des majeurs.
M. Anton’Maria Battesti. Les variantes de lettres sont prises en compte. Cela étant, les jeunes ont beaucoup d’imagination. Nos partenaires sont essentiels dans ces domaines.
Mme Aurore Denimal. De nombreux mots détournés nous sont communiqués par e-Enfance. M. Sother évoquait tout à l’heure le reportage diffusé dans « L’œil du 20 heures » de France 2, qui traitait de la pédopornographie. Nous travaillons avec les signaleurs de confiance, notamment pour identifier les nouvelles orthographes.
M. Thibault Guiroy. Les contenus incitant au suicide, à l’automutilation ou aux troubles alimentaires, destinés à choquer ou à susciter du dégoût, ou présentant un risque élevé pour les spectateurs, ne sont pas autorisés sur la plateforme YouTube.
Par ailleurs, nous utilisons des fenêtres interstitielles entre les requêtes en relation avec l’automutilation, le suicide ou les troubles alimentaires et les résultats de recherche. Nos équipes de YouTube Santé travaillent en lien avec des établissements de santé en France et des partenaires comme le 3114, numéro national de prévention du suicide, ou la Fédération française anorexie boulimie, dont le rôle consiste à mieux mettre en valeur des contenus qui font autorité, pour de telles requêtes.
M. le président Arthur Delaporte. Nous avons reçu des influenceurs santé.
M. Thibault Guiroy. Le Conseil national de l’Ordre des médecins effectue un important travail de cadrage. Nous l’avons aidé à élaborer une charte du médecin créateur de contenu responsable.
Sur YouTube, si vous tapez certains mots-clés relatifs aux sujets dont nous venons de parler, vous ne verrez pas les résultats de recherche s’afficher, mais une page qui vous redirigera soit vers le 3114, soit vers la Fédération française anorexie boulimie, et qui vous demandera si vous souhaitez malgré tout accéder aux pages des résultats de recherche.
Nos équipes de YouTube Santé essaient aussi de développer le contenu relatif à la préservation de la santé mentale. Nous évaluons à environ 35 000 les contenus relatifs à la santé mentale pour la France. Ils totalisent 180 millions de vues. Ce n’est pas anecdotique et nous entendons accélérer dans ce domaine. Ces données chiffrées sont disponibles sur le site de l’organisation YouTube Health.
M. le président Arthur Delaporte. J’ai tapé #Skinny sur X, et je suis tombé, parmi les premiers résultats, sur un contenu « I’ll be soon skinny », dans lequel une personne mesure l’épaisseur de son ventre avec une carte bancaire, et qui comptabilise près de 50 000 vues, 4 000 likes et 200 retweets. D’autres personnes montrent un ventre un peu plus épais, mais des traces de scarification.
J’ai fait l’exercice sur X, mais nous avons reçu des signalements similaires concernant des reels sur Instagram, notamment autour de la communauté de l’influenceuse Ophenya. Nous pourrons vous montrer des captures d’écran. Certains reels montrent des scarifications récurrentes, ou des contenus du type « Rechutez en silence » avec des marques de sang sur des mouchoirs. En général, ce sont des jeunes, voire des très jeunes qui suivent cette influenceuse, laquelle gagne beaucoup d’argent avec des personnes dont le mal-être est certain.
Comment modérez-vous ces contenus visuels, a priori ou dès leur publication ?
Ces contenus existent et sont assez choquants, même s’il est écrit « C’est juste une petite entaille ». Je vous les montrerai, nous n’allons pas les diffuser à l’écran. Je précise toutefois que, sur Instagram, on tombe plus souvent que sur TikTok sur des zèbres plutôt que sur des scarifications, avec la requête « zèbre ».
Mme Aurore Denimal. Nous sommes preneurs de ces contenus. S’ils peuvent nous être remontés par les signaleurs de confiance, c’est un excellent levier pour agir plus rapidement.
M. le président Arthur Delaporte. Comment expliquez-vous qu’ils passent entre les mailles du filet ? Avez-vous des dispositifs spécifiques de détection ?
M. Anton’Maria Battesti. La question est de savoir si les mineurs voient ces contenus.
M. le président Arthur Delaporte. En l’occurrence, ce sont des mineurs.
M. Anton’Maria Battesti. Les voient-ils ou les publient-ils ?
M. le président Arthur Delaporte. Les deux.
M. Anton’Maria Battesti. Il y a donc effectivement un problème.
M. le président Arthur Delaporte. TikTok est particulièrement concerné, mais l’intérêt de cette audition est de montrer que ces problèmes ne sont pas isolés et s’observent partout.
Sur YouTube, nous n’avons pas nécessairement observé ces contenus spécifiques, mais d’autres types de contenus n’en sont pas moins problématiques. Nous parlions tout à l’heure de la désinformation en santé. Lors d’une rencontre organisée par YouTube au sujet de la charte de l’Ordre des médecins, le compte de M. Casasnovas avait été pointé. Celui-ci, qui compte 2 millions d’abonnés, fait la promotion du crudivorisme et de pratiques qui ne sont pas sans danger.
Comment mieux réguler ce domaine ? Avez-vous des suggestions d’amélioration de la base légale ? Notre rôle étant de faire évoluer le droit, elles nous intéressent.
M. Thibault Guiroy. Nous ne disposons pas de base nous permettant d’agir concernant les contenus que vous avez mentionnés, que ce soit en vertu du droit ou de nos conditions d’utilisation. C’est d’autant plus regrettable que la personne que vous citez a fait l’objet de dizaines de signalements à la Miviludes, la mission interministérielle de vigilance et de lutte contre les dérives sectaires, avec laquelle nous travaillons.
M. le président Arthur Delaporte. Cette personne a-t-elle fait l’objet d’une condamnation judiciaire ?
M. Thibault Guiroy. Je l’ignore. Le cas échéant, c’était une condamnation pour exercice illégal de la médecine, pas pour ses propos. Peut-être y a-t-il un vide juridique à combler.
En tout cas, soyez rassurés, nous travaillons avec les autorités et nous essayons d’échanger le maximum d’informations au sujet de créateurs problématiques. Mais nous n’avons pas de base sur laquelle nous appuyer.
De fait, le règlement sur les services numériques nous oblige à engager des actions en vertu de critères précis – le droit local ou nos conditions d’utilisation. En l’absence de base juridique, nous risquons d’être poursuivis par les personnes contre lesquelles nous engageons une action. Cela arrive d’ailleurs assez régulièrement. Il existe des contenus que nous ne voulons pas voir sur la plateforme, mais en l’état actuel du droit, il est compliqué de s’appuyer sur une base juridique solide pour empêcher leur publication.
Mme Laure Miller, rapporteure. Avez-vous besoin que le droit soit plus clair pour vous permettre de retirer les contenus relevant de zones dites grises, comme les sujets que nous venons d’évoquer ou encore le sexisme ou le masculinisme ? Ne pourriez-vous pas durcir vos conditions d’utilisation et votre règlement interne ? Seriez-vous poursuivis par les créateurs de contenus dès lors que le droit n’interdit pas certains propos ?
M. Thibault Guiroy. Le fait que certains créateurs de contenu ne soient pas condamnés par un tribunal pour leurs propos pose problème. S’il existait de telles condamnations, il serait plus simple pour nous d’engager des actions vis-à-vis de ces contenus.
S’agissant des propos sexistes ou misogynes, nous avons demandé une analyse à un avocat spécialisé en droit de la presse – nous sommes très diligents, dès que nous recevons des signalements. Cet avocat nous a transmis son analyse, d’une dizaine de pages, qui explique pourquoi ces contenus ne violent pas la législation française en l’état actuel du droit. C’est un problème. Ces contenus peuvent être considérés comme choquants ou nauséabonds, mais en l’état actuel du droit, ils ne franchissent pas la ligne.
Par ailleurs, si des propos et des comportements potentiellement choquants ne sont pas réprimés par le législateur, car il ne l’a pas jugé utile, il est compliqué de le faire par le biais de nos conditions d’utilisation. Toutefois, celles-ci ont vocation à évoluer. Ainsi, si le droit français réprimait certains propos, elles pourraient évoluer.
M. le président Arthur Delaporte. Dans les conditions générales d’utilisation de YouTube, je lis : « Nous n’autorisons pas les contenus qui incitent à la violence ou à la haine envers certains individus ou groupes d’individus en fonction des caractéristiques suivantes : sexe […]. » Globalement, nous retrouvons de telles clauses dans toutes les conditions générales d’utilisation.
Pourquoi ne pouvez-vous pas être mieux-disants que le droit en vigueur ? Ne pouvez-vous pas exercer une part de libre arbitre et fixer des conditions générales plus protectrices que les règles qui régissent l’espace social ?
M. Thibault Guiroy. La mise en balance entre liberté d’expression et suppression de contenus potentiellement choquants est toujours délicate. Je pourrai vous faire parvenir, à titre confidentiel, l’analyse de l’avocat. Elle est très précise.
Les jurisprudences relatives à la liberté d’expression sont claires, dans l’Union européenne, y compris quand elles concernent des contenus choquants. On peut s’en féliciter, parfois. Ces décisions ont permis que des journaux satiriques continuent à exercer librement leur activité dans notre pays.
Si le droit doit évoluer, il n’y a pas de raison que nos conditions générales d’utilisation n’évoluent pas.
Mme Laure Miller, rapporteure. Qu’en est-il pour Meta et X ? Pourquoi ne fixez-vous pas de conditions générales d’utilisation plus vertueuses que le droit ? Vous pourriez, par exemple, demander à vos utilisateurs de ne pas tenir de propos sexistes. Vous pourriez être mieux-disants.
M. Anton’Maria Battesti. Il faut distinguer l’intention de l’impact. L’intention, on peut la partager. Il ne faut pas toujours tenir le DSA pour intouchable. Il a le mérite de créer un cadre général, selon lequel les plateformes doivent instaurer des moyens de modération et expliquer comment ils fonctionnent. Dans la pratique quotidienne, les mêmes questions se posent, État membre par État membre, situation par situation, cas particulier par cas particulier. Nous avons parfois été mieux-disants. Par exemple, le déni de l’Holocauste est désormais modéré y compris dans des pays où ces propos sont autorisés au titre de la liberté d’expression.
On peut faire évoluer nos conditions d’utilisation, mais on ne devrait pas nous laisser en décider seuls. Il faut un minimum de consensus entre toutes les parties prenantes, dont l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) et vous. Sinon, nous pourrions prendre des décisions qui ne seraient pas les bonnes, mais aussi être critiqués et notre légitimité pourrait être remise en cause. C’est un débat auquel nous sommes confrontés au quotidien.
La régulation existe. On ne peut pas faire sans. Ce cadre est précis et a été spécifiquement créé pour nous. Mais, dans la pratique quotidienne, il faut des engagements multiacteurs. L’Observatoire de la haine en ligne, qui a été créé par la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet dite loi Avia et est rattaché à l’Arcom, doit vivre. Le groupe de contact permanent du ministère de l’intérieur n’a pas été réuni depuis plusieurs mois. Il avait été créé pour réunir les plateformes et l’État afin de parler de ces questions – pas seulement du terrorisme.
J’entends vos préoccupations, mais nous n’avons pas vocation à décider seuls de ce que nous pouvons dire ou ne pas dire. Vous nous donnez un pouvoir, mais nous pourrions être critiqués, si nous l’exercions.
Ce n’est pas une manière de nous cacher pour ne rien faire, mais notre message est qu’il faut maintenir une approche multiacteurs. Nous avons signé la charte alimentaire de l’Arcom. Nous réfléchissons aussi à la façon d’être plus vertueux et d’aller plus loin dans ce domaine avec l’Autorité de régulation professionnelle de la publicité (ARPP). Ce processus présente l’avantage de réunir des instances, des autorités publiques et des entreprises, pour avancer ensemble.
J’entends vos intentions. Mais quand la plateforme décide seule, il arrive qu’on s’en plaigne.
Il y a certes, tout là-haut à Bruxelles, le DSA qui existe et que nous devons appliquer. Mais il faut réfléchir à la façon de l’appliquer au quotidien, à l’échelle de notre pays, dans le cadre de notre consensus démocratique et social sur ce qui est acceptable, y compris pour des cas nouveaux.
Je ne suis peut-être pas assez clair, mais je pense qu’on ne doit pas décider seul, même avec les meilleures intentions du monde. Ce n’est pas facile à entendre, parfois.
M. le président Arthur Delaporte. C’est même difficile à entendre.
M. Anton’Maria Battesti. Je m’attendais à votre réaction.
M. le président Arthur Delaporte. Pourquoi avez-vous une politique proactive en matière de nudité, mais pas concernant le sexisme ? N’est-il pas presque plus choquant d’entendre un homme qui appelle à battre les femmes que de voir un bout de téton ?
M. Anton’Maria Battesti. Soyons clairs. Nous parlons ici de mineurs. Une politique stricte, voire très stricte au sujet de la nudité empêche les mineurs de consulter des images à caractère pornographique, ou permet de bloquer les contenus publiés dans le cadre du revenge porn. J’assume pleinement une politique de nudité hyperstricte. Certains la qualifient de puritaine, mais elle a le mérite d’être efficace.
Par ailleurs, les propos incitant à taper ou à attaquer une personne doivent être modérés. On ne parle pas de sexisme du café du commerce, mais de propos qui incitent à la violence. Si nous ne les modérons pas, nous avons des comptes à rendre. Je n’ai pas de désaccord de principe en la matière, heureusement d’ailleurs.
M. le président Arthur Delaporte. C’est au cœur de la question. Vous dites que vous ne pouvez pas être plus durs que le droit, pour respecter la liberté d’expression. Mais la publication d’une image est, en soi, une expression.
Vous censurez une image avec de la nudité, alors que rien, dans le droit, n’interdit de montrer des personnes nues. Vous avez amélioré votre politique, car fut un temps, les photographies de statues grecques étaient censurées sur Meta. Pour autant, certaines personnes que nous avons auditionnées nous ont indiqué que leur contenu avait été bloqué alors qu’elles étaient en tenue de sport.
Nous avons l’impression qu’il existe deux poids, deux mesures.
M. Anton’Maria Battesti. Il est possible de faire appel, car il arrive que nous fassions des erreurs de modération. Cette possibilité est prévue par la réglementation. Une personne qui a fait l’objet d’une surmodération peut faire appel – heureusement – et, normalement, son contenu doit être rétabli.
Par ailleurs, nous ne parlons pas seulement de nudité topless façon émission « Le grand cabaret ». Parfois, nous parlons de nudité que les mineurs ne doivent pas regarder.
M. le président Arthur Delaporte. Nous sommes d’accord avec vous, le contenu pornographique ne doit pas être accessible aux mineurs.
M. Anton’Maria Battesti. C’est le prix à payer.
M. le président Arthur Delaporte. Mais cela signifie que vous tolérez moins le contenu pornographique – qu’on ne vous demande d’ailleurs pas de le tolérer – que du contenu sexiste jugé conforme à la liberté d’expression. Cela ne pose-t-il pas problème, quand on étudie les effets possibles sur des personnes vulnérables, comme les mineurs ? Quand des influenceurs promeuvent des normes de genre inégalitaires, c’est contraire à la devise républicaine.
M. Anton’Maria Battesti. Premièrement, il faut condamner ces propos. Deuxièmement, certains contenus peuvent être de l’ordre du sexisme du café du commerce, que l’on entend à la télévision, par exemple dans l’émission « Frenchie Shore » sur Paramount+. Ces propos peuvent choquer et sont visibles par des mineurs. Malheureusement, le sexisme existe partout et en tout lieu. Il existe donc aussi sur les réseaux sociaux, car il n’existe pas de loi le condamnant urbi et orbi.
Cela étant, les règles doivent se focaliser sur les attaques et sur les appels à la violence, qui vont bien au-delà de ce que l’on peut appeler – cela peut vous choquer – un sexisme du café du commerce. Ces appels à la violence portent atteinte à la sécurité des personnes. Dans ce cas, il est évident que les règles doivent s’appliquer, sinon, nous aurons des comptes à rendre.
Je vous alerte sur le fait que nous n’éradiquerons pas à nous seuls le sujet du sexisme. Il faudrait d’ailleurs déjà le définir. Parfois, on ne parle pas d’appel à la violence, mais de sexisme « d’atmosphère », si je puis dire. Il faudrait le définir et réfléchir à la façon d’agir concernant ces contenus. Pourquoi cette question concerne-t-elle seulement les réseaux sociaux, alors que ces contenus sont librement accessibles par le grand public sur d’autres supports numériques ? Il faut avoir une réflexion à 360 degrés.
Mme Laure Miller, rapporteure. Nous avons le sentiment que vous parvenez à appliquer un principe de précaution s’agissant de la nudité, mais que vous décidez de ne pas le faire pour d’autres formes de contenus problématiques.
M. Anton’Maria Battesti. Il est difficile de censurer une parole a priori. Les gens s’expriment sur une plateforme et, si leurs propos tombent sous le coup de la loi ou des règles de la plateforme, ils sont censurés a posteriori. C’est la règle générale en matière d’expression, si j’ai bien compris le droit applicable. Il est donc difficile de prendre des décisions urbi et orbi, par exemple celle de supprimer le sexisme – sous réserve que cette notion soit précisément définie –, alors qu’il prospère partout dans la société.
Ce pourrait être un choix, mais ce n’est pas un choix que nous devrions prendre seuls. J’invite toutes les parties prenantes à avancer ensemble, plutôt que de nous laisser la responsabilité de la définition de ce qui est attendu et du type de contenu que vous souhaitez que l’on retire. Les choses peuvent évoluer, mais soyons bien au clair sur la méthode.
Mme Laure Miller, rapporteure. J’ai du mal à comprendre l’argument selon lequel il faut avancer groupé et personne ne doit prendre de décision avant les autres. Vous êtes des entreprises privées et nous sommes dans une économie de marché. Vous pourriez considérer le fait d’adopter des pratiques plus vertueuses que les autres comme un avantage concurrentiel. Vous pourriez fonder davantage que d’autres la modération sur le principe de précaution. Cela rendrait peut-être Meta plus attractive que les autres plateformes.
M. Anton’Maria Battesti. Le paradoxe est que vous confiez à une entreprise privée une privatisation complète de la liberté d’expression, qui ne va pas totalement dans le sens de ce qu’a voulu le législateur ces dernières années, puisqu’il nous demande de rendre des comptes en cas d’absence de modération, mais aussi en cas de surmodération.
L’avis du Conseil constitutionnel au sujet de la loi Avia était frappant. Il a considéré comme inconstitutionnel de laisser les plateformes décider en vingt-quatre heures de ce qui est légal ou non, constitutionnel ou non – pas de chance ! Le DSA pose aussi des jalons.
On ne souhaite pas aller vers un système d’utraprivatisation de la liberté d’expression. J’invite à plutôt aller vers une logique multiacteurs. Je ne dis pas que la question posée n’est pas pertinente au fond, bien au contraire. Elle est éminemment importante. Simplement, il faut être clair quant à la manière de décider de retirer du contenu ou des comptes, même si nous ne les apprécions pas.
Mme Claire Dilé. Je suis sensible à votre question. C’est l’un de nos sujets de réflexion permanente, en matière de modération. C’est toujours une question d’équilibre.
S’agissant du sexisme, sur X nous interdisons la conduite haineuse envers des catégories protégées, parmi lesquelles le genre et l’orientation sexuelle. Mais, selon les contenus, il est plus ou moins facile de déterminer s’il s’agit d’attaques. La difficulté vient de là.
Nous pouvons aller plus loin que ce que reconnaît la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) s’agissant de la haine, mais il est difficile de savoir quelle décision prendre. Cela peut sembler évident, mais ça ne l’est pas. Quand le contenu relève clairement de la haine, nous le modérons. Mais, quand nous avons un doute, nous avons plutôt tendance à le laisser en ligne. Dans le doute, en effet, nous préférons privilégier la liberté d’expression.
S’agissant des mots détournés, il serait peut-être trop binaire de ne mentionner que la loi ou nos règles d’utilisation. Il faut aussi recueillir de l’information auprès d’associations qui ont une expertise spécifique, car en tant que plateformes, nous traitons d’un large ensemble de sujets. Nous en avions discuté avec l’Arcom au sujet des signaleurs de confiance. Nourrir cette discussion avec des experts nous permettrait de mieux appréhender les phénomènes et de savoir où placer le curseur.
M. le président a cité un exemple concernant la promotion de la maigreur. Mais je suis parfois interpellée par la présence de mannequins très maigres dans les campagnes publicitaires pour des marques de mode. C’est donc autorisé dans l’espace public. Pour trouver l’équilibre dont je parlais en matière de modération, nous regardons ce qui se fait ailleurs. En l’occurrence, il est difficile de savoir ce qui constitue une apologie de la maigreur. Une campagne de publicité ? Cela se discute. Le post qu’évoquait M. Delaporte correspond-il à du contenu interdit, ou ces propos sont-ils contestables, mais pas interdits ? Il est compliqué de répondre. Nous nous tenons à votre disposition pour vous faire part de nos réflexions en la matière.
Mme Laure Miller, rapporteure. Sur X, les contenus pornographiques sont acceptés.
Mme Claire Dilé. La décision relative aux contenus pour adultes n’a pas été prise par X, elle est antérieure au rachat de la plateforme. Cette question s’inscrit dans celle de la liberté d’expression, dans la mesure où ces contenus ne sont pas illégaux. Quoi qu’il en soit, ces contenus sont restreints, pour les publics mineurs mais pas seulement.
De manière générale, la règle établie par la plateforme est d’installer un filtre de visibilité pour les comptes qui produisent ces contenus : ils ne sont pas dans les zones à haute visibilité de la plateforme et les utilisateurs ne peuvent pas tomber dessus à moins de les chercher activement. Quant aux utilisateurs mineurs, ils sont soumis à un système d’age gating. Ainsi, vous avez raison, ces contenus ne sont pas interdits. Mais ils sont restreints.
M. le président Arthur Delaporte. Au-delà du nom de la plateforme, X, il y a beaucoup de contenu X.
Mme Claire Dilé. Tout dépend de ce que vous entendez par beaucoup. C’est un contenu que nous restreignons, même si nous ne l’interdisons pas. Quand ces contenus sont en fait des liens vers des sites tiers ou du spam, nous modérons.
M. le président Arthur Delaporte. Que se passe-t-il quand un utilisateur présente un extrait de contenu pornographique, en indiquant que l’intégralité peut être visionnée sur son compte OnlyFans ? Le modérez-vous ?
Mme Claire Dilé. Si un contenu renvoie vers un autre compte que nous considérons comme malveillant, nous le modérons en bloquant le compte.
M. le président Arthur Delaporte. Ce n’est pas ma question. Si un acteur pornographique utilise X pour poster des extraits de vidéos et renvoyer vers son compte OnlyFans, est-ce autorisé ?
Mme Claire Dilé. C’est restreint. Il sera derrière un filtre de visibilité.
M. le président Arthur Delaporte. C’est donc autorisé.
Mme Claire Dilé. Oui. Comme je l’expliquais, le contenu pour adultes est autorisé. Mais il faudrait regarder le contenu spécifique dont vous parlez, car tout n’est pas autorisé. Il peut s’agir de nudité pour adulte consentie. En revanche, certains types de contenu sont interdits. L’application de notre politique est granulaire.
M. le président Arthur Delaporte. Est-il autorisé de poster un contenu renvoyant vers une vidéo diffusée en exclusivité sur un compte Mym ?
Mme Claire Dilé. Il m’est compliqué de vous répondre, car je ne suis pas à la modération. Si c’est consenti, derrière un filtre de visibilité et sur un compte restreint, ce n’est a priori pas interdit. S’il s’agit de contenu pour adulte légal, ce n’est pas interdit. Dans le cas contraire, c’est interdit.
M. le président Arthur Delaporte. À aucun moment, je n’ai eu à fournir ma pièce d’identité pour avoir accès à ce contenu. Est-ce normal ou non ?
Mme Claire Dilé. Je ne suis pas sûre de comprendre votre question.
M. le président Arthur Delaporte. J’ai pu accéder, sans fournir de pièce d’identité, à l’extrait d’une vidéo pornographique postée par un influenceur qui renvoie vers son compte Mym pour en visionner l’intégralité, dans une stratégie de monétisation – l’extrait de cette vidéo pornographique sur X sert d’appât. Est-ce normal ou non ?
Mme Claire Dilé. En l’occurrence, le contenu n’est pas sur X, puisqu’il est sur Mym.
M. le président Arthur Delaporte. L’influenceur renvoie vers un compte Mym, qui héberge la vidéo pornographique complète, en en diffusant un extrait sur X.
Mme Claire Dilé. Cela rejoint la question de la vérification de l’âge pour les mineurs, car l’objectif n’est pas de vérifier l’âge des utilisateurs adultes.
M. le président Arthur Delaporte. Je suis majeur, mais j’aurais pu accéder à ce contenu en étant mineur, puisqu’on ne m’a jamais demandé mon âge.
Mme Claire Dilé. Précisément, c’est la question de la vérification de l’âge et de ce que nous allons mettre en place pour vérifier l’âge des utilisateurs mineurs.
M. le président Arthur Delaporte. Ce que vous « allez mettre en place » ou ce que vous avez déjà mis en place ?
Mme Claire Dilé. Nous avons l’obligation juridique d’appliquer une solution à partir de l’été, dans le cadre de l’application du code de la sécurité en ligne (Online Safety Code) irlandais, qui concernera les utilisateurs français. Nous devons instaurer des systèmes de vérification de l’âge – je pense que l’on peut traduire ainsi « age assurance » – qui permettront de connaître avec un fort degré de certitude l’âge des utilisateurs.
La question de la carte d’identité est sensible, car ce document contient des données personnelles. Nous verrons ce que recommande le régulateur irlandais. A priori, ce serait plutôt un système fonctionnant avec un tiers de confiance, pour limiter l’échange de données personnelles. Nous devons seulement savoir si l’utilisateur est mineur ou majeur.
Nous avons beaucoup travaillé à ce sujet ces derniers mois, au niveau français et au niveau européen. Je pense que mes homologues en témoigneront.
Dans le cadre du code de la sécurité en ligne irlandais et de l’article 28 du DSA, nous disposons d’une check-list des mesures à prendre pour protéger les mineurs, laquelle intègre la vérification de l’âge. C’est une question que nous prenons très au sérieux. Vous avez raison, c’est la pierre angulaire d’un dispositif efficace pour protéger les mineurs.
Tant qu’on ne connaît pas l’âge de la personne qui est face à nous, on ne peut pas la protéger efficacement. Nous devons pouvoir mettre en place un système respectueux de la vie privée, tout en vérifiant l’âge de la personne avec certitude, sans qu’elle soit face à nous.
Thibault Guiroy a évoqué les initiatives de Google pour nous transmettre des informations. Notre point de vue est que la plateforme doit faire sa part du travail, mais que ce sera plus efficace si l’écosystème travaille collectivement, tout au long de la chaîne de valeur, des opérateurs téléphoniques jusqu’aux plateformes. En s’échangeant les signaux permettant de savoir si un utilisateur est mineur ou majeur, nous protégerons mieux les enfants en ligne.
Il y a une vraie dynamique à ce sujet au niveau international. Nous devons y arriver. Ce serait simple si cela ne soulevait pas des enjeux de vie privée. Un équilibre doit être trouvé entre les différents droits, avec la création d’un système proportionné.
Mme Laure Miller, rapporteure. Une chose est sûre, vous n’avez aucun dispositif de vérification de l’âge. Il est donc possible de créer un compte sur X sans avoir à justifier de son âge et d’accéder à du contenu pornographique. J’entends le besoin d’équilibre entre différents droits, mais le droit relatif à la protection de nos jeunes n’est, de toute évidence, pas respecté.
Par ailleurs, de nombreuses personnes nous ont interrogés sur votre rôle de plateformes intermédiaires. En effet, du contenu problématique peut être diffusé sur Snapchat, relayé sur Instagram ou X, puis renvoyé vers des plateformes plus obscures comme Mym ou OnlyFans. Comment assumez-vous ce rôle d’intermédiaire, qui sert un contenu qui n’est pas acceptable ? Parvenez-vous à identifier ces comptes ? Nous avons reçu un influenceur qui était surtout présent sur Snapchat, mais dont les contenus étaient massivement reproduits sur TikTok et plusieurs plateformes.
M. Anton’Maria Battesti. Le fait que des personnes soient présentes sur différentes plateformes est une réalité. Toutefois, les formats techniques sont différents. Snapchat diffuse du contenu éphémère, qui disparaît après vingt-quatre heures, YouTube, de la vidéo et Instagram, surtout des photographies et des reels. Je pense que ces plateformes adaptent leur contenu et je ne sais pas si le sujet en tant que tel pose problème.
Je veux être très clair. Il nous arrive de recevoir des signalements. Si telle ou telle personne affiche des liens vers OnlyFans ou des sites pornographiques, son compte Instagram peut être fermé. Nous n’autorisons pas le contenu pornographique sur la plateforme. Si un lien du type « Viens voir mon contenu OnlyFans ! » est publié sur un compte, nous sommes susceptibles d’engager une action de modération pouvant conduire à la fermeture du compte. C’est déjà arrivé et certains s’en plaignent.
J’espère avoir répondu à votre question.
Mme Aurore Denimal. On peut avoir l’impression que les mêmes contenus se retrouvent sur toutes les plateformes. Mais les influenceurs ou les créateurs de contenus sont souvent assez intelligents pour rester dans les limites et ne pas publier sur Instagram du contenu qui ne passerait pas le filtre de la modération. Nous avons conscience que certains postent des contenus problématiques sur certaines plateformes, pour attirer vers un site tiers. En tout cas, ils ne publient pas ces contenus sur Instagram spécifiquement.
M. le président Arthur Delaporte. Nous avons reçu plusieurs témoignages évoquant des liens vers des comptes Mym depuis Instagram.
Mme Aurore Denimal. Nous en sommes preneurs, car ce n’est pas autorisé. Ces publications ne devraient pas être sur la plateforme.
M. Anton’Maria Battesti. Pardonnez mon ignorance, mais qu’est-ce Mym ? Est-ce comme OnlyFans ?
M. le président Arthur Delaporte. Oui. Nous avons eu l’occasion de faire des tables rondes avec Mym et des équipes de Meta. Vous avez donc sans doute déjà croisé les représentants de Mym, qui sont assez proactifs en matière d’affaires publiques.
M. Anton’Maria Battesti. Je ne suis pas expert en ces domaines. Si Mym est comparable à OnlyFans, la situation que vous évoquez pose une difficulté qui doit être réglée.
M. le président Arthur Delaporte. Mym et OnlyFans sont la même chose, et les liens qui y renvoient depuis d’autres plateformes sont fréquents. Vous indiquez que vous vous fixez pour objectif de modérer ce type de contenu, mais ce n’est pas du tout le cas de X.
Mme Claire Dilé. Comme je le précisais tout à l’heure, tout dépend du contenu. Si les liens renvoient vers du contenu que nous considérons comme interdit sur la plateforme, nous allons le modérer. Il est compliqué de vous répondre sans avoir d’exemple.
M. le président Arthur Delaporte. Mais, dans la mesure où vous autorisez la pornographie et où vous n’avez pas accès au contenu puisqu’il s’agit de vidéos à la demande – vous n’irez pas consulter le contenu de charme ou pornographique sur Mym –, vous autorisez les liens vers cette plateforme. Vous n’avez aucune possibilité de vérifier ce que contiennent les liens et vous les laissez en ligne.
Mme Claire Dilé. Honnêtement, je ne suis pas absolument certaine qu’on les autorise. Par ailleurs, ce n’est pas parce que vous en trouvez que nous les autorisons. Il peut s’agir de liens qui n’ont pas été signalés, ou de spams, comme c’est le cas d’un grand nombre de ces liens.
M. le président Arthur Delaporte. Les posts que j’ai sous les yeux, qui renvoient vers des vidéos pornographiques sur OnlyFans ou Mym, comptabilisent parfois 70 000 vues. Il n’est pas compliqué de les trouver. Nous avons même reçu un influenceur qui publie de tels posts dans cette commission.
Mme Claire Dilé. Je vous propose de m’envoyer ces liens en particulier, pour que nous vous indiquions spécifiquement quelle modération nous appliquons pour tel ou tel contenu.
Par ailleurs, des dispositifs permettent de retirer de X des contenus qui seraient sur Snapchat. Pour la nudité non consentie, par exemple, nous partageons des bases techniques avec StopNCII qui permettent d’attribuer une carte d’identité ou une empreinte aux contenus. Si du contenu intime non consenti est partagé sur Snapchat, cette plateforme peut nous l’envoyer en indiquant qu’elle a reçu des signalements à son sujet, pour que nous le retirions. Nous sommes également membres de plusieurs organismes de lutte contre l’exploitation sexuelle des enfants, comme la Tech Coalition ou Internet Watch Foundation, qui proposent aussi ce type de dispositif. La réflexion pourrait être étendue, à partir de ce qui existe pour ces contenus.
Mme Anne Genetet (EPR). Je voudrais réagir aux propos de M. Battesti. Vous avez mis le doigt sur un point essentiel, au sujet duquel j’ai une différence d’appréciation avec Mme la rapporteure. Les grandes plateformes que vous dirigez sont de grands acteurs commerciaux avec une puissance de frappe considérable. Au départ, ce sont uniquement des sites marchands.
Vous n’êtes pas des élus. Vous n’avez pas été choisis par la population. Par conséquent, vous laisser la responsabilité de choisir ce qui doit être modéré porte le risque d’une dérive qui menacerait la démocratie. Vous renvoyez d’ailleurs au législateur que nous sommes la responsabilité de choisir quel contenu vous devrez modérer et de quelle manière. C’est la bonne approche. Je n’ai pas envie que le choix de dire ce qui est bien ou mal, bon ou mauvais, revienne à des personnes qui n’ont pas été élues, sans que ce choix ait été défini par la représentation nationale que nous incarnons.
Par ailleurs, vous avez mentionné le groupe de contact permanent avec le ministère de l’intérieur. Ne serait-il pas utile de faire constamment évoluer la réglementation, pour que vous puissiez vous y conformer ?
Enfin, existe-t-il des moyens techniques pour couper automatiquement les liens qui revoient vers d’autres plateformes, dès lors qu’un mineur cherche à les activer ?
M. Anton’Maria Battesti. Il ne faut pas se mentir, le DSA laisse peu de marge au législateur national. Concernant la régulation des plateformes, j’ai ici une lettre adressée à la France par la Commission européenne en août 2023 au sujet des lois n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne et n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux. Cette lettre n’est rien d’autre qu’un cours de droit européen, dont il ressort qu’on ne peut rien faire. C’est ainsi, il faut regarder cette réalité en face.
La question est de savoir comment rendre les règles vivantes, pour passer du macro au micro. Les instances avec lesquelles nous sommes en interaction sont bien trop nombreuses. Il y a notamment l’Arcom – c’est normal, car c’est notre coordinateur national. Nous avons aussi hérité du groupe de contact permanent, qui n’est plus réuni, sauf en cas de crise, et qui est plutôt piloté du côté du ministère de l’intérieur. En outre, au gré des crises, les ministres nous convoquent parfois pour nous demander des comptes et le retrait de tel ou tel contenu, en dehors des cadres que je viens de mentionner. Il existe donc une démultiplication des instances dans lesquelles on cherche collectivement à agir. Je ne dis pas que j’ai la réponse magique à ce problème, mais nous qui avons une culture française de la centralisation et de l’efficacité administrative, essayons de trouver quelque chose qui fonctionne, dans l’appareil d’État. L’Arcom semble être le premier choix, le plus évident. Évitons une démultiplication, ou des convocations en fonction de l’actualité. Ces sujets demandent de la constance. Je ne parle pas de cette commission d’enquête, qui participe utilement à la réflexion, mais je parle d’épiphénomènes que j’ai pu constater.
Il faut un réel cadre de dialogue et d’action, pour se réunir sur une base régulière et pas seulement en fonction des situations. D’expérience, je sais que cela permet de faire avancer pas mal de choses. Nous avons tous les outils et toutes les intelligences pour le faire, donc faisons-le. Cela pourrait représenter une avancée importante.
Par ailleurs, les liens que vous évoquiez, vers OnlyFans notamment, ne sont pas autorisés de manière générale sur Instagram, que vous soyez mineur ou majeur. Ils ne doivent pas être proposés et ils font l’objet d’une modération. L’objectif est de fixer des automatismes permettant d’agir à grande échelle. Ce sont des dispositifs que l’on retrouve dans le domaine de la protection du droit d’auteur. Donc, pour vous répondre, ces technologies existent même si je n’en connais pas le détail.
Trouvons les marges que le droit européen et le DSA nous ouvrent. Elles existent, mais elles concernent davantage la mise en œuvre que la réglementation.
Mme Anne Genetet (EPR). Lorsque vous serez obligés de contrôler l’âge de manière efficace, vous disposerez donc déjà des outils qui vous permettront immédiatement d’empêcher toute redirection vers une plateforme comme celles que nous avons mentionnées.
M. Anton’Maria Battesti. Ces liens ne sont pas autorisés, quel que soit l’âge de l’utilisateur. Le cas que vous présentez n’est donc pas le plus difficile.
M. Thierry Sother (SOC). Existe-t-il une hiérarchisation des types de contenu qui vous sont signalés ? Une priorité est-elle donnée à certains ? Le cas échéant, quelle est-elle ?
Pouvez-vous nous détailler la procédure de contrôle de la modération par des acteurs physiques et humains, pour chacune de vos plateformes ? Est-elle contradictoire ? La procédure change-t-elle selon l’auteur du signalement – des utilisateurs lambda, des partenaires associatifs, l’Arcom ? Les signaleurs de confiance font-ils l’objet d’une prise en compte différenciée ?
M. Anton’Maria Battesti. Je tâcherai d’être bref, mais le sujet est non pas complexe, mais vaste. Oui, il y a des différences. C’est normal, selon les types de contenu. Les contenus qui portent atteinte à l’intégrité des personnes ou contiennent des menaces doivent être modérés en priorité. Nos règles sont détaillées et nous distinguons des contenus « rouges », qui ne sont jamais autorisés, d’autres contenus, qui sont autorisés selon le contexte.
M. Thierry Sother (SOC). Que sont les contenus « rouges » ?
M. Anton’Maria Battesti. Le cyberharcèlement, la menace, la violence, les propos haineux, tout ce que l’humanité peut produire de pire et qui peut s’exprimer sur les réseaux. Il s’agit de contenus qui ne laissent pas place au doute, comme des menaces de mort. La liste est assez précise.
Chacun peut nous adresser un signalement et sur tout – commentaire, publication, etc. Nous invitons chacun à le faire, car c’est très utile. Mais il y a aussi du bruit, dans les signalements. Parfois, les gens signalent uniquement ce qu’ils n’aiment pas, par exemple les soirs de match de football, ou de performance de tel ou tel artiste. À partir du moment où l’on accepte tous les signalements, c’est normal.
Les gens signalent tout, ce n’est pas toujours pertinent, mais c’est mieux ainsi. Les signalements sont classés par catégorie, ce qui permet de saisir les équipes de modération spécialisées – pour le harcèlement ou les discours de haine, par exemple.
Enfin, il existe deux types de signaleurs de confiance. Le premier est l’État, au travers de Pharos avec qui notre collaboration est excellente, vingt-quatre heures sur vingt-quatre. Il est essentiel que l’État passe par Pharos, quand il veut nous signaler un contenu, car cela permet une qualification juridique qui garantit l’efficacité du processus. Nos autres signaleurs de confiance, comme e-Enfance ou Point de contact, sont reconnus par le DSA et l’Arcom et ont un accès direct à nos équipes de modération.
Vous le voyez, c’est multiforme. L’État et des entités privées peuvent nous signaler des contenus. Malgré tout cela, il peut rester des difficultés. Nous sommes là pour en parler, mais ce système est assez robuste et produit des résultats.
M. Thibault Guiroy. Je ne veux pas répéter ce qu’a dit M. Anton’Maria Battesti, car nous fonctionnons à peu près de la même manière côté YouTube. Nous opérons une hiérarchisation selon le type de signalement.
Nos rapports de transparence, disponibles sur le site de YouTube et sur celui de la Commission européenne, montrent que nous retirons de nombreux spams tous les trimestres. En effet, plusieurs millions de vidéos sont avant tout du spam et du contenu visant à rediriger les utilisateurs hors plateforme, pour leur faire dépenser de l’argent ou les emmener vers des sites de faible qualité. L’intelligence artificielle permet d’appréhender très facilement ces contenus. La machine se nourrit des actions précédentes et de ce qu’ajoutent les modérateurs humains et, in fine, nous aboutirons à un score de pertinence élevé lorsque nous engagerons des actions de modération. Cela nous permettra d’opérer à grande échelle et de supprimer massivement ce type de contenu.
Certains contenus sont assez faciles à appréhender. Pour les plateformes qui interdisent la nudité, par exemple, un algorithme à même de détecter un certain pourcentage de chair devrait être assez efficace.
En revanche, d’autres contenus sont plus compliqués à modérer et imposent de se demander plusieurs fois s’ils relèvent de la liberté d’expression ou s’ils franchissent la ligne rouge. Parfois, il ne faut pas s’en cacher, nos modérateurs prennent les mauvaises décisions. C’est la raison pour laquelle il existe des mécanismes d’appel.
Pendant le covid, nos modérateurs ne pouvaient plus effectuer leur métier correctement, puisqu’ils étaient confinés. Pour protéger leurs familles de contenus choquants, nous nous sommes davantage reposés sur le machine learning et sur l’intelligence artificielle. Nous avons alors constaté qu’on surmodérait et que la possibilité laissée aux gens qui avaient vu leur contenu retiré de faire appel était essentielle. Nous avons également observé un taux de remise en ligne post-appel jamais atteint, pendant cette période, précisément parce qu’on ne peut pas uniquement se reposer sur la machine.
Vous nous avez également demandés si nous prenions différemment en compte les signalements selon leur auteur. Exception faite des signaleurs de confiance, la prise en compte n’est absolument pas différenciée. Nous examinons tout signalement, peu importe la personne dont il émane. Nous sommes même maximalistes. Pour éviter qu’un contenu qui aurait mal été signalé – par exemple un contenu signalé pour pédopornographie, alors qu’il relève de l’incitation à la haine – passe entre les mailles du filet, nous revoyons tous les contenus signalés à l’aune de chacune de nos politiques.
M. le président Arthur Delaporte. Un algorithme peut-il juger en appel, ou est-ce nécessairement un modérateur humain ?
M. Thibault Guiroy. Je ne veux pas vous dire de bêtise, mais je crois que chez nous, les contenus qui font l’objet d’un appel sont systématiquement revus par un modérateur humain. Je le vérifierai et je reviendrai vers vous.
M. le président Arthur Delaporte. J’ai l’impression que chez TikTok, l’appel donne lieu à une revue algorithmique – ce qui explique que le taux de réponse positive en appel soit plus faible.
M. Anton’Maria Battesti. Chez Meta, l’appel est humain. Nous vous fournirons le schéma. La possibilité de faire un vrai appel est une obligation légale. C’est une procédure à prendre très au sérieux. Ce n’est pas juste un gadget.
Mme Aurore Denimal. Il existe trois niveaux d’appel : une première vérification, une deuxième vérification si l’on n’est pas d’accord, puis une troisième, à chaque fois humaine, qui fait tomber les deux premières – sans compter la possibilité de recourir au conseil de surveillance, qui est un organe indépendant, pour un dernier appel.
Mme Claire Dilé. Chez X, les appels donnent lieu à une modération humaine.
Pour la France, il existe deux types de signalement : dans le cadre des règles et dans le cadre du DSA. Dans le cadre des règles, nous avons fait en sorte de rendre le parcours de signalement à la fois simple et complet. Nous posons ainsi plusieurs questions, pour qualifier le type de signalement. Ensuite, le contenu est envoyé à la personne chargée de la modération, qui l’évalue. Si la violation de nos règles est claire, nous appliquons d’emblée une décision de modération – suspension du compte, suspension du contenu, ajout d’un filtre devant le contenu, etc.
Mais, dans certains cas, il convient de faire appel à des équipes plus spécialisées. Quand la personne qui révise n’est pas certaine de la modération à apporter, nous travaillons avec différentes équipes en interne pour essayer de dresser la meilleure évaluation possible du contenu et d’appliquer la règle. Il arrive aussi, comme l’a dit M. Thibault Guiroy, que nous commettions des erreurs, mais il est possible de faire appel. Enfin, pendant que nous procédons à la révision et à l’analyse du contenu, celui-ci reste en ligne.
Mme Laure Miller, rapporteure. Que pensez-vous de la modération chez TikTok ? Vous avez nécessairement un avis, car j’imagine que vous observez vos concurrents et la façon dont ils appliquent les règles. Pouvez-vous nous répondre sans langue de bois ? Vos propos ne seront pas retenus contre vous.
M. Anton’Maria Battesti. C’est la première fois qu’on me demande de me prononcer sur une plateforme concurrente. La réponse simple consisterait à refuser de répondre, mais vous seriez déçue. Je vais donc tâcher de formaliser une réponse, en parlant d’expérience.
D’une part, mes propos vont vous étonner, mais il n’y a pas excès d’honneur ou d’indignité. Beaucoup d’anciens de chez Meta sont partis chez TikTok pour faire de la sécurité – de la safety, dans notre langage – et de la modération. On ne peut pas douter qu’ils veulent bien faire.
D’autre part, nous sommes presque dans une logique de secteur et nous avons tous intérêt à avancer collectivement. Dans l’espace public, j’entends beaucoup « les réseaux sociaux », même si parfois, entre quatre murs, on me dit que c’est un peu mieux chez nous que chez les autres, ou l’inverse. De fait, quand une loi est votée, elle concerne « les réseaux sociaux ».
Qu’il s’agisse de TikTok ou de nous-mêmes, il existe des domaines commerciaux et techniques dans lesquels nous sommes concurrents, mais dans les domaines de la modération des contenus, de la safety et de la protection des jeunes, nous n’avons pas vocation à l’être. Nous travaillons d’ailleurs très bien ensemble. Nous nous voyons, nous sommes souvent dans les mêmes bureaux et dans les mêmes commissions.
Mon intuition est que, quelles que soient les difficultés des uns et des autres – elles existent chez TikTok, mais vous en avez aussi mentionné chez Instagram, je ne vais pas faire de langue de bois –, tout le secteur est impacté par les problèmes rencontrés chez l’un ou chez l’autre. On ne peut donc que s’inviter collectivement à progresser. C’est un message pour nous et pour les autres. Je ne veux pas donner de leçons à qui que ce soit, parce que ce n’est pas simple.
Voilà ce que j’aurais à dire. J’improvise un peu ma réponse, car on ne me la pose jamais ! Au lieu de tenir des propos spécifiques sur une plateforme, qui feront des lignes dans la presse, je préfère faire un zoom arrière et constater que le secteur doit progresser.
Nous n’avons pas d’intérêt individuel à laisser filer les problèmes, y compris parce qu’ils conduisent à des régulations qui nous touchent tous. Voilà ce que j’aurais à dire sur le sujet, en toute humilité.
Mme Claire Dilé. Merci pour cette question, à laquelle nous n’avons pas non plus l’habitude de répondre. Je rejoins les propos de M. Anton’Maria Battesti, d’autant que mon avis serait mal informé, n’étant pas moi-même utilisatrice de TikTok.
Les règles de modération sont toujours adaptées à la réalité d’un service en particulier. Nous appliquons tous une modération adaptée à la façon dont fonctionne notre produit.
Nous observons aussi, à la faveur de cette audition et d’autres réunions, mais aussi de la régulation, une forme de standardisation de la façon dont nous approchons ces problèmes. Nous sommes tous de très grandes plateformes au sens du DSA. À cet égard, nous tirons tous dans le même sens. Même si le DSA s’applique au niveau européen, il exerce aussi une influence sur d’autres juridictions et sur l’évolution en interne de nos réseaux. Il peut arriver que l’on applique une mesure du DSA, puis qu’on l’étende parce que cela a du sens.
En outre, d’autres réseaux sociaux pourraient voir le jour. Cet espace n’est pas figé, comme l’illustre TikTok qui est un réseau social plus récent que d’autres.
M. Thibault Guiroy. Je suis la personne la moins bien placée pour parler de TikTok, parce que je n’utilise pas cette application. Comme l’a rappelé Mme Aurore Denimal, on nous demande parfois pourquoi, alors que telle personne a vu son compte supprimé de telle autre plateforme, nous ne faisons pas de même sur la nôtre. Malheureusement, les créateurs postent des contenus différents selon qu’ils sont sur un réseau social ou sur une plateforme de partage de vidéos ou de streaming comme YouTube. Ainsi, ce n’est pas parce qu’une plateforme a engagé une action à l’encontre d’un contenu, d’un créateur ou d’un influenceur en vertu de ses conditions d’utilisation que nous pouvons faire unilatéralement de même.
Et ce n’est pas parce qu’une plateforme a supprimé un compte que les autres plateformes n’ont pas supprimé qu’elle est plus vertueuse. Nous l’avons vu récemment, lors d’une réunion à laquelle toutes les plateformes étaient présentes, il faut se méfier des décisions de modération qui seraient prises de manière concertée – cela s’appelle une entente – pour couper des comptes unilatéralement, peu importe qu’une infraction ait été constatée sur chacune des plateformes. Je vous rejoins sur ce point, madame Genetet.
Mme Laure Miller, rapporteure. Merci pour vos réponses franches et spontanées. Diriez-vous que l’algorithme de TikTok, qui est assez redoutable, est une source d’inspiration ?
M. Anton’Maria Battesti. Non. Nous avons notre propre identité. Facebook existe depuis 2004, puis il y a eu Instagram, puis Whatsapp, qui ont leur propre identité. Je pense que les gens choisissent un produit parce qu’il correspond à leurs attentes. Ils n’ont pas nécessairement envie qu’Instagram soit comme TikTok. Bien sûr, il y a des tendances : quand tout le monde fait de la vidéo, on trouve de la vidéo partout. Mais chacun est comme il est.
Je pourrais parler d’autres sources de contenu. L’identité du service de l’audiovisuel public n’est pas celle d’une chaîne privée. Je pourrai multiplier les exemples. Je ne crois pas qu’il existe une source d’inspiration en tant que telle.
Pour en revenir au sujet du jour, il n’est pas mauvais de s’inspirer les uns des autres concernant la protection des mineurs. C’est une saine émulation, que les pouvoirs publics peuvent encourager.
Nous parlions de standardisation. Nous sommes dans le champ de la conformité à la loi, mais certaines initiatives sont aussi développées par pure bonne volonté. Je pense au compte « Ado » d’Instragam, qui est notre dernière création, et que nous étendons désormais à Facebook et à toutes nos plateformes. Le législateur pourrait créer une clause du mieux-disant. C’est là que l’État a un rôle à jouer.
M. le président Arthur Delaporte. C’est l’objet de cette commission. Nous devons émettre des préconisations, l’objectif étant de retenir le meilleur de ce qui existe, sans absoudre personne – car ce ne serait pas notre rôle.
M. Anton’Maria Battesti. C’est parfait, alors.
M. le président Arthur Delaporte. Nous avons néanmoins une interrogation. Dans notre idéal, il faudrait retenir le système le plus protecteur. Nous ne le trouvons chez aucun de vous, mais dans d’autres réseaux éthiques qui n’ont pas le même modèle économique et qui ne cherchent pas nécessairement la viralité, mais la qualité.
C’est ce que l’on pouvait retrouver, au départ, chez X ou chez Facebook, quand le contenu défilait sur les « murs » selon une pure logique chronologique. Nous pourrions décider de revenir à cela, mais on nous rétorquerait que nous nous immisçons dans le modèle économique des plateformes. C’est pourtant leur modèle économique qui, en soi, est problématique. Jusqu’où peut‑on aller ? Jusqu’où le droit national peut-il aller ?
On peut souhaiter une amélioration et une uniformisation par le haut, mais vous finissez par considérer que ce n’est pas conforme au droit européen. N’y a-t-il pas là un paradoxe ?
M. Anton’Maria Battesti. Nous n’avons ni voulu ni organisé l’Union européenne et le droit européen. Il y a, là aussi, un paradoxe. Alors que nous sommes des mégaplateformes à des échelles continentales, il était plus logique de les réguler à l’échelle continentale.
M. le président Arthur Delaporte. Nous sommes d’accord sur ce point.
M. Anton’Maria Battesti. Pour autant, rien n’empêche une forme de mise en œuvre nationale dans la marge que les législateurs se sont eux-mêmes donnée. Nous en sommes là.
Vous évoquez notre modèle économique vis-à-vis des mineurs. Il n’y a pas de publicité pour les mineurs. Il faut donc aller au-delà de cette question, en se demandant si les contenus sur nos produits sont adaptés aux mineurs, si le temps passé peut entraîner des addictions – sous réserve de définir ces phénomènes –, qui contacte qui sur les réseaux sociaux. Il faut également poser la question de la supervision parentale. Dans tous ces domaines, il peut y avoir des outils à développer, soit que les entreprises les créent d’elles-mêmes, soit que les régulateurs et l’État leur demandent de le faire.
Vous évoquez les réseaux sociaux éthiques. Je ne sais pas de quoi il s’agit exactement. On m’a souvent mentionné Mastodon, mais une étude de Stanford a montré que de nombreux problèmes se posaient avec ce réseau. Il faut se mettre d’accord sur ces notions. Ce n’est pas toujours « small is beautiful ». Il existe des outils et le rôle de la standardisation paraît essentiel, comme dans d’autres domaines de la vie économique, par exemple la sécurité des personnes et des biens. Il existe une marge, qu’il faut trouver.
Mme Laure Miller, rapporteure. Je suis un peu frustrée, car vous auriez pu admettre que TikTok vous a tous un peu inspirés. Le flux vertical et continu de vidéos courtes est une marque de fabrique de cette plateforme. Vous semblez tous avoir repris ce dispositif, efficace pour capter l’attention, qui est né sur TikTok. N’hésitez pas à réagir et à reconnaître que c’est en effet le cas.
Pour en venir à la vérification de l’âge, nous vous « embêterions » moins s’il existait un dispositif efficace. Si nous avions la certitude absolue qu’un enfant de moins de 13 ans ne peut pas arriver sur votre plateforme et voir son contenu, ce serait une immense avancée. Mais ce n’est pas le cas. Je vous entends régulièrement, sur les ondes, plaider pour une réglementation européenne. Cela peut prêter à sourire. N’importe quelle plateforme a la capacité technique d’instaurer un dispositif de vérification de l’âge. Faites-le !
Comprenez-vous que nous soyons agacés, alors que notre objectif est la protection des mineurs, en vous entendant vous renvoyer la balle ? Au bout du compte, nous en sommes encore à discuter de contenus nocifs pour les plus jeunes. Pourquoi n’instaurez-vous pas, avant tous les autres, un dispositif efficace de vérification de l’âge ? Vous pourriez être plus vertueux que les autres.
M. Anton’Maria Battesti. Je vais tâcher de ne pas être trop long, car je vois que le temps passe et j’imagine que les autres ont des choses à dire.
D’abord, je rappelle que notre plateforme n’est pas accessible avant 13 ans.
Ensuite, s’il existe des comptes « Ado » sur Instagram, c’est parce que nous demandons aux utilisateurs de déclarer leur âge. Nous ne faisons pas rien dans ce domaine. Nous analysons les signaux laissant penser que l’âge déclaré n’est pas l’âge réel grâce à l’IA ; nous pouvons également nous appuyer sur des signalements de proches. Si un utilisateur a menti et a en réalité moins de 13 ans, son compte peut être supprimé sans délai.
Si le titulaire d’un compte « Ado », parce qu’il se sent bridé, veut modifier sa déclaration d’âge pour passer de 14 ans à 19 ans, puisqu’une telle modification implique le passage à la majorité, nous vérifions sa véracité, dans une logique de « ceinture et bretelles » grâce à de la reconnaissance de la morphologie du visage ou d’autres dispositifs, qui ont fait leurs preuves – ce qui n’était pas le cas il y a encore deux ou trois ans.
La façon de vérifier l’âge n’est la même pour un mineur et pour un majeur de 18 ans. Des outils se développent, mais même au sein de la communauté d’experts, on sent bien que la difficulté n’est pas la même selon l’âge. À 13 ans, on n’a pas de carte bancaire ou de carte d’identité.
La première brique du système – c’est aussi le sens de notre campagne et je vais m’en expliquer – consiste à considérer que lorsque vous avez 13 ans ou moins, le téléphone n’est pas arrivé par magie dans vos mains. La ligne n’a pas été créée par magie, non plus. Le rôle des parents est réel, comme dans tout acte d’éducation. En outre, la meilleure source pour savoir si un enfant a moins de 13 ans, ce sont tout de même ses parents. Cela étant, nous ne vivons pas dans un monde idéal dans lequel les enfants feraient toujours ce que leurs parents leur disent. La question de la vérification de l’âge est donc posée.
Notre campagne consiste à dire que nous devons faire plus et mieux en matière de vérification d’âge – il n’y a pas de défaut de responsabilité, et nous l’avons précisé dans notre contribution pour le DSA. Toutefois, la solution ne peut être qu’industrielle. Dans l’expérience numérique d’un enfant, il n’y a pas que les réseaux sociaux, mais aussi les sites internet et les jeux vidéo. La solution pourrait être de centraliser le contrôle de l’âge. Toute l’expérience numérique de l’enfant pourrait découler d’une information vérifiée sur l’âge, qui pourrait figurer dans la carte SIM ou dans les magasins d’applications.
Je salue les efforts de Google, qui a ouvert des API (application programming interfaces) dans son magasin d’applications pour permettre une meilleure communication avec les plateformes, dans une logique de « ceinture et bretelles » et pour permettre une meilleure vérification de l’âge.
Tel est le sens de notre campagne. Certes, dans les campagnes radiotélévisées, les messages sont un peu raccourcis et simplifiés, car on veut aller vite et marquer les esprits.
Dans notre domaine, nous ne nous opposons pas les uns aux autres, comme le montrent les solutions envisagées par Google, d’après ce que je lis. Nous évoluons nous aussi. Je pense qu’on va y arriver, avec, pour cadre, les lignes directrices du DSA. Mais cela ne réglera pas le problème de l’accès des jeunes à des contenus problématiques en dehors des réseaux sociaux. Quand des enfants reproduisent Squid Game dans les cours de récréation, c’est un problème. Des enfants de 9 ans qui jouent à GTA, c’est un problème. Des enfants qui regardent « Frenchie Shore », c’est un problème.
La question de la vérification de l’âge se pose pour les réseaux sociaux, c’est normal. C’est l’objet de cette commission et je n’essaie pas d’aller sur d’autres terrains. Mais elle se posera aussi pour tout contenu vidéoludique en ligne. Il faut que nous arrivions à créer un cadre, notamment avec l’identité numérique européenne et tout ce qui est en train de se faire en la matière, pour mieux savoir qui est derrière l’écran et pour que les conditions de l’expérience numérique en général, au‑delà des réseaux sociaux, soient encadrées.
L’État et l’Arcom y travaillent aussi. On va y arriver ! Il y a quelques années, le discours consistait plutôt à dire que c’était compliqué. Aujourd’hui, des solutions se développent. Il faut être confiant.
Je ne voulais pas être trop long, mais je voulais exprimer notre bonne volonté.
Mme Claire Dilé. Je serai concise, car beaucoup a été dit.
M. le président Arthur Delaporte. Il y a peut-être aussi moins à dire au sujet de X.
Mme Claire Dilé. La réflexion est la même que chez Meta, puisque nous devons nous aussi mettre en place un dispositif de vérification de l’âge pour protéger les utilisateurs mineurs, et peut-être davantage encore dans la mesure où nous autorisons le contenu pour adultes. Tout l’enjeu est de parvenir à connaître l’âge d’une personne sans l’avoir face à soi. Les utilisateurs de notre réseau ont acheté leur téléphone auprès d’un opérateur téléphonique, et nous ne savons pas qui ils sont.
La vérification doit être sûre, car si le système de vérification n’est pas parfait, il mettra à mal tout l’édifice. Nous avons rencontré plusieurs tiers de confiance qui pourraient nous aider à vérifier l’âge et, comme Anton’Maria Battesti, je pense qu’on va y arriver. Il y a une vraie dynamique au niveau mondial. La France n’est pas la seule à s’interroger. Les États-Unis le font aussi, de même que l’Angleterre où les vérifications s’imposeront à compter de juin 2025 dans le cadre de l’OSA.
M. le président Arthur Delaporte. Quelles seront ces vérifications ?
Mme Claire Dilé. En Angleterre, la loi impose d’instaurer un « highly effective age assurance ». Il faudra travailler avec un tiers qui permettra d’estimer l’âge avec un haut niveau de certitude. C’est le cas de la biométrie, qui n’est pas infaillible, mais l’objectif est de faire le moins d’erreurs possible.
M. le président Arthur Delaporte. La marge d’erreur est importante, puisqu’elle peut être de plusieurs années.
Mme Claire Dilé. En effet. C’est la raison pour laquelle nous avions émis des doutes concernant certains des vérificateurs que nous avions rencontrés, compte tenu d’erreurs quant au genre et à la couleur de peau. Travailler avec un tiers qui commet de telles erreurs est potentiellement discriminatoire.
Je comprends votre frustration face à la lenteur des avancées, mais il faut que nous trouvions un système qui fonctionne. Avec l’application développée au niveau européen et la réflexion autour d’une identité européenne, le système fonctionnera à brève échéance. Si nous avions la solution technique parfaite, nous ne nous poserions pas toutes ces questions. Mais il faut un ensemble de signaux et d’indications pour bénéficier d’une grande certitude.
Il est plus facile d’avoir la personne dont on cherche à vérifier l’âge face à soi. Les citoyens français n’accepteraient pas que X collecte les données des pièces d’identité de tous les utilisateurs pour protéger les mineurs, qui sont moins nombreux que les majeurs sur la plateforme. Il faut trouver une solution qui coche toutes les cases – protection de la vie privée, efficacité et proportionnalité. Nous y travaillons et je pense que, d’ici six mois, de réelles avancées auront eu lieu.
M. Thibault Guiroy. Si une personne veut créer un compte sur YouTube et fournit une date de naissance indiquant qu’il est en dessous de l’âge du consentement, qui est de 15 ans en France, sa tentative de création de compte sera bloquée et nous l’inviterons à nous mettre en relation avec ses parents, pour que nous puissions l’aider à configurer un compte supervisé, au travers de l’application Family Link ou des expériences supervisées.
Si un utilisateur indique qu’il a dépassé l’âge du consentement mais a moins de 18 ans, nous lui proposerons des protections par défaut, comme l’absence de publicités personnalisées et des protections relatives au contenu réservé aux plus de 18 ans.
Si un utilisateur indique qu’il a 18 ans ou plus, nous soumettons les informations associées à son compte à notre modèle d’estimation de l’âge. Ce modèle, développé par Google, est capable d’indiquer l’âge avec un certain degré de confiance. Je pourrai vous communiquer assez rapidement les chiffres sur sa performance. Que l’utilisateur ait plus ou moins de 18 ans, si le modèle estime qu’il est mineur, son compte sera traité comme appartenant à un mineur jusqu’à preuve du contraire – une pièce d’identité, une carte de crédit ou un selfie.
Notre modèle utilise une variété de signaux, notamment les sites que l’utilisateur a recherchés sur Google ou les catégories de vidéos qu’il a visionnées sur YouTube, ainsi que d’autres éléments comme la longévité du compte. Nous partageons ces signaux entre YouTube et Google. Des requêtes relatives à un prêt immobilier ou à une déclaration de revenus, par exemple, sont a priori des signaux qui indiquent que l’utilisateur est probablement majeur. Je précise, à cet égard, que ni Google ni YouTube ne collectent de données personnelles supplémentaires pour entraîner le modèle. Nous utilisons uniquement les données déjà associées au compte de l’utilisateur. Avec ce haut degré de précision du modèle d’estimation de l’âge, nous répondons de manière appropriée durant la courte période de prédiction ou de prédéduction d’un âge qui suit la création d’un compte.
Je reviens sur la solution dont parlait M. Anton’Maria Battesti. Nos collègues ingénieurs de Google ont développé une solution qui a pour but d’aider les développeurs d’applications, quels qu’ils soient, à vérifier l’âge des utilisateurs à l’aide d’un identifiant numérique, tout en préservant leur anonymat. C’est essentiel, l’objectif étant de vérifier l’âge sans collecter trop largement des données personnelles et en évitant les interconnexions systématiques entre l’application de vérification de l’âge et le site ou l’application que consultera l’utilisateur.
Cette API, Credential Manager, crée un canal sécurisé pour le partage des informations d’identité, y compris l’âge, renseignées dans un portefeuille mobile. Pour vérifier l’âge, Credential Manager utilise la technologie de chiffrement zero-knowledge proof, qui permet aux utilisateurs de prouver qu’ils ont plus de 18 ans sans pour autant révéler d’informations supplémentaires, dont leur identité, à l’application.
Cette solution particulièrement robuste pourrait être adoptée à l’échelle internationale. En revanche, nous considérons que passer par les magasins d’applications n’est absolument pas efficace, car personne ne connaît mieux ses utilisateurs que la plateforme elle-même.
Pour en avoir fait l’expérience, il existe de multiples façons de contourner un magasin d’applications et de télécharger des applications par un autre biais. Outre qu’il suffit d’aller sur internet pour accéder à un réseau social sans avoir à télécharger d’application, la pratique du sideloading, largement répandue depuis plus de quinze ans, permet de télécharger des applications depuis des magasins non officiels plutôt que de passer par ceux de Google ou d’Apple.
Je rejoins M. Anton’Maria Battesti quand il considère que nous devons avoir un débat plus large. Est-il souhaitable de bannir les réseaux sociaux ou certains types de contenu avant un certain âge et, le cas échéant, quel âge ? Ce problème ne concerne-t-il qu’un type d’acteur, ou aussi les messageries privées sur lesquelles tout le monde se rabattrait dès qu’un réseau social serait bloqué ? Nous avons besoin d’ouvrir ce débat, qui touche aussi à la liberté d’expression.
Mme Aurore Denimal. Pour mettre un terme à la frustration exprimée par Mme la rapporteure concernant la source d’inspiration que pourrait constituer TikTok, je répondrai de façon factuelle en citant ce que nous avons fait pour les comptes « Ado », pour démontrer que nous avons suivi une logique très différente de celle de la captation de l’attention.
D’abord, après une heure, nous affichons un rappel demandant de fermer l’application – ce n’est donc pas une incitation à y rester.
Ensuite, le mode veille est activé entre vingt-deux heures et sept heures. Il entraîne l’absence de notifications, y compris quand des messages sont reçus.
Enfin, nous permettons aux parents de demander que leur enfant n’ait pas accès à l’application à certaines plages horaires. Nous savons que des adolescents se connectent aux plateformes la nuit. Les parents peuvent demander qu’un écran noir s’affiche.
Mme Claire Dilé. L’entreprise X ne cherche pas à s’inspirer de l’application TikTok. Certes, nous offrons une fonctionnalité spécifique pour les vidéos. Mais ce n’est pas l’écran sur lequel les utilisateurs tombent. S’ils sont sur leur téléphone – car cette fonctionnalité ne fonctionne pas sur un ordinateur –, ils doivent ouvrir une vidéo pour passer à la vidéo suivante. Quoi qu’il en soit, nous constatons que cette fonctionnalité est plutôt sous-utilisée. Ce n’est pas la fonctionnalité principale du service.
Nous essayons de proposer un service unique, car nous avons tous intérêt à nous démarquer les uns des autres sur le plan commercial. La volonté de X est d’être une plateforme publique et conversationnelle.
J’ajoute que les algorithmes de TikTok sont des business secrets. Nous n’avons aucun moyen de les connaître. Peut-être y a-t-il quelque chose à faire pour la transparence algorithmique, qui serait de nature à rassurer les utilisateurs et le public au sens large. Le DSA a apporté une première pierre à cet édifice. Mieux les gens comprennent, plus ils sont maîtres de ce type d’expérience.
M. le président Arthur Delaporte. Nous avons eu des échanges intéressants au sujet des différents mécanismes de vérification de l’âge. Côté Meta, vous diffusez une campagne publicitaire volontariste, pour que soient instaurés de tels mécanismes. Mais si j’entends bien M. Guiroy, le plus efficace serait que la vérification soit menée par les plateformes elles-mêmes puisque, nous dit-il, ce sont elles qui connaissent le mieux leurs utilisateurs. N’est-ce pas contradictoire avec votre idée selon laquelle les plateformes devraient déléguer les choses ?
M. Anton’Maria Battesti. Je vais réitérer mon propos, pour être sûr d’être bien compris. L’objectif de notre campagne n’est pas de se renvoyer la balle. La philosophie qui inspire notre démarche consiste à affirmer que nous pouvons et nous devons faire plus et mieux dans ces domaines – nous l’avons dit dans notre contribution pour le DSA –, mais que nous serons plus efficaces si le contrôle de l’âge est mieux centralisé et l'information mieux partagée, dans la logique de l’API décrite par M. Thibault Guiroy. Si nous pouvons croiser nos données, nous pourrons constater, par exemple, si un utilisateur indique qu’il a 14 ans sur son compte Google ou Apple, mais 16 ans sur son compte Instagram.
Nous vivons dans un monde technologique, dans lequel des solutions technologiques sont possibles. Vous me donnez l’occasion de réexpliquer notre campagne, qui est une publicité et n’entre donc pas dans les détails.
Si l’on met de côté le mot « app store », dans notre appel à une réglementation européenne exigeant la vérification de l’âge et à un accord parental dans les boutiques d’applications, le message est celui d’une meilleure centralisation des informations. L’âge des utilisateurs pourrait figurer dans la carte SIM de leur téléphone, par exemple.
M. le président Arthur Delaporte. Que se passerait-il si vous prêtiez votre téléphone, avec votre carte SIM, à un mineur ?
M. Anton’Maria Battesti. Tout est possible.
M. le président Arthur Delaporte. Que se passerait-il si un mineur utilisait ma tablette ou mon ordinateur, qui n’ont pas de carte SIM ?
M. Anton’Maria Battesti. Nous avons une obligation de moyens. Alors que la vente d’alcool est interdite aux mineurs, vous savez très bien que des mineurs parviennent à s’en procurer.
M. le président Arthur Delaporte. Nous savons tout aussi bien que différents supports permettent de se connecter à un réseau social.
M. Anton’Maria Battesti. C’est la raison pour laquelle il faut impliquer tous les acteurs, des créateurs des systèmes d’exploitation, aux magasins d’applications aux plateformes, pour constituer une chaîne au bout de laquelle il est possible de vérifier la cohérence des informations sur l’âge des utilisateurs.
Une autre solution consisterait à demander une carte d’identité. Mais en a-t-on toujours une à 12 ou 13 ans ? Faudrait-il en faire une exprès pour s’inscrire à un service numérique ? Ces questions peuvent se poser, mais il faut entrer dans le concret du « comment ». Si des solutions paraissent évidentes pour les majeurs, elles le sont moins s’agissant de mineurs, d’autant plus que les parents ne peuvent pas forcément les empêcher d’utiliser des plateformes.
Le débat est le même concernant la pornographie en ligne. Si l’on parvient à imposer une limitation d’âge sur quelques sites, certains se retireront du marché français. En outre, l’offre est pléthorique. Ces sites sont des milliers. Ira-t-on vraiment les chercher un par an ? Soyons sérieux ! Il faut une centralisation, un goulot d’étranglement, un péage.
Plus l’on renforcera le partage de données entre fabricants, opérateurs et plateformes, plus on s’approchera de la solution.
M. le président Arthur Delaporte. Merci. Il reste beaucoup à faire pour mieux protéger les mineurs.
Vous pourrez nous communiquer tout élément complémentaire que vous jugerez utile de porter à la connaissance de la commission, ainsi que les réponses au questionnaire que nous vous avons adressé.
Puis la commission auditionne M. Simon Corsin, fondateur de Mindie.
M. le président Arthur Delaporte. Nous recevons M. Simon Corsin, fondateur de Mindie. Monsieur, je vous remercie de prendre le temps de répondre à notre invitation. Nous avons souhaité vous entendre en tant que fondateur d’une application qui présentait à l’époque des similitudes profondes avec celle de Musical.ly, qui est devenu ensuite TikTok. Depuis, vous travaillez toujours dans cet écosystème et c’est notamment au titre de votre expertise sur les algorithmes que nous souhaitions vous entendre.
Avant de vous céder la parole, je vous demander de nous déclarer tout intérêt public ou privé qui serait de nature à influencer vos déclarations, par exemple si vous êtes rémunéré par les acteurs du numérique. L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées dans le cadre de travaux d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(M. Corsin prête serment.)
M. Simon Corsin, fondateur de Mindie. Cofondateur de Mindie, je suis aujourd’hui employé par Snapchat depuis un peu plus de huit ans. Je travaille sur les applications mobiles sur réseau depuis douze ans. J’ai travaillé entre 2013 et 2014 sur Mindie, qui était une application de vidéos courtes, dont l’expérience était très similaire à celle de TikTok. Chez Mindie, j’étais le directeur technique, je m’occupais de l’implémentation d’à peu près tout, depuis le back-end jusqu’à l’application sur mobile en tant que telle.
Je suis désormais prêt à répondre à vos questions.
Mme Laure Miller, rapporteure de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Je vous remercie d’avoir répondu favorablement à notre invitation pour essayer de décortiquer cette application TikTok, puisque vous connaissez sans doute bien son algorithme. Dans un premier temps, pourriez-vous nous dire s’il existe une spécificité TikTok par rapport aux autres plateformes en matière d’algorithmes ?
M. Simon Corsin. Une des spécificités de TikTok concerne effectivement les algorithmes de recommandation, qui ont connu plusieurs générations. Ces algorithmes gèrent notamment l’affichage qui apparaît lorsqu’un utilisateur ouvre l’application. Au début des réseaux sociaux, il s’agissait surtout des personnes que l’utilisateur suivait, selon le principe des followers, c’est-à-dire les contenus qu’ils postaient, par ordre chronologique décroissant, en commençant par les contenus les plus récents. Ensuite, se sont développés des algorithmes de recommandation sur des pages distinguant les contenus suivis et les contenus recommandés par l’application.
Ces premiers algorithmes étaient quelque peu limités et TikTok a contribué à transformer le paysage. L’algorithme de TikTok est dynamique et recommande aux utilisateurs des contenus lors de l’utilisation de l’application en elle-même. TikTok détecte les contenus appréciés par les utilisateurs et essaye de trouver des contenus similaires. L’une des caractéristiques de TikTok repose précisément sur sa capacité rapide d’apprentissage. Ce modèle a influencé quasiment toutes les autres applications qui diffusent du contenu, à l’instar de YouTube. En revanche, je ne peux pas vous donner des détails techniques sur la manière dont l’algorithme de TikTok fonctionne.
Mme Laure Miller, rapporteure. Estimez-vous que TikTok a influencé les autres plateformes comme Meta, YouTube ou X, dans la manière de recommander des contenus ou de présenter les vidéos, par exemple ? Je pense notamment au concept des vidéos verticales qui n’existaient pas auparavant sur les autres plateformes.
M. Simon Corsin. TikTok a influencé l’ensemble du paysage numérique, de deux façons. La première manière concerne le design comme vous avez indiqué. Ce design était fondé sur celui de Musical.ly et de Mindie. Dans ce design, lorsqu’il ouvre l’application, l’utilisateur tombe directement sur un fil de vidéos en plein écran, c’est-à-dire un fil vertical, de carte à carte, de vidéo à vidéo. Ce modèle a été inventé par Mindie, mais nous n’imaginions pas qu’il deviendrait un standard. TikTok a connu un très grand succès et de nombreuses autres applications ont commencé à copier ce format, en adoptant à chaque fois un nom différent : « Shorts » sur YouTube, « Reels » sur Facebook, « Spotlight » pour Snapchat.
Au-delà du design, TikTok a modifié l’approche des algorithmes des autres applications, depuis un modèle où il faut trouver des gens à suivre pour obtenir du contenu vers du modèle fondé sur l’algorithme de recommandation.
Mme Laure Miller, rapporteure. Lorsque nous avons reçu les responsables de TikTok la semaine dernière, nous avons essayé de mettre en lumière une distinction entre d’une part recevoir du contenu parce qu’on l’apprécie, en en fonction de ses centres d’intérêt ; et d’autre part, recevoir du contenu parce que l’on a passé un peu plus de temps sur une vidéo, y compris lorsque cette vidéo nous a sidéré par sa violence ou son contenu choquant, de manière plus générale. Pensez-vous que l’algorithme pourrait techniquement établir la même distinction entre les deux et par conséquent, ne pas nous fournir sans cesse du contenu qui nous a choqués ?
M. Simon Corsin. Il faudrait que l’application soit capable de savoir effectivement si l’on aime le contenu ou si l’on est simplement sidéré. Auparavant, un signal existait, le « like », mais il devient de moins en moins utilisé. Par exemple, YouTube mettait en avant le nombre de « likes » et le nombre de « dislikes » et affichait même un graphique qui récapitulait la répartition. Lorsque le nombre de « dislikes » était élevé, cela permettait notamment de se poser des questions sur la véracité des contenus.
En revanche, les algorithmes de recommandation ont pour objet d’optimiser le temps passé sur l’application, en s’appuyant sur « l’engagement » des utilisateurs. Les développeurs qui travaillent sur ces applications traquent les métriques (metrics) clés, comme le temps passé sur l’application chaque jour, le temps passé sur une vidéo, le nombre de vidéos regardées. Cela leur permet ensuite d’affiner, de « tweaker » les algorithmes pour essayer de maximiser le résultat. Ces metrics sont ensuite anonymisés, chez les entreprises qui respectent la vie privée.
Toutes les entreprises utilisent un système de test A/B (ou A/B testing), qui consiste à tester des petites modifications de l’application sur une partie de la population. Par exemple, une modification peut consister à passer à la vidéo suivante automatiquement, après dix secondes. Les résultats sont ensuite analysés pour estimer si cette modification améliore l’engagement, si les utilisateurs restent plus longtemps sur l’application, s’ils l’ouvrent plus fréquemment, c’est-à-dire les buts recherchés par la plateforme.
Mme Laure Miller, rapporteure. Si je vous comprends bien, ces plateformes, et TikTok en particulier, auraient tout à fait les moyens techniques de réussir à cibler les contenus les plus problématiques, en tout cas ceux qui sont négatifs, pour essayer de les mettre moins en avant par rapport aux contenus positifs. Elles pourraient effectuer ces tests et estimer l’impact sur les utilisateurs, leur temps d’utilisation de l’application.
M. Simon Corsin. Comment définir un contenu « négatif » ? Comment le définissez‑vous ?
Mme Laure Miller, rapporteure. Il existe quelques grandes tendances malgré tout, comme le hashtag #SkinnyTok à une certaine période sur TikTok. Les plateformes pourraient tout à fait modérer d’une meilleure manière ce genre de contenus, mais elles ne le font pas, notamment par mauvaise volonté.
M. le président Arthur Delaporte. Pour compléter l’intervention de Mme la rapporteure, laissez-moi évoquer ce que nous avons vécu la semaine dernière, lorsque nous avons auditionné des influenceurs. À cette occasion, des extraits des auditions ont été montés et exposés sur les réseaux sociaux auprès d’un public qui n’avait jamais entendu parler de la commission d’enquête TikTok. Ces clashs mis en scène ont suscité des milliers, voire des millions de vues. Or nous avons l’impression que cette prime à la radicalité est encore plus importante sur TikTok que sur d’autres réseaux.
M. Simon Corsin. Je vois là plusieurs problématiques, plusieurs challenges. Comment décider qu’un contenu est radical ? Comment considérer qu’un contenu ne doit pas figurer sur la plateforme ? Certains choix peuvent être assez simples, comme l’exclusion de contenus pornographiques, puis leur détection, afin de les éliminer. En revanche, il est difficile de contrôler tous les débats au risque de porter atteinte à la liberté d’expression. Faut-il interdire ceux qui parlent mal d’Israël ou à l’inverse ceux qui en disent du bien ?
Le deuxième défi consiste précisément à détecter ces contenus radicaux. C’est assez simple pour des contenus pornographiques qui reposent sur l’image, mais il est beaucoup plus compliqué de déterminer si un message passé par une vidéo est radical ou non. Ce travail nécessite une action humaine de modération.
M. le président Arthur Delaporte. Cet aspect figure également au cœur de nos questionnements. Il ne s’agit pas de considérer le bien ou le mal, mais des messages peuvent entraîner des effets négatifs, observables sur le réel. La question consiste ici à savoir s’il est possible d’avoir une approche préventive face à un contenu qui n’est pas forcément problématique pris isolément, mais peut le devenir lorsqu’il est massifié, redondant et présenté de manière répétitive à l’utilisateur. Les effets d’amplification algorithmique font partie de nos questionnements.
Mme Laure Miller, rapporteure. Ces interrogations existent depuis longtemps. Elles portent notamment sur la qualification des plateformes : sont-elles de simples hébergeurs ou de véritables éditeurs de contenu ? Compte tenu de la force de l’algorithme qui permet de mettre en avant des contenus, considérez-vous qu’elles sont aujourd’hui de simples hébergeurs ou faudrait-il, selon vous, changer leur qualification pour leur reconnaître un rôle éditorial ?
M. Simon Corsin. Cela dépend des entreprises. Certaines d’entre elles peuvent y être attachées car elles veulent rendre la plateforme « safe ». D’autres plateformes comme X (ex Twitter) mettent plus l’accent sur la liberté absolue d’expression. Je n’ai pas de solution définitive à fournir, il s’agit d’un problème délicat.
Mme Laure Miller, rapporteure. En effet. Quand vous avez créé votre application et avec ce concept de vidéos qui défilent en plein écran de façon infinie, vous êtes-vous interrogé sur l’impact, c’est-à-dire la dépendance suscitée par un fil de vidéos sans fin dont on ne sait pas quelle sera la vidéo suivante ? Par essence, le mécanisme est addictif, l’utilisateur a sans cesse envie de savoir quelle est la vidéo suivante. D’une certaine manière, il existe un phénomène de récompense.
M. Simon Corsin. Comment établir la distinction entre un algorithme de recommandation addictif et un algorithme de recommandation qui fonctionne bien ? Un algorithme de recommandation qui ne fonctionne pas ne sera pas addictif : si je vous montre les vidéos que vous n’aimez pas du tout, il n’y aura forcément pas de phénomène d’addiction. En revanche, si je réalise un très bon travail, que je vous donne les vidéos que vous voulez voir absolument et que vous n’arrivez pas à décrocher parce que vous êtes trop engagé dans cette application, cela signifie que l’algorithme de recommandation fonctionne extrêmement bien. Chaque application essaie d’atteindre ce niveau. Nous n’y sommes pas parvenus avec Mindie ; si tel avait été le cas, nous serions devenus ce que TikTok est devenu aujourd’hui. Les utilisateurs retournaient sur notre application de manière assez régulière, mais il n’y avait pas encore ce niveau d’addiction.
Une partie de notre formule, le design avec le feed vertical, fonctionnait bien, mais nous ne disposions pas encore de la partie recommandation. Nos algorithmes étaient simples à l’époque, il n’existait pas encore d’algorithmes qui apprenaient en fonction de l’expérience de l’utilisateur.
Mme Laure Miller, rapporteure. Diriez-vous que TikTok est addictif ?
M. Simon Corsin. Je ne suis pas un utilisateur de TikTok, mais j’utilise des applications qui proposent des expériences similaires. Elles sont relativement addictives car l’utilisateur est bombardé de contenus personnalisés, que l’utilisateur a plus de chance d’apprécier.
Les fabricants Apple et Google ont mis en place des systèmes pour permettre aux utilisateurs de contrôler un peu mieux leur utilisation du téléphone, qu’il est possible de bloquer à partir d’un certain temps d’utilisation par exemple. L’industrie reconnaît l’existence du problème, mais simultanément il n’est pas dans l’intérêt des producteurs d’applications que celles-ci soient moins utilisées.
Les applications peuvent être addictives. Je ne pense pas que cela soit forcément un problème en soi pour les adultes à partir du moment où ils sont capables de se maîtriser. Je ne pense pas que le niveau d’addiction soit semblable à celui de la drogue, c’est-à-dire une addiction de type physique. La question est peut-être plus problématique pour les plus jeunes, qui ont moins de contrôles d’eux-mêmes.
Mme Laure Miller, rapporteure. C’est la raison pour laquelle notre commission d’enquête se concentre en effet plutôt sur les mineurs, qui sont moins en mesure de gérer ces aspects addictifs.
Je souhaite revenir sur la question des contenus. Vous avez souligné la difficulté de qualifier un contenu « positif » par rapport à un contenu « négatif ». Cependant, il est possible de reprocher à TikTok sa politique de modération, qui paraît quand même assez faible. Nous avons reçu la semaine dernière les responsables de la plateforme et avons évoqué avec eux les contenus qui portent sur la scarification ou l’incitation au suicide. Naturellement, ils en modèrent une partie. Mais nous leur avons expliqué que les jeunes pouvaient déjouer la modération en utilisant certains mots-clefs ou certaines émoticônes, qui sont pourtant connues de tous ; par exemple le drapeau suisse pour le suicide, le zèbre pour la scarification. Pour autant, les contenus associés subsistent sur la plateforme.
D’après vous, seraient-ils techniquement en mesure de pouvoir supprimer tous ces contenus ? Aujourd’hui, il suffit de se mettre à jour très régulièrement ; ils pourraient tout à fait modérer, a priori, ces contenus.
M. Simon Corsin. Il existe un rapport direct entre la qualité de la modération et son coût. Plus vous investissez d’argent dans la modération, plus sa qualité va s’améliorer. Prenons deux exemples extrêmes. Si aucune somme n’est investie, tous les contenus sont ouverts, la qualité de modération sera très mauvaise. À l’inverse, si chaque vidéo postée est vérifiée et validée par un humain, le coût sera très élevé et cela ralentira le flux des vidéos.
En pratique, les entreprises recherchent un entre-deux, en essayant d’avoir un ratio correct de faux négatifs et de faux positifs, au coût le plus faible possible. Cela dépend également de leur tolérance au backlash public. Une entreprise dont la tolérance pour le backlash est faible investira peut-être plus dans la modération pour réduire le nombre de posts négatifs.
Il est également possible de déterminer une règle de suppression du contenu quand le nombre de reports atteint un certain seuil. Cette solution présente l’avantage d’être simple, à moindre coût. Il est aussi envisageable d’élaborer des algorithmes de plus en plus compliqués qui impliquent plus ou moins d’humains, mais à un coût plus élevé. Il est toujours possible d’établir une modération parfaite, mais son coût peut devenir prohibitif, au point de rendre des plateformes sociales non rentables.
Cependant, je pense que nous sommes à l’aube d’un grand changement dans ce domaine, grâce à l’intelligence artificielle (IA). Dans un futur extrêmement proche, voire dès aujourd’hui, la modération pourra être effectuée par l’IA, de manière plus automatisée. J’estime que nous pourrions très bientôt obtenir une modération bien plus efficace qu’aujourd’hui, à un coût raisonnable.
Mme Laure Miller, rapporteure. Vos propos corroborent notre impression. Nous avons le sentiment que les plateformes se laissent une marge d’erreur aujourd’hui mais que si elles y consacraient plus de moyens, elles pourraient éviter cette marge d’erreur. Or nous avons essayé de leur expliquer que derrière cette marge d’erreur, des enfants, des jeunes, des personnes vulnérables sont parfois profondément affectées par des contenus qu’elles n’auraient pas dû voir.
M. Simon Corsin. Il faut considérer deux variables : d’une part le coût, et d’autre part, le nombre de faux positifs et de faux négatifs. Les entreprises décident de la balance, de l’arbitrage. En limitant moins la liberté d’expression, on court plus de risque de faux négatifs, c’est-à-dire laisser des contenus qui devraient être supprimés. Inversement, on peut retirer du contenu qui a pourtant respecté les conditions d’utilisation. Chaque entreprise détermine sa politique dans ce domaine.
Mme Laure Miller, rapporteure. Il serait possible d’éviter de trop se poser ce genre de question si nous avions la garantie qu’aucun mineur de moins de 13 ans – puisque ces plateformes-là sont théoriquement interdites aux moins de 13 ans – n’est effectivement présent sur la plateforme. Dès lors, les risques pour la plateforme de mettre ces images à disposition d’enfants et de jeunes publics seraient évidemment très réduits.
Aujourd’hui, la question de la vérification de l’âge est centrale. Mais les plateformes se renvoient un peu la balle en considérant que ce sujet doit être traité par un autre maillon de l’industrie ou par une réglementation uniforme, par exemple au niveau européen. Elles demandent à être dotées de solutions techniques, alors que nous avons malgré tout le sentiment qu’elles pourraient d’elles même le faire, du strict point de vue technique. Partagez-vous l’idée selon laquelle la vérification de l’âge pourrait tout à fait s’effectuer librement si les plateformes le décidaient aujourd’hui ?
M. Simon Corsin. Oui, mais de mon point de vue, il ne s’agirait pas de la méthode la plus efficace. Je pense que cet aspect devrait être centralisé, par exemple au niveau des opérateurs systèmes sur mobile, qui ne sont pas très nombreux puisqu’il s’agit surtout d’iPhone et d’Android. Il pourrait leur être demandé de vérifier l’âge de la personne qui utilise le téléphone, par exemple la première fois que l’utilisateur installe le téléphone, ce qui permettrait de limiter le nombre d’applications disponibles depuis l’Apple Store.
Mme Laure Miller, rapporteure. Mais rien ne l’empêche de le faire techniquement, n’est-ce pas ?
M. Simon Corsin. C’est exact. Rien ne l’empêche, d’un point de vue technique.
Mme Laure Miller, rapporteure. Cette méthode serait sans doute très imparfaite puisque chaque plateforme aurait une méthode, une technique différente ; mais elle aurait le mérite d’exister. Aujourd’hui, le système n’est vraiment pas satisfaisant. Vous connaissez comme moi les chiffres concernant le nombre de jeunes de 11 ans ou 12 ans qui sont déjà présents sur ces plateformes, alors qu’ils ne le devraient pas les consulter.
Quel regard vous portez-vous sur le débat actuel concernant une interdiction des réseaux sociaux avant un certain âge, par exemple avant 15 ans ou 16 ans ?
M. Simon Corsin. Au préalable, je souhaite revenir sur la question précédente, pour rajouter un élément. Si la vérification d’âge est effectuée sur chacune des applications, il est assez facile maintenant pour un enfant d’installer une application, puis de demander à un adulte de vérifier l’âge. En revanche, il est plus efficace de le faire au niveau du système d’exploitation, puisque l’on peut présumer que ce sont les parents qui achètent le téléphone à leurs enfants. Ces parents pourraient aussi être informés, voire « éduqués » sur le système de vérification d’âge. Cette procédure empêcherait l’enfant d’installer une application qui serait illégale et offrirait moins de possibilités de détournement.
Ensuite, vous avez évoqué l’interdiction des réseaux sociaux avant un certain âge. Je n’y suis pas opposé, mais il convient de définir précisément cet âge, ce qui ne relève pas de ma compétence.
Mme Laure Miller, rapporteure. Nous avons reçu plusieurs plateformes, dont TikTok, mais aussi Meta, YouTube et X. Leur stratégie consiste à nous expliquer toutes les actions qu’elles mettent en place pour accompagner les enfants sur leurs plateformes respectives, comme l’information du temps passé sur l’application. Il existe aussi une possibilité de supprimer l’algorithme de recommandation par défaut. Mais ces dispositifs sont optionnels et parfois difficiles à activer.
Quel regard portez-vous sur ce que les plateformes qualifient d’améliorations pour protéger davantage les mineurs ? Estimez-vous qu’il s’agit surtout de plaidoyers sur des petites protections, sans véritables effets réels, alors que les plateformes pourraient tout à fait configurer l’application pour qu’elle soit protectrice par défaut pour les mineurs ? Nous avons l’impression que certaines mises à disposition existent, mais de toute évidence, un jeune ne va pas se limiter lui-même si on ne le contraint pas à le faire. Par essence, il a envie de passer plus de temps, de tout voir et d’être libre sur la plateforme.
M. Simon Corsin. Je ne suis pas certain que ce genre de fonctionnalité ait vraiment pour objet de protéger les enfants. On peut plutôt les concevoir comme des atouts marketing à destination de l’adulte responsable de l’enfant, pour qu’il puisse décider des applications qui pourront être utilisées.
Mme Laure Miller, rapporteure. Vous recommandez des vérifications d’âge au niveau du système d’exploitation du téléphone plutôt que sur chaque application. Mais qu’en est-il des ordinateurs ? Aujourd’hui, il est possible de se connecter à ses applications autrement que par le simple téléphone. Faudrait-il verrouiller tous les outils numériques ?
M. Simon Corsin. Pour être véritablement sérieux, il faudrait établir un verrou en amont, plutôt que sur chaque application.
M. René Lioret (RN). Mon intervention est celle d’un néophyte. Grâce à l’intelligence artificielle, ne serait-il pas possible de « contrer » ces algorithmes de recommandation ? Ne serait‑il pas possible de définir une sorte seuil de saturation, plutôt que de reproduire à l’envi des contenus, en particulier s’agissant d’images violentes ou d’images apologétique du suicide ou de la scarification ? Nous savons bien que ces phénomènes touchent en particulier les jeunes plutôt que des adultes de 30 ans ou de 40 ans.
Je tiens à ce titre à vous faire part de mon expérience. Je m’intéresse aux chevaux et j’ai regardé deux vidéos concernant le nettoyage des sabots infectés de chevaux. Au bout de deux vidéos, j’en avais assez car ce nettoyage n’est pas très agréable à visionner. Pourtant, l’algorithme m’a proposé d’autres vidéos du même type. À partir d’un moment où l’on a vu deux ou trois vidéos, n’est-il pas possible d’inverser le système, en particulier pour des sujets que l’on sait sensibles et qui sont visionnés de préférence par les jeunes ?
M. Simon Corsin. Qu’entendez-vous par « inverser le système » ?
M. René Lioret (RN). Je parle d’une régulation des algorithmes, qui estimeraient avoir envoyé suffisamment d’images et de vidéos sur un appareil et décideraient donc d’inverser la fréquence.
M. Simon Corsin. Oui, c’est tout à fait possible. Il en va d’ailleurs de l’intérêt de l’algorithme, dont le but consiste à capter un utilisateur de manière un peu infinie. Si l’utilisateur est trop « matraqué » de vidéos similaires, à un moment donné, il en aura assez et partira.
M. René Lioret (RN). Les hébergeurs sont quand même, d’une certaine manière, responsables des conséquences de cet hébergement. Il leur reviendrait donc de calmer le jeu et de limiter les risques. Je comprends que derrière cette problématique de la capture de l’attention, l’objectif consiste à générer des profits. Mais on ne peut pas tout faire non plus au nom du profit.
M. Simon Corsin. Je l’entends, mais de quoi s’agit-il en l’espèce ? Rendre l’algorithme moins addictif ?
M. René Lioret (RN). Oui, le rendre moins addictif en inversant la situation. Plus un jeune qui a des idées suicidaires recevra des propositions pour passer à l’acte plus facilement, plus il sera fragilisé. Plus globalement, je pense à tout ce qui peut mettre en jeu la santé mentale et la vie des enfants.
M. Simon Corsin. Je suis votre raisonnement, mais j’essaye de réfléchir à la possibilité technique de procéder, la manière d’établir un framework. À partir de quand définir le seuil de saturation ? Par exemple, si vous êtes passionné de chevaux et que vous voulez regarder le nettoyage de sabots pendant deux heures, à partir de quel moment cela devient-il un problème ? En fonction de tel ou tel sujet, de tel ou tel topic, la durée ne sera pas la même.
M. René Lioret (RN). Après avoir visionné quatre à cinq nettoyages de sabot, on en a assez de voir le pus qui dégouline. Ce n’est pas si grave en soi ; si l’on veut visionner d’autres vidéos du même type, c’est que l’on a des penchants morbides. Mais cela n’est pas du même registre que des vidéos affectant la santé mentale, comme des contenus pornographiques, des contenus portant sur la scarification, le suicide. Une personne en pleine forme, en bonne santé, ne passe pas son temps à regarder ce genre de vidéos.
M. Simon Corsin. Dans ce cas, il faudrait définir clairement les contenus dont le visionnage prolongé peut affecter la santé mentale. Mais sur le strict plan technique, il est complètement possible de limiter l’exposition.
M. René Lioret (RN). Je suis d’accord avec vous, il revient au législateur de définir ces contenus sensibles, de mettre des barrières.
Mme Laure Miller, rapporteure. C’est effectivement l’enjeu de la discussion que nous menons depuis tout à l’heure, c’est-à-dire savoir où l’on place le curseur entre le contenu négatif et le contenu positif, où s’arrête la liberté d’expression quand les contenus ne sont pas illégaux. Monsieur Corsin, souhaitez-vous rajouter des éléments concernant une limitation de l’algorithme de recommandation ?
M. Simon Corsin. Pour moi, la limitation devrait s’appliquer à des sujets prédéfinis. Il est délicat de décider que tel ou tel sujet de société ne doit pas être propagé, mais il est plus simple d’agir si l’on est capable de définir précisément quels sont les sujets que l’on ne veut pas exposer à toute la population ou à une partie d’entre elle, comme les plus jeunes. Je pense par exemple à des thématiques concernant la scarification, le suicide, la drogue.
Mme Laure Miller, rapporteure. Cette question est effectivement plus large et dépasse le périmètre de notre commission d’enquête. Il semble que chaque jour sont visionnés dans le monde l’équivalent de 120 000 années de vidéos. Or, sur ces 120 000 années de vidéos, les trois quarts sont en réalité des vidéos qui sont le fruit d’une recommandation algorithmique. À l’aune de ces chiffres, il est assez vertigineux d’observer la manière dont les plateformes façonnent aujourd’hui notre représentation du monde. Qu’en pensez-vous ?
M. Simon Corsin. Je vous avoue ne pas passer énormément de temps sur les applications qui utilisent des fils de recommandation ; je suis un peu « vieux jeu » dans ce domaine. J’ai besoin d’avoir confiance dans le contenu que je regarde, surtout face à des types d’algorithme qui mettent en avant des contenus qui peuvent être potentiellement provocateurs ou contraires aux idées qui sont les miennes.
Je ne vais pas forcément avoir confiance dans ces algorithmes de recommandation parce qu’ils m’obligeraient à passer beaucoup de temps pour vérifier leur source. Mais je vois bien que cet effort de recherche n’est pas partagé par tous, notamment les plus jeunes. Leur esprit critique n’est peut-être pas encore assez développé, ou alors on ne leur a pas encore bien expliqué. Ils peuvent se contenter de consulter un contenu parce qu’il est populaire, sans chercher à questionner sa véracité.
Mme Laure Miller, rapporteure. Ma question est un peu indiscrète. J’ignore si vous avez des enfants ; mais si tel était le cas, les autoriseriez-vous à aller sur TikTok ?
M. Simon Corsin. Pas jusqu’à un certain âge.
Mme Laure Miller, rapporteure. Avez-vous des recommandations à formuler ou des éléments complémentaires à transmettre qui nous seraient utiles pour notre bonne compréhension de la plateforme ?
M. Simon Corsin. Non, je n’ai pas d’idées particulières à formuler.
Mme Laure Miller, rapporteure. Vous travaillez pour Snapchat. De quel ordre est l’algorithme de Snapchat par rapport à celui de la plateforme TikTok ?
M. Simon Corsin. Ne travaillant pas sur l’algorithme de Snapchat, je ne peux pas vous répondre.
Mme Laure Miller, rapporteure. S’agit-il également d’un algorithme de recommandation ? Est-ce la même idée ?
M. Simon Corsin. Oui, c’est la même idée.
Mme Laure Miller, rapporteure. Je vous remercie d’avoir répondu à notre convocation et vous demande de bien vouloir compléter le questionnaire qui vous a été envoyé. Vos réponses seront utiles à notre commission d’enquête.
La séance s’achève à dix-huit heures trente-cinq.
Présents.– M. Arthur Delaporte, M. Emmanuel Fouquart, Mme Anne Genetet, M. René Lioret, Mme Laure Miller, Mme Constance de Pélichy, M. Thierry Sother, M. Stéphane Vojetta.