Compte rendu
Commission d’enquête concernant l’organisation des élections en France
– Table-ronde, ouverte à la presse, réunissant des représentants en France des entrreprises Google, Meta, Snap.Inc., TikTok et X 2
– Présences en réunion................................36
Jeudi
17 avril 2025
Séance de 10 heures
Compte rendu n° 31
session ordinaire de 2024-2025
Présidence de
M. Thomas Cazenave,
Président de la commission
— 1 —
La séance est ouverte à dix heures.
La commission entend lors de la table ronde consacrée des représentants en France des entreprises Google, Meta, Snap.Inc, TikTok et X :
– M. Benoît Tabaka, Secrétaire général de Google France, et Mme Charlotte Radvanyi, responsable des relations institutionnelles ;
– M. Anton’Maria Battesti, directeur des affaires publiques de Meta France, Mme Aurore Denimal, responsable des affaires publiques France, et Mme Clémence Dubois, responsable des partenariats avec les pouvoirs publics et de l’impact social ;
– M. Grégory Gazagne, Directeur général France de Snap. Inc. (Snapchat), et Mme Sarah Bouchahoua, responsable des affaires publiques ;
– Mme Sarah Khémis, senior public policy manager France de TikTok, et M. Louis Ehrmann, public policy manager France ;
– Mme Claire Dilé, directrice des affaires publiques Europe de X.
M. le président Thomas Cazenave. Au cours de cette table ronde, nous souhaitons échanger sur la place que les plateformes numériques et les réseaux sociaux occupent dans le débat public et évaluer leur impact sur l’organisation des élections en France, sujet de notre commission d’enquête.
Dans le cadre de cette commission d’enquête, nous analysons en effet toute la chaîne d’organisation des élections, depuis l’inscription sur les listes électorales jusqu’à la tenue des bureaux de vote, en passant par le débat public qui anime la campagne.
Au fil des auditions, la question du rôle des plateformes numériques et des réseaux sociaux est apparue sous des angles différents. Tout d’abord, ces plateformes nous exposent à un risque accru d’ingérence étrangère lors des périodes électorales, comme nous avons pu le constater dans d’autres pays, ce qui nous oblige collectivement à faire preuve de vigilance. Par ailleurs, alors que le débat se tient de plus en plus sur les réseaux sociaux, la très stricte régulation de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) ne concerne que les médias traditionnels.
Dans ce contexte, nous aimerions savoir comment les entreprises que vous représentez appréhendent leur rôle, leurs responsabilités et les risques que leur activité peut faire peser sur l’organisation et la bonne tenue des élections dans notre pays.
L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.
(M. Benoît Tabaka, Mme Charlotte Radvanyi, M. Anton Maria Battesti, Mme Clémence Dubois, Mme Aurore Denimal, M. Grégory Gazagne, Mme Sarah Bouchahoua, Mme Claire Dilé, Mme Sarah Khemis et M. Louis Ehrmann prêtent successivement serment.)
M. Benoît Tabaka, secrétaire général de Google France. Comme vous l’avez souligné, le numérique est un sujet clé dans les opérations électorales. Dans ce contexte, la mission principale de Google, qui est d’organiser l’accès à l’information, devient critique.
En France, Google emploie environ 1 400 personnes, principalement localisées à Paris. Toutes les fonctions de l’entreprise sont représentées dans ce que certains qualifient de « mini Mountain View », du nom de la ville dans laquelle se trouve notre siège social aux États‑Unis. Outre des commerciaux et des équipes chargées du marketing ou du cloud, plus de 300 collaborateurs travaillent dans la recherche et le développement, notamment dans les technologies d’intelligence artificielle (IA).
Parmi nos employés parisiens, une grande partie est mobilisée à l’occasion des élections. C’est également le cas dans les autres bureaux de Google dans le monde. Nous pourrons y revenir de manière plus détaillée si vous le souhaitez.
Lors des élections, notamment en France, notre approche repose sur trois piliers.
Premièrement, nous nous assurons que les informations qui font autorité concernant le vote sont à la disposition de nos utilisateurs. Lorsque vous tapez une requête sur le moteur de recherche Google pour savoir comment voter, où voter, ou encore pour avoir des détails sur les bureaux de vote, nous devons faire remonter des informations fiables et structurées, qui émanent des autorités. Nous l’avons fait pour les élections européennes, comme pour les élections présidentielles ou législatives.
Nous mettons en avant certains éléments dans ce que nous appelons des « boîtes d’informations ». Pour les élections européennes, leur contenu est défini avec le Parlement européen. Pour les élections nationales, nous travaillons avec le service d’information du gouvernement (SIG). Lorsque les internautes posent une question, ces informations remontent de manière organique.
Deuxièmement, nous nous attachons à assurer la protection, la sécurité et l’intégrité des élections. Le risque cyber et le risque d’ingérence étrangère sont importants dans ces périodes. En 2024, alors que plus de la moitié de la population mondiale était appelée aux urnes, nous avons pu constater de nombreuses tentatives structurées d’ingérence étrangère dans les campagnes électorales. Au sein du groupe, deux entités travaillent sur ces sujets : le Google’s Threat Analysis Group et Mandiant. Elles identifient les menaces et les analysent, pour anticiper et, si nécessaire, informer les autorités, notamment françaises. Ces tentatives d’ingérence étrangère peuvent prendre la forme de cyberattaques ou passer par la diffusion de certaines informations.
S’agissant de l’intelligence artificielle, qui est de plus en plus présente dans notre vie quotidienne et dont l’usage se développe pendant les périodes électorales, nous disposons de technologies de marquage des contenus. Elles permettent d’assurer leur traçabilité sur internet et d’informer le public qu’ils ont été générés par l’IA.
Troisièmement, nous accompagnons les équipes de campagne dans leurs usages du numérique. Nous mettons à leur disposition des outils permettant de protéger les sites de partis politiques ou de candidats. Lors des dernières élections aux Pays-Bas, des attaques massives par déni de service visaient à faire tomber certains sites. Nous avons des solutions pour assurer leur sécurité et garantir leur intégrité.
Quand des élections se déroulent en France, nous constituons une équipe dédiée, à Paris, qui est le point de contact permanent avec les différents partis politiques. Nous avons une adresse mail pour la communication d’urgence. Les différentes équipes de Google, notamment les équipes d’ingénierie, sont également mobilisées. Notre objectif est d’apporter une réponse le plus rapidement possible en cas de problème.
M. Anton’Maria Battesti, directeur des affaires publiques de Meta France. Vous connaissez probablement Meta et ses services associés, dont Instagram, Facebook et WhatsApp, ou ses solutions d’intelligence artificielle ou de réalité augmentée et virtuelle. L’entreprise est présente en France depuis 2008, mais s’y est principalement développée à partir des années 2012 et 2013. Elle emploie environ 300 personnes et a constitué un bureau spécialisé dans l’intelligence artificielle, situé à Paris.
À titre personnel, j’ai rejoint l’entreprise il y a bientôt douze ans. J’y ai vécu deux élections présidentielles, des élections législatives, européennes et locales. Je pourrai donc vous apporter un regard utile fondé sur cette expérience personnelle.
Certains des sujets que nous pourrons aborder ont déjà été évoqués par le représentant de Google. Notre approche est holistique. Elle consiste à promouvoir l’engagement des citoyens, en mettant en avant les dates d’élections et le déroulement du vote, par exemple. Nous aurons l’occasion de détailler les produits que nous proposons, comme les campagnes de sensibilisation sur l’information électorale et la désinformation. La sécurité des utilisateurs et des candidats constitue également l’une de nos priorités. Nous portons de l’attention à la propagation de fausses informations. S’agissant des ingérences étrangères, nous travaillons en collaboration avec les autorités françaises, dont le service de vigilance et de protection contre les ingérences numériques étrangères (Viginum). Nous disposons par ailleurs d’outils de transparence de la publicité politique. Ils existent depuis de nombreuses années et se sont développés après l’adoption de la loi relative à la lutte contre la manipulation de l’information en 2018 et du Digital Services Act (DSA). Si vous le souhaitez, nous pourrons aussi revenir sur l’émergence des nouvelles technologies comme l’IA et la manière dont nous appréhendons ces phénomènes.
M. Grégory Gazagne, directeur général France de Snapchat. La protection de notre démocratie est un sujet fondamental, qui passe notamment par le respect de l’intégrité des élections et par la sensibilisation de nos utilisateurs aux enjeux électoraux.
Permettez-moi tout d’abord de vous rappeler ce qu’est Snapchat. C’est une application de communication : nos utilisateurs s’y connectent principalement pour échanger avec leurs amis et leur famille. Nous donnons la priorité à cette interaction. Pour cette raison, l’application s’ouvre sur un appareil photo et non sur un fil d’actualité.
Notre application a été conçue différemment des réseaux sociaux traditionnels. La confidentialité est le mode par défaut. Les conversations sont privées et réciproques, ce qui signifie que vous ne pouvez pas engager une discussion avec quelqu’un qui ne vous a pas accepté comme ami en retour. Ces principes sont fondamentaux pour nous.
Du fait de son architecture, Snapchat ne se prête pas naturellement aux débats et à la diffusion de contenus politiques. L’application ne propose pas de fil public ouvert. Elle ne permet pas la diffusion en direct ou la diffusion massive de contenus préjudiciables non modérés. Un utilisateur privé ne peut pas repartager des contenus avec une large audience. Nous ne faisons pas la promotion d’un enfermement algorithmique. La confidentialité est une fondation de l’application et la viralité n’est pas notre modèle.
S’agissant de la protection des processus électoraux, vous aurez compris que notre plateforme ne se prête pas à une diffusion massive de contenus illicites. Pour chaque événement majeur, dont les périodes électorales, nous mettons toutefois en place des équipes dédiées, composées de représentants des affaires publiques, de la modération, des partenariats avec les médias ou de la communication.
Ces équipes dédiées travaillent sur trois axes prioritaires, dont le premier est la modération. Nous appliquons des règles strictes contre la désinformation, et les signalements sont traités avec rigueur et rapidité. Comme nous l’avons mentionné dans le rapport de transparence établi dans le cadre du DSA, le temps médian d’examen et de réaction au signalement de fausses informations a été de deux minutes lors du second semestre 2024. Pendant les périodes électorales, nous entretenons également des relations étroites et constantes avec l’Arcom.
Notre deuxième axe prioritaire concerne la prévention des ingérences étrangères. Toutes les publicités à caractère politique sont vérifiées manuellement avant leur diffusion et doivent respecter nos règles de transparence. Elles doivent notamment porter la mention « publicité ». Par ailleurs, nous interdisons la diffusion dans l’Union européenne de toutes les publicités politiques financées directement ou indirectement par des entités établies en dehors de cette zone. Enfin, pour renforcer la fiabilité des contenus, nous travaillons avec des vérificateurs de faits indépendants, comme Pointer, et l’une de nos équipes surveille en permanence l’émergence de nouvelles menaces, afin que nous puissions adapter nos défenses.
Le troisième axe prioritaire est la sensibilisation aux enjeux des élections, comme nous l’avons fait à l’occasion des dernières élections européennes. Grâce à des campagnes d’information, nous encourageons nos utilisateurs à participer de manière active et éclairée au processus démocratique.
Cette approche à la fois proactive et pragmatique nous a permis de ne pas connaître de phénomènes massifs de désinformation ou de volonté de nuire à la bonne tenue des élections, notamment européennes ou législatives anticipées de 2024.
Nous vous apporterons toutes les précisions nécessaires pour vous assurer du sérieux, de la responsabilité et de l’engagement de Snapchat dans la défense du processus démocratique. Les choix de conception de notre plateforme sont structurants. Notre volonté de protéger nos utilisateurs est claire et nous menons un travail constant pour garantir l’intégrité de nos contenus. Nous savons que la confiance se construit par la transparence et l’action.
Mme Claire Dilé, directrice des affaires publiques Europe de X. Votre invitation est l’occasion de présenter le travail de nos équipes pour protéger la conversation publique pendant les périodes électorales, notamment lors des dernières élections européennes et législatives anticipées en France.
X est une plateforme de réseau social et d’information en temps réel où la conversation est publique. Selon notre dernier rapport de transparence établi dans le cadre du DSA, qui date d’octobre 2024, nous recensons 20 millions d’utilisateurs mensuels actifs et 13 millions de comptes en France.
Notre ambition est de servir et de protéger la conversation publique, en garantissant un environnement sûr dans lequel chacun peut participer librement et en toute confiance.
L’approche de X en matière de sécurité est étayée par ses conditions d’utilisation, y compris les règles et politiques de confidentialité, qui sont conçues pour garantir que tout utilisateur puisse participer à la conversation publique de manière sûre. Nous soutenons la possibilité pour chacun de s’exprimer sur la plateforme et ne tolérons pas les comportements qui harcèlent, menacent ou intimident dans le but de faire taire la voix d’autrui. Nous nous engageons à maintenir un environnement inclusif où des perspectives diverses peuvent être partagées, débattues et appréciées.
En France, la politique et le débat public font partie des sujets les plus souvent abordés sur X, aux côtés du divertissement et du sport. Nous avons donc la responsabilité de nous assurer que notre service n’est pas utilisé dans l’intention de manipuler le discours public ou l’authenticité des conversations en ligne, particulièrement en période électorale.
Nos équipes de modération restent attentives à toutes les tentatives de manipulation de la plateforme par des acteurs et des réseaux malveillants. Nous avons mis en place des règles robustes pour les empêcher et combattre le spam, l’usurpation d’identité et toute autre forme de préjudice. Nous suspendons les comptes qui se livrent à de tels agissements. Nous luttons également contre les médias manipulés et les deepfakes et nous labellisons de manière visible tout contenu de ce type qui a été démenti par une source crédible.
Le travail que nous menons repose sur notre politique en matière d’intégrité civique, selon laquelle les utilisateurs ne peuvent pas utiliser le service dans le but de manipuler ou d’interférer dans les élections. Nous n’acceptons pas la publication et le partage de contenus susceptibles de dissuader la participation au scrutin, d’induire en erreur sur quand, comment et où voter ou de conduire à des violences hors ligne.
Dans l’Union européenne, X interdit en outre les publicités assurant la promotion d’un contenu ou d’une campagne politique.
Pour protéger les élections, nous disposons d’une équipe interdisciplinaire associant différents domaines d’expertise. Elle possède les informations pertinentes sur le contexte local, afin d’appliquer les règles de manière cohérente et précise, selon l’évaluation des risques qu’elle a préalablement conduite.
Nos actions liées aux élections s’articulent principalement autour de deux axes.
Le premier axe s’appuie sur nos politiques d’intégrité civique et concerne la sécurisation de la plateforme, en particulier vis-à-vis des informations trompeuses. Nous accordons une attention particulière à toutes les tentatives d’ingérence étrangère, de manipulation, ainsi qu’au respect de l’intégrité de la conversation, en refusant les comportements haineux, les contenus violents, les abus et le harcèlement. Nous veillons également à respecter les périodes de silence électoral.
Afin de contrer les risques pesant sur notre service dans l’espace informationnel, nous entretenons des contacts réguliers avec les commissions électorales, les entités gouvernementales, les agents de sécurité du cyberespace, les forces de l’ordre, les partis politiques et les candidats, ainsi que les associations.
Lors des dernières élections législatives en France, par exemple, nous avons eu des contacts réguliers avec l’Arcom et maintenu des canaux de communication avec le ministère de l’intérieur, le ministère des affaires étrangères et Viginum. Nous avons mis en place une hotline pour signaler les incidents, qui était accessible aux différentes formations politiques. Nous avons consulté des associations spécialisées pour connaître leur lecture des risques éventuels liés à l’élection. Nous avons coopéré avec les différents services de forces de l’ordre et la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (Pharos). Enfin, nous avons publié sur notre compte @XFrance un message rappelant les règles de la période de silence, à l’attention des créateurs de contenus et des influenceurs.
Le second axe concerne le soutien à l’engagement civique et à l’éducation aux médias et à l’information, qui se traduit par des activations sur la plateforme et des campagnes de sensibilisation menées conjointement avec les partenaires associatifs.
Pour les élections législatives anticipées en France, par exemple, nous avons mis en place, en partenariat avec le SIG, des activations renvoyant directement à la plateforme officielle intergouvernementale sur les élections. Elles prenaient la forme de messages de rappel et d’encouragement à aller voter le jour du scrutin, d’outils de recherche sur les élections et d’un « election hashmoji », #ElectionsLegislatives2024. Ces différents outils destinés à promouvoir l’engagement civique ont généré des millions d’impressions et de clics de la part des utilisateurs en France. Nous avons également travaillé avec l’association Génération Numérique sur une campagne d’éducation et d’information aux médias que nous avons financièrement soutenue.
En 2024, plus d’un milliard de personnes ont voté dans le monde, de l’Inde à l’Union européenne, en passant par les États-Unis. Des élections anticipées ont eu lieu en France et au Royaume-Uni. Au total, à l’exclusion des élections américaines, notre entreprise a pris plus de 221 000 décisions de modération liées aux élections, qui s’ajoutent à nos actions de modération habituelles. Quant aux messages visant à encourager la participation aux élections et à soutenir l’engagement civique, ils ont reçu environ 1,4 milliard d’impressions.
Mme Sarah Khémis, senior public policy manager de TikTok en France. Le bureau de TikTok en France est ouvert depuis 2019 et compte plus de 200 employés. Selon le dernier rapport DSA de février 2025, la plateforme totalise 24,7 millions d’utilisateurs actifs mensuels en France.
En période électorale, le rôle de TikTok est de garantir un espace de conversation sûr pour ses utilisateurs, conformément aux règles communautaires qui listent et définissent ce qui est interdit sur la plateforme, de transmettre des informations claires, vérifiées et localisées sur la tenue des élections, et enfin de sensibiliser les utilisateurs aux risques liés à la désinformation électorale. Dans ce domaine, TikTok travaille en coopération avec les autorités publiques françaises, notamment l’Arcom et Viginum.
S’agissant du respect de l’intégrité des procédures électorales, nos règles sont claires et publiques. Les contenus et comportements frauduleux sont interdits sur TikTok de manière générale, c’est-à-dire pendant et en dehors des périodes d’élections. Ils incluent la désinformation liée aux processus électoraux, mais également les ingérences étrangères. Pour ce dernier point, nous rendons publique la suppression de tels contenus, dans le cadre d’un rapport dédié. Lors des élections législatives de juillet 2024, nous n’avons pas identifié d’opérations visant la France. Elles ont, en revanche, pu cibler d’autres pays, comme la Suède ou l’Indonésie. Par ailleurs, nous n’autorisons pas les publicités présentant du contenu politique dans nos fonctions de monétisation, y compris en dehors des périodes d’élections.
En amont des élections, nous rencontrons les différents partis politiques pour leur rappeler ces règles.
Nous interdisons les utilisations préjudiciables de contenus vidéo et audio générés par l’IA. Une politique dédiée existe au sein de nos règles communautaires – nous pourrons y revenir si vous le souhaitez. Ces contenus sont modérés et peuvent faire l’objet d’un signalement. TikTok travaille en outre avec des vérificateurs de faits, dont l’Agence France-Presse (AFP) en France.
Au-delà de l’application stricte de ces règles, une équipe de spécialistes est également mobilisée en interne pendant les périodes électorales.
S’agissant de la mise à disposition d’informations vérifiées et localisées sur la tenue des élections, nous travaillons, pour ce qui est des utilisateurs français, en partenariat avec le SIG. Un guide, qui contient différents éléments et renvoie vers des sources fiables, est intégré directement dans l’application. Du 17 juin au 7 juillet 2024, cette page a été consultée 1,8 million de fois.
Enfin, nous cherchons à sensibiliser les utilisateurs aux risques liés à la tenue des élections, notamment en matière de désinformation. Le guide que je viens d’évoquer incluait, au moment des dernières élections législatives, deux vidéos réalisées avec l’AFP pour transmettre des conseils en matière de lutte contre la désinformation en ligne. Ce travail de sensibilisation est effectué pendant les périodes électorales, mais également en dehors.
M. Antoine Léaument, rapporteur. Dans le cadre du groupe d’études sur les réseaux sociaux, j’ai déjà eu l’occasion d’échanger avec plusieurs d’entre vous et de vous poser des questions sur les actions que vous mettez en œuvre pour informer les électeurs en période électorale.
Nous n’avions pas prévu au départ de vous auditionner dans le cadre de cette commission d’enquête, mais des questions ont été soulevées par d’autres intervenants et il nous a semblé utile d’organiser cette table ronde.
Pour structurer nos débats, je vous propose de commencer par la question de l’information des électeurs et des outils que vous mettez en place à destination des citoyens. Certains d’entre vous ont un peu évoqué le sujet, mais vous pourrez entrer dans le détail de ce qui est proposé par chacune des plateformes dont vous êtes responsables. Elles ont été citées s’agissant de Meta, mais pour Google, il ne faut pas oublier YouTube.
Nous pourrions ensuite aborder la lutte contre la désinformation, puis les algorithmes, qui ont été mentionnés par Snapchat. Ce dernier sujet est central dans l’organisation du débat public, parce que des “bulles de filtres” peuvent enfermer les utilisateurs dans des idées très néfastes pour le débat électoral.
Enfin, nous pourrions revenir sur la question des ingérences, qui a déjà été évoquée dans nos auditions précédentes, en particulier par Viginum, et nous attarder un peu, pour finir, sur l’IA et la publicité politique.
Quels outils mettez-vous donc en place à destination des électeurs ? Quelles informations diffusez-vous ? Alors que la mal-inscription reste un problème dans notre pays, que faites-vous pour faciliter l’inscription sur les listes électorales ? Quand commencez-vous à communiquer en amont d’une élection – évidemment, en dehors du cas particulier d’une dissolution ?
Mme Charlotte Radvanyi, responsable des relations institutionnelles de Google France. À l’occasion des élections européennes, nous avons mis en place des boîtes d’informations, dont le contenu n’était pas produit par Google mais par les autorités publiques, en l’occurrence le Parlement européen. Nous avons renouvelé cette initiative avec le SIG et les ressources du ministère de l’intérieur quand les élections législatives ont été annoncées.
Ces boîtes d’informations apparaissaient en haut des résultats de recherche, de manière organique, en réponse aux questions des internautes sur la date et les modalités du scrutin. Nous avons veillé à en faire la promotion sur nos différentes plateformes et nos différents services. Sur la page d’accueil du moteur de recherche, nous avons positionné des bannières directement sous le logo Google à des dates clés, dont – je crois – le 26 avril, c’est-à-dire avant la date limite d’inscription sur les listes électorales, ou le 9 mai, pour la journée de l’Europe. Avant les élections, nous avons également envoyé des notifications mobiles aux détenteurs de l’application Google. Quand les circonstances nous l’ont permis, nous nous sommes donc attachés à informer nos utilisateurs de manière régulière et suffisamment à l’avance.
S’agissant des résultats des élections, des dispositifs dédiés renvoyaient vers des sources fiables, comme celle du ministère de l’intérieur.
Pour en revenir à l’information des électeurs, notre dispositif Google Trends, qui permet de mesurer la popularité des requêtes sur le moteur de recherche Google, a montré que des efforts de pédagogie étaient nécessaires, notamment pour les élections européennes. Le nombre de tours ou la date du second tour figuraient en effet parmi les questions les plus fréquentes.
Mme Clémence Dubois, responsable des partenariats avec les pouvoirs publics et de l’impact social de Meta France. Concernant la promotion de l’engagement citoyen et de la participation électorale, nous travaillons en collaboration avec le SIG afin de mettre en avant les sources officielles pour les dates limites d’inscription sur les listes électorales – nous l’avions fait en 2022, mais cela n’a évidemment pas été possible pour les élections législatives de 2024 – et les dates de scrutin.
Pour les élections législatives, les encarts figurant en haut du fil d’actualité ont été cliqués 599 000 fois sur Facebook et plus de 496 000 fois sur Instagram. Ils ont donc généré plus de 1 million de clics et ont été vus par un nombre bien plus important de personnes.
En matière de sensibilisation, nous avons travaillé en collaboration avec l’AFP et Thomas Pesquet à l’occasion des élections européennes. Des reels – qui sont de courtes vidéos – montraient comment faire la distinction entre de vraies et de fausses informations. Nous avons en outre participé à la campagne de Génération Numérique qui a été mentionnée précédemment.
D’autres initiatives avaient été mises en place en 2022, dont une campagne avec le média Loopsider, une boîte à outils de vérification avec France 24 et, pour les utilisateurs de WhatsApp, un numéro dédié permettant de faire vérifier des faits, en collaboration avec l’AFP. Nous avions aussi créé un chatbot avec l’association “A voté” pour encourager les jeunes à s’inscrire sur les listes électorales et lutter contre la mal-inscription.
Nous répétons en amont les dates et les modalités des scrutins. Quand c’est possible, nous commençons à travailler environ un an à l’avance avec nos différents partenaires, qu’ils soient publics, associatifs ou vérificateurs de faits.
Mme Sarah Bouchahoua, responsable des affaires publiques de Snapchat France. Chez Snapchat, nous considérons que l’exercice du droit de vote est l’une des formes les plus puissantes d’expression personnelle. Par conséquent, comme les autres plateformes, nous proposons différents outils de sensibilisation pour éduquer nos utilisateurs, lutter contre la mal-inscription et apporter le plus d’informations possible sur les programmes politiques et les différents scénarios pouvant résulter du scrutin.
Pour les élections européennes de juin 2024, nous avons travaillé avec le Parlement européen sur des activations qui ont été diffusées sur l’ensemble de la plateforme. Elles montraient, en réalité augmentée, comment l’Union européenne affectait notre vie quotidienne. Cette initiative a été très appréciée, puisque plus de 10 millions d’utilisateurs ont utilisé la lens. Nous avons ensuite envoyé une notification push à l’ensemble des utilisateurs en âge de voter au sein de l’Union européenne – 18 ans en France, mais 16 ans dans d’autres pays –, afin de les rediriger vers la lens et de leur rappeler que les élections européennes arrivaient prochainement. Enfin, une campagne publicitaire a été diffusée sur l’ensemble des parties publiques de Snapchat, afin de mettre en avant le rôle du Parlement européen et de montrer le déroulement des discussions politiques et du vote.
Pour les élections législatives anticipées, nous avons été un peu pris de court, mais nous avons bien travaillé avec le SIG et réussi à proposer un dispositif complet. Nous avons investi l’ensemble de la plateforme, avec des lens, des filtres et des bitmojis, disponibles soit sur la partie Map, soit sur la partie Discover. Il était notamment rappelé aux utilisateurs qu’il est possible de voter avec une carte Vitale – peu de gens le savent, mais c’est important pour lutter contre la mal-inscription. Des informations les aidaient à trouver leur bureau de vote ou à identifier les partis et les candidats qui se présentaient. Nos partenaires médias, dont M6 Info, Le Parisien ou Brut, proposaient des interviews et présentaient les programmes politiques des différents partis. Nous leur avions envoyé un message de sensibilisation pour insister sur la règle d’or en matière de silence électoral et leur demander de ne pas communiquer pendant les week-ends d’élections.
Mme Claire Dilé. Nous disposons de plusieurs outils d’activation, que je vais vous présenter.
Pour les élections européennes et les élections législatives anticipées en France, des messages de rappel sur la tenue des élections s’affichaient en haut du fil d’actualité des utilisateurs au moment où ils se connectaient sur X, une semaine avant le scrutin ou avant chaque tour de scrutin. D’autres messages étaient diffusés le jour du vote pour les inciter à se déplacer. En cliquant sur ces encarts, ils étaient renvoyés vers le site du Parlement européen pour les élections européennes ou vers le site du ministère de l’intérieur pour les élections françaises, où ils pouvaient trouver toutes les informations utiles.
De plus, nous avions mis en place des search prompts. Quand les utilisateurs tapaient dans la barre de recherche certains mots-clés en lien avec les élections, tels que « vote », « élections », « élections législatives », « législatives anticipées » ou « élections européennes », ils étaient renvoyés vers les sites officiels. Ainsi, ils pouvaient trouver facilement les renseignements dont ils avaient besoin et évitaient d’être confrontés à de fausses informations.
Enfin, nous avons créé un election hashmoji et une promoted trend. Ces termes se traduisent très mal en français. Il s’agissait d’un #ElectionsLegislatives2024 ou #ElectionsEuropéennes associé à un emoji, c’est-à-dire à un tout petit dessin pixelisé. Avant les élections, ces hashtags étaient placés en haut des tendances : ils étaient donc très visibles pour les utilisateurs qui se connectaient sur X, ce qui les incitait à cliquer, à poster des messages sur le sujet et potentiellement à aller voter. À chaque fois que ces hashtags étaient utilisés, ils nourrissaient la tendance, ce qui l’entretenait.
Comme je l’ai déjà indiqué, nous avons par ailleurs mené une campagne, en partenariat avec Génération Numérique, sur l’information et l’éducation aux médias. Dans de petits encarts, l’association expliquait aux gens comment être vigilants par rapport aux contenus diffusés sur internet, et comment ne pas tomber dans le piège de la désinformation.
Mme Sarah Khémis. Pour TikTok, un guide était directement accessible dans l’application. Il était automatiquement proposé aux utilisateurs lorsqu’ils effectuaient une recherche en lien avec les élections et par l’intermédiaire d’un bandeau apposé en bas de toutes les vidéos associées aux élections. Réalisé avec le SIG, il comportait des informations utiles – comment trouver son bureau de vote, comment établir une procuration, dates du scrutin, etc. – et des liens vers les sources officielles, comme le ministère de l’intérieur. Deux vidéos de sensibilisation de l’AFP sur la lutte contre la désinformation en ligne y avaient été intégrées.
Ces efforts de sensibilisation ne sont pas réalisés uniquement en période électorale. En novembre 2024, par exemple, nous avons conduit une opération en partenariat avec l’AFP, avec une page dédiée dans l’application, qui contenait des conseils pour faire preuve d’esprit critique en ligne. Les utilisateurs étaient ainsi incités à examiner les faits, à vérifier les sources ou à comparer les informations avec d’autres contenus. Cinq vidéos de l’AFP présentaient le travail journalistique et les bons réflexes à adopter face à des contenus d’information, notamment lorsqu’ils sont générés par l’IA ; elles étaient assorties d’un lien vers le compte TikTok de l’AFP.
M. Antoine Léaument, rapporteur. Nous pouvons passer à un autre thème, celui de l’information et de la désinformation. Ces deux éléments sont intimement liés, puisque sur les réseaux sociaux, n’importe quelle personne peut produire du contenu et diffuser des informations, vraies ou fausses. L’enjeu est particulièrement important pendant les périodes électorales, car la circulation virale de certaines informations peut créer des formes de bulles et, à force de les voir répétées, donner l’impression qu’elles sont vraies.
Comment luttez-vous contre ces mécanismes de désinformation ? Plusieurs d’entre vous ont évoqué le rôle de tiers de confiance que peuvent jouer les médias dans la vérification des informations, mais n’existe-t-il pas un biais potentiel, car les médias ont chacun des lignes éditoriales et peuvent être de droite ou de gauche ?
Enfin, la question des influenceurs est centrale sur beaucoup de réseaux sociaux. Quand ils participent au débat démocratique, le font-ils pour défendre leurs propres convictions – auquel cas ils sont libres de s’exprimer au même titre que tous les autres individus, quel que soit leur nombre d’abonnés –, ou pourraient-ils être payés pour diffuser du contenu politique ? Il s’agirait alors d’un contournement de la loi électorale, puisque la publicité politique est interdite sur les réseaux sociaux dans les six mois qui précèdent le mois où a lieu l’élection. Avez-vous des méthodes pour effectuer cette distinction ?
M. Benoît Tabaka. En matière d’information et de désinformation, toutes les plateformes sont confrontées aux mêmes défis.
Énormément d’informations, qui émanent de sites internet, de médias ou d’individus, peuvent être publiées. La mission principale de Google est d’organiser l’accès à ces informations. Pour notre part, nous n’utilisons pas de fact-checkers. Nous n’avons pas cette logique, ni pour le moteur de recherche, ni pour la plateforme vidéo. Je précise que nous ne sommes pas un réseau social.
Quand vous tapez une requête sur un moteur de recherche, vous obtenez une liste de liens bleus qui vous donnent accès à toute la diversité de l’information et à différents types de contenus. L’utilisateur a la capacité de cliquer sur le lien qu’il veut, d’aller et de revenir. Dans le domaine des élections, les critères de classification des résultats permettent de mettre en avant les informations que nous considérons de qualité, c’est-à-dire émanant de sources qui font autorité, principalement des sources gouvernementales ou les différents médias. Néanmoins, nous ne nous focalisons pas sur des médias spécifiques. Nous donnons accès à des contenus divers, qui proviennent de l’ensemble des acteurs qui ont accepté leur indexation sur le moteur de recherche ou qui ont décidé de le rendre disponible sur la plateforme YouTube, dont le fonctionnement est identique.
Les campagnes d’ingérence étrangère sont notre principal sujet de préoccupation en matière de désinformation. Les ingérences étrangères peuvent se concrétiser par des cyberattaques, mais aussi par de la désinformation. Avant des élections, la date du vote est le premier élément sur lequel nous communiquons auprès de nos utilisateurs. C’est aussi celui qui fait l’objet des premières campagnes de désinformation visant à les perturber. Plus vous faites circuler des dates fausses, moins vous aurez de mobilisation le véritable jour du scrutin.
S’agissant de la publicité politique, elle est interdite en France. Par conséquent, la question ne se pose pas. Nous respectons la loi française et le cadre très particulier posé par le code électoral. Il n’est pas possible de faire de publicité électorale sur nos plateformes.
Comme d’autres autour de cette table, nous soutenons les initiatives – qui sont nécessaires – en faveur de la sensibilisation et de l’acculturation au sens critique. Avec différentes associations, nous avons notamment élaboré une campagne sur le pré-bunking, qui est une autre forme d’éducation au sens critique.
Mme Clémence Dubois. Que ce soit sur Facebook, Instagram ou Threads, nous supprimons les fausses informations les plus graves, par exemple les contenus susceptibles de contribuer à une violence imminente ou à des dommages physiques ou qui tenteraient d’empêcher le vote.
En France, pour réduire la circulation de fausses informations, nous travaillons avec des fact-checkers certifiés par l’European Fact-Checking Standards Network et l’International Fact-Checking Network, c’est-à-dire l’AFP, 20 Minutes, Les Surligneurs et France 24. Ces partenaires ont été formés à un nouvel outil de recherche, la Meta Content Library, qui les aide dans leur travail.
Nous n’autorisons pas les publicités dont le contenu est évalué comme faux. En France, nous n’autorisons pas non plus les publicités qui découragent les gens de voter, qui remettent en question la légitimité de l’élection ou de son résultat, ou qui revendiquent de manière prématurée des victoires électorales, par exemple.
Nous évoquerons tout à l’heure la publicité politique, mais je tiens à souligner dès à présent que nous avons des règles très strictes qui encadrent la publicité portant sur des sujets politiques, électoraux ou sociaux susceptibles d’influencer le débat public.
Enfin, en qui concerne les créateurs de contenus, tout partenariat rémunéré doit être mentionné. L’objectif est d’assurer la transparence.
M. Anton’Maria Battesti. En début d’année, Meta a annoncé une évolution de ses mécanismes de fact-checking aux États-Unis, avec la fin du recours à des tiers vérificateurs et le basculement vers un système de notes de la communauté. Ce changement s’inspire des modes de fonctionnement de Twitter et X. Il suscite des interrogations, mais vise à répondre à plusieurs difficultés, qui sont à la fois de réussir à agir à grande échelle et avec le maximum d’objectivité.
Quelques tiers professionnels, dont la qualité n’est pas en cause, peuvent-ils tout vérifier ? C’est impossible. Puisqu’ils sont indépendants – ce qui est normal –, nous ne pouvons pas leur indiquer sur quoi concentrer leurs efforts. Se pose en outre la question de la ligne éditoriale des médias, qu’il ne m’appartient pas de commenter. Le recours à plusieurs fact-checkers ne permet pas de résoudre toutes les difficultés.
Le débat s’est posé en ces termes aux États-Unis, où l’évolution des règles est en cours sur nos plateformes. La situation est très différente en Europe, où nous conservons le dispositif qui vous a été présenté. Puisque nous y sommes régis par le DSA, il faudra écouter ce que la Commission européenne dira des nouveaux mécanismes mis en œuvre ailleurs.
Pour le moment, il n’y a aucun changement pour notre pays et pour notre continent. Néanmoins, il faudra évaluer les effets des modifications introduites dans d’autres régions du monde et prendre connaissance des études académiques qui analysent l’impact des notes de la communauté sur le fact-checking.
M. le président Thomas Cazenave. Voulez-vous dire que les déclarations sur la modération faites en début d’année par Mark Zuckerberg n’ont aucun impact en France et en Europe ?
M. Anton’Maria Battesti. Pour ce qui concerne le fact-checking, à l’heure où nous parlons, non. Les accords avec nos fact-checkers sont toujours en place et le dispositif fonctionne tel qu’il vous a été décrit.
M. le président Thomas Cazenave. Cela signifie-t-il que les orientations annoncées par le propriétaire et dirigeant de Meta n’ont aucune conséquence en France, notamment sur la politique de modération, y compris pendant les périodes électorales ?
M. Anton’Maria Battesti. S’agissant de la politique de modération, notre dirigeant et fondateur a annoncé la possibilité de discuter de sujets qui ne pouvaient pas forcément être débattus auparavant. Ils sont décrits dans les standards de Meta, mais sont propres aux États-Unis. Il s’agit notamment des discours sur le genre ou les politiques d’immigration. De toute façon, ce qui était illégal en France le reste, et nous appliquons toujours la loi locale.
En matière de fact-checking, rien ne change. Le dispositif actuel est toujours en place. Si une évolution devait intervenir, nous échangerions avec les autorités à ce sujet. Nous le faisons déjà avec la Commission européenne à propos du DSA, qui nous demande de lutter contre la désinformation. Il reviendra donc aussi à la Commission de dire si les notes de la communauté sont un outil qui lui paraît acceptable pour atteindre cet objectif. Nous ne ferons rien sans échanger avec le régulateur et recueillir son opinion.
Pour répondre clairement à votre question, ce qui se passe aux États-Unis n’est pas ce qui se passe ici.
M. le président Thomas Cazenave. Les évolutions en matière de politique de modération n’ont donc aucune conséquence pour notre pays, notamment pendant les périodes électorales ?
M. Anton’Maria Battesti. Pour ce qui est du fact-checking, elles n’en ont pas.
M. le président Thomas Cazenave. Mais pour la politique de modération ? Vous semblez faire une différence entre cette dernière et le fact-checking…
M. Anton’Maria Battesti. La politique de modération est globale et évolue donc globalement, y compris pour la France et l’Europe. Néanmoins, la loi l’emporte sur la politique de modération. Par conséquent, les contenus qui sont signalés comme illégaux sont supprimés. C’est tout à fait normal, et cela correspond à ce qui est prescrit par le DSA et les lois locales.
En revanche, le dispositif de fact-checking ne change pas.
Pardonnez-moi si je ne suis pas assez clair, mais j’essaie de vous expliquer ce qui relève des règles de modération, qui ont évolué de manière globale, et ce qui relève du dispositif de fact-checking, qui connaît des évolutions différenciées entre les États-Unis et l’Europe.
Nous pourrons vous transmettre la politique de modération actualisée, même si ce sujet ne concerne pas forcément les élections.
M. le président Thomas Cazenave. Le fait que vous ayez apparemment réduit votre capacité de modération doit-il nous inquiéter ? La décision d’y consacrer moins de moyens pourrait-elle affecter la bonne tenue des élections ?
M. Anton’Maria Battesti. Je n’ai pas dit que nous avions réduit les moyens alloués à la modération sur notre plateforme. Ils sont restés identiques. En revanche, nous avons fait évoluer des règles de modération, ce qui signifie que certains contenus qui pouvaient être modérés jusqu’à présent ne le seront plus. Je me tiens à la disposition de vos services pour détailler l’évolution de ces règles.
Nos règles de modération sont en ligne. Dans un souci de transparence, il est possible de consulter la version actuelle, mais également les versions précédentes pour les comparer et suivre l’évolution de certaines dispositions.
Pour être très clair, les moyens demeurent. Ils sont d’ailleurs très importants : plus de 20 milliards d’euros depuis 2016 et plusieurs milliers de modérateurs.
M. Antoine Léaument, rapporteur. En avril, Meta a annoncé la suppression de 2 000 postes de modération à Barcelone. Comment pouvez-vous en conséquence être à moyens constants ? Ces postes ont-ils été délocalisés ?
M. Anton’Maria Battesti. Les rapports de transparence que nous transmettons à la Commission européenne dans le cadre du DSA détaillent les moyens alloués marché par marché. Pour la France, ils n’ont pas du tout évolué. Nous pourrons vous communiquer ces documents, qui sont publics.
M. le président Thomas Cazenave. La révision des règles de modération concerne-t-elle des champs politiques ? Peut-elle avoir des conséquences en matière d’élections ? Le débat politique sera-t-il moins modéré ? Ces questions me semblent utiles pour éclairer le travail de la commission, car je ne connais pas le détail de ces règles.
M. Anton’Maria Battesti. Il sera peut-être nécessaire que nous vous adressions des documents écrits, pour que vous puissiez en prendre connaissance.
S’agissant des candidats aux élections, nous avons toujours refusé de faire du fact-checking. Le sujet est assez compliqué aux États-Unis. Certains candidats tiennent des discours qui sont ce qu’ils sont, mais notre politique en matière de liberté d’expression est de ne pas vérifier les discours des candidats.
Pour certains sujets sociétaux, il a été considéré que les règles devaient être mises à jour. Il est peut-être nécessaire, dans le contexte de la politique américaine, de pouvoir parler davantage d’immigration ou de genre, même si certains discours peuvent gêner ou offenser. Ce sont des thèmes qui font partie du débat public aux États-Unis – peut-être moins dans nos contrées…
De toute façon, le champ de la liberté d’expression est encadré par la loi. Dans notre pays, l’équilibre n’est pas le même qu’aux États-Unis. Or nous appliquons la loi du pays dans lequel nous opérons. Nous sommes très clairs à ce sujet.
Notre politique de modération a déjà évolué dans le passé. Elle a évolué le mois dernier et elle évoluera peut-être encore. Ce qui compte, c’est de le faire de manière transparente.
Mme Clémence Dubois. Les standards de la communauté couvrent un grand nombre de sujets. Les règles qui interdisent la contestation du résultat d’une élection ou l’incitation à ne pas aller voter n’ont pas changé.
Les standards sont appliqués par des modérateurs, mais aussi par des outils d’intelligence artificielle. À titre d’exemple, ces derniers permettent de supprimer 97,5 % des contenus incitant à la violence avant qu’ils apparaissent sur nos plateformes.
Mme Aurore Denimal, responsable des affaires publiques de Meta France. L’annonce relative à nos équipes de Barcelone ne doit pas être interprétée comme une diminution brute des effectifs, mais comme une redistribution de ces derniers.
Plus de 40 000 personnes travaillent sur les questions de sécurité chez Meta. Il y a plus de 15 000 modérateurs. Ces chiffres sont constants. Une partie de ces collaborateurs travaillent en langue française.
M. Antoine Léaument, rapporteur. Nous ne nous en prenons pas particulièrement à Meta, mais comme nous avons commencé la discussion, il nous semble intéressant de la poursuivre.
D’importantes évolutions semblent avoir eu lieu depuis deux semaines s’agissant de la diffusion des contenus politiques, en particulier sur Instagram et Facebook. Ce constat est empirique, mais en matière d’algorithmes, nous n’avons pas d’autre choix.
Il y a quelques mois, la diffusion des contenus politiques était assez naturelle et semblait obéir aux mêmes règles que n’importe quel autre contenu. Ensuite, Meta a pris la décision – et l’a explicitement annoncé – de réduire la visibilité de ces contenus, au motif que ce n’était pas ce que les utilisateurs venaient chercher sur les plateformes. À de rares exceptions liées probablement à des bulles de filtres, nous avons vraiment constaté une diminution. Or, depuis deux semaines, les contenus politiques semblent à nouveau être diffusés de manière très large. Est-ce l’effet des changements de règles de modération que vous avez évoqués ?
Mme Clémence Dubois. Il ne s’agit pas vraiment d’un changement des règles de modération, mais il y a quelques mois, les contenus politiques étaient en effet moins diffusés. Nous avions constaté que les utilisateurs attendaient moins ce type de contenus. Depuis le début de l’année, notre politique a changé et, que ce soit sur Facebook, Instagram ou Threads, les contenus politiques sont à nouveau traités comme n’importe quel autre contenu. Les utilisateurs conservent toutefois la possibilité de dire s’ils souhaitent en voir plus ou moins.
En fonction de vos centres d’intérêt, vous êtes plus ou moins exposés à des contenus politiques. Par conséquent, vous avez peut-être ressenti l’évolution de manière un peu plus prégnante que d’autres utilisateurs. Néanmoins, votre perception était juste.
M. le président Thomas Cazenave. Pour bien comprendre, le dispositif de modération n’a pas changé, mais vous avez actualisé la ligne de modération, notamment par rapport au débat politique américain sur l’immigration ou le genre. Diriez-vous que votre politique de modération est orientée politiquement ? Dépend-elle de convictions politiques ? Peut-elle avoir un impact sur notre débat politique national, qui n’est pas le débat politique américain ?
M. Anton’Maria Battesti. Elle ne le doit pas, mais il faut que toutes les opinions puissent s’exprimer. Quand il apparaît que des choses sont à changer dans ces domaines, il faut en tirer les conséquences et faire les évolutions nécessaires. C’est ce qu’a expliqué Mark Zuckerberg.
M. le président Thomas Cazenave. Je ne comprends pas. Que veut dire changer des choses en matière d’immigration et de genre ? Concrètement, quel est l’impact sur la politique de modération ?
M. Anton’Maria Battesti. Je n’ai pas d’exemples précis en tête. L’idée est que ce qui peut être dit à la télévision et dans les médias, et qui n’est pas illégal, doit aussi pouvoir être dit sur Facebook. Si les règles de la plateforme l’interdisent et sont en décalage avec cette réalité, il est nécessaire de les faire évoluer. Il y a, sinon, un problème d’expression démocratique. Nous pourrions aussi être accusés de censure.
Dans ces domaines, mon expérience depuis dix ans est que nous n’avons jamais raison. C’est toujours trop, ou pas assez. Soit on nous demande de retirer davantage de contenus, soit on nous reproche d’en retirer trop. Nous essayons de trouver un équilibre, qui est forcément instable et sur lequel nous avons des comptes à rendre, comme nous le faisons aujourd’hui et comme nous le faisons régulièrement en Europe, où le cadre est plus structuré.
Définir ce type de règles n’est jamais simple, mais il est apparu que nous modérions peut-être trop certains sujets, dont ceux que j’ai mentionnés, par rapport à l’état du débat public, tel qu’il peut se tenir en dehors des réseaux sociaux.
M. le président Thomas Cazenave. L’apparition des questions d’immigration et de genre dans le débat politique américain a donc une conséquence directe sur la politique de modération de vos plateformes dans notre pays.
M. Anton’Maria Battesti. C’est une politique de modération globale. Les réseaux sociaux sont faits par les gens qui les utilisent. Nous y reviendrons avec les bulles de filtres. Il n’y a pas de compagnie aérienne sans passagers, et c’est la même chose nous concernant. Nous n’avons pas de ligne éditoriale, car nous ne produisons pas de contenus. Les contenus sont produits par les utilisateurs.
M. le président Thomas Cazenave. L’existence d’une ligne éditoriale qui orienterait la politique de modération est justement le fond de ma question.
M. Anton’Maria Battesti. Il n’y en a pas.
M. le président Thomas Cazenave. La politique de modération est-elle nourrie par une forme de ligne éditoriale ou de ligne politique, qui assumerait de permettre une autre forme d’expression s’agissant de l’immigration, du genre ou de sujets comme les libertés ou la transition écologique ? Comment se construit cette politique de modération et à quel point structure-t-elle le débat politique ?
M. Anton’Maria Battesti. Le principe, c’est la liberté d’expression. La politique de modération y fixe toutefois des limites, puisque vous ne pouvez ni harceler, ni injurier, ni promouvoir le terrorisme, ni faire quoi que ce soit de ce genre. Nous pouvons nous référer à une jurisprudence de la Cour européenne des droits de l’Homme, dite Handyside, qui promeut une vision libérale de la liberté d’expression, qui s’exerce dans les limites de la loi et de la protection de la sécurité et des personnes. La liberté d’expression ne s’applique pas qu’aux discours qui nous conviennent, mais aussi à ceux qui ne nous conviennent pas. Nous n’avons pas de ligne éditoriale qui définirait ce que vous avez le droit de dire ou pas. La liberté d’expression reste cependant encadrée – et c’est ce qui nous est demandé – pour protéger la jeunesse, lutter contre le terrorisme, éviter le scam, la fraude, le harcèlement, les discours de haine, etc. Parmi les acteurs représentés autour de la table, beaucoup ont des dispositifs comparables.
M. Antoine Léaument, rapporteur. Nous avons ces échanges avec vous, mais nous pourrions les avoir avec d’autres plateformes. Ils sont néanmoins intéressants, car ils nous permettent d’aborder un sujet que nous avons déjà évoqué avec l’Arcom, qui est celui du contrôle qu’elle peut opérer sur les réseaux sociaux.
L’Arcom intervient sur le contenu éditorial. Or vos plateformes offrent certes un espace d’expression aux utilisateurs, mais elles interviennent aussi sur les publications, ce qui constitue une forme d’éditorialisation. Cette intervention peut se faire de deux façons, soit par les choix algorithmiques favorisant tel ou tel contenu, soit par l’application de règles de modération.
La logique actuelle de Meta est apparemment de moins intervenir sur certains sujets, quitte à ce que des propos publiés sur vos plateformes puissent être considérés comme très choquants par les personnes concernées par une transition ou les questions de genre, par exemple. Vous expliquez que l’origine de cette évolution se trouve dans le débat électoral américain, vis-à-vis duquel nous pouvons avoir un peu de distance critique, même si vous représentez, pour la plupart d’entre vous, des plateformes américaines. Par ailleurs, il est vrai que certaines chaînes de télévision en France vont beaucoup plus loin que par le passé, y compris dans la mise en cause des valeurs républicaines…
En tant que législateurs, notre rôle est de définir les limites à la liberté d’expression, puisque celle-ci s’exerce dans un cadre spécifique visant à empêcher tout trouble à l’ordre public établi par la loi.
Diffuser quotidiennement des émissions à propos des musulmans, des méchants immigrés ou de la théorie du genre participe au délitement de la réflexion politique. Nous avons d’ailleurs auditionné certaines des chaînes qui proposent ce type de programmes. Il est intéressant de chercher à identifier ce qui conduit à l’appauvrissement du débat intellectuel dans notre pays.
M. le président Thomas Cazenave. Dans cette commission d’enquête, notre seul objectif est de déterminer comment vous pouvez affecter l’organisation des élections en France.
M. Grégory Gazagne. Snapchat est une plateforme de communication. Du fait de son architecture, elle ne favorise pas les fils d’actualité ouverts. Nous n’avons pas de diffusion virale de contenus ou de direct. En outre, les espaces publics sont rigoureusement encadrés. Pour cette partie de l’application, qui s’appelle Discover, nous travaillons avec des médias français. Afin de garantir une certaine diversité d’opinions et de points de vue, nous avons plus de cent partenaires – France Télévisions, Arte, Radio France, Brut, TF1, etc. –, qui ont une éthique journalistique et sont soumis à des règles strictes concernant la désinformation.
Sarah Bouchahoua pourra détailler nos dispositifs de protection. Les mécanismes de contrôle reposent directement sur les signalements effectués par les internautes. Avec plus de 27 millions d’utilisateurs mensuels, nous avons la capacité de réagir rapidement.
Nos lignes directrices sont claires. La publicité politique est strictement encadrée. Comme d’autres plateformes, nous travaillons avec des fact-checkers indépendants et avec l’Arcom. L’architecture de Snapchat limite naturellement les dérives et nous y ajoutons une modération efficace, des partenariats responsables avec les médias et des campagnes de sensibilisation.
M. Antoine Léaument, rapporteur. Le sujet est spécifique à Snapchat, mais lorsque nous nous étions rencontrés dans le cadre du groupe d’études sur les réseaux sociaux, vous m’aviez indiqué, sauf erreur, que les politiques n’étaient pas présents dans la partie Discover, à l’exception du Président de la République. Or, bien qu’il soit le président de tous les Français, il représente aussi son propre parti politique. Envisagez-vous que les groupes de l’Assemblée, voire l’Assemblée nationale elle-même, puissent accéder à cette partie Discover, afin de proposer d’autres contenus politiques ?
Mme Sarah Bouchahoua. Je me souviens bien de cette discussion ? Nos règles en matière de certification sont spécifiques à la France et à l’Europe. Nous ne certifions que les chefs d’État et les membres du gouvernement, pendant le temps où ils sont en fonction. Lorsque ces derniers ne sont plus ministres, leur certification leur est retirée. Néanmoins, tous les partis, candidats ou figures politiques peuvent créer des comptes, publier sur la plateforme et même constituer une communauté. Dans ce domaine, nous pouvons vous accompagner – vous ou n’importe quel parti politique – et vous réexpliquer les règles de fonctionnement de Snapchat.
Les règles de modération s’appliquent à l’ensemble des utilisateurs, qu’ils soient certifiés ou non, quels que soient leur notoriété et leur domaine de compétences. Le Président de la République, un sportif ou un artiste sont soumis aux mêmes règles qu’un utilisateur lambda. Nous interdisons explicitement la diffusion de fausses informations et nous sommes vigilants quant au respect de ce principe.
Nous disposons d’un mécanisme de signalement qui est assez efficace et qui couvre l’ensemble de la plateforme. Des sous-catégories sont prévues pour signaler de fausses informations concernant la politique, la santé ou d’autres sujets. Lorsque nos utilisateurs le font, un petit message leur expliquant ce qu’est la désinformation s’affiche. Cela permet de les éduquer et de les inciter à poursuivre la démarche si elle entre dans le cadre proposé.
Snapchat interdit la diffusion de fausses informations faisant du tort à autrui ou de nature malveillante. En matière d’atteinte à l’intégrité des processus civiques, quatre sous-catégories sont proposées. La première concerne l’interférence procédurale, c’est-à-dire la désinformation concernant les procédures électorales ou civiques, comme la communication de dates, d’heures ou de conditions pour y participer erronées. La deuxième porte sur l’ingérence dans la participation, dont les intimidations mettant en cause la sécurité personnelle des utilisateurs ou la propagation de rumeurs visant à les dissuader de participer aux processus électoraux ou civiques. La troisième concerne la participation frauduleuse ou illégale : il s’agit notamment des contenus encourageant les gens à se présenter sous une fausse identité pour participer au scrutin, ou encore à déposer ou à détruire illégalement des bulletins de vote. Enfin, la quatrième englobe ce qui relève de la délégitimation des processus et institutions démocratiques, par exemple en diffusant des affirmations fausses ou trompeuses concernant les résultats des élections.
M. le président Thomas Cazenave. Révisez-vous régulièrement votre politique de modération, comme le fait Meta ? Le cas échéant, quels sont les critères et les objectifs de la démarche ?
Mme Sarah Bouchahoua. Nous disposons d’une équipe dédiée à la rédaction de nos lignes de modération. Snapchat a toujours maintenu le même niveau d’exigence dans ce domaine. Nous essayons d’assurer au mieux la protection de nos utilisateurs. La révision de notre politique peut être liée à des faits qui se sont passés en France ou dans d’autres pays, ou à l’évolution technologique, par exemple. Ainsi, nos règles de modération ont-elles récemment évolué pour inclure les contenus générés par l’IA dans la liste des contenus pouvant être modérés par la plateforme.
M. le président Thomas Cazenave. Qu’en est-il chez X ?
Mme Claire Dilé. L’anglais permet de distinguer les notions de disinformation et de misinformation, que nous pourrions respectivement traduire par désinformation et information trompeuse. En français, tout cela est regroupé sous le terme de désinformation.
En matière de désinformation – au sens anglais –, notre approche repose sur des politiques visant à lutter contre des phénomènes de manipulation du service ou de manipulation de qui vous êtes et de ce que vous montrez.
L’une de ces politiques couvre ce qui relève de la manipulation de la plateforme, par du spam ou toute autre forme d’amplification artificielle. Les ingérences étrangères entrent également dans cette catégorie. Comme Benoît Tabaka l’a évoqué dans son introduction pour Google, nous disposons d’une équipe interne appelée Threat Disruption, qui est chargée d’enquêter sur la plateforme de manière proactive, et non à partir de signalements. Elle travaille avec des entités comme Viginum en France, le Service européen pour l’action extérieure (SEAE) au niveau de l’Union européenne, ou d’autres. Le rôle de cette équipe est d’identifier les réseaux de comptes qui amplifient la conversation de manière artificielle, que ce soit dans un but d’ingérence, de spam ou de manipulation de la conversation. Sa technique est proche de la pêche au filet. Tous les comptes qui se trouvent pris dans la nasse sont suspendus. Ce phénomène, que Viginum a peut-être évoqué devant vous, a été observé à plusieurs reprises en France. Pour illustrer son ampleur, il a conduit à la suppression de 16 millions de comptes dans le pays entre avril et octobre 2024.
M. le président Thomas Cazenave. Faites-vous notamment référence à l’astroturfing ?
Mme Claire Dilé. L’astroturfing est l’une des techniques utilisées, mais il en existe plusieurs.
D’autres manipulations sont liées à des identités trompeuses et mensongères. Il est interdit de se faire passer pour quelqu’un d’autre sur la plateforme. Pendant une campagne électorale, de tels agissements peuvent prendre la forme de faux comptes de candidats, destinés à leur faire tenir de faux propos. Ces comptes sont évidemment supprimés.
Notre politique de ban evasion empêche de recréer des comptes censés être supprimés de façon permanente.
Enfin, nous avons une politique relative aux médias synthétiques et manipulés. Il est interdit de publier un deepfake ou certains contenus générés par une IA, par exemple une vidéo manipulée de quelqu’un ou de quelque chose. Les règles applicables dépendent de la gravité de la situation et peuvent aller de l’apposition d’un label à la suspension.
S’agissant des informations trompeuses – la misinformation, en anglais –, nous avons développé un outil permettant d’apporter du contexte sous chaque post ou chaque publicité, afin de mieux informer les utilisateurs de X. Cette approche est aussi un moyen de lutter contre la désinformation.
Cet outil, qui s’appelle Notes de la communauté, est participatif et transparent, puisque l’algorithme est en code source ouvert. Il fonctionne selon le principe des bridge algorithms, ce qui signifie que les notes n’apparaissent que si elles mettent d’accord des membres de la communauté qui ne le sont pas habituellement et qu’elles sont évaluées comme utiles. Un petit questionnaire intégré dans l’outil permet de s’assurer qu’elles reposent sur des sources fiables et des éléments concrets.
Tous les utilisateurs peuvent demander une note de la communauté sur n’importe quel contenu. Nous essayons de faire en sorte que les notes apparaissent en quelques heures. La rapidité est en effet l’un des enjeux majeurs en matière de lutte contre la désinformation.
Nous développons par ailleurs des technologies de correspondance des médias, particulièrement utiles pour les contenus générés par l’IA. Si un contenu a fait l’objet d’une note de la communauté, elle lui reste attachée. Par conséquent, à chaque fois qu’il est repartagé ou republié, elle s’affiche à nouveau.
Nous envoyons en outre des notifications aux utilisateurs qui ont interagi avec un contenu ayant ultérieurement donné lieu à une note, ce qui permet de les avertir que celui-ci était peut-être trompeur.
La France compte 60 000 contributeurs à notre programme de Notes de la communauté, ce qui en fait la première base de contributeurs de l’Union européenne.
Nous démonétisons toutes les publicités ayant fait l’objet d’une note. Elles ne peuvent plus être promues par l’algorithme.
M. le président Thomas Cazenave. Quelle est la situation chez TikTok ?
M. Louis Ehrmann, public policy manager de TikTok France. Pour combattre la désinformation en ligne, TikTok s’appuie principalement sur ses règles communautaires, applicables à tous les utilisateurs de la plateforme. Leur violation peut entraîner le retrait du contenu, voire le bannissement du compte si ces agissements sont graves ou répétés.
Au sein des règles communautaires, une section intitulée « intégrité et authenticité » est elle-même composée de plusieurs sous-catégories, qui couvrent la désinformation entraînant un préjudice important ou la désinformation concernant les processus civiques et électoraux. Ces pratiques sont interdites sur la plateforme TikTok.
Les règles communautaires peuvent évoluer à l’issue de travaux internes et de consultations d’experts. En 2023, TikTok y a ainsi ajouté la lutte contre la désinformation contre le consensus scientifique établi en matière de dérèglement climatique. Elles ne sont donc pas figées, mais leur modification fait l’objet de réflexions importantes.
L’application de nos règles communautaires repose sur une modération technologique et humaine permettant de détecter les contenus trompeurs.
Nos équipes sont formées pour identifier et supprimer les contenus et les comptes non conformes aux règles communautaires, notamment en matière de désinformation. À l’échelle mondiale, les équipes de sécurité de TikTok sont composées de plus de 40 000 personnes, dont plus de 6 000 modérateurs en Europe. Parmi ces derniers, 509 sont francophones. Ces chiffres figurent dans notre dernier rapport DSA, que nous avons publié en février 2025 dans le cadre de nos obligations européennes.
TikTok s’appuie également sur les signalements de ses utilisateurs pour identifier les contenus porteurs de désinformation. Un outil intuitif a été mis à leur disposition au sein de l’application. Il leur permet de choisir la catégorie dont relève le signalement. Pour ce qui est de la désinformation, trois sous-catégories sont proposées : elles concernent la désinformation sur les élections, la désinformation nuisible, ainsi que les deepfakes, médias synthétiques et médias manipulés. Tous les types de contenus peuvent être signalés, qu’il s’agisse d’un compte, d’une vidéo, d’un commentaire, d’un hashtag, d’un son, d’un message ou d’un live.
En matière de lutte contre la désinformation, les équipes de modération de TikTok ont également recours à des sociétés vérificatrices de faits. En France, nous travaillons avec l’Agence France-Presse. Lorsqu’elles doutent de la véracité des événements mentionnés dans un contenu, nos équipes peuvent ainsi transmettre ce dernier à l’AFP. Pendant le travail de vérification, la vidéo n’est pas supprimée de la plateforme, mais sa visibilité est réduite. Elle n’est pas éligible à l’apparition dans le fil « Pour toi », qui est la page principale de TikTok. Lorsqu’elles reçoivent le résultat de l’analyse effectuée par l’AFP, les équipes de modération peuvent décider de maintenir le contenu ou, s’il viole les règles communautaires en matière de désinformation, de le retirer.
De nombreux médias sont présents sur la plateforme et y produisent du contenu informatif de qualité. Le Monde, France Télévisions ou France Inter, par exemple, ont des comptes TikTok.
La publicité politique est interdite sur TikTok, quelle que soit la période. Les comptes politiques sont labellisés comme tels et n’ont pas accès aux fonctions de monétisation, comme la publicité et la levée de fonds. Nos équipes de modération sont mobilisées pour garantir l’application de cette règle.
M. Antoine Léaument, rapporteur. La période récente a été marquée par plusieurs cas d’ingérences étrangères. En Roumanie, l’élection présidentielle a été annulée, à la suite de manipulations de contenus sur TikTok. Quelles dispositions avez-vous prises pour que notre pays ne puisse pas être confronté à un tel événement ?
Dans son intervention, X a également abordé la question des ingérences étrangères. Lorsque nous avons auditionné Viginum, nous avons évoqué les étoiles de David taguées à Paris, ainsi que les mains rouges sur le Mémorial de la Shoah. À cette occasion, une puissance étrangère a cherché à créer un événement sur les réseaux sociaux en diffusant massivement l’information, qui a parfois été reprise par des médias. Alors que certains d’entre eux interviennent comme vérificateurs de faits, ils ont ainsi paradoxalement participé à cette tentative d’ingérence, dont l’objectif était de diviser et de renforcer les tensions au sein d’une société française qui connaît déjà une augmentation des actes racistes et antisémites.
Les mains rouges sur le Mémorial de la Shoah ont été taguées au moment des élections européennes. Que faites-vous pour empêcher que vos réseaux sociaux soient utilisés comme vecteur principal d’une ingérence étrangère, particulièrement en période électorale ? Comment éviter qu’ils amplifient un faux événement au point qu’il soit repris dans les médias ?
M. le président Thomas Cazenave. Vous nous avez présenté tous les dispositifs de protection mis en place par TikTok, mais le premier tour de l’élection présidentielle en Roumanie aurait tout de même – si j’en crois la presse – été annulé en raison d’une opération d’envergure menée sur votre réseau. Comment celle-ci a-t-elle pu se produire ? Les obligations qui s’appliquent à vous en France sont les mêmes qu’en Roumanie, puisque les deux pays sont membres de l’Union européenne. Un événement comparable pourrait-il survenir en France ? Pouvez-vous nous rassurer à ce sujet ?
Mme Sarah Khémis. Nous comprenons parfaitement vos inquiétudes. Une réunion a été organisée en janvier avec Viginum, l’Arcom et la ministre déléguée chargée du numérique. Nous avions déjà des contacts réguliers avec Viginum, notamment au moment des élections, mais nous avons intensifié nos échanges. Nous avons constitué une task force qui regroupe les experts techniques de Viginum, ceux de TikTok et notre équipe chargée des affaires publiques. Trois rencontres ont eu lieu, dans le but d’anticiper les élections de 2027 et de s’assurer que tout se passera bien sur notre plateforme.
Nos règles communautaires interdisent les ingérences étrangères sur TikTok, mais s’agissant de la Roumanie, vous comprendrez qu’il nous est impossible de fournir plus de précisions aujourd’hui car une enquête est ouverte au niveau de la Commission européenne. Nos équipes y coopèrent pleinement. Nous ne prenons absolument pas ce sujet à la légère. Nous comprenons vos inquiétudes et travaillons avec Viginum pour faire en sorte qu’un événement de ce type ne se reproduise pas, en France.
M. le président Thomas Cazenave. Votre réponse ne me satisfait pas totalement. Vous devez évidemment travailler avec Viginum ; toutefois, j’aimerais comprendre comment, malgré tout cet arsenal que vous nous avez présenté, un tel incident a pu se produire et entraîner l’annulation d’une élection présidentielle dans un pays européen. Nous avons besoin de savoir ce qui s’est passé, pour évaluer le risque de transposition dans le contexte français.
M. Antoine Léaument, rapporteur. Notre rapport, qui sera publié à la fin du mois de mai, pourrait recommander des modifications législatives pour mieux nous protéger des ingérences étrangères. Sans entrer dans le détail de l’enquête menée par la Commission européenne, avez-vous identifié des procédés ou des méthodes qui ont permis de berner votre vigilance ?
M. le président Thomas Cazenave. Nous sommes dans le cadre d’une commission d’enquête de l’Assemblée nationale. Vous ne pouvez pas balayer notre question d’un revers de main en nous disant que des travaux sont en cours avec la Commission européenne. Nous souhaitons savoir ce qui s’est passé, car la Roumanie applique, comme nous, la réglementation européenne. Devons-nous nous inquiéter dans la perspective de nos prochaines élections nationales ou, au contraire, pouvons-nous être rassurés ? Nous avons besoin de réponses.
Mme Sarah Khémis. Je ne peux pas vous fournir plus de précisions sur les mécanismes utilisés, mais je peux vous mettre en relation avec ma collègue chargée des enquêtes liées au DSA et, plus précisément, de l’enquête sur le déroulement de l’élection en Roumanie. Plusieurs réunions ont déjà eu lieu avec les pouvoirs publics et différents ministères à ce sujet.
M. le président Thomas Cazenave. Nous y reviendrons, car ce sujet est fondamental. Ce qui s’est passé en Roumanie est un cas d’école, qui doit nous interpeller en tant que législateurs et garants du bon fonctionnement de nos institutions. Lorsque nous examinons les différentes étapes du processus électoral, je ne suis pas très inquiet s’agissant des bulletins de vote ou des urnes. Je le suis davantage concernant ces nouveaux phénomènes que nous découvrons au fur et à mesure des auditions.
Reprenons notre tour de table à propos des ingérences étrangères.
M. Benoît Tabaka. Comme je l’ai indiqué en introduction, deux équipes sont mobilisées pendant les élections, quel que soit l’endroit où elles se déroulent. Le Threat Analysis Group analyse toutes les pratiques malveillantes d’ingérence étrangère susceptibles d’affecter l’une de nos plateformes. Parallèlement, Mandiant s’emploie à sécuriser nos infrastructures et celles de tiers.
Ces équipes étudient ce qui se passe sur les réseaux sociaux ou les sites dédiés. Elles suivent les échanges qui se déroulent sur les messageries comme Telegram. Leur objectif est de repérer tout ce qui se trame sur internet. Vous vous souvenez certainement des campagnes d’ingérence russes, qui ont pu être mises au jour. Viginum a publié des rapports à ce sujet. Nous avons longtemps partagé des informations avec eux, car nous avions, chacun de notre côté, observé des choses. Ces échanges ont permis de traquer certaines pratiques et d’y mettre fin.
Ces pratiques pouvaient prendre diverses formes – par exemple, remplacer intégralement des sites de médias, en reprenant leur charte graphique et un grand nombre d’articles, dont le contenu était légèrement modifié. L’utilisation de leur indexation naturelle sur le moteur de recherche aurait permis de tromper les gens. Heureusement, nous avons pu intervenir à temps.
Comme l’a dit M. le rapporteur, nous sommes également confrontés à des campagnes d’ingérence hybrides, qui s’appuient sur des faits réels, déformés et restructurés pour désinformer. Lorsque nous observons de tels agissements, notre objectif est de les bloquer avant qu’ils ne produisent leurs effets.
En France, nous avons la chance de pouvoir compter sur la diversité des médias pour contrer les campagnes de désinformation organisées par des États étrangers. C’est un élément de résilience important. Il ne faut pas sous-estimer la capacité des gens à s’informer. Lorsqu’ils entendent une information à la radio ou qu’ils la voient à la télévision, ils n’hésitent pas à se renseigner en tapant une requête sur un moteur de recherche.
Votre commission doit insister sur la nécessité de protéger la diversité des médias, car elle permet aux gens de vérifier les informations. Malheureusement, des glissements ont commencé à s’opérer dans le secteur du numérique. Le trafic envoyé par les réseaux sociaux vers les médias n’a cessé de diminuer : selon les chiffres publiés par l’Alliance de la presse d’information générale, il n’est que de 5 %, contre 67 % pour Google. Nous sommes le premier acteur à investir dans les médias, et le seul à verser des droits voisins à quasiment tous les éditeurs de presse français. Nous appelons de nos vœux des modifications législatives qui permettraient que d’autres – qui ne sont pas présents aujourd’hui, comme Microsoft ou LinkedIn, notamment – participent également au financement de l’information et au soutien des médias. Il ne faut pas oublier le rôle qu’ils jouent face aux politiques d’ingérence étrangère et tout ce qu’ils nous apportent en matière de résilience.
L’ingérence étrangère existe probablement depuis des siècles en France, et elle continuera. Nous sommes mobilisés pour qu’elle n’affecte pas nos plateformes. Nous sommes vigilants vis-à-vis de ce qui se passe autour de nous, car les menaces naissent souvent ailleurs. En tant que dernier maillon de la chaîne, nous essayons de les bloquer, mais nous avons aussi besoin d’autres éléments de résilience.
Enfin, il est important que nous puissions mieux structurer nos échanges, entre plateformes, ainsi qu’avec Viginum et les autorités françaises. Vous auditionnez cet après-midi la Commission nationale de contrôle de la campagne électorale en vue de l’élection présidentielle. Nous avons beaucoup travaillé avec elle, mais nos échanges ne s’organisent souvent qu’au moment des élections. Or ces dernières sont parfois un peu inattendues – je pense par exemple aux dernières élections législatives. Il faudrait que l’ensemble des acteurs parviennent à se coordonner au long cours.
M. Anton’Maria Battesti. Nous luttons contre ce que nous appelons les actions coordonnées inauthentiques, c’est-à-dire des réseaux de faux comptes créés par des puissances étrangères visant à désinformer. Nous en avons démantelé 200 depuis quelques années. Nous publions un rapport tous les trimestres à ce sujet. Nous pourrons orienter vos services vers ces informations, dont certaines sont publiques. Sans surprise, les principaux pays qui se livrent à de tels agissements sont la Russie, l’Iran et la Chine. Certaines des opérations que nous avons identifiées ont pu concerner la France. Nous travaillons en lien avec les autorités françaises pour les faire cesser. Certains réseaux ont été démantelés grâce à l’échange d’informations et à des partenariats qui ne sont pas toujours publics ; nous continuons d’y travailler.
Il serait intéressant d’effectuer un travail de recherche pour approfondir le lien de causalité entre ces opérations et le comportement des citoyens dans l’isoloir. Dans quelle mesure sont-ils réellement influencés ? Néanmoins, cela ne veut pas dire que nous ne devons pas, par principe, lutter contre la désinformation. D’ailleurs, nous le faisons.
Mme Clémence Dubois. Chez Meta, nous définissons la publicité électorale de manière extensive, puisqu’il ne s’agit pas seulement de la publicité faite par un élu ou un candidat ou portant sur des sujets électoraux. Nous incluons les questions sociétales susceptibles d’influencer le cours d’une élection, notamment la sécurité, l’économie, l’environnement ou les droits sociaux.
Les personnes qui souhaitent diffuser de la publicité portant sur ces enjeux doivent prouver leur identité et être présentes dans le pays concerné. Pour diffuser une telle publicité en France, il faut donc être basé en France, ce qui limite les tentatives d’ingérence.
Nous disposons par ailleurs d’une bibliothèque publicitaire, qui regroupe toutes les publicités actives sur la plateforme. Il est possible d’effectuer des recherches par pays ou par page. Les publicités labellisées comme portant sur les différents enjeux que j’ai cités sont archivées pendant sept ans. Si un annonceur n’affiche pas cet avertissement et que la publicité est identifiée comme relevant de ce cadre, elle est bloquée, puis intégrée dans cette bibliothèque et archivée.
Afin de lutter contre les ingérences et de garantir plus de transparence aux utilisateurs, nous identifions les médias contrôlés par un État sur Facebook, Instagram ou Threads. Des mesures encore plus strictes ont été appliquées aux médias russes contrôlés par l’État, puisque Rossiya Segodnya, RT et d’autres entités sont désormais bloqués sur nos plateformes.
Mme Sarah Bouchahoua. En matière d’ingérences étrangères, l’approche de Snapchat est assez singulière. Compte tenu de la conception de la plateforme, il est difficile pour un utilisateur ou plusieurs utilisateurs privés d’envoyer des messages à une très large audience. Nous ne proposons pas non plus de fil d’actualité ouvert où n’importe qui peut publier quelque chose, ni de fonctionnalités en direct. Ce n’est pas parce que nous ne savons pas le faire, mais parce que nous ne le voulons pas. Nous avons constaté, dans d’autres pays, les différents risques qui peuvent y être associés.
Nous établissons une relation contractuelle avec des partenaires médias, ce qui nous permet de faire un tri et de refuser des médias qui sont connus pour diffuser de fausses informations. Nous avons déjà évoqué le DSA, mais nous pourrions également citer la loi visant à sécuriser et à réguler l’espace numérique (Sren). Au début de la guerre en Ukraine, l’application des règles européennes a entraîné le bannissement de certains médias d’origine étrangère. Snapchat avait pris les devants. Ni Russia Today ni Sputnik ne sont présents sur la plateforme. Nous souhaitons travailler avec des partenaires médias qui respectent nos règles et font preuve d’une certaine éthique journalistique.
Une équipe est dédiée au renseignement et à l’analyse des différentes menaces. Elle est mobilisée en continu, même en dehors des périodes électorales, afin d’adapter notre défense à tous les nouveaux mécanismes qui peuvent apparaître. Comme nous l’avons déjà indiqué, aucune alerte significative n’a été identifiée sur la plateforme Snapchat à l’occasion des élections européennes ou législatives de 2024.
Toutes les publicités politiques sont vérifiées avant d’être mises en ligne. Ce travail est effectué manuellement par un modérateur, qui s’assure de l’intégrité du contenu avec l’aide d’experts internationaux indépendants. Lors des dernières élections, nous avons collaboré avec Pointer, Boom ou Logically.
Au début, Snapchat avait une approche stricte concernant la localisation de l’émetteur d’une publicité politique : si elle était destinée à un public français, il devait résider sur le sol français. Depuis le règlement européen de 2024 sur les publicités politiques, ce périmètre a été élargi à toute l’Union européenne. Il reste toutefois interdit à une entité non basée dans un pays de l’Union européenne de diffuser une publicité en France.
Lors des deux dernières élections, nous avons travaillé en collaboration avec l’Arcom, afin d’alerter et d’être alertés sur les risques identifiés sur Snapchat ou d’autres espaces numériques. Nous nous sommes également mis à la disposition de Viginum.
M. le président Thomas Cazenave. Le pluralisme est-il un élément important dans votre politique de partenariat avec les médias ? Le cas échéant, comment cette préoccupation se traduit-elle ?
Mme Sarah Bouchahoua. Les médias viennent vers nous ou nous allons vers eux. Avant de nouer un partenariat, nous vérifions leur éthique journalistique. Nous essayons également de garantir une forme de pluralisme, pour présenter différents points de vue aux utilisateurs. Nous travaillons notamment avec France Télévisions, Brut et Konbini.
Ces médias peuvent partager des contenus politiques ou liés à du divertissement, par exemple, mais dans le respect d’un cadre assez strict. En France, une personne est dédiée au dialogue avec ces partenaires. En cas de violation des règles – par exemple, en cas d’utilisation d’un titre trop vendeur –, des signalements peuvent être faits. Si ces manquements sont réitérés, nous pouvons supprimer de la plateforme les médias concernés.
M. le président Thomas Cazenave. Avez-vous des partenariats avec des médias qui assument une orientation de gauche ou, à l’inverse, de droite ? Estimez-vous avoir pour responsabilité de couvrir l’intégralité du spectre politique ?
Mme Sarah Bouchahoua. Notre approche est objective : nous ne portons aucun jugement lié à des positionnements politiques spécifiques, qu’ils soient de gauche ou de droite. Pour engager le dialogue avec des médias, ce qui nous importe est leur éthique journalistique : nous nous assurons qu’ils n’ont pas recours à la désinformation ou à des manipulations visant à contrer l’esprit critique des utilisateurs. Je pourrai vous envoyer nos règles dans ce domaine.
M. le président Thomas Cazenave. Pourrez-vous nous transmettre la liste des médias avec lesquels vous avez conclu un partenariat ?
Mme Sarah Bouchahoua. Oui, nous vous la communiquerons.
M. le président Thomas Cazenave. Le pluralisme est un sujet important pour nous. Nous l’avons abordé longuement avec l’Arcom. Pendant les périodes électorales, des règles s’appliquent aux journaux et aux médias. Nous essayons de savoir comment elles se traduisent sur vos plateformes.
Mme Claire Dilé. Nous avons été auditionnés par la commission d’enquête du Sénat sur les politiques publiques face aux opérations d’influence étrangères. Le rapporteur, M. Rachid Temal, a publié un rapport assez précis à ce sujet.
Comme l’ont rappelé mes collègues de Meta et Snapchat, des sanctions ont été prononcées à l’échelle européenne à l’encontre de certains médias étrangers. Nous nous y conformons et avons suspendu les comptes des entités concernées.
Les faits qui ont été évoqués par M. le rapporteur sont attribués au réseau Doppelgänger. Nous enquêtons au long cours sur ses agissements. Il utilise des méthodes assez sophistiquées et très créatives, mais à force de le côtoyer, nos équipes parviennent à reconnaître son empreinte. Je ne peux pas entrer dans le détail à l’occasion d’une audition publique, mais certains signaux sont caractéristiques, comme le moment où les tweets sont publiés et la manière dont ils le sont, en série.
Au cours des dernières années, nous avons assisté au développement d’opérations hybrides, à la fois en ligne et dans le monde réel. L’objectif est d’obtenir une amplification grâce aux réseaux sociaux – les étoiles de David taguées au pochoir dans le 10e arrondissement de Paris en sont un exemple. Nous nous efforçons de suspendre, à grande échelle, les comptes impliqués dans de telles opérations. Nous devons être particulièrement vigilants à l’approche des élections, car nous savons que ces acteurs malveillants cherchent à exploiter les vulnérabilités de nos sociétés, à jouer sur nos divisions et à profiter de tous les événements emblématiques.
Nous avons observé des ingérences lors des événements en Nouvelle-Calédonie, des Jeux olympiques et des élections. Lorsque l’attention se focalise sur la France, elle est plus exposée vis-à-vis de ces réseaux, et notre vigilance doit donc être accrue. Il faut cependant reconnaître que nous jouons un peu au chat et à la souris. Plus nos méthodes sont efficaces, plus nos adversaires sont créatifs. Nous avons toujours un petit temps de retard. Pour cette raison, la collaboration avec Viginum est très importante. C’est une structure particulière au sein de l’Union européenne. La réflexion sur la mise en place d’un bouclier démocratique, qui pourrait améliorer la coopération entre les États membres en matière d’échanges d’informations et déboucher sur la création d’entités comparables à Viginum, est salutaire. Je souscris à la remarque de mon collègue de Google sur la nécessité de mieux structurer le dialogue entre les acteurs.
M. Antoine Léaument, rapporteur. Vous avez dit, à juste titre, que la collaboration avec Viginum est indispensable. Son chef, M. Marc-Antoine Brillant, nous a dit le 18 mars, à propos de l’ingérence d’Elon Musk dans le débat public national relatif aux élections allemandes : « Toute utilisation par un acteur étranger, organisation ou individu, de techniques numériques majoritairement inauthentiques pour s’ingérer dans un débat public numérique lié à une élection – c’est-à-dire un événement d’intérêt fondamental pour la nation – caractérise une ingérence numérique étrangère. Or autour du compte d’Elon Musk, déjà très puissant sur X, gravitent d’autres comptes dont la mission est d’amplifier la visibilité des contenus qu’il publie : c’est le propre des procédés inauthentiques. Il s’agit donc bien d’une ingérence. » Le responsable de Viginum, avec qui vous dites travailler, affirme donc que le propriétaire de votre réseau social, X, utilise des méthodes qui peuvent être assimilées à de l’ingérence, notamment dans un contexte électoral. En Allemagne, nous avons constaté que des contenus publiés par le parti Alternativ für Deutschland (AFD) avaient été mis en avant. Quels sont les risques en France ?
Mme Claire Dilé. Le propriétaire du réseau social X, M. Elon Musk, est soumis aux mêmes règles que tout un chacun sur la plateforme. Il ne peut pas se livrer à une manipulation de l’information. Viginum ne nous a pas alertés ou fait part d’observations à ce sujet. Ce sera peut-être le cas lors de notre prochaine rencontre. Cela étant, je vous confirme que les règles s’appliquent de façon horizontale.
M. Antoine Léaument, rapporteur. Une décision de justice a été récemment rendue à l’encontre de Mme Le Pen. Dans un message sur X, qui liste des personnes ayant été sanctionnées par la justice dans leur pays, M. Musk dit – je le traduis – que lorsque la gauche radicale n’arrive pas à gagner par un vote démocratique, elle abuse du système légal pour emprisonner ses opposants, et que c’est sa technique traditionnelle, partout dans le monde. Par ces propos, M. Musk remet directement en cause une décision de justice, ce qui est puni par la loi française et passible de plusieurs milliers d’euros d’amende et de quelques mois d’emprisonnement. Le responsable du réseau social ne semble donc pas respecter les règles de fonctionnement de X.
M. le président Thomas Cazenave. Je suppose qu’il n’a pas échappé aux équipes de fact-checkers qu’en l’occurrence, personne n’avait emprisonné une opposante politique.
Mme Claire Dilé. M. Musk a exprimé son opinion personnelle. En tant que plateforme, nous n’avons aucune position concernant le procès de Marine Le Pen et la décision de justice dont elle a fait l’objet. Dans cette affaire, notre priorité a été de nous assurer que les magistrats ayant reçu des menaces n’en soient pas victimes sur X. Nous y avons été très attentifs.
M. le président Thomas Cazenave. Venons-en à la question des algorithmes. Comment pouvez-vous garantir que ces derniers, de même que votre politique de modération, ne sont pas biaisés politiquement et qu’ils ne deviennent pas des instruments au service d’objectifs politiques, ce qui affecterait directement la bonne tenue des élections ?
M. Antoine Léaument, rapporteur. Les algorithmes peuvent influencer la diffusion des contenus électoraux et le choix des électeurs, et ce de plusieurs manières. Tout d’abord, certains contenus peuvent être survalorisés en raison d’un choix politique effectué par l’éditeur de la plateforme – c’est le cas de figure que j’évoquais à propos de M. Musk. Des failles algorithmiques peuvent aussi être exploitées, grâce à des robots ou à des stratégies numériques, pour donner plus de visibilité à certains contenus dans les résultats de recherche. Les équipes de campagne des candidats peuvent d’ailleurs se livrer à cet exercice, qui fait partie du jeu politique. Enfin, l’enfermement dans les bulles de filtres est peut-être le problème le plus pernicieux.
Les bulles de filtres exposent les utilisateurs à des contenus qui produisent en permanence des biais de confirmation. Je suis de gauche, je « like » et je commente des publications de gauche, je ne vois que des contenus de gauche, donc je reste de gauche et je ne me pose pas de questions, puisque, de toute façon, le monde est de gauche, dans mes yeux et dans le miroir que me renvoie le réseau social. C’est évidemment la même chose si vous êtes de droite, d’extrême droite, d’extrême gauche ou de ce que vous voulez ! Vous êtes exposés à des contenus qui renforcent vos peurs et vous incitent à voter d’une certaine façon.
Plusieurs d’entre vous ont souligné l’enjeu que constitue la cohésion de notre société. Vous avez expliqué comment des puissances étrangères essayaient de profiter de nos divisions pour aviver les tensions, mais les bulles de filtres peuvent également perturber le débat démocratique, car elles empêchent la confrontation des opinions contraires ou rendent cet exercice plus compliqué.
Le rôle de nos institutions républicaines est théoriquement d’organiser le dissensus, pour que les citoyens puissent ensuite faire leur choix de manière éclairée. Que se passe-t-il lorsque l’enfermement dans les bulles de filtres est tel qu’il ne permet plus d’écouter une opinion contraire ?
Comment luttez-vous contre ces bulles de filtres ? Comment faites-vous pour préserver la réflexion et éviter que nos concitoyens soient dans une logique de tension vis-à-vis de contenus avec lesquels ils sont en désaccord ?
M. Benoît Tabaka. Chez Google, nous ne faisons pas de choix politiques. Ce positionnement est clair et affiché.
Il y a quelques années, la plupart des algorithmes – dont celui du moteur de recherche – reposaient sur la notoriété, c’est-à-dire sur le nombre de like ou de visiteurs d’un site, par exemple. Cette logique assez naturelle était identique à celles des publications académiques, dont la reconnaissance augmente en fonction de l’intérêt manifesté par les pairs.
La situation a profondément changé. Sur toutes nos plateformes, de multiples facteurs interviennent désormais pour renforcer la diversité des contenus. Nous investissons massivement pour garantir que les personnes qui font une requête sur notre moteur de recherche ou notre plateforme de vidéos accèdent à une grande variété de contenus. Dans cette perspective, il est essentiel de soutenir le pluralisme des médias. C’était également le sens de ma remarque concernant les droits voisins.
Il existe toutefois une limite, que de nombreux acteurs doivent travailler à lever. Nous ne pouvons donner accès qu’aux contenus qui sont disponibles en ligne. Beaucoup de discussions ont eu lieu sur le « grand remplacement », par exemple, mais si personne ne s’exprime pour contredire le concept ou démontrer qu’il n’existe pas, ces positions ne seront pas visibles. L’un des enjeux est de s’assurer que toutes les opinions sont représentées sur internet. Au-delà du pluralisme des médias, il faut préserver le pluralisme des idées.
En période électorale, les contrôles de l’Arcom ne concernent que les chaînes de télévision. Pourtant, d’autres grands médias réalisent des audiences largement supérieures, notamment grâce à une diffusion multicanale. Il est nécessaire de réfléchir à la manière de garantir le pluralisme des idées dans ce nouvel environnement.
Les acteurs de l’audiovisuel doivent s’adapter à l’évolution des comportements. La plupart des jeunes – la génération Z – privilégient les différentes plateformes numériques pour s’informer. Lors des dernières élections, nous avons travaillé avec France Télévisions pour nous assurer que les débats étaient retransmis sur YouTube et valoriser ces contenus dans le moteur de recherche, afin de leur donner le maximum d’exposition, au-delà de la télévision.
M. Anton’Maria Battesti. Nous sommes au confluent de questions à la fois humaines et technologiques. L’algorithme est une technologie qui crée des liens de causalité directs avec les comportements humains, mais ils ne sont peut-être pas si évidents. Nous proposons les mêmes services dans toute l’Union européenne et dans d’autres grandes démocraties qui nous entourent. Pourtant, les résultats des élections ne sont pas identiques. Les sujets qui sont au cœur des débats peuvent être différents. La gauche connaît un rebond au Royaume-Uni, tandis qu’ailleurs la dynamique est à droite ou au centre. Il ne faut pas sous-estimer cette dimension, qui peut être un objet de recherche intéressant.
Je partage l’avis du sociologue Dominique Cardon, qui considère que les bulles de filtres n’existent pas. Il explique que, de manière générale, les êtres humains ont tendance à aller vers ce qu’ils préfèrent ou ce qui leur ressemble. Si vous êtes de droite, vous avez plutôt des amis de droite ; si vous êtes de gauche, vous avez plutôt des amis de gauche. De même, les mariages unissent souvent des personnes qui évoluent dans des sphères intellectuelles ou professionnelles similaires.
Ces phénomènes d’homophilie sociale se retrouvent naturellement dans les réseaux sociaux, qui rassemblent 20, 30 ou 40 millions de personnes. Quand vous créez votre compte Facebook, vous ajoutez vos amis proches, qui pensent souvent comme vous. L’exposition à des opinions diverses n’est pas supérieure à ce qu’elle est à la machine à café ou dans les autres sphères de la vie sociale. Il me semble essentiel d’en prendre conscience avant d’aborder les aspects technologiques. Certaines choses sont du ressort de la société, de l’éducation et de la manière dont les humains se comportent.
L’algorithme aide à sélectionner ce qui vous est présenté sur un réseau social. Il privilégie les publications de vos amis, puis les pages ou les comptes que vous avez décidé de suivre. Ce que vous avez « liké » ou repartagé lui envoie aussi des signaux, pour savoir ce que vous préférez voir, que ce soient des chats qui jouent du piano ou des contenus politiques.
Nous avons toutefois des comptes à rendre. Nous devons être capables d’expliquer au régulateur quels sont les signaux que je viens d’évoquer et comment ils fonctionnent. Des publications en ligne, vers lesquelles nous pourrons vous orienter, détaillent tous ces éléments. Par ailleurs, au-delà de cette transparence, nous devons permettre aux utilisateurs d’avoir un contrôle sur leur expérience algorithmique et de la refuser. Sur Instagram, vous pouvez ainsi afficher les publications de manière brute et chronologique.
Mme Clémence Dubois. Nous n’avons pas qu’un seul algorithme. Les algorithmes sont différents sur le fil d’actualité de Facebook, les stories d’Instagram ou l’onglet Explore, qui vous suggère de nouveaux contenus. Cette diversité est liée au fait que les utilisateurs n’y sont pas à la recherche du même type d’expérience.
Les algorithmes prennent en compte des milliers de signaux, selon que vous avez interagi avec tel contenu ou vu telle vidéo, par exemple. Pour cette raison, nous organisons des formations pour les partis politiques avant les élections, puis pour les députés et sénateurs qui ont été élus. Il s’agit de leur permettre de s’emparer des codes des réseaux sociaux, pour que leurs contenus aient de la visibilité. Un reel bien fait fonctionnera mieux sur la plateforme qu’une image en 16/9. Nous nous assurons de former de manière équitable tous les partis et groupes politiques.
Sur Instagram, nous avons introduit la possibilité de réinitialiser les suggestions de contenus, notamment dans les onglets Reels et Explore. Cela permet de repartir du début, à partir d’une feuille blanche.
M. Antoine Léaument, rapporteur. La manière dont vous avez présenté la situation est à la fois intéressante et un peu fallacieuse. Vous faites le parallèle entre les réseaux sociaux et la vie quotidienne, dans laquelle nous privilégions effectivement les relations avec des personnes que nous apprécions. Sur les réseaux sociaux, la situation est tout de même différente. À l’exception de Snapchat, qui s’ouvre sur un appareil photo, les plateformes ont une page d’accueil qui propose des contenus. Ces derniers peuvent être présentés dans l’ordre chronologique, comme vous l’avez mentionné, mais ce n’est pas toujours le cas et c’est précisément cette configuration qui nous intéresse.
Le choix des publications affichées répond à des logiques algorithmiques, qui sont influencées par nos comportements précédents. Néanmoins, si à force d’avoir commenté le même type de contenus, nous finissons par ne plus voir que cela, notre capacité à entendre des opinions contraires diminue. Ce n’est pas une impression personnelle, car il me semble que beaucoup de travaux de chercheurs portent sur ce sujet. Progressivement, les adversaires sont disqualifiés et se voient affublés d’étiquettes qui rendent le dialogue impossible. Prenons l’exemple des Insoumis. La tendance est de nous traiter d’islamo-gauchistes ou de complices du terrorisme. Ces qualificatifs rendent évidemment les échanges très difficiles. Vous admettrez que discuter avec des complices du terrorisme ne fait pas envie !
Je ne prétends pas que les tensions qui émergent dans la société sont le fait des réseaux sociaux, mais que faites-vous pour au moins proposer des contenus différents, au-delà des outils que vous mettez à la disposition des utilisateurs ? J’ai l’impression que vous faites des tests, puisqu’en me connectant à Facebook, j’ai vu une publication et vous m’avez demandé si elle m’intéressait. Avez-vous la même démarche concernant les contenus politiques ? Exposez-vous les personnes à des opinions qui ne correspondent pas à ce qu’elles ont précédemment « liké » ?
M. Anton’Maria Battesti. Vous n’êtes pas d’accord avec moi, mais je récuse le terme « fallacieux ». J’ai seulement exprimé mon opinion.
Il est important de prendre en compte le facteur humain. J’ai sous les yeux un article de journal passionnant, publié en juin 2024, intitulé « “Je ne peux plus cautionner son discours” : amitié et politique, quand les désaccords creusent le fossé ». Il illustre parfaitement ces questions, qui dépassent le cadre des réseaux sociaux.
Nous parviendrons peut-être à partager au moins le diagnostic. Quand vous vous connectez à Facebook, votre fil d’actualité est d’abord alimenté par les publications de vos amis. Or on ne devient pas amis sur Facebook par accident. Il faut envoyer une demande et qu’elle soit acceptée, ou accepter les demandes qu’on a reçues. S’agissant de la proposition d’autres types de contenus, nous devons être prudents, d’autant que de manière générale, il me semble que nous sommes plus exposés à des opinions diverses sur les réseaux sociaux que dans d’autres sphères. Jusqu’où devons-nous aller, notamment dans le contrôle de votre expérience ? N’est-il pas préférable que vous fassiez vos choix, plutôt que des personnes de Facebook décident ce que vous devez voir, parce qu’elles pensent que vous êtes un peu trop de droite ou un peu trop de gauche ? Est-ce vraiment le rôle d’une entreprise ? Il faut avoir là-dessus un débat prudent et éclairé.
M. le président Thomas Cazenave. Comment l’appétence pour ce type de contenus et les préférences politiques sont-elles intégrées dans les algorithmes ?
Mme Clémence Dubois. Certains comptes sont identifiés comme appartenant à des personnalités ou à des partis politiques. Ils le sont sur une base déclarative. Quand nous disions que le contenu politique était plus ou moins vu, nous prenions en compte cette catégorie.
Meta n’éditorialise pas les fils d’actualité. Les recommandations de contenus ne dépendent pas du fond, mais uniquement des formats. Nous essayons de promouvoir leur diversité, en proposant des vidéos, des photos ou des carrousels, afin que l’expérience soit la plus agréable possible pour les utilisateurs.
M. le président Thomas Cazenave. Nous avons évoqué les récentes annonces du fondateur et propriétaire de Meta lorsque nous avons abordé la politique de modération. Ces nouvelles orientations décidées par Mark Zuckerberg ont-elles également affecté le fonctionnement de l’algorithme ?
M. Anton’Maria Battesti. Les contenus politiques ont retrouvé une visibilité comparable aux publications des amis ou de la famille. Ces dernières années, j’ai entendu beaucoup de plaintes d’élus qui considéraient que nous privilégiions trop les chats et les contenus des proches. Je leur répondais que mettre en avant ce type d’expériences correspondait à la logique de notre réseau social. Les choses ont toutefois évolué : Mark Zuckerberg a annoncé que les contenus politiques seraient désormais traités comme le reste. Nous avons donc retrouvé une certaine horizontalité dans la distribution des contenus, quelle que soit leur nature.
M. le président Thomas Cazenave. Vous pouvez modifier l’algorithme pour promouvoir plus ou moins les contenus politiques, mais l’effet d’une telle décision est-il neutre ? Certains contenus politiques peuvent-ils être privilégiés par rapport à d’autres ? Comment nous rassurer ?
M. Anton Maria Battesti. Non. Comme je l’ai déjà indiqué, notre objectif est que tout le monde puisse s’exprimer sur la plateforme. L’algorithme ne préfère pas les idées de gauche ou de droite.
En revanche, j’invite tous les acteurs politiques à être présents sur la plateforme, à exprimer leurs idées et à participer aux débats. Si les élus de certaines obédiences décidaient de ne plus être sur Facebook, nous aurions un déséquilibre : leurs positions ne seraient plus défendues et nous ne pourrions pas le faire à leur place. Or il est important que toutes les tendances puissent être représentées. Nous faisons tout pour que cela soit le cas : nous interagissons avec les partis et organisons des formations pour leur présenter nos outils.
L’algorithme n’a pas à privilégier les idées de gauche, de droite ou d’ailleurs. S’il le faisait, nous aurions des comptes à rendre et nous nous exposerions à de fortes amendes dans le cadre du DSA. Nous n’aurions aucun intérêt à adopter de telles pratiques.
Mme Clémence Dubois. Nous pouvons vous rappeler brièvement le fonctionnement d’un algorithme. À partir de l’inventaire des publications auxquelles vous pouvez être exposés – notamment les pages que vous suivez –, il prend en compte les signaux que j’évoquais tout à l’heure. Ces mécanismes sont transparents. Il existe des milliers de signaux, qui ne sont pas les mêmes pour les reels d’Instagram ou le fil d’actualité de Facebook, mais qui ne dépendent que de l’intérêt que vous avez porté aux publications précédentes et de la nature de vos interactions. Avez-vous regardé la vidéo ? Avez-vous cliqué sur le lien ? Ils ne prennent pas en compte le fond des contenus. En fonction de ces signaux, un score est attribué à chacune des publications et celles qui sont le plus susceptibles de vous plaire sont placées en haut de votre fil d’actualité ou en premier dans les stories.
M. Grégory Gazagne. Snapchat est une application de communication. La principale raison de se connecter est d’échanger avec ses amis et sa famille, non de partager son avis et de débattre avec de larges groupes de personnes.
Néanmoins, nous avons également des espaces qui permettent d’offrir à nos utilisateurs des contenus pertinents et variés. Monsieur le rapporteur, vous avez mentionné votre intérêt pour l’actualité politique et je suppose que vous aimez consommer et partager de tels contenus. L’application le prend en compte dans la catégorisation de vos centres d’intérêt. À ce propos, il est toujours utile de rappeler que le DSA ne permet pas de ciblage sur les convictions politiques. Chez Snapchat, la politique entre dans la catégorie plus large des actualités, qui peut également couvrir des sujets plus larges, comme les Jeux olympiques par exemple.
Notre approche en matière de recommandation de contenus peut paraître contre-intuitive, puisque nous avons financièrement intérêt à retenir nos utilisateurs le plus longtemps possible sur la plateforme. Notre objectif est toutefois de permettre à la communauté de découvrir des sujets variés.
Il serait plus simple et lucratif de remplacer l’appareil photo sur lequel s’ouvre l’application par un flux de contenus, qui pourraient être monétisés, mais ce n’est pas notre stratégie. Nous préférons conserver cet élément indispensable pour la création, qui encourage les utilisateurs à échanger, à s’amuser et finalement à revenir régulièrement sur Snapchat. Nous ne sommes pas totalement désintéressés. Nous avons, en revanche, une logique différente de celle des autres plateformes.
S’agissant des algorithmes, notre approche est transparente. Toutes les explications sur la manière dont ils fonctionnent et les contenus qui peuvent être mis en avant sont accessibles en cliquant sur un lien à partir de notre site. Je pourrai vous transmettre ces informations, qui sont publiques.
Mme Sarah Bouchahoua. Le fonctionnement de nos algorithmes est transparent. Nous essayons d’adopter une approche éthique en matière de numérique et d’éviter l’enfermement algorithmique. Nous avons d’ailleurs souhaité le mentionner dès notre propos liminaire.
Notre objectif est d’offrir à l’ensemble de nos utilisateurs des contenus variés, pertinents et provenant de sources vérifiables, tout en évitant l’enfermement algorithmique. Nous ne voulons pas qu’ils soient confrontés à des publications similaires ou répétitives. Pour ce faire, l’algorithme prend en compte leurs interactions avec les différents contenus – partage, nombre de clics, temps passé, etc. – afin d’identifier leurs centres d’intérêt. Toutefois, des contenus qui n’ont aucun rapport leur seront aussi proposés. Nous pouvons ainsi détruire les bulles de filtres. Par exemple, des contenus liés à l’actualité sportive pourront être proposés à un fan de cuisine, comme j’ai pu moi-même en faire l’expérience lors des Jeux olympiques de Paris. L’utilisateur reste cependant maître de son expérience sur Snapchat et peut gérer ses paramètres – au sens du DSA et du règlement général sur la protection des données (RGPD) – pour désactiver les recommandations de contenus.
Mme Claire Dilé. Il est normal de chercher à soulever le capot pour comprendre le fonctionnement du moteur. S’agissant de l’algorithme, le cadre légal défini par le DSA nous impose des obligations en matière de transparence, notamment en ce qui concerne le système de recommandation. Nous devons également être attentifs à la gestion des risques systémiques.
Vous avez compris comment fonctionne un algorithme. Les principes sont les mêmes chez X. Des explications sur la manière dont fonctionnent les systèmes de recommandation sont accessibles en ligne sur un site dont je vous enverrai le lien. Nos ingénieurs ont également rédigé un article de blog expliquant le fonctionnement d’un algorithme du point de vue technique. Ces informations sont intéressantes dans une optique de vulgarisation.
L’algorithme propose à l’utilisateur des contenus qui l’intéressent, mais celui-ci conserve une possibilité de choix. Sur X, il peut opter pour un fil d’actualité chronologique : les contenus s’affichent alors au fur et à mesure qu’ils sont postés. L’utilisateur peut dire qu’il n’est pas intéressé par un contenu, qui ne lui sera donc plus recommandé. Des outils lui permettent aussi de filtrer certaines publications qu’il ne souhaite pas voir, notamment parce qu’elles comportent une forme de violence – certaines peuvent d’ailleurs être interdites. Les vidéos peuvent, ou non, être lues automatiquement. Des comptes peuvent être mis en sourdine ou bloqués. Il existe des possibilités de contrôle de la conversation. Grâce à tout ce panel, l’utilisateur conserve une maîtrise de son expérience algorithmique.
Nous pourrons toujours inventer de nouveaux outils. Néanmoins, la transparence de l’algorithme permet aux gens de mieux comprendre comment il fonctionne et renforce leur confiance dans le réseau. C’est un élément fondamental.
M. Louis Ehrmann. Le fil « Pour toi » de TikTok est un fil de découverte, où des contenus sont suggérés à l’utilisateur en fonction des préférences qu’il exprime par ses interactions sur la plateforme – les comptes qu’il suit, les publications qu’il aime, le temps qu’il passe sur une vidéo, etc. Nous partageons l’objectif de transparence autour du fonctionnement de ce système de suggestion. TikTok a d’ailleurs publié un article de blog à ce sujet.
Pour lutter contre les bulles algorithmiques, TikTok encourage la diversité des contenus en introduisant dans le fil des vidéos concernant des sujets qui ne correspondent pas aux préférences exprimées par l’utilisateur. S’il passe du temps à en prendre connaissance, son fil s’enrichira progressivement.
Par ailleurs, tout utilisateur peut agir sur son fil d’actualité, notamment en filtrant automatiquement les vidéos contenant des mots ou des hashtags qu’il ne souhaite pas voir apparaître. Il peut également indiquer par un clic qu’il n’est pas intéressé par un contenu qui lui est proposé, ce qui envoie un signal au système de recommandation.
Nous disposons d’outils puissants, mis en œuvre dans le cadre de l’application du droit européen et du DSA, dont la faculté pour l’utilisateur de réinitialiser son « Pour toi ». Dans ce cas, le contenu qui lui sera proposé sera le même que s’il découvrait TikTok et qu’il venait de s’inscrire sur la plateforme. Il est également possible de désactiver la personnalisation du fil d’actualité : seules les vidéos populaires dans la région où se trouve l’utilisateur seront alors proposées, sans aucune prise en compte de ses centres d’intérêt.
La plateforme ne fait pas de choix politiques partisans dans la présentation des contenus. Dès lors qu’ils respectent nos règles communautaires et le droit local applicable, les contenus politiques sont autorisés, sans usage de nos outils publicitaires et des fonctions de monétisation. En France, toute la diversité des sensibilités politiques est représentée sur la plateforme TikTok.
M. le président Thomas Cazenave. Je vous remercie pour ces échanges approfondis, qui, pour certains des aspects que nous avons évoqués, appelleront peut-être quelques demandes de compléments.
La séance s’achève à douze heures quarante.
Présents. – M. Thomas Cazenave, M. Antoine Léaument