Compte rendu

Commission d’enquête concernant l’organisation des élections en France

– Audition, à huis clos, de M. Lorenzo Andreozzi, expert chargé de la sécurité de la plateforme TikTok  2

– Présences en réunion................................10

 


Mercredi
14 mai 2025

Séance de 18 heures 30

Compte rendu n° 40

session ordinaire de 2024-2025

Présidence de
M. Thomas Cazenave,
Président de la commission

 


  1 

La séance est ouverte à dix-huit heures trente-cinq.

 

M. le président Thomas Cazenave. Monsieur Andreozzi étant basé à Dublin et s’exprimant en anglais, cette audition a lieu en visioconférence et fait l’objet d’une traduction simultanée.

La Commission européenne a ouvert une enquête contre TikTok concernant les événements survenus en Roumanie lors de l’élection présidentielle de novembre 2024, c’est pourquoi l’entreprise a souhaité que nos échanges aient lieu à huis clos, ce que nous avons accepté.

Lors de notre table ronde du 17 avril dernier, nous avons interrogé des représentants de réseaux sociaux et de plateformes sur les risques d’ingérence étrangère dans les élections françaises. Nous avons souhaité approfondir ces échanges avec la plateforme TikTok, dont les réponses n’avaient pas toujours été très précises. Nous remercions donc M. Andreozzi pour sa disponibilité.

Nous ne pouvons pas nous désintéresser des événements qui ont eu lieu en Roumanie. Que s’est-il passé au juste ? Quelles mesures correctrices avez-vous prises ? Comment pouvons-nous nous assurer que la France ne sera pas touchée, à son tour, lors de l’élection présidentielle de 2027 ?

Avant de vous donner la parole, je rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Lorenzo Andreozzi prête serment.)

M. Lorenzo Andreozzi, expert chargé de la sécurité de la plateforme TikTok. Je suis italien, mais je travaille au siège social de TikTok à Dublin, au sein de l’équipe Confiance et sécurité. J’assure le suivi du programme Intégrité des élections au niveau mondial.

Lors de la précédente table ronde, mes collègues vous ont présenté les principales mesures que nous déployions dans le cadre d’élections. Nous nous concentrerons aujourd’hui sur le cas de la Roumanie.

Comme vous l’avez souligné, TikTok est sous le coup d’une enquête de la Commission européenne ; si l’enquête m’interdisait de vous communiquer certaines informations, ou si je n’avais pas certaines réponses, je vous en informerai ; le cas échéant, je vous proposerai de vous transmettre des éléments complémentaires après avoir interrogé mes équipes.

Du point de vue de TikTok, les événements qui ont eu lieu en Roumanie étaient absolument exceptionnels. Sur les quelque 200 élections que nous avons couvertes depuis nos débuts – y compris l’élection présidentielle américaine et les élections européennes de 2024 –, nous n’avions jamais rien vu de tel. La situation roumaine était sans précédent et hautement imprévisible ; le vice-président de l’Ancom, l’autorité roumaine de régulation du secteur des médias et du numérique, l’a reconnu publiquement.

La décision d’annuler les résultats du premier tour a été critiquée – le rapport commandé au Conseil de l’Europe en fait état. Nous suivons également cet aspect.

De façon générale, lors d’élections, TikTok s’attache à mettre en œuvre des réponses proportionnées et raisonnables. Dans le cas de la Roumanie, le problème tenait au caractère inédit et parfaitement exceptionnel de la situation. Nous avons réagi immédiatement et apporté des réponses robustes. Nous entretenons une collaboration continue avec les autorités roumaines, les organisations de la société civile et la Commission européenne pour agir dans la plus grande transparence et préparer le second tour qui se tiendra dans quelques jours.

M. le président Thomas Cazenave. Vous insistez sur le caractère exceptionnel des événements, mais cela ne doit pas nous interdire d’en tirer des enseignements sur les risques qui peuvent peser sur les élections dans notre pays. Quelles garanties pouvez-vous nous apporter, issues de votre retour d’expérience, que le cas roumain ne se reproduira pas ?

M. Antoine Léaument, rapporteur. Concrètement, quelles mesures avez-vous prises pour éviter que cette situation ne se répète ? Sont-elles spécifiques à la Roumanie ou étendues à l’ensemble des pays dans lesquels TikTok a des utilisateurs ?

Avez-vous eu connaissance de tentatives de manipulation lors d’élections en France ? Si oui, les avez-vous déjouées ? D’où venaient-elles ? Je pense en particulier aux dernières élections européennes, lors desquelles Viginum a identifié des tentatives d’ingérence visant à influencer le débat public.

M. Lorenzo Andreozzi. Nous appliquons une procédure interne bien définie pour nous préparer aux périodes électorales. Longtemps avant la date des élections, nous constituons une équipe transverse composée de personnes qui connaissent bien le pays et le marché considérés, mais aussi d’experts de différents domaines : désinformation, identification des techniques de manipulation et d’influence sur la plateforme, etc. Cette task force évalue les risques ; elle effectue diverses opérations pour s’assurer que la situation est sous contrôle et que nous comprenons ce qui se passe sur la plateforme. Elle est aussi chargée d’informer le pôle de modération, actif 24 heures sur 24, sur le contexte du pays. Nous lui transmettons des lignes directrices pour l’aider à appliquer au mieux notre politique.

Parmi nos différents outils de lutte contre la désinformation, l’élément clé est notre programme de vérification des faits. Il repose sur des partenariats avec des sociétés spécialisées présentes dans nos différents marchés – l’Agence France-Presse (AFP) en ce qui vous concerne. L’équipe travaille étroitement avec ces acteurs ; nous les intégrons à notre dispositif de communication interne, ce qui permet de vérifier la véracité des contenus en temps réel. Au sein de la task force, une équipe d’experts est chargée d’identifier et d’interrompre les opérations d’influence. Elle se coordonne avec une entité qui surveille les autres comportements trompeurs, comme ceux qui favorisent une augmentation artificielle de l’engagement : il s’agit de déterminer si ce sont de simples campagnes de spam ou des opérations de plus grande portée visant à influencer l’opinion publique sur des sujets qui ont trait aux élections.

Les contenus créés par l’intelligence artificielle font l’objet de mesures spécifiques. TikTok a été la première plateforme à intégrer un dispositif de marquage des contenus générés par l’IA, notamment grâce à la technologie développée par la C2PA, la Coalition pour la provenance et l’authenticité des contenus. L’enjeu est de détecter plus particulièrement les contenus produits par l’IA qui visent à tromper les utilisateurs.

Par ailleurs, nous dispensons des informations à nos utilisateurs sur le déroulement des élections à venir : comment voter, où trouver son bureau de vote, etc. L’année dernière, avant les élections européennes, nous y avons ajouté des recommandations pour aider à détecter les fausses et mauvaises informations et les tentatives de manipulation.

Tous les dispositifs que je viens de décrire ont été appliqués lors des dernières élections présidentielles américaine et roumaine, lors des élections européennes mais aussi, dans la foulée et malgré un délai court, lors des élections législatives françaises de 2024.

En parallèle, nous menons un important travail avec les autorités publiques et les organisations de la société civile. Le Code de conduite sur la désinformation, dont nous sommes signataires, nous impose d’activer un système de réaction rapide – il était en vigueur lors des élections européennes, roumaines et françaises. Nous nouons également des partenariats avec des experts qui apportent à la task force des éclairages et des éléments de contexte. Avec des spécialistes de la vérification de faits ou des organisations de la société civile, nous explorons en profondeur les phénomènes à l’œuvre dans le pays – quels sont les principaux discours de désinformation, etc. – afin de pouvoir réagir au plus vite.

J’en viens aux enseignements que nous avons tirés du cas roumain et aux mesures correctrices que nous avons prises. L’une des leçons est que nous devons encore renforcer nos relations avec l’ensemble des autorités nationales, qu’elles soient chargées du numérique, de la justice ou de la sécurité. Le cadre juridique relatif à la période de réserve électorale est très complexe en Roumanie, entre autres exemples. Nous maintenons un canal de communication ouvert en permanence avec les autorités pour nous informer mutuellement des événements en cours. Les autorités et nos partenaires officiels peuvent nous signaler en temps réel des contenus problématiques – illégaux ou qui violent les règles de notre communauté – sur notre page Safety Enforcement Tool (SET). Cet outil était déjà en place lors des élections roumaines, et nous l’étendons aux autres pays d’Europe où se déroulent des élections.

Une autre leçon est que l’important travail que nous avons accompli à l’occasion des élections roumaines n’a pas été perçu par la société et les autorités. Nous devons faire preuve d’une plus grande transparence sur ce pan de notre activité : mesures déployées, contenus problématiques identifiés et retirés, acteurs malveillants, opérations d’influence, de spamming et de manipulation artificielle de l’engagement débusqués…

C’est pourquoi nous avons décidé de publier des rapports sur la transparence de nos activités en période électorale. Nous recensons chaque semaine, dans un outil interne, toutes nos actions en la matière. Nous avons déjà publié deux rapports sur la transparence concernant les élections en Roumanie ; nous procédons au même exercice en Pologne et au Portugal et nous le ferons également pour les prochaines élections en France.

Nous veillons par ailleurs à identifier plus rapidement et plus précisément ce que nous appelons en interne les comptes de gouvernements, de personnalités politiques ou de partis politiques (GPPPA). Dans le cas de la Roumanie, il y avait une grande confusion quant à l’authenticité et au caractère officiel de certains comptes ; cela tenait aussi au fait que les personnalités politiques n’avaient guère été réactives quand nous avions cherché à communiquer avec elles. Cela nous a convaincus que nous devions renforcer nos relations avec les partis et les hommes politiques. Nous travaillons avec de nouveaux partenaires aidant à identifier les comptes GPPPA sur notre plateforme, à accélérer le processus d’étiquetage et, à terme, de vérification. C’est un point extrêmement important.

La task force consacrée aux élections en Roumanie a été étoffée dès 2024 : cette task force incluait 120 experts, dont certains parlent la langue du pays.

Enfin, nous avons mis à jour nos procédures concernant la publicité politique – qui est interdite sur TikTok –, car il s’était parfois avéré difficile de savoir si des contenus à caractère politique avaient fait l’objet d’un partenariat rémunéré. Jusqu’alors, nous devions en avoir la preuve pour les retirer. Désormais, en cas de soupçon de publicité politique déguisée, le contenu est rendu inéligible au fil « Pour toi ».

Nous communiquons publiquement sur l’ensemble des opérations d’influence coordonnées que nous identifions et démantelons – notre rapport sur la transparence durant les élections en Roumanie en fait état. Entre septembre et décembre 2024, nous avons identifié et démantelé six réseaux en Roumanie, la plupart basés dans le pays. Cinq d’entre eux avaient un très petit nombre de comptes, mais certains de ces comptes avaient un grand nombre de followers. Le sixième, en revanche, possédait 27 000 comptes. Tout ceci figure dans notre rapport.

Nous avons identifié deux nouveaux réseaux en Roumanie en avril 2025, composés pour partie de nouveaux comptes et pour partie de comptes récidivistes. Chaque fois que nous démantelons un réseau, nous continuons à en suivre les membres pour voir s’ils reviennent sur la plateforme et, le cas échéant, les bannir sur-le-champ. Ces deux réseaux étaient opérés depuis la Roumanie et visaient à influencer l’opinion nationale sur des sujets ayant trait à l’élection. Le premier avait soixante comptes, et l’autre vingt-sept.

Depuis septembre 2024, le travail mené par la task force chargée des élections et l’équipe spécialisée dans les opérations d’influence a été rendu public dans la plus grande transparence.

En ce qui concerne la France, nous n’avons identifié aucune opération d’influence ou aucun réseau cherchant à manipuler l’opinion à l’occasion des élections européennes. En revanche, nous avons découvert, dans le cadre de notre coopération avec Viginum, un réseau opéré depuis le Togo qui ciblait l’audience de la France – là encore, cette information est publique. Il visait plus particulièrement des publics francophones vivant en Afrique de l’Ouest et sur le territoire français, et discréditait la politique étrangère de la France dans cette partie de l’Afrique. Ses comptes et ses contenus revêtaient une apparence journalistique afin d’être plus crédibles. Je ne saurais dire si ce réseau entend influencer une future élection, je ne peux toutefois pas l’affirmer avec certitude, car la France n’est pas en période électorale.

Quoi qu’il en soit, nous poursuivons notre travail et renforçons notre collaboration avec Viginum. Notre coopération avec les autorités françaises suivra le modèle que nous avons appliqué en Roumanie et, depuis, dans d’autres pays ayant vécu des élections. Nous espérons que cette collaboration renforcée nous permettra de gagner en rapidité pour identifier et supprimer les contenus inappropriés. Notre engagement est intact.

M. le président Thomas Cazenave. Une question importante est justement celle de la réactivité de la plateforme. Tout l’enjeu est là, notamment dans la lutte contre les faux comptes. Dans l’incident en Roumanie que vous avez cité, combien de temps a-t-il fallu pour détecter le problème, pour alerter les autorités et pour qu’il se passe quelque chose ? Nous serions rassurés de savoir que votre réactivité est forte, si la France était un jour confrontée à ce genre d’attaque.

M. Lorenzo Andreozzi. Tout dépend du problème.

Les contenus qui violent nos directives communautaires tels que la désinformation, par exemple le contenu préjudiciable généré par IA qui représenterait une personnalité politique dans une situation qui n’a jamais existé ou d’une façon qui ne correspond pas à ce qu’elle est, peuvent être retirés très rapidement. Nous nous donnons une fenêtre de vingt-quatre heures ; cela peut-être un peu plus lorsqu’il est nécessaire de faire examiner le contenu par notre équipe de fact checking. Nous nous efforçons de ne pas dépasser un jour.

Les contenus illicites font l’objet d’une double évaluation, à la fois du point de vue de la légalité et de nos directives communautaires. Si le contenu viole nos règles et qu’il est illégal, il sera supprimé. Si le contenu ne viole aucune de nos règles, mais qu’il est illégal en France, il sera bloqué dans le pays.

Pour ce qui est des opérations d’influence impliquant plusieurs comptes, nous devons vérifier que les comptes sont bien liés à des acteurs malveillants afin de ne pas punir par erreur des utilisateurs qui ne seraient pas impliqués. C’est un équilibre délicat. Je ne saurais vous donner un délai exact, car nos équipes doivent effectuer plusieurs étapes de vérification avant la suppression effective des réseaux ; l’objectif est d’être précis. Nous nous engageons à agir aussi rapidement que possible dès que nous avons un signal crédible.

M. le président Thomas Cazenave. Je comprends qu’il soit difficile de faire la différence entre les vrais et les faux comptes pour ne pas pénaliser les utilisateurs. Combien de temps vous a-t-il fallu pour identifier la présence massive de faux comptes en Roumanie dans le but de manipuler l’opinion ?

M. Lorenzo Andreozzi. Je ne saurais vous répondre précisément à ce stade. Il me faudrait demander ces informations en interne. Je vous les transmettrai par écrit.

M. le président Thomas Cazenave. C’est bien dommage, car il s’agit d’une question essentielle.

M. Antoine Léaument, rapporteur. Si j’ai bien compris, en Roumanie, vous avez essentiellement mené des investigations pour identifier et détruire les réseaux impliqués en supprimant les faux comptes. Parmi les nouvelles mesures mises en place, je note l’augmentation du nombre de personnes dans la task force, le changement des règles concernant le contenu politique afin d’apporter des précisions sur les contenus manipulatoires ou problématiques dans le cadre des élections, l’accélération de la capacité d’action par de meilleurs liens avec les comptes institutionnels et l’amélioration de la transparence de votre action autour des élections.

Il se trouve qu’avant d’être élu député, j’ai été le responsable des réseaux sociaux d’un candidat à l’élection présidentielle ; de ce fait, j’étais en relation avec les plateformes numériques. J’ai l’impression que ces mesures étaient déjà plus ou moins en place en France. Considérez-vous que certains pays sont plus faibles, en tout cas plus vulnérables à ce genre d’opérations du fait de relations moins approfondies avec TikTok ? Vous avez l’air de connaître Viginum : ces liens forts vous permettent-ils de protéger la France davantage que d’autres pays ?

M. Lorenzo Andreozzi. Il est impossible de faire des comparaisons. Chaque pays est différent, chaque système politique est différent et il n’y a pas deux élections similaires.

Il n’est pas exact de dire que toutes ces règles existaient déjà. C’est un processus en cours. Par le passé, pour l’authentification des comptes institutionnels, nous nous reposions principalement sur la relation de nos responsables des affaires publiques avec les partis et les personnalités politiques. Or, si un homme politique ne répond pas à notre demande de vérification et d’identification, il est difficile de gérer ensuite les problèmes d’usurpation d’identité. Parfois, il s’agit simplement de comptes parodiques sans conséquence ; dans d’autres cas, le compte peut se faire passer pour une personnalité ou un parti politique pour diffuser un message qui n’est pas exactement celui de ce parti ou de cette personne, ce qui porte préjudice au processus électoral. Nous investissons actuellement dans un tiers afin d’accélérer le processus par le biais d’un système qui permettra de supprimer les comptes qui ne sont pas authentiques, mais aussi d’empêcher les comptes institutionnels d’accéder aux services monétisés – sur TikTok, les partis et les personnalités politiques n’ont pas le droit de recourir à la publicité – de manière plus rapide, plus efficace et plus précise afin de réduire les risques, mais aussi d’améliorer l’expérience des personnalités politiques sur TikTok.

M. Antoine Léaument, rapporteur. Un compte politique identifié comme un compte officiel ne peut pas faire de publicité sur la plateforme. Cela veut-il dire qu’une structure qui n’est pas identifiée comme un compte politique officiel, mais qui vise à soutenir un candidat lors d’une élection, pourrait promouvoir du contenu sur la plateforme ? Avez-vous des outils qui permettent d’identifier le contenu politique, quel que soit le compte, et de supprimer la publicité pour ce type de contenu ?

M. Lorenzo Andreozzi. Je n’ai peut-être pas été clair. Personne sur TikTok n’a le droit de faire des publicités politiques : ni les personnalités politiques, ni les comptes institutionnels, ni personne d’autre.

M. Antoine Léaument, rapporteur. Qu’entendez-vous précisément par publicité politique ? Sans faire de la publicité pour un candidat, on peut sponsoriser des thèmes qui seraient favorables à un candidat. En France, les questions d’immigration et de sécurité tendent à favoriser les candidats de droite, tandis que les services publics et l’augmentation de salaires favorisent les candidats de gauche.

M. Lorenzo Andreozzi. Je vous répondrai par écrit. Je ne suis pas expert sur le sujet et je ne voudrais pas vous induire en erreur.

M. Antoine Léaument, rapporteur. Si j’ai bien compris, le titulaire d’un compte politique officiel qui considère qu’un contenu mis en ligne ne le représente pas peut demander à TikTok de supprimer celui-ci. J’irai plus loin : si, en tant que titulaire d’un compte certifié, j’apprends l’existence d’une vidéo produite par une IA générative imitant jusqu’à ma voix qui me ferait tenir des propos totalement contraires à ceux que je tiens d’habitude, avez-vous mis en place des outils qui me permettraient de demander la suppression de cette vidéo, mais aussi de toutes les copies qui existeraient sur la plateforme ? Je sais qu’il est possible de le faire pour les vidéos associées au terrorisme ; est-ce possible pour les fausses informations politiques ?

M. Lorenzo Andreozzi. Nous avons rencontré quelques cas de ce genre. Ce type de contenu viole nos directives communautaires et il est probable que nos équipes puissent l’identifier et le supprimer sans qu’il soit besoin de procéder à un signalement. Nous avons également les moyens de trouver les copies et les variantes de cette vidéo et de les supprimer. Lorsque le contenu est signalé, notre task force et notre équipe de gestion des incidents agissent dans le cadre que je viens de décrire.

L’IA générative ne cesse d’évoluer et nous investissons massivement dans des systèmes de détection pour identifier ces contenus avant que quiconque les voie. Toutefois, certains outils d’IA génèrent du contenu de très basse qualité que les machines ont du mal à identifier ; dans ces cas-là, il est essentiel de le signaler.

Il y a une gradation dans les violations et plusieurs politiques peuvent s’appliquer. Le contenu trompeur que vous décrivez ne pose pas seulement problème du point de vue de l’utilisation de l’intelligence artificielle : si les propos tenus sont faux, il s’agit d’une forme de désinformation, laquelle est interdite par nos directives communautaires.

M. Antoine Léaument, rapporteur. Vous avez parlé de vidéos venues du Togo qui cherchaient à dévaloriser la politique étrangère de la France en Afrique de l’Ouest. Avez-vous la capacité de vérifier que ces comptes ne sont pas financés par l’extérieur ? Nous savons que la Russie et la Chine s’attachent à dévaloriser la politique étrangère de la France en Afrique. Sait-on si le mouvement vient du Togo, qui aurait décidé de parler de ce sujet, ou si d’autres puissances utilisent ce pays comme une source d’émission pour noyer le poisson ?

De même, vous dites avoir identifié six réseaux en Roumanie, puis deux réseaux supplémentaires. Avez-vous mené des investigations plus poussées – vous ou la Commission européenne – qui auraient conclu que ces réseaux ne venaient pas seulement de Roumanie, mais que des puissances étrangères étaient impliquées dans une tentative d’ingérence ?

M. Lorenzo Andreozzi. Je ne suis pas en mesure de vous répondre sur l’origine de ces réseaux ni sur les acteurs qui pourraient se cacher derrière ces comptes. Nos données ont leurs limites. Une fois identifiée la structure du réseau – ce que nous faisons en étudiant le comportement des comptes –, nous menons parfois une analyse plus approfondie et il peut nous arriver de remonter jusqu’à leur origine. Néanmoins, la plupart du temps, c’est extrêmement difficile car ils utilisent des tactiques très sophistiquées pour brouiller les pistes. En outre, tout ne commence et ne finit pas sur la plateforme et ces informations n’existent pas toujours chez nous. C’est pourquoi nous collaborons avec les autorités, comme Viginum, et avec les services de renseignement, à qui nous fournissons les informations dont nous disposons, pour comprendre les causes de ces phénomènes. Il ne nous est pas possible de déterminer avec certitude, sur la seule base des informations présentes sur la plateforme, de quelle région ils proviennent.

Notre équipe de lutte contre les opérations d’influence travaille vingt-quatre heures sur vingt-quatre. Depuis décembre dernier, nous collaborons avec la Commission européenne et la Roumanie et nous les informons dès que nous identifions un nouveau réseau ou une activité suspecte. Nous avons même renforcé nos moyens. Nous partageons les informations dans nos rapports de transparence afin que la société civile, les associations et les autorités en soient informées. Nous mettrons les mêmes mesures en place à l’approche des élections en France. Entre-temps, notre relation avec Viginum continuera et nous approfondirons notre partenariat.

M. Antoine Léaument, rapporteur. Des événements forts ont eu lieu récemment en Nouvelle-Calédonie-Kanaky. Le réseau TikTok y a été coupé pendant une certaine période. Nous avons depuis obtenu des informations de Viginum, qui parlait de tentatives de manipulation depuis l’Azerbaïdjan. Avez-vous des informations supplémentaires ? Avez-vous eu des contacts avec Viginum ? Comment avez-vous vécu la coupure de TikTok décidée par la France ?

M. Lorenzo Andreozzi. Je ne suis pas en mesure de vous répondre. Il faudra que je vérifie en interne ; vu de notre côté, c’était une situation de crise. Je me rappelle que la décision a été prise de fermer TikTok. Cela a été une vraie surprise pour nous. Nous préférons régler les problèmes dans la communication et la collaboration.

M. le président Thomas Cazenave. Vous pourrez joindre ces précisions à celles concernant la séquence des événements en Roumanie.

À vous entendre, on comprend que tout l’enjeu est celui de la collaboration avec les autorités publiques. Dans le débat public, on dit, au sujet de l’annulation des élections présidentielles en Roumanie, qui est un acte d’une extrême gravité : « C’est la faute de TikTok. » De votre point de vue, la responsabilité est-elle celle de TikTok ou celle des autorités, qui n’ont pas eu une réaction suffisamment rapide ?

M. Lorenzo Andreozzi. Il ne m’appartient pas d’attribuer la responsabilité à l’une ou l’autre partie. La situation était sans précédent et extrêmement complexe.

M. le président Thomas Cazenave. Je vous remercie et j’insiste sur l’importance de nous adresser les compléments demandés.

 

 

La séance s’achève à dix-neuf heures quarante.


Membres présents ou excusés

 

Présents. – M. Thomas Cazenave, M. Antoine Léaument