______
ASSEMBLÉE NATIONALE
CONSTITUTION DU 4 OCTOBRE 1958
DIX-SEPTIÈME LÉGISLATURE
Enregistré à la Présidence de l’Assemblée nationale le 9 avril 2025.
RAPPORT
FAIT
AU NOM DE LA COMMISSION DES AFFAIRES ÉCONOMIQUES SUR LA PROPOSITION DE RESOLUTION EUROPEENNE appelant à la régulation des réseaux sociaux face aux ingérences étrangères
PAR M. Laurent LHARDIT
Député
Voir le numéro :876, 1159
SOMMAIRE
___
Pages
A. lutter contre les discours illicites en ligne : Le RÈGLeMENT SUR LES SERVICES NUMÉRIQUES (DSA)
1. Une première tentative de régulation des contenus dans les années 2000 et 2010
2. Un cadre bien plus robuste : le Digital Services Act (DSA) de 2022
a. De nouvelles obligations de vigilance pour les très grandes plateformes
b. Un véritable dispositif de contrôle et de sanction
B. Lutter contre les abus de position dominante : le RÈGLEMENT SUR LES MARCHÉS NUMÉRIQUES (DMA)
II. le risque d’ingÉrences ÉtrangÈres doit conduire À une mise en oeuvre renforcÉe du dsa et du dma
A. Un RISQUE D’INGÉRENCEs ÉTRANGEREs par l’entremise des plateformes
1. L’usage offensif des réseaux sociaux pour déstabiliser les élections dans les pays européens
2. Le réseau social X doit faire l’objet d’une vigilance particulière
a. L’instrumentalisation politique du réseau social par Elon Musk
b. La réduction drastique des moyens de modération
c. Une idéologie promue par l’administration Trump dans son ensemble
B. des PROCÉDURES d’enquÊte trop lentes qui tardent À aboutir À des rÈsultats concrets
1. À ce jour, des enquêtes mais pas de sanctions
2. Des procédures d’enquête trop lentes, des réticences à prendre des mesures provisoires
1. Renforcer la mise en œuvre du DSA et du DMA
2. Prendre des mesures spécifiques à l’égard de X
3. Élaborer une stratégie pour assurer une souveraineté numérique européenne
Face à l’augmentation des risques que fait peser sur la démocratie la divulgation dans le débat public de « fausses informations » par la voie des réseaux sociaux, les députés M. Thierry Sother et M. Jérémie Iordanoff ont déposé le 3 février 2025 une proposition de résolution européenne, en application de l’article 88-4 de la Constitution, afin de demander à l’Union européenne de renforcer son action en matière de régulation des services numériques.
Votre rapporteur a par la suite été désigné par la commission des affaires économiques de l’Assemblée nationale, saisie de ce texte au fond.
Tous deux adoptés en 2022, le règlement sur les services numériques (Digital Services Act – DSA) et le règlement sur les marchés numériques (Digital Markets Act – DMA) visaient à doter l’Union européenne d’un arsenal juridique spécifique à la régulation des plateformes en ligne, tant pour endiguer la prolifération de contenus illicites et la désinformation que pour lutter contre le pouvoir économique excessif des « contrôleurs d’accès » en situation de quasi-monopole.
Plus d’un an après l’introduction de ces dispositions et malgré les premières sanctions prononcées, force est de constater que ces règlements n’ont pas encore pleinement atteint leurs objectifs. L’évolution de la politique de X, dont le propriétaire, M. Elon Musk, est aussi un proche conseiller du nouveau président des États-Unis, M. Donald Trump, laisse craindre un risque d’abus de la liberté d’expression à des fins de déstabilisation sociale et électorale.
Face à la possibilité d’ingérences étrangères au sein des pays de l’Union européenne par le biais des réseaux sociaux, la plus grande vigilance est de rigueur. En Roumanie, la Cour constitutionnelle a dû annuler les élections présidentielles, en décembre 2024, à la suite de manœuvres sur le réseau social TikTok visant à favoriser le candidat prorusse, M. Călin Georgescu.
À l’ère des populismes et de la « post-vérité », lutter contre la diffusion incontrôlée de contenus illicites sur les réseaux sociaux et préserver les citoyens européens de la domination des géants américains du numérique doivent être des enjeux prioritaires pour l’Union européenne. Cette proposition de résolution européenne appelle ainsi à une mobilisation pleine et immédiate des instruments dont l’Union européenne dispose, au premier rang desquels le DSA et le DMA.
I. L’Union europÉenne s’est enfin dotÉe d’instruments pour rÉguler l’activitÉ des grandes plateformes numÉriques
La législation européenne régulant les contenus en ligne se fonde sur un socle de valeurs partagées au sein de l’Union européenne, consacrées par la Convention européenne des droits de l’homme du 4 novembre 1950. L’exercice de la liberté d’expression est, à ce titre, borné tant par le respect des droits fondamentaux proscrivant l’incitation à la haine et la diffamation que par la nécessité de préserver l’ordre public.
En droit interne, la loi sur la liberté de la presse du 29 juillet 1881 interdit notamment « la publication, la diffusion ou la reproduction, par quelque moyen que ce soit, de nouvelles fausses qui porteraient atteinte à la paix publique ». L’article 42 de la loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République impose des obligations spécifiques concernant le contrôle des contenus illicites.
Toutefois, et conformément au principe de subsidiarité, l’échelon européen est plus adapté pour agir en ce qui concerne les propos tenus en ligne. Les plateformes numériques sont par nature transnationales et les actions conduites en ordre dispersé par les États membres de l’Union européenne ne peuvent pas être pleinement efficaces.
A. lutter contre les discours illicites en ligne : Le RÈGLeMENT SUR LES SERVICES NUMÉRIQUES (DSA)
1. Une première tentative de régulation des contenus dans les années 2000 et 2010
La « directive sur le commerce électronique » (directive 2000/31/CE du 8 juin 2000) a instauré un régime de responsabilité limitée des hébergeurs et des fournisseurs d’accès à internet (FAI) dont les principes cardinaux demeurent.
En application de ce régime, les hébergeurs ne sont pas responsables des contenus publiés par leurs utilisateurs tant qu’ils n’ont pas connaissance de leur caractère illégal. Au vu des évolutions majeures connues par le secteur, cette législation comprenait plusieurs lacunes. D’une part, ce régime rendait difficile l’engagement de la responsabilité des plateformes, puisqu’elles n’étaient pas tenues d’instaurer un système de surveillance généralisée des contenus diffusés. D’autre part, la directive ne prévoyait pas de dispositif harmonisé de sanctions dans les différents États membres.
En complément de cette directive, des codes de conduite ont été mis en place afin d’inciter les fournisseurs de service à lutter contre les dérives. En 2016, un premier code de conduite visant à lutter contre les discours de haine a été signé par Facebook, Microsoft, Twitter et Youtube. Il a été complété en 2018 par un code spécifique à la désinformation en ligne.
Toutefois, l’absence de caractère contraignant de ces engagements rendait leur effet très limité. Le code de conduite relatif à la lutte contre la désinformation n’est opposable que depuis janvier 2025, comme l’a indiqué le président de l’Autorité de régulation et de surveillance des contenus audiovisuels et numériques (ARCOM) devant les rapporteurs de la commission des affaires européennes.
2. Un cadre bien plus robuste : le Digital Services Act (DSA) de 2022
a. De nouvelles obligations de vigilance pour les très grandes plateformes
Fondé sur le principe selon lequel « ce qui est illégal hors ligne doit être illégal en ligne », le règlement (UE) 2022/2065 relatif à un marché unique des services numériques, ou « DSA », vise à lutter contre les contenus illicites (discours haineux, contenus discriminatoires ou faisant l’apologie du terrorisme) et la désinformation.
Adopté le 19 octobre 2022, le DSA est pleinement applicable depuis le 17 février 2024. Une première série de dix-neuf plateformes entrant dans la catégorie des « très grandes plateformes en ligne » et des « très gros moteurs de recherche en ligne », utilisés par 45 millions de personnes par mois dans l’Union européenne et dont la Commission européenne estime qu’ils peuvent présenter un risque systémique, sont soumis aux dispositions du règlement depuis le 25 août 2023. En font partie les principaux réseaux sociaux (Facebook, Instagram, LinkedIn, Snapchat, TikTok).
Sans remettre en cause le principe de responsabilité limité des hébergeurs, il impose une obligation d’agir « promptement » pour retirer les contenus illicites.
Un système de signalement (article 16 du DSA) doit permettre à chaque utilisateur de la plateforme de signaler un contenu qu’il considère comme illicite. Les « signaleurs de confiance » (de nature institutionnelle ou associative) pourront signaler des contenus de manière prioritaire (article 22 du DSA).
Les très grandes plateformes sont assujetties à des obligations spécifiques : elles doivent évaluer et procéder à « l’atténuation » des risques systémiques qu’induirait le fonctionnement de leurs services sur les droits fondamentaux et procéder à un audit indépendant pour s’assurer du respect des obligations prévues par le règlement.
b. Un véritable dispositif de contrôle et de sanction
Le contrôle du respect du DSA est en principe assuré par des acteurs institutionnels nationaux appelés « coordinateurs pour les services numériques » (CSN) et rassemblés au sein d’un comité européen des services numériques. En France, l’ARCOM s’est vu confier la fonction de coordinateur pour les services numériques par la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et réguler l’espace numérique (loi SREN).
À ce titre, l’ARCOM dispose de larges prérogatives :
– des pouvoirs d’enquête lui permettant d’accéder à des données et de mener des interrogatoires afin de détecter toute carence de conformité d’un fournisseur ;
– un pouvoir d’injonction lui permettant de prendre des mesures provisoires en cas de risques de préjudice grave ;
– un pouvoir de sanction (amendes), avec la possibilité de saisir l’autorité judiciaire pour demander des sanctions pénales.
En ce qui concerne les très grandes plateformes, dont l’activité s’étend par définition dans l’ensemble de l’Union européenne, ces fonctions sont exercées directement par la Commission européenne. Dans le cadre de la procédure d’enquête formelle prévue par l’article 66 du DSA, la Commission se voit confier de larges pouvoirs d’enquête (accès aux données et aux algorithmes, possibilité d’inspection sur place) et peut prononcer des mesures provisoires.
En cas de manquement, les sanctions peuvent aller jusqu’à 6 % du chiffre d’affaires mondial réalisé par la plateforme au cours de l’exercice précédent.
B. Lutter contre les abus de position dominante : le RÈGLEMENT SUR LES MARCHÉS NUMÉRIQUES (DMA)
Adopté le 14 septembre 2022, le règlement (UE) 2022/1925 du Parlement et du Conseil relatif aux marchés contestables et équitables dans le secteur numérique, dit « Digital Markets Act » (DMA), est le volet de lutte contre les pratiques anti-concurrentielles de la régulation européenne de l’économie numérique.
Le DMA vise dix services de plateforme dits « essentiels » (réseaux sociaux, services d’intermédiation, moteurs de recherche, messageries en ligne...) et, au sein de ces secteurs, les entreprises considérées du fait de leur importance comme des « contrôleurs d’accès » (gatekeepers). Deux critères cumulatifs permettent de caractériser un contrôleur d’accès :
– l’importance dans le marché : ce critère est présumé satisfait si la plateforme a au moins 45 millions d’utilisateurs finaux actifs par mois ;
– le chiffre d’affaires annuel (7,5 milliards d’euros dans l’Union européenne) ou la capitalisation boursière (75 milliards d’euros).
Depuis le 6 septembre 2023, six contrôleurs d’accès ont été désignés par la Commission européenne : Alphabet (Google), Amazon, Apple, Meta (Facebook), Microsoft et ByteDance (propriétaire de Tiktok).
Les contrôleurs d’accès doivent respecter plusieurs règles visant à assurer la transparence et la liberté de choix, dans l’intérêt des consommateurs et des entreprises utilisatrices : interopérabilité des fonctionnalités, facilitation du désabonnement, interdiction d’imposer un logiciel par défaut… Ainsi, depuis l’entrée en vigueur du DMA, WhatsApp (Meta) doit permettre aux utilisateurs d’envoyer des messages à des personnes utilisant des services concurrents comme Signal ou Telegram.
En cas de manquement, une amende représentant jusqu’à 10 % du chiffre d’affaires mondial total de l’entreprise contrevenante peut être prononcée.
Si trois violations interviennent en huit ans, la Commission peut ouvrir une enquête de marché et imposer des mesures correctives comportementales ou structurelles, pouvant aller jusqu’à la cession d’activités ou l’interdiction d’acquisition d’entreprises concurrentes.
II. le risque d’ingÉrences ÉtrangÈres doit conduire À une mise en oeuvre renforcÉe du dsa et du dma
A. Un RISQUE D’INGÉRENCEs ÉTRANGEREs par l’entremise des plateformes
Alors que plusieurs élections importantes auront lieu en 2025 dans l’Union européenne – dans un mois au Danemark et en Pologne –, votre rapporteur est préoccupé par le risque d’ingérences étrangères par l’entremise des réseaux sociaux.
1. L’usage offensif des réseaux sociaux pour déstabiliser les élections dans les pays européens
Depuis le début de la guerre en Ukraine, de nombreuses ingérences russes ont été suspectées. L’opération Doppelgänger, identifiée en 2022, est emblématique : cette campagne de désinformation vise à influencer l’opinion publique européenne et américaine avec des fausses informations diffusées via des faux comptes sur les réseaux sociaux et de faux sites se faisant passer pour des comptes de médias traditionnels (Le Monde, The Guardian...). L’opération « Matriochka », depuis 2023, fait état de modes opératoires similaires.
Le DSA n’est malheureusement pas parvenu à endiguer ces phénomènes, au contraire. De récents incidents électoraux en sont la preuve.
L’élection présidentielle roumaine de 2024 a ainsi pâti des manipulations de l’opinion opérées sur Tiktok. L’ascension soudaine d’un candidat prorusse, Călin Georgescu, ayant bénéficié d’une campagne massive sur TikTok, a suscité des soupçons d’ingérence étrangère. Ces actions ont conduit la Cour constitutionnelle roumaine à annuler le premier tour de l’élection pour préserver l’intégrité du processus électoral.
D’après un rapport de VIGINUM ([1]) du 4 février 2025, la visibilité artificielle du candidat sur la plateforme chinoise a été rendue possible par une manipulation coordonnée de l’algorithme de recommandations, via la publication massive de vidéos et commentaires comportant certains mots-clés. Si TikTok se défend d’avoir eu connaissance de ces manipulations, il est difficile de croire que la plateforme avait pu ne pas les détecter.
La Pologne, dont les élections présidentielles auront lieu en mai 2025, pourrait subir le même type d’actions. Le 2 avril 2025, le Premier ministre polonais Donald Tusk a dénoncé une cyberattaque, probablement d’origine russe, que son parti aurait subie à l’approche des élections présidentielles.
2. Le réseau social X doit faire l’objet d’une vigilance particulière
a. L’instrumentalisation politique du réseau social par Elon Musk
La politique de Twitter – désormais renommé X – a radicalement changé depuis que M. Elon Musk en est devenu propriétaire, en octobre 2022, et l’utilise pour asseoir sa propre conception de la liberté d’expression.
Alors que son propriétaire est désormais responsable du département de l’efficacité gouvernementale au sein de l’administration de M. Donald Trump, l’usage d’X comme un instrument d’influence au service de l’idéologie du président américain ne fait plus de doute.
Sous couvert d’une conception radicale de la liberté d’expression, M. Elon Musk assume de permettre l’expression aveugle de toutes les opinions, même les plus dangereuses. Les utilisateurs précédemment bannis de ce réseau social à la suite de propos extrémistes peuvent désormais s’y exprimer sans entraves. Le compte du général Mike Flynn, qui avait relayé de fausses informations sur l’attaque du Capitole, a ainsi été réactivé, de même que le compte du rappeur Kanye West qui avait publié des propos ouvertement antisémites. De nombreuses figures d’extrême droite en France et au Royaume-Uni ont bénéficié de la même complaisance.
À l’inverse, de nombreux comptes critiquant les prises de position de M. Elon Musk ont été suspendus. C’est le cas, en novembre 2022, de plusieurs comptes d’organisations « antifascistes » dont les propos auraient été constitutifs d’incitations à la haine.
M. Elon Musk retourne donc les concepts de la régulation européenne pour censurer abusivement des discours légitimes, tout en offrant une tribune à des discours inacceptables.
b. La réduction drastique des moyens de modération
Le réseau social X conduit de manière assumée une politique laxiste en termes de modération des contenus illicites.
En guise de politique sérieuse de modération, X a mis en place en 2023 des « community notes » : lorsqu’un message est jugé trompeur, d’autres utilisateurs peuvent proposer d’accoler une note à la publication initiale pour la corriger ou la nuancer, mais les règles d’admission de ces notes sont restrictives et peu transparentes, de sorte que peu de notes sont publiées – ou plusieurs jours après la diffusion du message concerné.
La plateforme ne supprime que quelques milliers de publications tous les mois, à comparer avec plusieurs dizaines de millions de suppressions sur Facebook et Instagram.
c. Une idéologie promue par l’administration Trump dans son ensemble
Le discours tenu par le vice-président américain James David Vance à Munich le 14 février 2025 illustre bien la volonté de ne pas respecter les règles européennes sur le numérique et plus largement les valeurs démocratiques de l’Union européenne.
Dans un mémorandum du 21 février 2025, M. Donald Trump a menacé d’imposer des représailles douanières aux États souhaitant imposer des « amendes injustes » aux plateformes américaines. À sa suite, le nouveau président de la commission fédérale des communications (FCC), M. Brendan Carr, a déclaré à Barcelone le 3 mars 2025 que le DSA était contraire à la liberté d’expression et aux « engagements pris par les entreprises en faveur de la diversité d’opinions ».
La nouvelle idéologie promue par l’administration Trump a infusé au sein de l’ensemble de l’écosystème des géants du numérique, sans se limiter au réseau social X : le fondateur de Meta, M. Mark Zuckerberg, qui s’exprimait il y a quelques années devant le Congrès américain en faveur d’un meilleur encadrement de la liberté d’expression, a radicalement changé de posture. Meta a mis fin à sa politique de modération active et préfère désormais, comme X, le modèle des « notes de communauté », dont l’efficacité est pourtant bien plus faible.
B. des PROCÉDURES d’enquÊte trop lentes qui tardent À aboutir À des rÈsultats concrets
Les manœuvres de désinformation massive à l’occasion des élections présidentielles roumaines de 2024 mettent en lumière les limites du DSA.
1. À ce jour, des enquêtes mais pas de sanctions
La Commission européenne a engagé seize enquêtes formelles pour manquement aux obligations définies par le DSA.
Le 17 janvier 2025, dans le contexte des élections allemandes et de la diffusion de contenus favorables au parti d’extrême droite « Alternative pour l’Allemagne », la Commission européenne a demandé au réseau social X de fournir des documents internes relatifs à son système de recommandation et a émis une injonction pour que soient conservés les documents relatifs aux modifications futures des algorithmes. Cette demande s’inscrit dans le cadre d’une enquête, ouverte en décembre 2023, relative aux obligations de modération des contenus et à l’utilisation d’outils d’intelligence artificielle générative par X.
Toutefois, aucune sanction n’a été encore prononcée au titre du DSA.
De même, en ce qui concerne les pratiques anticoncurrentielles, aucune sanction n’a été prononcée à ce jour au titre du DMA, même si des sanctions ont pu être prononcées en application du droit commun de la concurrence ([2]).
Votre rapporteur salue toutefois, dans l’attente de leurs résultats, les enquêtes initiées en mars 2025 par la Commission européenne concernant des violations potentielles du DMA par Apple, Google et Meta.
2. Des procédures d’enquête trop lentes, des réticences à prendre des mesures provisoires
L’absence de sanction prononcée à l’encontre du réseau social X, malgré une enquête ouverte depuis plus de quatorze mois, est symptomatique de la lenteur entre l’ouverture de la procédure d’enquête de la Commission européenne et la décision d’une éventuelle sanction.
Plusieurs facteurs peuvent expliquer cette lenteur :
– l’importance des moyens consacrés par les plateformes à leur défense : les plateformes s’entourent de conseils juridiques qui utilisent tous les leviers dilatoires dont ils disposent ;
– les réticences de la Commission européenne à recourir à des mesures provisoires (comme la suspension des activités d’un service), bien que les textes en prévoient en principe la possibilité ;
– un moindre volontarisme politique depuis le départ en septembre 2024 du commissaire européen Thierry Breton, qui était à l’origine du DSA et du DMA.
– enfin, le fait que la Commission européenne ne dispose sans doute pas de moyens humains et matériels suffisants pour rendre pleinement effectives ses prérogatives en matière de contrôle. D’après les auditions conduites par la commission des affaires européennes, la Commission européenne a collecté près de neuf milliards de données au titre des obligations de transparence des plateformes.
C. une proposition pour davantage de rigueur et de cÉlÉritÉ dans l’application des rÈglements europÉens
La proposition de résolution européenne (PPRE) formule neuf demandes, organisées autour de trois axes :
1. Renforcer la mise en œuvre du DSA et du DMA
Votre rapporteur considère qu’une réforme du droit européen n’est pas nécessaire : il suffirait de l’appliquer pleinement !
La proposition de résolution européenne demande à la Commission européenne :
– d’appliquer fermement et sans attendre le DSA, et de faire usage de l’intégralité des pouvoirs d’enquête dont elle dispose au titre des alinéas 67 et suivants du DSA en vue de sanctionner effectivement les plateformes contrevenantes (alinéa 26) ;
– de communiquer aux parlements nationaux l’état d’avancement des procédures d’enquête qu’elle a ouvertes à l’encontre des très grandes plateformes numériques (alinéas 27) ;
– de recourir aux mesures provisoires prévues par l’article 70 du DSA (alinéa 30).
2. Prendre des mesures spécifiques à l’égard de X
La PPRE demande également des mesures spécifiques contre X eu égard aux changements dans la gouvernance de la plateforme survenue depuis l’adoption du DMA et du DSA.
Il est ainsi demandé à la Commission :
– d’accélérer l’enquête formelle sur X ouverte le 18 décembre 2023 en application du DSA (alinéa 29) ;
– de conduire un nouvel examen de la situation de X afin que la plateforme puisse également être considérée comme un « contrôleur d’accès » au sens du DMA (alinéa 28) ;
– d’envisager la cession forcée d’une partie des parts de M. Elon Musk ou, à défaut, la suspension voire l’interdiction de X dans l’Union européenne (alinéas 32 et 33).
3. Élaborer une stratégie pour assurer une souveraineté numérique européenne
Enfin, la PPRE demande à la Commission européenne d’élaborer « une stratégie de développement des plateformes et infrastructures numériques souveraines au sein de l’Union » (alinéa 34), afin d’augmenter la résilience de l’Union européenne face aux risques d’ingérence étrangère.
Votre rapporteur souscrit pleinement à cette démarche. Il considère que la proposition de résolution adoptée par la commission des affaires européennes a bien identifié, pour cet axe comme pour les deux précédents, les demandes les plus pertinentes afin de prévenir les risques importants d’ingérences étrangères sur ces plateformes numériques.
D. Les améliorations apportées à la proposition de résolution européenne lors de son examen en commission
La Commission a adopté l’article unique de la proposition de résolution européenne, tout en y apportant une série d’améliorations résultant de l’adoption des amendements CE03, CE04, CE02, CE07, CE08, CE05 et CE01 du rapporteur :
– L’amendement CE03 a ajouté aux visas le DMA ;
– L’amendement CE04 a précisé que l’alinéa 27 ne porte que sur les procédures ouvertes au titre du DSA ;
– L’amendement CE02 a corrigé une erreur de référence juridique ;
– L’amendement CE08 a exprimé la volonté que la Commission européenne se dote de moyens humains et matériels plus importants pour faire respecter le DSA et le DMA ;
– Enfin, les amendements CE07 et CE05 étaient rédactionnels.
Au cours de sa réunion du mercredi 9 avril 2025, la commission des affaires économiques a examiné, sur le rapport de M. Laurent Lhardit, la proposition de résolution européenne rappelant l’urgence démocratique d’appliquer pleinement et entièrement le règlement européen sur les services numériques (n° 876 - texte de la commission des affaires européennes n° 1159-A0).
M. Pascal Lecamp, président. La proposition de résolution européenne rappelant l’urgence démocratique d’appliquer pleinement et entièrement le règlement européen sur les services numériques a été examinée au préalable par la commission des affaires européennes, sur le rapport de MM. Thierry Sother et Jérémie Iordanoff. Nous examinons ce soir le texte qu’elle a adopté, désormais intitulé proposition de résolution européenne « appelant à la régulation des réseaux sociaux face aux ingérences étrangères ». Notre commission a désigné M. Laurent Lhardit comme rapporteur. Si nous adoptons le texte, son inscription à l’ordre du jour de la séance publique pourra être demandée en Conférence des présidents dans les quinze jours suivant le dépôt du rapport de notre commission.
La régulation des services et des plateformes numériques ainsi que la prévention des ingérences étrangères sont des sujets majeurs. L’évolution des réseaux sociaux et celle du contexte international, marqué par l’augmentation des tensions, nous exposent à des risques croissants. Nous devons nous montrer plus vigilants et nous garder de toute naïveté quant aux pratiques de certains acteurs économiques et de certains États : il y va de l’avenir de notre économie, de notre jeunesse et de la démocratie.
M. Laurent Lhardit, rapporteur. La présente proposition de résolution vise à renforcer la régulation des réseaux sociaux. En effet, les menaces se multiplient, notamment les tentatives d’ingérences étrangères dans les processus électoraux. Je remercie Thierry Sother, auteur du texte, et son corapporteur Jérémie Iordanoff pour leurs travaux.
La législation européenne régulant les contenus en ligne se fonde sur un socle de valeurs partagées par tous les pays de l’Union : la liberté d’expression est bornée par le respect des droits fondamentaux, qui proscrivent l’incitation à la haine et la diffamation, et par la nécessité de préserver l’ordre public.
La propagation de fausses informations sur les réseaux sociaux présente un risque pour la démocratie. C’est pourquoi la présente proposition de résolution tend à demander à la Commission de renforcer la régulation des services numériques. Avec le règlement sur les services numériques (DSA) et le règlement sur marchés numériques (DMA), adoptés en 2022, elle dispose d’un arsenal juridique spécifique à même d’endiguer la prolifération des contenus illicites et la désinformation, et de lutter contre le pouvoir économique excessif des « contrôleurs d’accès » en situation de quasi-monopole.
Plus d’un an après leur entrée en vigueur, ces règlements sont loin d’avoir atteint les objectifs fixés. Pourtant, le temps presse. Encore récemment, de nombreuses ingérences étrangères menées par l’entremise des réseaux sociaux ont porté atteinte à la souveraineté et à la démocratie de nos voisins européens. Je ne parle pas de théories du complot mais de faits documentés. Il y a quelques mois, la Cour constitutionnelle de Roumanie a dû annuler les résultats du premier tour de l’élection présidentielle à la suite de manœuvres massives menées sur TikTok pour favoriser le candidat pro-russe.
Nous devons nous inquiéter du risque d’ingérences étrangères dans les processus électoraux européens. Plusieurs élections importantes auront lieu cette année, notamment en Pologne le mois prochain, dans un contexte international marqué par la guerre en Ukraine. La Pologne a déjà été la cible de plusieurs cyberattaques russes ; il est certain que d’autres opérations de même nature sont en préparation.
Au-delà des cyberattaques, plusieurs campagnes de désinformation ont tenté d’influencer l’opinion publique ; le DSA n’a pas permis de les endiguer. Les inquiétudes sont d’autant plus fortes que le propriétaire de X est devenu un militant et un acteur de l’idéologie illibérale de la nouvelle administration américaine, un défenseur de puissances politiques qui s’assoient sur le droit international et soutiennent, partout en Europe, des formations prêtes à trahir les valeurs essentielles de l’Union européenne et de leur propre pays. X est ainsi devenu un instrument d’influence ; sous couvert de liberté d’expression, la modération et la régulation en ont presque disparu. M. Elon Musk retourne les concepts de la régulation européenne : il censure les discours légitimes en laissant proliférer des bots qui les discréditent, tout en offrant une tribune à des discours inacceptables d’incitation à la haine – antisémitisme, racisme, homophobie : tout y passe.
Plusieurs enquêtes ont été ouvertes pour manquement aux obligations définies par le DSA, mais elles avancent lentement, ce qui soulève la question des moyens dont la Commission dispose pour enquêter. Le danger et l’urgence sont tels que les réticences à prendre rapidement des mesures à l’encontre des grandes plateformes sont incompréhensibles.
La présente proposition de résolution européenne appelle donc à mobiliser pleinement et immédiatement les instruments dont l’Union européenne dispose, en particulier le DSA et le DMA, pour protéger nos démocraties et défendre notre souveraineté, nationale et européenne. Son article unique exprime clairement nos demandes. Nous voulons l’application renforcée des règlements des services numériques et de tous les mécanismes d’avertissement, de conciliation, de contrainte et de sanction, c’est-à-dire l’application stricte du droit européen.
Nous appelons également à prendre des mesures spécifiques contre le réseau social X, devenu un outil dangereux pour la démocratie.
Enfin, nous sollicitons l’élaboration d’une stratégie visant à garantir la souveraineté numérique européenne. Les trois quarts des citoyens européens se déclarent utilisateurs réguliers des réseaux sociaux : ils doivent pouvoir faire leurs choix démocratiques sans subir les tentatives de manipulation ou d’influence d’outils transformés en marionnettes par des puissances étrangères qui cherchent à déstabiliser nos démocraties.
Pour toutes ces raisons, je vous invite à voter cette proposition de résolution européenne.
M. Pascal Lecamp, président. Nous en venons aux interventions des orateurs des groupes.
M. Robert Le Bourgeois (RN). « Pas de liberté pour les ennemis de la liberté. » La phrase de Saint-Just, célèbre et inquiétante, aurait pu servir de sous-titre à la présente proposition de résolution européenne, qui vise en réalité à porter un coup supplémentaire à la liberté d’expression dans la sphère numérique, au nom d’une éthique dont on peine à percevoir la nature et les contours exacts – à moins qu’on ne les perçoive que trop bien. Loin de nous de souhaiter qu’internet et les réseaux sociaux soient une jungle incontrôlée, mais il est inacceptable de stigmatiser des plateformes, notamment X, nommément citée dans le texte, dans l’unique but non de lutter contre d’éventuelles fake news mais de verrouiller l’accès à ces espaces d’échanges d’opinion.
Ce texte n’est qu’un paravent ; le DSA lui-même est problématique : le montant des amendes applicables aux plateformes, faramineux – jusqu’à 6 % du chiffre d’affaires mondial, constitue un outil de dissuasion massive, un système de censure préventive, qui semble vous convenir parfaitement. Au regard de nos principes fondamentaux, en premier lieu la liberté d’expression, c’est inadmissible. La présente proposition de résolution européenne représente assez bien la pente dangereuse sur laquelle l’Europe et vous-mêmes glissez lentement mais sûrement : les institutions européennes se caractérisent de plus en plus par leur fonctionnement antidémocratique, à commencer par la Commission européenne elle-même, qui s’arroge des pouvoirs exorbitants, au mépris de la volonté populaire. Au nom de la défense de la liberté d’expression, à laquelle tant de Français et d’Européens sont légitimement attachés, les membres de notre groupe ne soutiendront pas ce texte.
« Messieurs les censeurs, bonsoir ! »
M. Laurent Lhardit, rapporteur. Vous avez cité Saint-Just ; je vous répondrai avec les mots d’un homme politique contemporain : « […] il faut être extrêmement attentif [au] pouvoir de l’argent et vigilant sur les agissements de milliardaires ou de chefs d’entreprise, car nul ne doit être au-dessus des lois. Les seuls décisionnaires doivent rester les peuples. [Il faut] bien sûr veiller à la neutralité des algorithmes, dont le rôle n’est pas d’encourager des valeurs ou des opinions ». Ce sont ceux du président du Rassemblement national, Jordan Bardella.
M. Stéphane Vojetta (EPR). Les grandes plateformes numériques ont pris une place prépondérante dans les relations humaines ; elles ont une influence essentielle sur notre rapport au monde. Elles infléchissent nos choix de vie et de consommation, ainsi que nos orientations démocratiques. Elles sont californiennes, chinoises ou russes : jamais la France ni l’Europe n’ont été capables de faire émerger des solutions telles qu’une grande majorité les adopte. Pour y parvenir, il aurait fallu y mettre les moyens, avoir une vision à long terme et la capacité de surmonter les difficultés dans le temps long, ainsi qu’un marché d’une taille suffisante. Or, nos start-up restent nationales : nous échouons à construire des concurrents européens à Facebook, à Google et aux autres plateformes numériques.
Il est donc essentiel de réguler ces plateformes : si nous leur avons ouvert grand les portes de notre continent, nous ne devons pas leur céder notre autonomie, notre liberté de choix ni notre souveraineté. Ce sont des mastodontes – leur capitalisation boursière équivaut à plusieurs fois le PIB de l’Union européenne ou des États-Unis : il faut organiser la régulation à l’échelle européenne. D’abord, une action concertée est nécessaire pour établir les règles d’accès au marché commun. Ensuite, les grandes plateformes, cherchant à diviser pour mieux régner, comptent sur le morcellement des règles.
Les débats sur les tarifs douaniers révèlent que si la balance commerciale est favorable à l’Union européenne concernant les produits, elle penche largement du côté des États-Unis s’agissant des services numériques, ce qui renforce notre position de négociation dans le domaine qui nous occupe. Mais il faudra nous montrer fermes, surtout après avoir entendu, il y a quelques semaines, Mark Zuckerberg se réjouir de l’arrivée au pouvoir de Donald Trump, au motif qu’il les aiderait à lutter contre les amendes de plusieurs milliards imposées par l’Europe, ou le vice-président J. D. Vance conditionner le financement de l’Otan à un prétendu respect de la liberté d’expression en Europe. Non, monsieur Zuckerberg ! En Europe, les règles sont claires : le DSA s’applique et, comme dirait l’autre, « si tu casses, tu paies ». Sachez, monsieur Vance, qu’en Europe, la liberté d’expression ne donne pas le droit de manipuler, ni celui de s’ingérer dans les élections ; réservée aux humains, elle ne concerne pas les robots, en particulier quand ils visent la subversion de nos démocraties.
Notre message est simple : les peuples d’Europe ont voté ; leurs élus ont légiféré, définissant les règles du jeu applicables chez nous. Il est temps qu’elles s’appliquent ; il y va de la démocratie, de nos valeurs, de notre capacité d’agir collectivement dans l’espace informationnel et, tout simplement, de l’utilité de se déplacer pour voter. Le groupe Ensemble pour la République soutient donc cette proposition de résolution européenne.
M. Laurent Lhardit, rapporteur. Je partage largement vos propos. Ce n’est pas l’objet du texte, mais nous devons également nous interroger sur la capacité de l’Europe à produire des outils respectueux de ses propres règles. Nous parlons d’importations d’outils performants ; on m’a suggéré hier une analogie intéressante : le marché européen des voitures électriques a été largement conquis par les Chinois, mais les véhicules étrangers qui roulent en Europe respectent les réglementations qui y sont applicables. Cette proposition de résolution vise à faire appliquer la loi votée.
M. Aurélien Saintoul (LFI-NFP). Nous partageons vos constats : les ingérences en Roumanie ; l’affaire Cambridge Analytica, la manipulation qui au Royaume-Uni a abouti au Brexit ; la suppression des règles de modération sur les plateformes de Meta et sur X ; les propos d’Elon Musk et ses tentatives ouvertes d’influencer le scrutin allemand il y a un mois seulement ; la menace que représentent Elon Musk et le président des États-Unis, le premier travaillant étroitement avec le second. Ces ingérences sont les symptômes d’un conflit larvé qui ne dit pas son nom et dont les instruments sont les réseaux sociaux et les plateformes, pour la plupart détenus par des oligarques américains qui ont juré obéissance à l’agenda réactionnaire de Donald Trump. Loin d’être neutres, ces derniers sont désireux, et capables, d’exercer sur notre société une influence indue, contraire au principe démocratique fondamental qui veut que les citoyens s’informent, communiquent, délibèrent et votent librement, et non sous la coupe de quelques tuteurs.
Néanmoins, je ne pense pas que la présente proposition de résolution constitue un remède à même de soigner le mal. Vous semblez croire que l’application du DSA orientera le rapport de force en notre faveur lors des affrontements, en cours et à venir. Mais nous ne devrions pas déléguer à l’Union européenne le soin de veiller à notre propre indépendance. C’est à nous de nous en charger, en premier lieu au niveau national ; nous devons convoquer les responsables des grandes plateformes devant la représentation nationale et leur demander des explications.
Par ailleurs, vous semblez hésiter quant à l’attitude qu’il convient d’adopter vis-à-vis des États-Unis ; tout en parlant de retrouver l’indépendance de la France, vous réitérez votre volonté de « préserver nos liens » avec eux. Nous préférons le non-alignement.
J’ai moi-même déposé une proposition de résolution tendant à la création d’une commission d’enquête relative aux ingérences provenant de multinationales du numérique. En effet, pas plus que l’exécutif, le Parlement ne doit laisser la main à la Commission européenne ; nous devons avancer ensemble, de front, jouer pleinement notre rôle, pour nous assurer que ceux qui prétendent faire des affaires en France respectent le droit et la souveraineté populaire. Je vous invite à la voter.
M. Laurent Lhardit, rapporteur. Nous partageons le même constat. Je pense que nous sommes tous d’accord pour demander la pleine application des règlements européens – c’est l’objet du texte, qui tend également à interroger la Commission sur les moyens qu’elle y consacre. En effet, les enquêtes supposent de collecter des quantités pharaoniques de données : de quels moyens dispose-t-elle pour les traiter intelligemment ?
Ce sujet me passionne ; je vous promets de regarder de près votre proposition de résolution.
M. Thierry Sother (SOC). J’ai engagé le travail de rédaction du présent texte juste après l’annulation d’un scrutin en Roumanie. Lors de l’élection présidentielle, une opération de haute technicité avait été montée pour que la démocratie échappe aux Roumains. Le service de vigilance et de protection contre les ingérences numériques étrangères (Viginum) a richement documenté l’itinéraire de cette catastrophe. Notamment liée à TikTok, celle-ci a impliqué 130 influenceurs rémunérés, 10 000 comptes pro-russes activés simultanément, du contenu coordonné sur des boucles Telegram, un usage probable de bots et des méthodes opératoires très techniques. Pour vous représenter l’efficacité de l’ingérence, sachez qu’un candidat qui n’a déclaré aucune dépense de campagne et était crédité de 1 % des intentions de vote quatre semaines avant le scrutin, est arrivé en tête de l’élection. TikTok, qu’un Roumain sur deux utilise, n’a pas considéré ce candidat comme une personnalité politique, ce qui lui a permis d’échapper aux règles qui s’appliquent à ces personnalités ; la plateforme n’a vérifié aucun compte et n’a lancé aucune alerte sur ce qui était en train de se passer.
Malheureusement, tant que nous ne réagirons pas, les plateformes continueront à jouer un rôle dans les ingérences étrangères menées contre les démocraties européennes. En vertu des règlements, largement adoptés au Parlement européen, elles sont responsables de la modération des contenus, mais elles enfreignent allègrement la loi. Prenons l’exemple de X : Elon Musk a été le télégraphe de l’annexion du Groenland, il a soutenu la campagne de l’extrême droite en Allemagne, il a insulté le gouvernement polonais, il a pris la tête d’une grande vague de désinformation sur le Premier ministre britannique – il est le porte-parole en devenir d’une internationale réactionnaire. On a les preuves que les algorithmes ont été modifiés pour être placés à son service et à celui de ses soutiens.
De cette exposition, il ne fait rien de bon : il a relayé dix-sept récits mensongers répertoriés dans la base de NewsGuard ; il interdit aux chercheurs d’étudier son réseau social, contrevenant ainsi au DSA ; pire, on sait que depuis qu’il en a pris le contrôle, X est de plus en plus biaisé – vous pouvez choisir vos abonnements, mais la plateforme vous fera des recommandations dont les contenus sont 50 % plus toxiques. Un réseau social devrait être un espace de débat, non la courroie de transmission des arguments de la Maison-Blanche ou du Kremlin.
On nous a reproché de vouloir préparer le terrain avant d’annuler des élections ou de restreindre la liberté d’expression. Au contraire, nous voulons garantir cette dernière. Que vaut le débat public s’il est pollué par des polémiques montées de toutes pièces, qui ne reposent sur aucun fait ? À quoi bon échanger des points de vue sans savoir si c’est avec un robot ou avec un humain ? Permettrons-nous à d’autres de décider quels candidats seront vus sur les réseaux sociaux et lesquels n’émergeront jamais ? Pour quelques milliers d’euros, n’importe qui peut mettre à l’ordre du jour des débats le thème de son choix en le faisant exploser sur les réseaux sociaux ; c’est une fragilité que nous ne pouvons prendre à la légère. Ce qui est interdit dans la société doit l’être sur ces réseaux et sur les plateformes numériques. Il est essentiel que tous respectent les règles.
M. Laurent Lhardit, rapporteur. Je partage largement votre propos. Vous avez cité deux exemples très parlants : celui de l’élection roumaine révèle l’influence de TikTok ; celui de X soulève la question du statut de ce que nous appelons encore un réseau social, mais qui est désormais un support d’information d’opinion, orienté.
M. Jérémie Iordanoff (EcoS). Longtemps perçus comme de nouveaux espaces de liberté et d’information, les réseaux sociaux sont désormais toxiques. À mesure qu’ils deviennent prescripteurs de l’opinion publique, ils sont investis par les acteurs de l’influence ; certaines puissances étrangères qui nous sont hostiles en ont fait un terrain de jeu. Les plateformes numériques sont progressivement devenues des géants de l’information ; leur pouvoir est immense et leur modèle économique, fondé sur la captation de l’attention et la viralité des contenus, favorise les messages haineux et trompeurs, ainsi que les fausses informations. Cela provoque la polarisation du débat public. Pire, en utilisant des robots et en coordonnant des actions, des acteurs extérieurs peuvent se servir des algorithmes pour amplifier certains contenus, à des fins de déstabilisation ou de propagande. Les algorithmes peuvent même être modifiés de l’intérieur pour favoriser certaines opinions. Ainsi, le premier tour de l’élection présidentielle roumaine de 2024 a été invalidé après une intense opération étrangère de manipulation de l’information en faveur du candidat d’extrême droite pro-russe. Ce cas, documenté par Viginum, est loin d’être isolé.
L’internationale réactionnaire qui va de Trump à Poutine s’est emparée de ces outils pour déstabiliser l’Europe et soutenir l’extrême droite. Dans ce paysage, la plateforme X joue un rôle central. Depuis qu’Elon Musk en est propriétaire, elle a délibérément affaibli les protections contre la désinformation : l’algorithme de mise en avant a été modifié, la modération a été réduite à peau de chagrin, la plateforme est devenue le relais assumé des théories complotistes et son propriétaire lui-même est intervenu en Europe dans plusieurs élections récentes, en Allemagne et au Royaume-Uni notamment. Désormais, elle défend un projet politique davantage que ses intérêts économiques ; en outre, elle sert de bras armé à la politique étrangère du président des États-Unis, dont nous constatons chaque jour tout le bien qu’il nous veut.
Pour ces raisons, Thierry Sother et moi avons déposé la présente proposition de résolution européenne. Nous voulons faire pression sur la Commission européenne pour qu’elle applique avec plus de célérité et de fermeté le règlement sur les services numériques, son principal outil en la matière. Il faut résoudre ce problème avant les élections de 2027. Il n’est plus l’heure d’attendre, il y va de notre démocratie et de notre souveraineté.
Monsieur Le Bourgeois, je crois que vous avez fait un contresens : relisez Saint-Just. De plus, vous omettez de parler de démocratie et de souveraineté. Dans un pays souverain, on ne peut se permettre de laisser piloter le débat public au Kremlin ou à la Maison-Blanche ; le débat public doit être sincère si nous ne voulons pas nous laisser voler les élections.
Monsieur Saintoul, nous estimons que la réponse doit être européenne, ce qui n’empêchera pas la France de prendre le relais en cas de carences au niveau européen. Par ailleurs, je vous rassure : ce texte n’implique aucun alignement sur les États-Unis.
M. Laurent Lhardit, rapporteur. Deux questions se posent. L’une concerne la volonté des institutions européennes d’appliquer pleinement les règlements, l’autre les moyens qu’elles entendent y consacrer. Nous avons récemment examiné la proposition de loi visant à sortir la France du piège du narcotrafic : ce dernier dispose aujourd’hui en France de 6 milliards d’euros de revenus, c’est-à-dire la moitié du budget de la police nationale, qui compte 150 000 fonctionnaires. Le problème est comparable. Sachant la puissance des plateformes dont nous parlons, peut-on considérer que la Commission européenne se donne les moyens de ses ambitions ?
M. Philippe Latombe (Dem). Alors que l’Europe fait face à une multiplication des ingérences étrangères, la proposition de résolution européenne que nous examinons souligne l’urgence qui s’attache, au regard des exigences démocratiques, à la pleine application du règlement sur les services numériques adopté en 2022 par le Parlement européen et le Conseil. Le texte entend responsabiliser les grandes plateformes numériques face aux menaces croissantes pesant sur les démocraties européennes, en appelant à une action concertée des États membres et de la Commission européenne pour garantir la souveraineté numérique de l’Union européenne et protéger ses valeurs fondamentales. La menace est accentuée par la réélection de Donald Trump, qui soutient activement un modèle numérique dérégulé, aux antipodes du modèle européen.
Si la question de la protection contre les ingérences étrangères et celle, distincte, du rapport de force avec les États-Unis, dans un contexte de tensions, peuvent se poser, il importe d’agir de manière fine afin d’éviter tout effet contreproductif. Le texte s’assigne des objectifs louables, mais souffre de deux défauts majeurs à nos yeux. D’abord, il ne devrait pas contenir de demandes portant sur le contenu des enquêtes en cours sur X, les décisions en la matière relevant de la seule responsabilité de la Commission. Mieux vaut d’ailleurs ne pas s’engager dans une opposition frontale aux grandes plateformes et dans une forme de surenchère alors que des négociations bilatérales pourraient s’ouvrir avec les États-Unis, dont les critiques visent spécifiquement la réglementation européenne, autrement dit le DSA et le DMA.
Ensuite, la cession des parts de capital de certaines plateformes à hauteur de leur activité en Europe ne semble pas entrer dans le champ du DSA, qui prévoit déjà des sanctions importantes en cas de manquements répétés. Le DSA représente, à nos yeux, un point d’équilibre européen pertinent. Un texte spécifique sur la cession des parts de capital pourrait se heurter au droit de propriété, garanti par la Charte des droits fondamentaux, et à l’indemnisation que cette dernière prévoit dans le cas où il serait porté atteinte à ce droit. L’Union devrait alors, potentiellement, racheter des parts et compenser ce rachat, ce qui serait contre-productif.
Pour l’ensemble de ces raisons, nous ne pourrons pas soutenir la proposition de résolution européenne, même si nous en comprenons l’intention.
M. Laurent Lhardit, rapporteur. La question d’une éventuelle cession de parts ne relève pas du DSA mais du DMA, qui privilégie une logique de lutte contre les pratiques anticoncurrentielles. Le droit de la concurrence permet déjà de casser un monopole dès lors qu’un groupe dépasse une certaine taille et abuse de sa position. Vos objections ne me paraissent pas tout à fait fondées.
M. Pascal Lecamp, président. Nous en venons aux interventions individuelles.
M. Jérémie Iordanoff (EcoS). Monsieur Latombe, à ma connaissance, le DMA traite de la question des cessions de parts. Face à la menace directe à laquelle nous sommes confrontés, je ne vois pas pourquoi nous n’agirions pas. Aux États-Unis, on demande à TikTok de céder des parts. En présence d’un enjeu de souveraineté, pourquoi ne se donnerait-on pas les moyens d’aller jusqu’au bout ?
M. Laurent Lhardit, rapporteur. J’irai dans le même sens. Les États-Unis prônent un modèle économique dérégulé mais, en pratique, ils savent très bien imposer des normes lorsque c’est nécessaire. Ils appliquent d’ailleurs des règles extraterritoriales à leurs entreprises situées à l’étranger, qui s’y conforment strictement.
M. Thierry Sother (SOC). Je ferai mien l’état d’esprit de Thierry Breton, ancien commissaire européen, que nous avons auditionné la semaine dernière au sein de la commission des affaires européennes. Dans le cadre du dialogue commercial musclé que nous entretenons actuellement avec les États-Unis, en particulier sur les droits de douane, il lui paraît essentiel que la souveraineté territoriale de l’ensemble des pays européens soit respectée et que tous les partenaires se conforment aux règlements et aux lois des pays dans lesquels ils souhaitent faire du commerce. Or, nous demandons précisément que les entreprises qui souhaitent exercer leur activité dans l’espace commercial européen respectent le DSA et le DMA.
M. Stéphane Vojetta (EPR). À titre personnel, j’amenderai les dispositions relatives au rachat éventuel de participations des grandes plateformes. En effet, compte tenu des valeurs de marché de ces entreprises, l’acquisition d’une participation, même très minoritaire, nous conduirait à dépenser des sommes folles. Dans l’hypothèse même où nous aurions cet argent, il serait plus intéressant de l’employer pour bâtir des technologies propres et souveraines en Europe que de contribuer à la réalisation de plus-values par les milliardaires américains, chinois ou russes. Favorisons l’investissement des Européens dans la tech européenne.
M. Laurent Lhardit, rapporteur. Ce qui est visé ici, ce n’est pas le rachat par des États mais la cession forcée sur un marché concurrentiel. Compte tenu des évolutions très brutales des valorisations boursières, mieux vaut laisser faire le marché. L’idée est de forcer un opérateur à céder une partie de ses parts : là s’arrête l’action publique. Il revient ensuite au marché d’apporter une réponse.
Article unique
Amendement CE3 de M. Laurent Lhardit
M. Laurent Lhardit, rapporteur. Cet amendement vise à ajouter le DMA à la liste des textes visés, le DSA y figurant déjà.
La commission adopte l’amendement.
Amendement CE4 de M. Laurent Lhardit
M. Laurent Lhardit, rapporteur. Cet amendement vise à apporter une précision juridique à l’alinéa 27, qui porte sur le seul DSA.
M. Philippe Latombe (Dem). Il faut adopter cette disposition car elle donne sa cohérence à celle qui vient d’être votée.
La commission adopte l’amendement.
La commission adopte successivement les amendements rédactionnels CE2 et CE7 de M. Laurent Lhardit, rapporteur.
Amendement CE8 de M. Laurent Lhardit
M. Laurent Lhardit, rapporteur. Comme le montre le rapport, la lenteur des procédures d’enquête et le manque de résultats obtenus s’expliquent en partie par l’insuffisance des moyens de la Commission face à la quantité d’informations qu’elle doit traiter. Il convient donc d’accroître les moyens mis à sa disposition pour faire réellement appliquer le DMA et le DSA. Nous proposons donc d’insérer, après l’alinéa 29, un nouvel alinéa ainsi rédigé : « […] Souhaite que la Commission européenne dispose de moyens humains et matériels plus importants pour faire respecter le règlement sur les services numériques et le règlement sur les marchés numériques ».
La commission adopte l’amendement.
Elle adopte l’amendement rédactionnel CE5 de M. Laurent Lhardit, rapporteur.
Amendement CE6 de M. Laurent Lhardit
M. Laurent Lhardit, rapporteur. Cet amendement vise à préciser que les cessions forcées à un tiers ne s’appliquent qu’aux propriétaires de plateformes en situation de conflit d’intérêts.
M. Jérémie Iordanoff (EcoS). La question est de savoir comment caractériser le conflit d’intérêts. On parle ici d’une mesure de dernier recours qui réprime le non-respect des règles et l’atteinte à la souveraineté des États. Dans l’hypothèse où une plateforme ferait peser une menace sur notre souveraineté, serait-il envisageable que nous n’utilisions pas cet outil au motif que nous n’avons pas caractérisé de conflit d’intérêts ?
M. Philippe Latombe (Dem). Je partage pleinement ce point de vue. Que doit-on entendre par un engagement au service d’un gouvernement étranger ? Peut-on considérer qu’un tel engagement est caractérisé dans le cas où le propriétaire d’une plateforme finance la campagne d’un candidat à l’élection présidentielle américaine qui est élu ? Selon le droit européen, c’est un organe juridictionnel qui devrait en décider et non la Commission européenne. Votre ajout fragiliserait encore plus le texte qui est déjà, à nos yeux, inopérant sur la partie relative à la cession de parts.
M. Stéphane Vojetta (EPR). Parle-t-on de la cession forcée de la participation actionnariale dans l’entreprise ou bien de celle d’une entité, par exemple de la filiale européenne d’un groupe ?
M. Laurent Lhardit, rapporteur. L’amendement vise simplement à ajouter la condition du conflit d’intérêts qui résulte, par exemple, de l’engagement d’une entité au service d’un gouvernement étranger.
M. Stéphane Vojetta (EPR). La cession forcée est totalement illusoire, qu’elle concerne des actions de la société mère, telle que X, Google ou Meta, ou un business européen – qui n’existe pas, en tant que tel, dans l’actif et le passif de ces sociétés. Il est irréaliste de penser qu’on réussirait à organiser un marché grâce auquel on identifierait des investisseurs prêts à acheter ces actifs ou ces actions. Je peine à comprendre le sens de cette mesure. Je serai défavorable à l’amendement.
M. Jérémie Iordanoff (EcoS). L’idée est d’imposer la cession des activités en Europe, de la même manière que le président américain demande à TikTok de céder ses activités aux États-Unis. L’alinéa 32, dont la rédaction peut faire l’objet de discussions, évoque la cession de « parts de capital [de ces plateformes] correspondant à leurs activités européennes, à un tiers n’étant pas placé en situation de conflit d’intérêts ». Cette précision relative au conflit d’intérêts me paraît être un argument supplémentaire pour ne pas retenir l’amendement.
La commission rejette l’amendement.
Elle adopte l’amendement rédactionnel CE1 de M. Laurent Lhardit, rapporteur.
La commission adopte l’article unique modifié.
L’ensemble de la proposition de résolution européenne est ainsi adopté.
([1]) Le service de vigilance et protection contre les ingérences numériques (VIGINUM) est rattaché au secrétariat général de la défense et de la sécurité nationale (SGDSN).
([2]) En novembre 2024, une amende de 797 millions d’euros a été imposée à Meta pour avoir lié son service de petites annonces en ligne (Facebook Marketplace) à son réseau social principal.