Compte rendu
Commission
des affaires étrangères
– Table ronde, ouverte à la presse, sur les défis posés par le nouvel environnement numérique et technologique aux démocraties occidentales, avec la participation de M. Vincent Champain, président de l’Observatoire du long terme, M. Gilles Babinet, entrepreneur et coprésident du Conseil national du numérique, et M. Laurent Guimier, journaliste, responsable des enjeux d’avenir et d’innovation dans le groupe CMA Média 2
– Informations relatives à la commission.....................27
Mercredi
4 juin 2025
Séance de 9 heures
Compte rendu n° 69
session ordinaire 2024-2025
Présidence
de M. Bruno Fuchs,
Président
— 1 —
La commission auditionne, dans le cadre d’une table ronde consacrée aux défis posés par le nouvel environnement numérique et technologique aux démocraties occidentales, M. Vincent Champain, président de l’Observatoire du long terme, M. Gilles Babinet, entrepreneur et coprésident du Conseil national du numérique, et M. Laurent Guimier, journaliste, responsable des enjeux d’avenir et d’innovation dans le groupe CMA Média.
La séance est ouverte à 9 h 00.
Présidence de M. Bruno Fuchs, président.
M. le président Bruno Fuchs. Notre ordre du jour appelle ce matin la tenue d’une table ronde sur les défis posés par le nouvel environnement numérique et technologique aux démocraties occidentales.
Deux membres de notre commission, Mme Laetitia Saint-Paul et M. Alain David, travaillent actuellement sur l’impact de l’intelligence artificielle (IA) dans les ingérences étrangères, dans la perspective d’un rapport attendu pour l’automne, et cette table ronde s’inscrit dans la continuité de celle qui s’est tenue le 5 février dernier sur les ingérences étrangères dans les processus démocratiques. Nous approfondirons aujourd’hui ces questions en nous appuyant sur le rapport de l’Observatoire du long terme au titre éloquent : Manipulation et polarisation de l’opinion : réarmer la démocratie pour sortir du chaos.
À l’heure du numérique et de l’intelligence artificielle, ce rapport tire la sonnette d’alarme sur notre démocratie, qui est fragilisée dans ses fondements mêmes. Le numérique a démultiplié la capacité de chacun à s’exprimer, ce qui présente un progrès, mais il a aussi ouvert la porte à des phénomènes massifs de manipulation, souvent invisibles et très efficaces : informations virales, biais de diffusion, propagande algorithmique, fake news diffusées par des bots et ingérences étrangères à grande échelle.
Ces dérives ne sont pas anecdotiques et menacent la capacité des citoyens à former un jugement éclairé, condition essentielle d’un vote libre et informé. Le cœur du contrat démocratique – une personne, une voix – est également mis en danger par des systèmes où ceux qui payent – ou trichent – ont plus de poids que les autres.
Pire encore, les logiques de polarisation affaiblissent la cohésion sociale, les algorithmes amplifient la colère, la peur, l’indignation, car ces émotions retiennent l’attention et enferment les individus dans des bulles d’opinion. Résultat : une société de plus en plus fracturée, un débat public de moins en moins rationnel et une perte de confiance dans les institutions.
La démocratie, qui repose sur un échange d’idées, le respect des faits et la confrontation apaisée des opinions, est ainsi attaquée dans son fonctionnement même. Ce rapport appelle à une prise de conscience urgente face à de telles menaces. Il ne suffit pas de veiller ou de punir, il faut repenser l’espace public numérique, renforcer la résilience démocratique et remettre les citoyens au cœur du jeu démocratique, en les rendant informés, armés et capables d’exercer pleinement leur liberté d’expression, sans subir celle des machines ou des intérêts opaques.
Voilà pour cette présentation qui, bien sûr, a été réalisée par une intelligence artificielle, et je m’empresse de demander à nos invités si elle est fidèle à l’esprit de leur rapport. S’agit-il d’un bon résumé ?
Les intervenants acquiescent.
M. le président Bruno Fuchs. Je m’en réjouis. Avant de vous entendre, messieurs, et pour nous plonger en quelque sorte dans l’ambiance, je vous propose de visionner une petite vidéo fabriquée en quelques minutes par quelqu’un qui n’est absolument pas un spécialiste de l’IA.
Une vidéo est projetée.
M. le président Bruno Fuchs. Je précise à nouveau que cette vidéo a été réalisée en quelques minutes à l’aide d’une intelligence artificielle et ne contient aucun élément réel.
Il est temps pour moi de présenter les participants à cette table ronde.
M. Vincent Champain, vous présidez l’Observatoire du long terme. Votre carrière a commencé au ministère des finances en 1996, puis vous êtes devenu le conseiller économique d’Élisabeth Guigou, alors ministre de l’emploi, de la santé et de la solidarité. En 2007, vous avez dirigé le cabinet d’Éric Besson, secrétaire d’État à la prospective, à l’évaluation des politiques publiques et au développement de l’économie numérique. Après diverses expériences professionnelles, vous avez occupé le poste de directeur général de GE Digital Services Europe, puis rejoint Framatome en 2019 en tant que senior executive vice-president. Vous avez été élu stratège des technologies de l’information en 2024.
Je tiens à préciser que j’ai personnellement suggéré que ce think tank s’exprime devant notre commission. Je le connais très bien pour en être l’un des co-fondateurs en 2012, et j’ajoute que je siège toujours à son conseil d’administration, comme dans de nombreuses autres associations ou institutions, mais sans y exercer aucune fonction exécutive.
M. Vincent Champain, président de l’Observatoire du long terme. Je m’exprime devant vous aujourd’hui en ma qualité de président-fondateur de l’Observatoire du long terme mais j’ouvre mon propos en faisant référence à une précédente expérience professionnelle.
En 2007, j’ai eu la responsabilité de réorganiser la fonction prospective de l’État autour de trois principes fondamentaux. Premièrement, nous avons adopté une approche à la fois scientifique, basée sur des faits, et opérationnelle, afin d’identifier des solutions concrètes ; nos commissions étaient codirigées par un universitaire et un dirigeant opérationnel. Deuxièmement, nous avons cherché à nous affranchir des clivages politiques : bien que lancée par un gouvernement de droite, l’initiative a été présidée par Jacques Delors, une figure de gauche et nous avons invité tous les groupes parlementaires des deux assemblées à participer à l’exercice. Troisièmement, nous avons voulu nous libérer des contraintes du court terme et de l’incrémentalisme : notre méthode consistait à imaginer des solutions à long terme, en partant d’une page blanche, avec l’intérêt général comme seule boussole, puis à définir le chemin pour y parvenir. Bien que ce travail ait été salué, sa mise en œuvre est restée limitée, notamment en raison du manque de débat sur les enjeux de long terme dans l’espace public. Alimenter ce débat, c’est précisément la mission que s’est donnée l’Observatoire du long terme.
Pourquoi avons-nous choisi ce sujet de la manipulation et de la polarisation de l’opinion ? Son importance s’est considérablement accrue ces dernières années. Nous avons en effet observé une multiplication des cas de manipulation de l’information en France et à l’étranger, que notre rapport recense de manière exhaustive. Nous constatons également une attitude de plus en plus passive des grandes plateformes numériques, particulièrement depuis les dernières élections américaines.
Plusieurs études et rapports ont mis en lumière ces manipulations mais elles peinent souvent à en quantifier précisément l’impact, ce qui s’explique par le fait que ces campagnes exercent surtout une influence lorsqu’elles s’appuient sur des facteurs d’instabilité préexistants. En outre, ces rapports proposaient peu de solutions concrètes. Notre ambition était donc de présenter une vision des solutions possibles pour renforcer notre démocratie.
Ce travail nous a mobilisés pendant plus d’un an autour de Richard Robert, notre rapporteur, qui n’a malheureusement pu être présent aujourd’hui. Nous avons fait appel à toutes les expertises concernées par ce sujet : technologiques, réglementaires, relatives au fonctionnement des plateformes, à l’économie des médias ou aux guerres hybrides.
Les enjeux sont multiples. L’un des problèmes majeurs réside dans l’existence de biais importants dans le débat public. Ces biais sont préoccupants dans la mesure où ils sont susceptibles de faire émerger certains thèmes de manière disproportionnée et parfois imprévisible, au détriment d’un débat démocratique équilibré fondé sur les idées et la capacité à y répondre.
Nous observons également un ciblage intensif de certains publics. Lors de la crise du covid, par exemple, 4 % de la population a reçu 80 % des contenus de désinformation qui circulaient alors. Cette concentration pose de sérieuses questions quant à l’égalité devant l’information et à la manipulation de l’opinion publique.
Nous assistons à une polarisation croissante du débat public, ce qui complexifie considérablement le processus décisionnel démocratique. Les algorithmes amplifient de manière disproportionnée les contenus inquiétants, outranciers ou mensongers. En outre, les utilisateurs peinent souvent à s’adapter à ce nouveau fonctionnement médiatique, différent des canaux traditionnels.
Au début des années 2000, alors que la communauté internet était plus restreinte, avait émergé l’idée d’une « nétiquette », établissant des règles pour maintenir un certain respect dans les échanges numériques. Ces normes ont malheureusement été oubliées et il serait judicieux – d’ailleurs notre rapport le suggère – de les réinventer parce que, à un moment ou à un autre, il nous arrive à tous de manquer de civisme sur les réseaux sociaux.
Enfin, nous observons une recrudescence des dépressions, particulièrement chez les jeunes femmes, un affaiblissement des médias d’information traditionnels et une prolifération des informations trompeuses.
La régulation de ces phénomènes s’avère complexe, en raison de l’évolution rapide des technologies, de leur complexité technique et de leur caractère extraterritorial. La régulation, en outre, est susceptible de produire des effets pervers. Réguler de manière excessive des plateformes respectueuses du droit risquerait de pousser les utilisateurs méfiants vers des espaces moins régulés et d’atteindre ainsi l’inverse du but recherché.
Sanctionner des délits se heurte par ailleurs à l’absence de préjudice quantifiable. Qui pourrait dire à quelle valeur économique correspond la diffusion massive de fake news sur la Terre plate ou les dangers supposés des vaccins ? Nos outils juridiques ne sont pas nécessairement adaptés pour appréhender ces cas.
De même, le traitement des préjudices diffus pose une difficulté : si une insulte isolée peut valoir une amende de quelques milliers d’euros, comment envisager sur le plan juridique des centaines de milliers d’insultes ? Le préjudice global s’élèverait à un milliard d’euros, mais le réparer supposerait que 100 000 personnes déposent une plainte, a fortiori si les insultes sont différentes. On voit bien la difficulté d’une telle action en termes juridiques.
Dès lors, ces défis ne requièrent pas tant de réinventer un équilibre entre liberté d’expression et contrôle des abus, que d’adapter nos cadres à ces nouvelles technologies et de saisir les opportunités qui se présentent. La première d’entre elles consiste à améliorer considérablement l’information des Français sur les enjeux de long terme et les options disponibles car la désinformation prospère sur le terreau d’un déficit d’information et d’un manque de pluralité des analyses. À cet égard, le sommet Choose France 2025 ou les Cafés IA, qui permettent d’exposer les potentialités de l’intelligence artificielle, représentent des initiatives intéressantes pour l’information du grand public.
Il y a plus d’une décennie, un responsable syndical de l’éducation nationale m’avait confié que le métier d’enseignant avait évolué, passant d’un rôle de détenteur exclusif de l’information à celui de chef d’orchestre de sources d’information diverses touchant les élèves et les étudiants. Dès lors, la question posée est celle de notre capacité à réinventer nos méthodes d’éducation et d’information. Notre rapport propose par conséquent d’élargir les missions des établissements scientifiques et des universités, afin qu’ils puissent diffuser des informations vérifiées via les réseaux sociaux, touchant ainsi un public plus large, y compris celui des non-étudiants. L’objectif est de contrebalancer le flux d’informations non vérifiées, en particulier dans le domaine scientifique.
Les technologies utilisées par les ingénieurs du chaos sont susceptibles d’être réappropriées au service de la démocratie. Rappelons que le Conseil constitutionnel a reconnu l’accès à internet comme une composante essentielle de la liberté d’expression et d’information. Cependant, notre démocratie parlementaire reste basée sur un découpage en circonscriptions définies voici deux siècles comme la zone que l’on peut parcourir à cheval en une journée. Les trolls russes, eux, ne montent pas à cheval pour atteindre leur cible et leur efficacité pointe l’écart entre la célérité de ces technologies et de ceux qui en usent, d’une part, et l’inadaptation partielle des cadres de l’exercice démocratique, d’autre part.
L’intelligence artificielle, quant à elle, offre de nouvelles possibilités pour améliorer nos processus démocratiques. Après le grand débat de 2019, les préfets ont rencontré des difficultés pour synthétiser et restituer les contributions. Aujourd’hui, l’IA permettrait de réaliser des synthèses efficaces et d’identifier des signaux faibles de manière beaucoup plus performante.
Enfin, nos démocraties représentatives peinent parfois à représenter certaines catégories de la population. Les mouvements tels que celui des gilets jaunes ou les récentes manifestations contre les zones à faibles émissions (ZFE) témoignent de réelles difficultés d’application et du besoin de certains groupes de se faire entendre via internet. Bien que la forme de ces expressions puisse être discutable, elles soulèvent des questions légitimes sur le fonctionnement de notre démocratie et notre capacité à écouter les voix éloignées des centres de décision.
Il convient d’appréhender les mécaniques profondes de ces phénomènes, à savoir le déplacement du débat public vers des espaces contrôlés par des algorithmes opaques et un modèle basé sur la marchandisation de l’attention. Sur les réseaux sociaux, l’expression est libre mais l’attention est vendue au plus offrant. Le débat public est passé du déjeuner du dimanche et du café du commerce aux réseaux sociaux, où la régulation est assurée par des acteurs dont l’intérêt premier n’est pas de faciliter le débat.
L’anonymat et l’anthropobotisme, c’est-à-dire l’apparence humaine de robots actifs en ligne, soulèvent également des questions. Si l’anonymat peut favoriser la liberté d’expression, comme ce fut le cas lors du Printemps arabe, il permet aussi à des robots, parfois manipulés par des agents étrangers, de bénéficier des mêmes protections que les personnes physiques. Des solutions techniques comme le pseudonymat, proposé dans notre rapport, pourraient préserver les avantages de l’anonymat tout en limitant son exploitation abusive.
Enfin, la question des moyens est cruciale. La cybercriminalité, un secteur générant 1 000 milliards d’euros de revenus et employant plus d’un million de personnes dans le monde, fournit souvent un soutien logistique aux campagnes de désinformation. Face à cette menace, les moyens de la justice restent limités, tant en termes de ressources que d’outils juridiques adaptés. Des évolutions sont nécessaires, afin d’améliorer l’appréhension par la police et la justice d’outils tels que le testing, ainsi que la rapidité de gestion des préjudices diffus.
En conclusion, notre rapport soutient que le véritable problème ne réside pas tant dans les ingénieurs du chaos que dans les conditions qui rendent ce chaos possible et dans la vulnérabilité de nos démocraties face à ces défis. L’essence d’une nation repose sur la force des liens qui unissent ses citoyens, supérieure aux divergences qui les opposent. Notre objectif est de raviver le goût du débat respectueux et constructif.
M. le président Bruno Fuchs. Je vous remercie et je donne à présent la parole à M. Gilles Babinet, entrepreneur et coprésident du Conseil national du numérique (CNNum). Monsieur Babinet, vous avez fondé de nombreuses entreprises au sein de l’écosystème numérique français et européen et vous occupez le rôle de Digital Champion de la France auprès de la Commission européenne. Vos publications incluent Comment les hippies, Dieu et la science ont inventé internet, et GreenIA, l’intelligence artificielle au service du climat, paru en 2024.
M. Gilles Babinet entrepreneur et coprésident du Conseil national du numérique. Permettez-moi, pour commencer, de confesser une erreur de jugement. J’ai longtemps cru qu’internet serait un pilier renforçant la démocratie. Les années 1990, marquées par la chute du mur de Berlin et l’optimisme de l’ère fukuyamienne, laissaient présager une convergence globale vers les systèmes démocratiques. Dans le domaine technologique, Thomas Friedman faisait d’internet une force intrinsèquement positive, amenant par nécessité vers la démocratie. Cette perception s’est progressivement inversée, notamment à la faveur de plusieurs événements au tournant des années 2010, qui ont révélé les risques considérables que la technologie fait peser sur nos systèmes démocratiques.
Je me suis moi aussi converti, et pourtant je reste convaincu que les réseaux sociaux présentent des aspects bénéfiques, offrant notamment un canal d’information alternatif précieux, particulièrement dans un contexte de concentration médiatique. Néanmoins, il est impératif de reconnaître que les risques s’intensifient, amplifiés par l’avènement de l’intelligence artificielle. Il incombe par conséquent au législateur de compléter les dispositifs légaux existants, afin de garantir que ces plateformes demeurent des espaces de diffusion d’informations tout en évitant d’exacerber les divisions au détriment du consensus.
Une anecdote récente illustre parfaitement cette problématique. Avant-hier, j’étais auditionné à distance par la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. J’y ai prononcé une phrase – « la démocratie n’est pas soluble dans les réseaux sociaux en l’état » – qui a été isolée de son contexte par ce que l’on pourrait qualifier de trolls, et m’a valu des milliers de commentaires acerbes sur les réseaux sociaux, me présentant comme un opposant à la démocratie. Cette anecdote met en lumière deux phénomènes préoccupants : d’une part, la décontextualisation délibérée des propos, pratique courante également dans les médias traditionnels, en particulier la télévision, et d’autre part, l’amplification algorithmique des contenus polémiques.
Des études menées à Stanford voici quelques années ont démontré qu’un propos haineux bénéficie d’une amplification six à huit fois supérieure à celle d’un propos articulé sur les réseaux sociaux, ce qui explique largement la polarisation des débats. Le cœur du problème réside dans le modèle économique de ces plateformes, fondé sur la publicité, qui les incite à privilégier le trafic au détriment de la qualité du débat.
Cette vulnérabilité a été identifiée et exploitée par des acteurs malveillants étrangers. La doctrine Guerassimov, du nom du chef d’état-major de l’armée russe, théorise dès les années 2000 la possibilité de déstabiliser un pays à moindre coût grâce à ces outils numériques. Ces pratiques, initialement structurées autour d’interventions humaines, évoluent désormais vers des systèmes automatisés et des robots, marquant l’avènement d’une deuxième génération d’outils de désinformation qui, si nous n’y prenons garde, risque de nous submerger.
Face à ces défis, nous disposons de plusieurs instruments législatifs : la loi pour la confiance dans l’économie numérique (LCEN), le règlement sur les services numériques (DSA) et, dans une certaine mesure, le Data Governance Act (DGA) et l’AI Act. Cependant, et je crains que ce constat ne soit polémique, ces textes, bien qu’en vigueur, ne sont pas pleinement mis en œuvre, notamment pour des raisons politiques. En raison de la logique de confrontation avec les États-Unis et du prétexte d’une prétendue volonté de censure brandi sans cesse par le vice-président J. D. Vance, la Commission européenne a le marteau qui tremble et elle hésite à appliquer les sanctions prévues dans les textes, pouvant aller jusqu’à 6 % du chiffre d’affaires global des entreprises concernées. Ce décalage entre le judiciaire et le politique constitue un premier obstacle majeur.
En outre, bien que ces textes reposent sur des principes pertinents, ils ne vont pas assez loin sur un certain nombre de mesures qui me semblent indispensables, par exemple l’obtention de la transparence et l’interchangeabilité des algorithmes. Cela me permettrait de comprendre pourquoi, lorsque je me rends sur Twitter par exemple, me sont proposés uniquement des contenus politiquement marqués à l’extrême-droite alors que je ne me réclame pas de cette tendance. Sur ce point, il est impossible d’obtenir une réponse parce que lorsque Twitter est interpellé, il se contente de renvoyer à son algorithme de recommandation, qu’il a publié en open source il y a quatre ans. Mais chacun sait que cet algorithme est obsolète et que des surcouches de modération et d’algorithmes de contrôle supplémentaires rendent cette transparence affichée largement illusoire.
Dans ce contexte, l’interchangeabilité des algorithmes apparaît comme un élément absolument fondamental, bien que souvent mal compris et absent du DSA. Cette interchangeabilité consiste à permettre aux utilisateurs de choisir la manière dont ils sont administrés sur les réseaux sociaux. Concrètement, cela signifie la possibilité d’introduire son propre algorithme pour mettre en avant certains types de contenus et de s’affranchir ainsi des biais potentiellement introduits par la plateforme. Cette approche, loin d’être utopique, est déjà mise en œuvre par des plateformes telles que Mastodon ou BlueSky. Il est donc tout à fait envisageable, et même souhaitable, que le législateur impose ce type de fonctionnalité aux plateformes à la faveur d’un nouveau volet du DSA.
Concernant la désinformation, et plus particulièrement les ingérences étrangères, nous nous heurtons à un dilemme. Confier le traitement de ces questions à l’Exécutif ou à une agence gouvernementale, même avec des moyens considérablement accrus, risquerait inévitablement de susciter des accusations d’ingérence émanant aussi bien de l’étranger que de la France elle-même. Il importe par conséquent de réfléchir, dans une perspective de long terme, à de nouvelles dynamiques institutionnelles inspirant confiance.
Le dispositif Café IA, lancé par le Conseil national du numérique, vise à fédérer un grand nombre de citoyens autour des enjeux de l’intelligence artificielle. Notre objectif à long terme est de faire émerger une sorte d’« armée suisse », positionnée entre l’Exécutif et la population, agissant comme des vigies de la démocratie. Ces personnes seraient chargées de trier, pour le compte du bien commun, ce qui relève ou non de l’ingérence. Cette approche semble être la seule à même de garantir un traitement impartial de l’information aux yeux des citoyens.
Pour finir, j’aimerais insister sur l’idée suivante : considérer que les institutions doivent conserver leur forme actuelle dans un monde où la technologie est aussi puissante représente en soi un danger. Dans une perspective de long terme, il est au contraire impératif de réfléchir à l’évolution des institutions à l’ère des algorithmes.
M. le président Bruno Fuchs. Je vous remercie. Monsieur Guimier, vous êtes notre dernier intervenant de la matinée. Journaliste et manager reconnu, votre parcours professionnel vous a amené à occuper des postes clés tels que celui de rédacteur en chef et directeur de la rédaction d’Europe 1, directeur de France Info, vice-président-directeur général d’Europe 1, et directeur de l’information de France Télévisions. Depuis 2023, vous assumez d’importantes responsabilités au sein du groupe CMA-Média et avez présidé le conseil d’administration du journal La Provence.
Contrairement aux intervenants précédents, vous êtes directement impliqué dans la production d’informations. Vous êtes donc à la fois un citoyen utilisateur et un producteur d’informations, ce qui vous place dans une position particulière pour aborder notre sujet.
M. Laurent Guimier, journaliste, responsable des enjeux d’avenir et d’innovation dans le groupe CMA Média. Je ne saurais affirmer si les journalistes ont été, sont ou seront cette « armée suisse » que M. Babinet appelle de ses vœux. Néanmoins, dans leur mission historique d’intermédiaires entre les institutions et les citoyens, les médias jouent incontestablement un rôle essentiel. L’enjeu, de nos jours, consiste à déterminer la part qui reste aux médias, et comment ils pourront continuer à assumer cette fonction.
Appréhender les enjeux qui nous réunissent aujourd’hui réclame d’adopter une vision à long terme. Si nous prenons comme point de départ la création de La Gazette – premier journal d’information sur le continent européen tel que nous le concevons – par Théophraste Renaudot en 1631, force est de constater que l’expérience du lecteur d’un journal papier à la toute fin du XXe siècle était sensiblement la même que celle du lecteur de La Gazette quatre siècles plus tôt. En revanche, ces trente dernières années ont vu une transformation radicale de notre rapport à l’information, de sa production à sa consommation. En d’autres termes, l’évolution courant sur les vingt-cinq dernières années est bien plus significative que celle observée au cours des quatre siècles précédents.
Le malaise actuel concernant l’information s’explique en partie par notre difficulté, en tant que producteurs, à prendre pleinement la mesure de cette révolution. Ou plutôt de ces révolutions, puisqu’en réalité nous avons assisté à trois révolutions successives. Premièrement, le web et le numérique ont permis d’amplifier et de disséminer le travail des journalistes, qu’il s’agisse de la radio, de la télévision ou de la presse écrite. Deuxièmement, l’avènement des réseaux sociaux a définitivement mis fin au monopole des journalistes sur la distribution de l’information politique ou citoyenne. Alors qu’auparavant nous avions le pouvoir d’ouvrir ou de fermer nos colonnes, de modérer la prise de parole, celle-ci est désormais totalement libre et ouverte à tous. Bien que cela reste en partie un bienfait démocratique, nous sommes encore dans une phase d’adaptation à cette nouvelle réalité. Troisièmement, l’intelligence artificielle, bien qu’elle soit utilisée dans la création de contenu médiatique depuis déjà une vingtaine d’années, par exemple pour la génération automatique de textes sur les résultats électoraux commune par commune, a pris une nouvelle dimension.
Cette troisième révolution, qui permet à chacun, citoyen ou institution, de produire du contenu généré automatiquement, a provoqué une rupture que je qualifierais de « moment atomique » : si les deux précédentes révolutions s’inscrivaient métaphoriquement dans des guerres conventionnelles, nous sommes désormais collectivement en possession d’un moyen de destruction massive de la démocratie.
L’intelligence artificielle joue aujourd’hui trois rôles essentiels dans la chaîne de production de l’information. D’abord, en amont, elle augmente les capacités des journalistes, leur permettant d’analyser rapidement de grandes quantités de données. L’IA est, en quelque sorte, l’équivalent d’un exosquelette intellectuel, améliorant la qualité et la rapidité de production de l’information. Ensuite, en aval, elle permet d’éditer et de transformer le contenu produit par les journalistes, le rendant accessible dans diverses langues et sur différents supports, ce qui n’est pas sans soulever des enjeux sociaux importants au sein des entreprises de presse. Enfin, la création synthétique de contenus – textes, images, sons – place l’humain en concurrence directe avec la machine : là se situent les principaux défis en matière de désinformation et d’ingérence.
Face à ces évolutions, nous devons collectivement dépasser certains paradigmes qui ont façonné notre approche de l’information ces trente dernières années et repenser l’authentification, la déontologie et la définition même de ce qu’est un média. Il ne s’agit pas d’opérer un partage entre bons et mauvais journalistes, bons et mauvais journaux, bonne et mauvaise information, mais de distinguer ce qui relève du journalisme et ce qui relève de la propagande. Or cette frontière traditionnelle entre information et propagande s’est totalement évaporée, notamment pour des raisons tenant au statut des journalistes : il n’est nul besoin de détenir une carte de presse pour se dire journaliste, créer un média et produire de l’information. Cette porte déjà entrouverte vers le métier de journaliste, l’IA finit de l’ouvrir en rendant les outils de production d’information accessibles à tous.
Si l’on persiste à croire que l’information et le journalisme sont consubstantiels à la vie démocratique, il convient d’en tirer les conséquences en termes d’authentification, de labellisation ou de régulation déontologique de la profession. J’ai longtemps été hostile à l’idée qu’une institution puisse évaluer voire sanctionner les pratiques journalistiques, mais je pense aujourd’hui qu’il s’agit une contrepartie nécessaire pour distinguer les véritables médias des simples groupes d’opinion.
Nous devons également renforcer la coopération entre secteurs public et privé. Les médias sont en première ligne dans la lutte contre la désinformation et doivent être en mesure de préserver la capacité des citoyens à faire des choix éclairés.
Enfin, il est essentiel d’intégrer ces enjeux dans l’éducation, non seulement des jeunes mais aussi des adultes. Comprendre les opportunités et les menaces liées à l’IA devrait faire partie intégrante de la formation citoyenne. Malheureusement, les médias se sont montrés jusqu’à présent incapables de s’unir pour proposer une amélioration de l’éducation à l’information.
M. Michel Guiniot (RN). Monsieur le président, je n’ai guère pour habitude de protester contre les intervenants devant notre commission mais je souhaite réagir aux propos de M. Babinet.
Monsieur, je suis venu ici pour m’instruire, et d’ailleurs j’ai appris des choses. En revanche, sachez que vos opinions politiques personnelles ne nous regardent pas et, pour ma part, ne m’intéressent pas. Je suis venu écouter des intervenants faisant preuve d’un minimum d’objectivité.
Députés de la nation, nous sommes présents ici, quelle que soit notre appartenance politique, parce que nous avons été élus par le peuple. Alors, de grâce, ne jetez pas aux chiens des millions d’électeurs comme vous l’avez fait en parlant d’« extrême-droite ». Sachez d’ailleurs que je ne me reconnais pas dans ce qualificatif. Quant à vos opinions politiques, si vous voulez nous en faire part, faites comme moi : présentez-vous à une élection.
M. le président Bruno Fuchs. Nous en venons aux interventions des orateurs des groupes politiques, auxquelles vous pourrez répondre, messieurs, en approfondissant peut-être certaines des nombreuses propositions contenues dans le rapport destinées à favoriser un débat public plus serein et plus authentique
M. Guillaume Bigot (RN). Le débat public se concentre souvent sur la multiplication des normes, des règles censées encadrer les plateformes numériques. Ces plateformes, qu’elles soient hébergées en Irlande ou ailleurs, sont américaines et, de YouTube à Instagram, imposent à des millions de créateurs et d’influenceurs francophones des conditions générales d’utilisation (CGU) dictées par les seuls intérêts des États-Unis d’Amérique. Un simple changement de ces fameuses CGU, que peu lisent finalement, est susceptible de priver un créateur français de ses revenus du jour au lendemain, sans recours possible. Certains de mes amis en ont fait les frais. Cette dépendance contraint nos talents à devenir à leur insu des agents d’influence, parfois d’ingérence, au service des intérêts des États-Unis, sans que la France ni l’Europe n’aient leur mot à dire. C’est là, me semble-t-il, un éléphant dans la pièce et la marque d’une immense naïveté.
Car de quoi s’inquiète-t-on, finalement ? De bulles d’ingérence, qui sont bien réelles avec des puissances étrangères qui s’immiscent dans le débat public français ; de bulles de désinformation, qui sont réelles aussi, on le voit à travers le phénomène du complotisme ; de bulles de manipulation de l’information grâce à l’IA, non moins réelles que les autres. Mais toutes ces bulles, si elles existent, sont grossières et par conséquent relativement limitées dans leurs effets.
L’éléphant dans la pièce ou, pour prendre une autre image, la lettre volée d’Edgar Poe, c’est l’omniprésence des États-Unis d’Amérique, qui tirent toutes les ficelles du numérique. Aussi, l’enjeu n’est pas tant de renforcer à l’infini la régulation mais de bâtir nos propres outils, nos propres plateformes, capables de répondre aux besoins de centaines de millions de francophones, d’investir dans des alternatives souveraines – Dailymotion en était un exemple – et des réseaux sociaux francophones.
Pourquoi n’y sommes-nous pas parvenus ? Parce que notre puissance publique est rendue complètement impuissante par Bruxelles. Offrir à nos créateurs des revenus stables et une protection juridique, garantir que nos règles s’appliquent à nos citoyens, et que le cadrage juridique, en cas de débordement, soit de fait plus simple à imposer, représente une alternative bien plus pertinente que la régulation.
Comment expliquez-vous, messieurs, cette résignation française face à cette colonisation numérique américaine ? Quelle stratégie concrète préconisez-vous pour développer un écosystème francophone souverain qui libérerait nos créateurs de contenus de leur dépendance aux CGU américaines et permettrait, j’insiste, d’intervenir plus facilement face à la désinformation ?
M. Vincent Champain. Il est certain que la technologie est productrice de valeurs. Ainsi, les modèles d’IA véhiculent un style très anglo-saxon, toujours très positif, qui reflète des valeurs spécifiques. Les algorithmes imposent un style et ceux qui les exploitent ont pour objectif de capter l’attention pour la revendre au plus offrant. Les questions de démocratie et d’égalité ne sont pas leur priorité.
La régulation est certes plus aisée lorsqu’il s’agit d’actifs physiques ou d’entreprises traditionnelles mais, à vrai dire, nous sommes confrontés à un problème de concurrence entre différents modèles de régulation. Nous proposons dans notre rapport la création de ce que nous appelons des « contre-plateformes ». Comme l’a mentionné M. Babinet, il existe des alternatives aux réseaux sociaux, telles que Bluesky, créé par le fondateur de Twitter, qui permet à l’utilisateur de paramétrer ses préférences, par exemple en excluant les robots ou les utilisateurs au comportement insultant. Malheureusement, ces alternatives peinent à attirer le public et les acteurs du marché.
La difficulté réside dans la capacité à susciter l’intérêt et l’adhésion des utilisateurs. Je pense qu’une plateforme étatique ne fonctionnerait pas : personne n’a envie de discuter entre les murs d’une sorte de café d’État. En revanche, au niveau européen, un consortium de médias pourrait tenter l’aventure. C’est ensuite une affaire de concurrence. L’histoire économique de ces plateformes montre que leur succès dépend d’un mélange de qualité, de hasard et de prime au premier arrivé. Il est certes plus facile de construire une plateforme quand le terrain est vierge que lorsqu’il existe déjà un acteur dominant avec 500 millions d’utilisateurs.
Néanmoins, l’enjeu est tel que l’aventure mérite d’être tentée et, si encore une fois l’initiative ne saurait être étatique et nationale, les médias, en revanche, pourraient trouver dans une plateforme éthique européenne un moyen de diffuser des flux d’information. Je pense que de nombreuses personnes seraient intéressées par un outil de ce type-là, qui n’existe pas aujourd’hui.
M. le président Bruno Fuchs. Cette problématique comporte plusieurs dimensions, notamment la question industrielle de la création d’un tel outil mais aussi cet éléphant dans la pièce évoqué par M. Bigot, qui complique et ralentit toute initiative.
M. Gilles Babinet. L’évolution d’internet se caractérise par des phases successives : nous avons vu l’arrivée du e-commerce, puis celle des smartphones et des services mobiles, puis celle des réseaux sociaux, puis celle de l’IA, etc. Ces phases correspondent à la fois à une maturité technologique et à l’émergence de nouveaux usages.
Je pense que le moment propice pour faire émerger de nouveaux réseaux sociaux est désormais passé. L’échec de Qwant, le moteur de recherche français censé concurrencer Google, illustre la difficulté de rattraper un retard de vingt ans dans ce domaine. Le niveau de sophistication des algorithmes des acteurs dominants, que ce soit dans les réseaux sociaux, les moteurs de recherche ou d’autres domaines, est tel qu’il est, à mon sens, illusoire d’espérer entrer en concurrence directe.
Cependant, nous sommes à l’aube d’une rupture de cycle. Nous allons probablement voir émerger des réseaux sociaux d’un nouveau type, propulsés par l’IA. TikTok en est peut-être un précurseur mais d’autres formes de réseaux sociaux sont à prévoir. Cette évolution n’est pas nécessairement positive mais elle pourrait offrir une opportunité aux acteurs français ou européens de s’insérer dans ce nouveau paradigme.
Néanmoins, deux conditions préalables ne sont pas remplies. La première concerne l’accès aux capitaux. L’unification des marchés de capitaux est indispensable pour lever des fonds en quantité suffisante, ce qui est loin d’être le cas actuellement. Même le capital-risque peine à suivre le rythme de financement nécessaire. Aux États-Unis, un millier de fonds de capital-risque ont fermé en 2024 et ce chiffre pourrait atteindre 1 500 à 2 000 cette année. Ils sont remplacés par des fonds capables de financer des projets comme OpenAI. Les investissements se comptaient en dizaines de millions de dollars ; ils se comptent désormais en dizaines de milliards de dollars et cela constitue un changement de paradigme. Dès lors, il est nécessaire d’envisager la retraite par capitalisation et l’unification des marchés financiers à l’échelle européenne si nous souhaitons rivaliser avec les États-Unis dans le domaine numérique.
Le second aspect se rapporte à l’avantage considérable dont bénéficient les entreprises américaines grâce à leur marché intérieur unifié. En effet, les États-Unis disposent d’une base de 320 millions de consommateurs soumis à une réglementation unique, notamment en matière d’internet. Contrairement à l’Union européenne dont chaque membre est libre d’imposer ses propres dispositions législatives, les États fédérés ont l’interdiction, instaurée par Al Gore en 1993, de légiférer sur internet.
Cette disparité réglementaire a des conséquences concrètes pour les start-up européennes. Par exemple, une entreprise comme Doctolib, après avoir conquis une part de marché significative en France, doit recommencer à zéro en Allemagne, puis dans chaque pays européen. À l’inverse, les start-ups américaines bénéficient d’emblée d’un marché unifié six fois plus important. Ces conditions sont essentielles pour comprendre pourquoi les pays qui réussissent dans le domaine d’internet sont soit ceux qui cherchent la totalité de leurs marchés à l’étranger, comme Israël, soit ceux qui disposent d’une taille critique suffisante, comme la Chine.
Mme Sophia Chikirou (LFI-NFP). Messieurs, je vous écoute attentivement et je constate que vous n’abordez pas le cœur du problème, à savoir la question de la propriété des moyens de production, des moyens de diffusion, des moyens de stockage des données. Tel est le véritable sujet car, poser cette question-là, c’est poser la question de la souveraineté. Et poser la question de la souveraineté, c’est poser la question du peuple et in fine celle de la démocratie. Tant que vous ne poserez pas cette question, vous aurez beau formuler des propositions et produire de charmants rapports, nous n’irons nulle part. Nous avons passé des heures à discuter de la loi visant à sécuriser et à réguler l’espace numérique (SREN), des heures à discuter d’un certain nombre de réglementations européennes et françaises dont nous savions pertinemment qu’elles n’auraient aucun effet.
Pourquoi stockons-nous nos données les plus sensibles, les données de nos collectivités, les données de notre système de santé, dans des serveurs qui appartiennent aux États-Unis d’Amérique, lesquels appliquent sur ces données un principe d’extraterritorialité ? Pourquoi n’offrons-nous pas aux entreprises françaises un dispositif français de stockage ? Nous avons dans ce pays des champions du numérique, qui ont été maltraités pendant des années, auxquels on ne donne pas les moyens d’exister. Voilà la première chose.
Qu’est-ce que le numérique ? Qu’est-ce qu’internet ? Selon moi, internet est un bien commun : comme l’eau, comme la santé, comme l’éducation. Internet doit, par conséquent, au moins pour une part, revêtir la forme d’un service public, d’un service public minimum gratuit. Pourquoi les citoyens doivent-ils payer un abonnement à des entreprises privées afin d’accéder à des services publics en ligne, au moment où l’on ferme des guichets physiques ? Il s’agit d’une injustice totale.
Enfin, puisque vous parlez de régulation, pourquoi ne pas mettre en place un système similaire à celui qui prévaut pour les médias audiovisuels, en l’occurrence l’autorisation préalable d’émission ? Nous pourrions imaginer quelque chose de comparable pour internet, c’est-à-dire accorder une autorisation conditionnée par le respect d’un cahier des charges. Mais pourquoi en sommes-nous incapables ? Parce que nos gouvernants tremblent devant les GAFAM – Google, Apple, Facebook, Amazon et Microsoft –, devant les multinationales, devant les États-Unis d’Amérique qui mènent une guerre du numérique sur la planète entière. Et cette guerre vaut beaucoup d’argent parce que c’est la guerre de la donnée. Vos solutions n’en sont pas parce que vous ne regardez pas du bon côté.
M. Gilles Babinet. Concernant le stockage des données, vous n’êtes pas sans savoir, madame, que des discussions sont actuellement menées au niveau de l’Union européenne autour du projet European Union Cybersecurity Certification Scheme (EUCS). Ce schéma de certification vise à garantir l’intégrité du stockage des données au sein de l’espace européen. Personnellement, je considère que cela ne modifie en rien le fonctionnement des plateformes car la localisation du stockage n’a pas d’impact sur les algorithmes utilisés. Je ne vois donc pas le problème à cet égard.
Mme Sophia Chikirou (LFI-NFP). Je vous expliquerai, dans ce cas, car c’est important.
M. Gilles Babinet. S’agissant de la question d’un service public minimum de l’internet, qui est un sujet intéressant, de nombreuses personnes rencontrent effectivement des difficultés d’accès à internet pour des raisons financières. Aussi le sujet est important et je pense que nous pourrions nous entendre sur ce point mais, ce thème n’entrant pas tout à fait dans le sujet de notre table ronde, je vous renvoie à mes travaux sur la précarité numérique, que vous pouvez consulter sur le site du Conseil national du numérique.
Établir et faire appliquer aux réseaux sociaux des chartes est précisément le rôle du législateur. Le règlement général sur la protection des données (RGPD) et le DSA, après tout, sont des chartes. Ces réglementations, je l’ai déploré, ne sont pas suffisamment mises en œuvre. Néanmoins, il faut rester vigilant quant au risque de censure qu’une charte trop contraignante pourrait engendrer.
M. Vincent Champain. La question du service public mérite effectivement débat. Je pense notamment que le service public pourrait gagner en efficacité en utilisant l’intelligence artificielle.
Concernant la propriété des données et le modèle économique, il faut reconnaître que la majorité des problèmes évoqués dans notre rapport existent également aux États-Unis, où se trouvent l’essentiel des données, des acteurs majeurs et des capacités de développement de start-up. En d’autres termes, l’ensemble de la problématique ne peut se réduire à ces seules questions d’économie industrielle.
M. Laurent Guimier. L’ambition de soutenir des champions français, même de taille modeste, est aujourd’hui partagée tant par le secteur privé que par le service public. Des entreprises françaises défendent actuellement une certaine vision du développement de l’intelligence artificielle et sont soutenues par des acteurs privés.
Vous avez recouru, madame Chikirou, à une analogie entre l’accès à internet et l’accès à l’eau. Pour la reprendre à mon compte, je dirais que notre rapport, pour une part importante, s’interroge non pas sur la gratuité de l’eau, ce qui est d’ailleurs une question légitime, mais sur la qualité de l’eau. Est-elle polluée et, si oui, comment l’assainir ? Rapportée à internet, la question que nous posons est celle de la régulation et de la traçabilité de l’information. Et les propositions que nous formulons, qu’elles se situent sur le plan législatif ou sur le plan réglementaire, visent à favoriser une expression démocratique sur les réseaux sociaux.
À cet égard, nous devrions être en mesure de nous accorder sur des dispositifs permettant, par exemple, d’alerter de manière crédible et fiable la population et les médias sur une désinformation. Tout comme nous avons créé le système Alerte enlèvement, nous devrions nous montrer capables de mettre en place une « Alerte infox » dans notre pays.
Mme Sophia Chikirou (LFI-NFP). Nous allons passer nos journées à recevoir des alertes dans ce cas…
Mme Constance Le Grip (EPR). Les nouvelles technologies et l’environnement numérique constituent des défis majeurs pour nos démocraties et il nous appartient de comprendre ces enjeux révolutionnaires avec humilité.
L’Union européenne a tenté de réguler ce domaine à travers diverses législations telles que le RGPD, le DSA, le règlement sur les marchés numériques – Digital Market Act, DMA –, la loi sur la liberté des médias – European Media Freedom Act, EMFA – ou l’AI Act, entre autres. En dépit de ces efforts, nous semblons toujours accuser un certain retard en matière de régulation.
Le « bouclier de la démocratie » en préparation au niveau de la Commission européenne, et dont le Parlement européen commence à esquisser les contours, constitue une nouvelle tentative de réponse à ces défis et de développer une résilience démocratique. Comment envisagez-vous, messieurs, l’articulation de ce futur bouclier démocratique européen avec les textes existants ? Quelles devraient être, selon vous, ses priorités ? Comment la puissance européenne peut-elle dépasser la simple régulation, c’est-à-dire une posture de réaction, et atteindre une pleine appréhension de ces enjeux ?
M. Vincent Champain. Que vous mentionniez, madame, le bouclier de la démocratie montre que cette initiative suscite de l’intérêt.
Les régulations européennes semblent pour certaines efficaces, à l’image du DSA, dont l’approche progressive suppose une montée en puissance à venir. En revanche, je suis plus réservé sur l’AI Act, qui suscite de nombreuses critiques et limite l’accès des Européens à certaines technologies. La vidéo qui a été diffusée en ouverture de cette table ronde est théoriquement impossible à faire en Europe en vertu de l’AI Act, qui interdit les technologies requises pour la concevoir, contrairement à soixante-dix pays dans le monde, y compris de petits pays.
La Commission européenne doit se saisir, je crois, de l’idée de contre-plateforme. Aborder la question de la déontologie sous un mode comparable à celui de l’Ordre des médecins me semble possible avant tout à l’échelle européenne. Personne ne souhaite qu’une telle initiative soit prise au niveau étatique, sous peine de voir l’opposition politique s’en emparer pour dénoncer un contrôle de la pensée. Mais ce sujet est important puisque sans règles de protection, sans mettre en place les moyens nécessaires pour distinguer les médias s’appuyant sur une déontologie journalistique des autres, tout cela va être dissous dans internet dans les années à venir.
Nous recommandons également une régulation dynamique, utilisant des outils de testing statistique pour évaluer en temps réel les pratiques des plateformes. Ces outils permettent, très rapidement, de mettre en évidence les contenus auxquels sont exposés les différents publics, par exemple les adolescents. Cette approche semble plus efficace que la mobilisation d’un arsenal juridique traditionnel incapable de suivre le rythme effréné des innovations technologiques.
De même, réfléchir à l’évolution de la démocratie à l’ère numérique suppose de considérer avec attention les mouvements citoyens spontanés, par exemple les gilets jaunes, parce que les réseaux sociaux ont cette capacité à cibler vite et directement les personnes, où qu’elles se trouvent, tandis que les institutions et les représentations classiques, davantage structurées par la géographie, peinent à les atteindre. Sur ce point également, une réflexion au niveau européen me semble davantage pertinente, puisque la distance entre les citoyens y est plus grande encore.
Un autre défi majeur consiste à contrer les stratégies d’antagonisation utilisées par certains acteurs étrangers pour affaiblir nos démocraties. Le sujet n’est pas simple mais il existe des solutions pour promouvoir le respect dans le débat public et réduire les antagonismes. À cet égard, des initiatives concrètes telles que la « nétiquette » et l’éducation au numérique sont essentielles pour préparer l’avenir démocratique, et il convient de les mettre en œuvre, sans quoi le réveil sera difficile dans quelques années.
M. Alain David (SOC). Le développement rapide de l’intelligence artificielle et la montée en puissance des grandes plateformes numériques transforment en profondeur les équilibres sur lesquels reposent nos démocraties. Les technologies actuelles permettent désormais d’influencer massivement l’opinion publique, de générer des contenus manipulés, de diffuser de fausses informations à grande échelle et de créer des environnements informationnels artificiels. Ce phénomène menace directement la souveraineté des États, la stabilité de nos institutions et la confiance des citoyens dans l’espace démocratique.
Les régimes autoritaires semblent maîtriser l’usage stratégique de ces outils numériques pour affaiblir les démocraties : campagnes de désinformation coordonnées, interférences électorales, manipulation des récits médiatiques ou encore influence sur les normes technologiques mondiales. Ces stratégies reposent souvent sur des infrastructures numériques largement dominées par des acteurs privés ou étrangers, accentuant notre dépendance technologique. Face à cela, les États membres de l’Union européenne peinent à définir une réponse politique et technologique cohérente.
Comment encadrer ces pratiques, tout en préservant la liberté d’expression ? Comment sécuriser l’espace public numérique sans basculer dans une forme de censure ou de surveillance excessive ? Quels leviers juridiques, technologiques ou diplomatiques les démocraties européennes doivent-elles actionner pour reprendre le contrôle de leur espace informationnel face à ces ingérences numériques, rendues plus puissantes encore par l’intelligence artificielle ?
De même, dans la mesure où les algorithmes sont capables d’influencer l’opinion publique, manipuler l’information ou biaiser le débat démocratique, existe-t-il selon vous des pistes pour instaurer un cadre réglementaire strict encadrant leur utilisation, notamment lors des périodes électorales ?
M. Gilles Babinet. De nombreuses recommandations détaillées dans notre rapport s’efforcent d’apporter des réponses aux questions que vous soulevez.
Il me semble impératif d’adopter une approche plus coercitive envers les plateformes numériques. Ces dernières se jouent du droit, en particulier à travers ce que l’on nomme l’expérience utilisateur. Prenons l’exemple de la directive européenne sur les cookies : cette règle, désormais ancienne, exigeant de solliciter le consentement de l’utilisateur est apparemment respectée mais, en réalité, elle est aisément dévoyée et contournée par le simple fait qu’accepter des cookies est rendu beaucoup plus simple que de les refuser. Il est donc nécessaire d’imposer des amendes conséquentes. Il faut d’ailleurs que les amendes prononcées par le juge en cas de recours soient encore plus conséquentes si les faits sont avérés, afin de dissuader ces pratiques en rappelant aux entreprises que payer de bons avocats pour multiplier les recours n’est pas dans leur intérêt.
Par ailleurs, nous devons nous armer face aux menaces. À ce propos, le service de vigilance et de protection contre les ingérences numériques étrangères (Viginum) sollicitera prochainement l’Assemblée nationale pour une augmentation de ses budgets, ce qui me semble indispensable étant donné l’importance de son rôle.
Enfin, il importe de développer une véritable culture citoyenne sur ces enjeux. Cela implique non seulement une sensibilisation informationnelle mais aussi la création d’une dynamique où les citoyens participent activement à l’évaluation des contenus. Cette approche, déjà présente sur certaines plateformes, doit être affinée et étendue pour renforcer notre résilience collective. Je suis convaincu que ces enjeux touchent à l’essence même et à l’évolution future de nos institutions démocratiques.
M. Michel Herbillon (DR). En décembre, la Roumanie a été contrainte d’annuler les élections présidentielles à la suite d’une campagne d’ingérence massive orchestrée par les services russes, qualifiée par les autorités roumaines d’« opération hybride coordonnée », et qui a mobilisé plusieurs milliers de comptes automatisés sur TikTok, Telegram et Discord.
En 2017, à la veille du second tour de l’élection présidentielle française, la campagne d’Emmanuel Macron a été la cible d’une cyberattaque majeure. Des milliers de documents internes ont été piratés et diffusés en ligne. En avril dernier, les autorités françaises ont officiellement attribué cette opération au service de renseignement militaire russe (GRU), plus précisément au groupe de hackers APT28.
Ces actes hostiles doivent nous alerter. Ils illustrent une réalité brutale : nos démocraties sont devenues des cibles ouvertes. Nos défenses institutionnelles, juridiques et numériques ne sont clairement pas à la hauteur de la menace. Des puissances étrangères manipulent nos opinions publiques, perturbent nos scrutins et affaiblissent nos souverainetés.
Aussi, j’aimerais savoir si nous sommes aujourd’hui en mesure de détecter et de bloquer à temps des campagnes d’ingérence numérique avant qu’elles ne compromettent directement notre démocratie et nos infrastructures stratégiques. Le cas échéant, quels outils concrets convient-il de mobiliser ?
Par ailleurs, l’Europe se repose aujourd’hui massivement sur des solutions numériques conçues, hébergées et gouvernées par des acteurs extérieurs, en particulier américains. Cette dépendance concerne les logiciels, les infrastructures cloud, la cybersécurité et l’intelligence artificielle. Nos institutions, nos entreprises et même nos armées s’appuient trop souvent sur des technologies non européennes. De nombreuses données sensibles, y compris des données liées au système informatique du ministère des armées ou d’institutions publiques telles que les hôpitaux, sont traitées ou hébergées par Amazon ou Microsoft. Cette situation soulève des inquiétudes légitimes quant à la sécurité de nos données et à notre souveraineté.
Dans ce contexte, il est régulièrement évoqué un besoin de derisking, c’est-à-dire la capacité à diversifier nos fournisseurs, sécuriser nos données et restaurer notre autonomie technologique. Mais disposons-nous d’outils français et européens qui nous permettraient, à court terme, de réduire significativement notre dépendance stratégique à ces technologies critiques d’origine extra-européenne ? Si ce n’est pas le cas, quels seraient selon vous les leviers d’action les plus efficaces pour construire une souveraineté technologique européenne crédible, solide et pérenne à moyen terme ?
M. Vincent Champain. Notre rapport fait état de nombreux cas d’ingérence, notamment des actions attribuées aux services chinois. Il est préoccupant de constater que certains groupes impliqués dans ces opérations sont également actifs dans la cybercriminalité, illustrant ainsi la porosité entre ces différentes menaces.
Il convient d’admettre que nous n’avons pas la capacité de détecter et bloquer systématiquement ces attaques. La nature technologique et fluide de ces menaces rend la tâche particulièrement ardue et, dans ce domaine, l’attaque est généralement plus aisée que la défense. Néanmoins, nous sommes en mesure d’identifier certaines pratiques, et Viginum effectue une veille active efficace, en particulier lors des périodes électorales.
Pour renforcer notre résilience, nous pourrions envisager d’accroître nos capacités de surveillance et d’améliorer la sensibilisation de toutes les parties prenantes aux pratiques en vigueur sur les médias, de manière à assurer que chacun soit sur un pied d’égalité. L’objectif serait de créer des conditions équitables où le succès en démocratie reposerait sur la force des idées et leur résonance auprès du public, plutôt que sur des avantages technologiques. Mais n’oublions pas que nous avons là affaire à des pratiques anciennes. N’oublions pas que Joseph Pulitzer, qui a donné son nom à un prestigieux prix, a aussi acheté des médias et a inventé les tabloïds pour discréditer ses adversaires.
Concernant l’hébergement des données et notre dépendance technologique, trois outils sont susceptibles d’être mobilisés. Premièrement, la régulation, notamment en matière de concurrence. Deuxièmement, l’intervention directe : outre le développement de plateformes européennes alternatives, qu’il convient d’encourager, rappelons que le cœur du système d’exploitation d’Android est européen – si l’Europe avait investi 500 millions d’euros à l’époque, nous aurions un système d’exploitation européen. Troisièmement, l’élaboration de normes constitue un outil puissant, comme l’a démontré par le passé le succès européen de la norme numérique GSM – Global System fort Mobile Communications.
L’établissement de standards de fichiers ouverts pourrait notamment contribuer à réduire notre dépendance vis-à-vis de certains grands éditeurs américains. J’insiste sur ce dernier point : ne sous-estimons pas l’importance des normes, qui parfois s’avèrent plus efficaces que la régulation, souvent en retard face à des objectifs technologiques en constante évolution et largement extraterritoriaux.
M. Laurent Guimier. Actuellement, la régulation se limite au domaine audiovisuel, laissant un vide en ce qui concerne la presse écrite. Cette situation soulève la question de l’authentification et de la labellisation des contenus, permettant de distinguer clairement ce qui relève du journalisme professionnel de ce qui s’apparente à de la propagande, qu’elle soit d’origine française ou étrangère, émanant d’officines politiques, associatives ou d’autres groupes d’intérêts.
M. Michel Herbillon (DR). Cela n’est pas organisé aujourd’hui, or c’est capital.
M. Laurent Guimier. Il est impératif d’aborder cette problématique. Jusqu’à présent, l’absence de régulation de la presse écrite a été justifiée au nom de la liberté de la presse, un principe fondamental depuis 1 881. Cependant, face aux bouleversements survenus dans le domaine de l’information au cours des deux dernières décennies, particulièrement en ce qui concerne les producteurs de contenus, il semble désormais nécessaire de reconsidérer notre approche réglementaire et nos valeurs.
M. Frédéric Petit (Dem). Vos interventions, messieurs, apportent un éclairage précieux sur des sujets complexes et votre mention de Guerassimov m’interpelle tout particulièrement. Les maréchaux de la fédération de Russie étaient en quelque sorte tous des professeurs de philosophie, puisqu’ils ont été initiés au marxisme. Guerassimov, actuellement chef d’état-major des forces armées russes, a joué un rôle déterminant dans les années 2000, lorsque la Russie cherchait à comprendre sa défaite dans la guerre froide. Les dirigeants russes étaient alors convaincus que la désinformation avait octroyé un avantage décisif à leurs adversaires. C’est dans cette perspective, et sous l’autorité de Guerassimov, qu’ils ont développé leur propre stratégie d’information, persuadés de répondre ainsi à des tactiques qu’ils n’avaient pas su anticiper auparavant.
Lorsque l’on évoque la régulation de l’information, il me semble que l’on néglige un aspect pourtant fondamental : la propriété intellectuelle. Ce concept, forgé par les philosophes des Lumières, a été renforcé par la loi de 1881 sur la liberté de la presse. La France a été pionnière dans ce domaine et il est nécessaire de préserver notre capacité à protéger la création intellectuelle.
Aussi je m’interroge sur la place de cette notion de propriété intellectuelle dans le débat actuel, tel qu’il est phagocyté par les questions de liberté d’expression et de lutte contre les ingérences. Comment envisagez-vous l’avenir de la propriété intellectuelle face aux défis posés par les nouvelles technologies de l’information ?
M. le président Bruno Fuchs. Vous avez raison de faire allusion à la loi du 13‑19 janvier 1791, inspirée par les réflexions de Diderot et le combat de Beaumarchais.
M. Vincent Champain. Votre question me permet d’attirer votre attention sur un enjeu majeur : actuellement, lorsqu’un utilisateur effectue une recherche sur internet, le créateur du contenu bénéficie d’un retour, puisqu’il génère du trafic sur son site. L’avènement des outils d’intelligence artificielle menace ce modèle, puisque les utilisateurs d’IA obtiennent des réponses directes à leur requête sans nécessairement visiter les sites sources, ce qui prive les créateurs de contenu de toute visibilité ou rétribution. Cette évolution soulève des questions cruciales en matière de propriété intellectuelle et de valorisation de l’intelligence car elle supprime les incitations à la création de contenus. Cette question n’est pas encore suffisamment envisagée par les experts juridiques bien qu’elle soit, selon moi, l’un des principaux sujets d’inquiétude.
M. Laurent Guimier. Permettez-moi d’insister sur ce point car l’enjeu est celui de la disparition imminente du site web traditionnel, tel que nous le connaissons. Cela pose des questions fondamentales sur la traçabilité de l’information et la confiance envers les sources.
En tant que journaliste et dirigeant de média, je plaide pour une approche nuancée qui n’oppose pas systématiquement la technologie aux médias traditionnels. Je pense qu’il existe un chemin qui nous permettra de dompter les nouvelles technologies, y compris l’intelligence artificielle. Cela suppose de parler avec les acteurs du secteur technologique, qu’ils soient américains ou européens, et de parler dans leur langue, celle du business, afin d’intégrer l’IA et les logiques conversationnelles dans les médias. Penser que le bon sens, la vertu, la vérité nous appartiennent et que le « grand Satan » habite dans la Silicon Valley, serait commettre une erreur stratégique majeure. Ce serait la mort annoncée de tout ce qui nous anime, et des médias en particulier.
M. Gilles Babinet. La jurisprudence mondiale sur ces questions est actuellement en pleine évolution et présente des contradictions significatives. Les décisions rendues au Japon, par exemple, sont diamétralement opposées à celles de certains tribunaux américains. De plus, nous observons que certains médias choisissent de s’allier avec de grands modèles de langage – large language models, LLM –, comme l’illustre le cas du New York Times, qui, d’un côté, intente un procès à OpenAI et, de l’autre, annonce un partenariat avec Anthropic.
Cette situation complexifie la défense des ayants droit. Il est probable que nous devions traverser une décennie de procédures judiciaires avant d’établir un cadre juridique stable, potentiellement différent selon les pays. À ce stade, il serait présomptueux de prédire la nature exacte de ce cadre futur.
Mme Laetitia Saint-Paul (HOR). Depuis trois mois, M. David et moi-même travaillons sur un rapport concernant l’intelligence artificielle et les ingérences étrangères. De nombreuses zones d’ombre persistent et j’espère que vous pourrez apporter des éclaircissements sur plusieurs points cruciaux.
Nous avons auditionné de nombreux experts qui, à propos de l’intelligence artificielle, évoquent l’évolution de l’échelle, l’amélioration de la qualité, l’augmentation de la quantité et la réduction des coûts d’accès, mais n’en concluent pas pour autant que nous assistons à un changement de paradigme. J’aimerais connaître votre position à ce sujet car, pour ma part, j’estime qu’il s’agit bien d’un changement de paradigme.
Vous avez indiqué que les revenus générés par la cybercriminalité sont estimés à 1 000 milliards d’euros. Pourriez-vous détailler la répartition de ces revenus ? J’ai entendu que 70 % proviendraient des rançongiciels. Confirmez-vous ce chiffre ? Peut-on, selon vous, établir un lien entre criminalité et ingérence ?
Au cours de nos auditions, la question des diasporas a été soulevée, notamment leur vulnérabilité face aux pays peu démocratiques et leur rôle potentiel dans la diffusion de désinformations. Avez-vous mené une analyse plus approfondie sur les différentes diasporas présentes en France ?
Nous constatons que les politiques actuelles sont principalement défensives. Est-il temps d’adopter une approche plus offensive ou bien devons-nous continuer à nous contenter de renforcer nos défenses ?
L’éducation est un sujet peu abordé jusqu’à présent, or il me semble déterminant. La Suède a mis en place un programme visant à développer l’esprit critique des enfants dès leur plus jeune âge. Une étude a montré qu’un enfant suédois de 6 ans était plus apte à identifier une fausse information qu’un jeune adulte américain. Avez-vous approfondi cet aspect éducatif ?
Enfin, sachant que la confiance du public envers les politiques et les médias est au plus bas, comment pouvons-nous être convaincants dans notre communication sur ces enjeux ?
M. Vincent Champain. Vos questions sont nombreuses et le temps risque de nous manquer. Aussi je propose de vous transmettre notre rapport et que nous en discutions plus en détail ultérieurement.
Je souscris à votre point de vue relatif au changement de paradigme. Une baisse aussi massive des coûts de production de vidéos, par exemple, constitue bien un changement de paradigme. Autrefois, une opération d’ingérence ou d’infiltration nécessitait des mois de préparation et le recrutement de nombreux agents. Aujourd’hui, une personne, sans compétences particulièrement poussées en informatique est capable de créer du contenu en un clic, en une minute, sans frais, avec une capacité d’automatisation et de personnalisation jusqu’alors inconcevable. Ce bouleversement présente des aspects positifs et négatifs, et il appartient à la puissance régulatrice de se montrer suffisamment réactive et fine pour contrer les utilisations malveillantes, sans pour autant entraver l’innovation et les usages bénéfiques de la technologie.
À propos de l’ampleur des fraudes en ligne, je vous renvoie à un rapport publié par The Economist intitulé Scam Inc, qui fournit des informations détaillées. Il révèle notamment que le montant des fraudes par internet aux États-Unis est six fois supérieur au coût des vols de voitures. La principale source de ces fraudes provient de centres d’appels, souvent situés dans des pays émergents, où les conditions de travail sont pour le moins extrêmement précaires. Ces opérateurs se font passer pour des banquiers ou utilisent des stratagèmes comme de faux comptes de formation pour récupérer des informations bancaires.
Sur le plan éducatif, la Finlande a pris des initiatives intéressantes qui ont donné de bons résultats. De manière générale, l’approche des pays nordiques visant à maintenir le respect dans le débat public et à réduire l’antagonisme politique mérite notre attention. Nous avons beaucoup à apprendre de leurs méthodes.
M. Laurent Guimier. Le changement de paradigme que constitue l’irruption de l’IA ne se rapporte pas seulement à la personnalisation des contenus ou à la réduction des coûts mais aussi à la capacité à produire un contenu de qualité, intellectuellement solide et lisible. Jusqu’à la révolution des réseaux sociaux, il existait une barrière intellectuelle limitant l’accès au marché de l’information. Aujourd’hui, la création de textes synthétiques de qualité, répondant aux standards journalistiques, est devenue accessible, ce qui valide bien l’idée d’un changement de paradigme.
Concernant les diasporas, la traduction automatique dans n’importe quelle langue rend possible une fracturation plus importante dans un territoire comme la France. Elle permet de cibler des communautés dans leur langue d’origine, là où auparavant les barrières linguistiques compliquaient l’ingérence.
Quant à l’éducation, comme mentionné précédemment, je pense que les médias ont un rôle crucial à jouer en termes de fédération et de proposition, contribuant ainsi à cet effort collectif.
M. Laurent Mazaury (LIOT). Nous traversons une période de bouleversement technologique sans précédent. Pour résumer, l’année 2000 a vu l’avènement d’internet, 2010 celui des réseaux sociaux, 2022 le lancement de l’intelligence artificielle auprès du grand public et, dans les années à venir, l’informatique quantique promet de révolutionner nos modes de production, d’analyse et d’adaptation.
Ces évolutions reconfigurent profondément notre rapport à l’information et, surtout, à la vérité. Dans ce contexte, nos démocraties occidentales se trouvent fragilisées et confrontées à un double défi. D’une part, elles doivent tirer parti des opportunités offertes par le numérique, telles que l’accès facilité à la connaissance, la modernisation des services publics et la simplification des communications. D’autre part, elles doivent résister à des dérives de plus en plus manifestes : manipulation de l’opinion via des algorithmes opaques, polarisation extrême des discours, perte de contrôle sur nos données et vulnérabilité accrue aux ingérences étrangères.
Permettez-moi de vous faire part d’une réflexion personnelle à propos des algorithmes et de ce que nous regardons sur les réseaux sociaux : ne touchons-nous pas là à la nature humaine même ? Chacun d’entre nous s’intéresse-t-il aux trains qui arrivent à l’heure, aux événements positifs ? Voici plus de vingt ans j’avais travaillé avec Patrice Carmouze sur le Journal des bonnes nouvelles sur Canal + : cette émission a fait long feu. En réalité, nous sommes attirés par ce qui choque, nous trouble ou nous agace. Nous sommes plus souvent enclins à voir la paille dans l’œil du voisin que la poutre dans le nôtre et nous nous rassurons en constatant que rien ne va mieux ailleurs que chez nous. Les réseaux sociaux sont les jeux du cirque modernes : on y vient regarder depuis les gradins de notre smartphone des gladiateurs, tous volontaires pour entrer dans l’arène, et nous attendons que les survivants soient dévorés par les lions. Et tout va bien, tant que nous ne devenons pas nous-mêmes des gladiateurs.
Parmi les recommandations de votre rapport, quelle mesure phare, simple et commode à déployer, l’Assemblée nationale pourrait-elle adopter afin de mieux protéger nos citoyens des risques de désinformation et de manipulation ? Plus largement, quel doit être, selon vous, le rôle de l’État et du politique dans l’encadrement de cette technologie, en trouvant un juste équilibre entre régulation nécessaire et préservation des libertés fondamentales ?
Les lois de 1881, puis de 1979, et enfin le code de l’environnement ont limité la liberté d’expression par voie d’affichage dans l’espace public, contrôlée de fait par les élus, sans que cela ne soulève d’indignation quant à une atteinte à la liberté d’expression. Pourquoi serait-il impossible d’appliquer une régulation similaire dans l’espace numérique ?
M. Gilles Babinet. Des solutions simples existent ; toutefois il est impératif d’adopter une vision collective sur les actions à entreprendre. Nous vivons, cela a été rappelé, un changement de paradigme : l’avènement de l’intelligence artificielle représente, à mon sens, le plus grand bouleversement que notre civilisation ait jamais eu à affronter, tant dans ses aspects positifs que négatifs. Même si les technologies stoppaient leur développement à leur stade actuel, elles engendreraient à moyen terme des niveaux de productivité sans précédent. Or, elles continuent d’évoluer. Et à l’évidence nous ne sommes absolument pas préparés à cette révolution, à ces bouleversements sur les plans productif, social, informationnel, je dirais même intime. Les enjeux en termes de cognition sont considérables mais cela mériterait probablement un débat à part entière.
Vous me demandez de citer des recommandations simples, en voici trois.
La première est de cesser de se leurrer sur le lien qui nous unit aux réseaux sociaux. Je vous engage vivement à lire Careless People, le livre écrit par Sarah Wynn-Williams, l’ancienne responsable des affaires publiques internationales de Facebook. Vous y constaterez que les plateformes ne nous veulent pas du bien et vous en conclurez qu’il est temps d’adopter des mesures véritablement coercitives à leur encontre, d’incriminer ces entreprises pour leurs pratiques, de les condamner notamment pour ce que l’on nomme les dark patterns, c’est-à-dire les expériences utilisateurs conçues délibérément en défaveur de la vérité et de l’utilisateur.
Deuxième recommandation : faire confiance aux citoyens en les éduquant aux médias mais aussi en les impliquant activement dans la lutte contre les opérations de désinformation. Cet aspect est absolument fondamental.
La troisième recommandation relève du domaine du hard power et consiste à s’armer, littéralement, contre ses ennemis. Guerassimov avait parfaitement compris que, pour le prix d’un avion de chasse, vous pouvez créer des opérations de désinformation et de contre-désinformation massives et extrêmement efficaces. La France dispose des moyens nécessaires à de telles actions ; il suffit de les mettre en œuvre. En outre, les défenseurs ont un avantage sur les attaquants parce qu’ils partagent l’information. Les attaquants, par définition, ne la partagent pas, sous peine de neutraliser leur attaque. En revanche les défenseurs, à l’échelle de l’Europe notamment, peuvent synchroniser des outils et tirer avantage de l’open source puisque les logiciels conçus pour contrer les menaces sont généralement partagés et, de ce fait, se renforcent plus vite que les technologies des attaquants.
Mme Véronique Besse (NI). L’environnement numérique et technologique contemporain, marqué par l’essor de l’intelligence artificielle, la démultiplication des flux informationnels et la centralité croissante des plateformes numériques dans la structuration du lien social, bouleverse en profondeur les conditions d’exercice du pouvoir dans les sociétés démocratiques. Ces mutations affectent non seulement la médiation entre gouvernés et gouvernants mais aussi les modalités de la délibération publique, de la légitimation institutionnelle et de la souveraineté normative. Les démocraties libérales, historiquement fondées sur des équilibres institutionnels lents et sur la construction progressive de consensus, semblent mises en tension par la vitesse, la volatilité et l’opacité caractéristiques du nouvel espace numérique.
En parallèle, il semble pertinent de s’interroger sur la manière dont certaines caractéristiques intrinsèques de l’environnement numérique – instantanéité, concentration des données, opacité algorithmique, fragmentation de l’espace public, etc. – pourraient contribuer à faire émerger des formes de gouvernance s’écartant des canons libéraux traditionnels. Au-delà de la simple instrumentalisation des technologies par des régimes autoritaires, il s’agirait de comprendre comment ces technologies elles-mêmes sont susceptibles d’induire des dynamiques politiques favorables à des modes de pouvoir plus centralisés, plus verticalisés ou fondés sur d’autres formes de légitimation que le pluralisme délibératif.
Ce constat invite, me semble-t-il, à ne pas réduire la question technologique à un simple enjeu de régulation mais à l’envisager comme un facteur de recomposition des formes mêmes de la légitimité et de l’autorité politique. L’environnement numérique pourrait-il constituer l’une des matrices des transformations en cours des modèles démocratiques, en facilitant l’émergence des régimes politiques hybrides, voire de nouvelles formes de gouvernance post-libérale ?
M. Gilles Babinet. Votre intervention rejoint les propos que j’ai tenus précédemment. Il est inévitable que les systèmes institutionnels évoluent face à l’émergence de l’intelligence artificielle. Cela nous oblige à réfléchir à de nouvelles formes d’institutions et de régulation.
La confrontation entre un État technologique et des citoyens, telle qu’elle se présente actuellement, n’est pas viable. Nous le voyons bien avec les soupçons et les contestations qui entourent des systèmes tels que Parcoursup, OpenFisca et d’autres algorithmes utilisés par l’État, qui pourtant sont dépourvus d’intelligence artificielle. Plus la sophistication technologique augmentera, plus les sentiments de méfiance envers l’État s’amplifieront. La création de nouvelles institutions, de corps intermédiaires constitués de citoyens chargés d’accompagner le développement d’algorithmes pour l’État, tout en restant indépendants de celui-ci, me semble être une piste de solution prometteuse.
J’évoquais tout à l’heure l’idée d’une « armée suisse » : celle-ci pourrait porter son effort sur la menace extérieure, le développement des services numériques publics, le débogage des services de l’État, la correction des biais potentiels des algorithmes ou encore certains éléments de défense. L’exemple de l’Ukraine nous offre d’ailleurs un exemple de l’importance de la mobilisation citoyenne dans des domaines tels que l’information ou l’utilisation de drones.
Max Weber, dès 1922, prévoyait que le désenchantement face à la complexification du monde aboutirait à une contestation. Il est donc essentiel de l’anticiper et d’adapter nos institutions à ces nouvelles réalités technologiques.
M. le président Bruno Fuchs. Nous en venons aux interventions et questions formulées à titre individuel.
M. Nicolas Dragon (RN). L’accélération numérique et technologique à laquelle sont confrontées les démocraties occidentales s’accompagne de problématiques en matière de cybersécurité, tant pour les données personnelles que pour les informations stratégiques de l’État. Il apparaît dès lors comme un enjeu crucial de préserver nos libertés et de protéger nos données numériques. La défense d’une souveraineté numérique forte est essentielle pour garantir que les données personnelles des Français restent protégées des ingérences de puissances étrangères ou des abus des GAFAM. Cela implique d’accélérer l’hébergement des données personnelles sur le territoire français ou, à défaut, sur le sol européen avec des partenaires de confiance.
Face aux menaces, renforcer la protection des infrastructures numériques de l’État, notamment par des commandos numériques capables de contrer des cyberattaques étrangères, apparaît comme une nécessité. La défense de la liberté d’expression en ligne doit être conforme à nos principes républicains. Il est impératif de faire preuve de fermeté face à toute forme de censure. Nous refusons ainsi toute obligation d’identité numérique susceptible de constituer une menace pour l’anonymat et les droits fondamentaux des citoyens français.
Pensez-vous que mettre en place une cybersécurité souveraine et respectueuse des libertés fondamentales peut engager la France contre les ingérences numériques, tout en préservant un espace médiatique libre et indépendant ?
Mme Christine Engrand (NI). À l’heure où les octets supplantent les idées, à l’heure où les algorithmes façonnent nos opinions avec la froideur d’une équation sans morale, il est plus que jamais impératif de penser avec gravité aux conséquences de ce nouvel âge numérique sur le socle fragile de nos démocraties.
Le numérique n’est pas un simple outil. Il est devenu une architecture de nos sociétés, une matrice qui organise nos échanges, structure notre attention et parfois pervertit le débat public. Or, dans cet espace en perpétuelle expansion, il n’est plus tolérable que les règles soient fixées par quelques grandes puissances privées, dont le pouvoir n’est ni délibéré, ni contrôlé, ni légitime. Le contrat social qui fonde la démocratie semble glisser hors de notre portée, capturé par des intelligences non élues.
Messieurs, vous avez chacun, par vos engagements et vos fonctions, contribué à éclairer ces mutations mais, aujourd’hui, nous sommes à la croisée des chemins et, en vous écoutant, j’ai l’impression qu’il est déjà un peu tard. Peut-être pas trop tard, je l’espère.
Monsieur Babinet, vous avez évoqué à plusieurs reprises la coercition financière. S’agit-il vraiment de la seule solution ? Et quand pourrait-elle être mise en œuvre ?
M. Jérôme Buisson (RN). Il est temps, en effet, vous l’avez indiqué, de mettre un terme à notre naïveté et à notre faiblesse dans l’application des lois existantes. Toutefois, il est permis de se demander qui censure réellement internet aujourd’hui : les dictatures ou bien les démocraties ?
Pour se forger une opinion éclairée, il est nécessaire d’entendre non seulement les vérités mais aussi parfois les mensonges de nos adversaires, qui discréditent les vérités qu’ils assènent. Aussi, une censure excessive pourrait s’avérer contreproductive.
Vous avez évoqué un changement de paradigme et nous sommes effectivement face à l’inconnu. Est-il réellement possible de maîtriser cette évolution ? Lorsque l’on constate les difficultés de la France à gérer l’expression physique de quelques milliers de personnes lors d’un match de football, on peut légitimement s’interroger sur notre capacité à maîtriser un réseau mondial.
Mme Constance Le Grip (EPR). J’aimerais vous interroger sur la gouvernance d’internet. Cette question de la gouvernance est posée depuis les débuts d’internet, et même avant, avec le rôle de l’Agence américaine pour les projets de recherche avancée de défense
– Defense Advanced Research Projects Agency, DARPA – dans les années 1970, puis les diverses évolutions comme la Société pour l’attribution des noms de domaine et des numéros sur internet – Internet Corporation for Assigned Names and Numbers, ICANN –, une société de droit californien sans but lucratif mais néanmoins compétente pour l’attribution des noms de domaine et des adresses IP.
Des initiatives internationales ont émergé, notamment sous l’égide des Nations unies, comme le Forum sur la gouvernance d’internet, dont la prochaine réunion se tiendra fin juin en Norvège, incluant pour la première fois, je crois, un volet parlementaire.
Comment envisagez-vous les évolutions possibles, voire souhaitables, dans ce domaine ? Comment faire évoluer cette gouvernance d’internet pour qu’elle devienne plus éthiquement responsable ?
Mme Laetitia Saint-Paul (HOR). J’aimerais revenir sur ma question précédente, à propos de l’opposition entre politiques défensives et offensives, qui est restée sans réponse. J’aimerais savoir si vous pensez qu’il existe des moyens éthiques d’adopter une approche offensive. Par exemple, l’utilisation du marketing par Choose France pour promouvoir notre pays, ou l’emploi de chatbots basés sur l’intelligence artificielle pour répondre, sur la base de sources fiables, aux rumeurs et à la désinformation. En un mot, j’aimerais entendre de votre part des propositions à la fois offensives et éthiques.
M. Vincent Champain. Notre rapport préconise une solution de pseudonymat, qui préserve les avantages de l’anonymat tout en évitant ses écueils, notamment en refusant d’accorder les mêmes droits aux trolls étrangers et aux robots.
Le numérique, comme toute révolution technologique émergente, a d’abord tendance à favoriser les plus habiles, les mieux positionnés ou les plus fortunés. Généralement, ces technologies finissent par se démocratiser mais cela soulève de véritables enjeux sociaux et réglementaires, particulièrement aigus avec l’IA.
La coercition, je l’ai souligné, est un outil parmi d’autres. Produire une information de qualité est tout aussi important. Des actions simples et peu coûteuses, comme le testing des plateformes et la publication des résultats, peuvent s’avérer très efficaces pour informer le public. Le travail de Viginum sur les campagnes de désinformation est exemplaire à cet égard, bien que les moyens de ce service soient limités. L’intervention directe et l’établissement de normes sont également des leviers importants. J’ai évoqué à cet égard le succès européen dans le domaine du GSM, fondé sur une norme de qualité qui a surpassé l’approche américaine.
Face à la prolifération de fausses informations, notre rapport préconise, dans l’esprit d’une démocratie libérale, de privilégier un afflux d’informations vérifiées. Cela passe par deux sources principales : la déontologie journalistique, qu’il faudrait pouvoir mesurer et identifier plus clairement, d’où l’idée d’un ordre des journalistes, et la méthode scientifique, garante d’une information fiable.
Quant à la gouvernance d’internet, ce sujet complexe requiert de distinguer les institutions existantes, difficiles à réformer mais perfectibles, des domaines émergents où il est plus aisé d’innover. Sur ces nouveaux terrains, il convient de se montrer particulièrement réactifs, afin de ne pas arriver après la bataille, quand d’autres ont déjà établi les règles.
Enfin, notre rapport contient de nombreuses propositions allant dans le sens d’une posture plus offensive. Il s’agit notamment d’utiliser la technologie au service de la démocratie et de fournir davantage d’informations pour contrer la désinformation. Des solutions techniques précises sont détaillées dans le rapport.
En conclusion, je dirais que sur de nombreux sujets, notamment la régulation de la propriété intellectuelle, nous sommes au début d’un processus. Il est par conséquent impératif de soutenir un dialogue vivant et, dans l’intérêt de la France vis-à-vis de l’Europe et de l’Europe vis-à-vis du monde, de s’efforcer d’être à l’avant-garde pour poser, avant que les forces perturbatrices ne s’emparent du terrain, les jalons d’une démocratie libérale.
M. Laurent Guimier. Notre travail s’inscrit dans une perspective à long terme. Notre génération s’est construite avant l’arrivée d’internet et, pour elle, il est en quelque sorte trop tard. En revanche, elle a la responsabilité de poser des bases solides pour les trois générations à venir, pour les aider à sortir de l’immaturité logique face à l’ampleur et à la rapidité de cette révolution technologique. L’éducation jouera un rôle primordial dans ce processus, et un rôle précisément offensif, je le crois.
Par ailleurs, il est essentiel de développer la confiance entre les institutions, notamment entre les médias et les partenaires publics, qui historiquement n’ont pas l’habitude de collaborer étroitement. Et à nouveau je citerai l’exemple du dispositif Alerte enlèvement, qui à l’origine a suscité des réticences dans les médias, avant de s’imposer. Je suis convaincu qu’il est possible de fédérer les médias et les institutions autour d’actions communes visant à traquer et dénoncer la désinformation. Cette initiative pourrait constituer un geste de confiance significatif et visible.
M. Gilles Babinet. Je m’oppose pour ma part fermement à la levée du pseudonymat. La possibilité de s’exprimer sans nécessairement révéler son identité est un principe fondamental de notre démocratie, que je considère comme quasi constitutionnel. Cependant, je soutiens l’introduction de l’identité numérique dans les services publics, une pratique déjà adoptée avec succès par vingt-trois des vingt-sept pays européens. Il est bien entendu impératif de mettre en place des contre-pouvoirs robustes pour prévenir tout abus dans l’utilisation de ces données.
Sur le sujet de la coercition, j’insiste sur la nécessité d’imposer des amendes véritablement dissuasives. Comme je le fais souvent observer, lorsqu’une amende est infligée à une entreprise des GAFAM, le cours de l’action en bourse grimpe le jour même. Pourquoi ? Parce que les investisseurs sont rassurés par le montant des amendes, dérisoire au regard des moyens de l’entreprise sanctionnée. Aussi, ne pas infliger des amendes très lourdes revient à encourager ces entreprises à persévérer dans leurs comportements problématiques. La Commission européenne commence à prendre conscience de cette réalité mais les progrès restent insuffisants.
En matière de gouvernance, il me semble difficile de faire évoluer des institutions telles que l’ICANN. En revanche, je considère que la dynamique de l’open source constitue en soi une forme de gouvernance alternative. La transparence et l’auditabilité des systèmes ouverts représentent une force politique considérable, en opposition aux infrastructures numériques opaques. L’Europe pourrait capitaliser sur cette approche.
Enfin, l’approche offensive ou défensive en matière d’information est complexe. La situation au Mali l’a bien montré, puisque l’asymétrie dans le traitement de l’information, avec des trolls russes diffusant massivement de la désinformation sans réponse équivalente de l’armée française, a eu des conséquences désastreuses. Ce problème, particulièrement aigu dans les zones de conflit où l’accès aux institutions civiles est limité, reste un défi majeur pour les militaires. Dans ce contexte, remporter la première bataille peut sembler aisé mais gagner la guerre s’avère presque impossible.
M. le président Bruno Fuchs. Je vous remercie sincèrement pour votre participation à cette longue discussion sur les transformations profondes de nos modèles d’information et leurs implications pour notre démocratie et notre organisation sociale.
***
Informations relatives à la commission
En conclusion de sa réunion, la commission désigne :
– M. Sophie Mette, co-rapporteure, au titre de la commission, de la mission d’information commune avec la commission des finances, de l’économie générale et du contrôle budgétaire sur les moyens consacrés au volet diplomatique de notre réorientation stratégique.
***
La séance est levée à 11 h 05.
_____
Membres présents ou excusés
Présents. - M. Pieyre-Alexandre Anglade, Mme Véronique Besse, M. Guillaume Bigot, M. Jérôme Buisson, Mme Eléonore Caroit, M. Sébastien Chenu, Mme Sophia Chikirou, Mme Christelle D'Intorni, M. Alain David, Mme Sylvie Dezarnaud, M. Nicolas Dragon, Mme Stella Dupont, Mme Christine Engrand, M. Frédéric Falcon, M. Marc de Fleurian, M. Nicolas Forissier, M. Bruno Fuchs, M. Julien Gokel, Mme Pascale Got, M. Michel Guiniot, M. Stéphane Hablot, M. Michel Herbillon, Mme Céline Hervieu, M. François Hollande, M. Vincent Jeanbrun, M. Alexis Jolly, M. Xavier Lacombe, Mme Constance Le Grip, M. Jean-Paul Lecoq, M. Vincent Ledoux, Mme Élisabeth de Maistre, M. Laurent Mazaury, Mme Sophie Mette, M. Frédéric Petit, M. Kévin Pfeffer, M. Jean-François Portarrieu, M. Stéphane Rambaud, M. Franck Riester, M. Davy Rimane, M. Jean-Louis Roumégas, Mme Laetitia Saint-Paul, Mme Sabrina Sebaihi, M. Aurélien Taché, M. Vincent Trébuchet, M. Lionel Vuibert
Excusés. - Mme Nadège Abomangoli, M. Hervé Berville, M. Bertrand Bouyx, M. Pierre-Yves Cadalen, M. Marc Fesneau, M. Perceval Gaillard, Mme Sylvie Josserand, Mme Brigitte Klinkert, Mme Amélia Lakrafi, M. Arnaud Le Gall, Mme Marine Le Pen, Mme Alexandra Masson, Mme Mathilde Panot, M. Pierre Pribetich, Mme Laurence Robert-Dehault, Mme Marie-Ange Rousselot, Mme Michèle Tabarot, Mme Liliana Tanguy, M. Laurent Wauquiez, Mme Estelle Youssouffa
Assistait également à la réunion. - M. Olivier Faure