Compte rendu

Commission d’enquête sur les dépendances structurelles et les vulnérabilités systémiques dans le secteur du numérique et les risques pour l’indépendance de la France

 

– Audition, ouverte à la presse, de M. Thierry Breton, ancien commissaire européen au Marché intérieur, ancien président-directeur général d’Atos SE              2

– Présences en réunion................................26

 


Mercredi
15 avril 2026

Séance de 15 heures

Compte rendu n° 26

session ordinaire de 2025-2026

Présidence de
M. Philippe Latombe,
Président de la commission puis de Mme Sophie-Laurence Roy, vice-présidente

 

 


  1 

La séance est ouverte à quinze heures.

 

M. le président Philippe Latombe. Monsieur Breton, vous vous êtes investi dans la régulation du secteur numérique. Selon vous, nos dépendances technologiques vis-à-vis d’entreprises extra-européennes sont-elles une menace pour notre souveraineté ? Est-il encore temps d’y remédier ? L’indépendance de l’Union européenne en matière de technologies numériques passe-t-elle nécessairement par la régulation ?

Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.

L’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.

(M. Thierry Breton prête serment.)

M. Thierry Breton, ancien commissaire européen au marché intérieur et ancien président-directeur général d’Atos. Je suis heureux d’être parmi vous – une fois de plus, oserais-je dire : vous en avez, des commissions d’enquête, à l’Assemblée ! Ça commence à fleurir. Ce n’est pas une critique, je suis toujours très heureux de venir, mais j’ai préparé un petit graphique illustrant l’inflation des commissions d’enquête et la liste de toutes celles menées depuis 2005, vous les transmettrez à la présidente. Tant qu’on reste dans le champ, comme c’est le cas de celle-ci, ça va ; et ce n’est pas à moi de juger des autres.

Quoi qu’il en soit, je suis ravi d’être là et d’éclairer vos travaux sur un sujet absolument essentiel pour notre souveraineté dans un monde totalement chamboulé. Toute l’organisation du monde depuis l’après-guerre reposait sur une notion essentielle, qui sera, si vous le voulez bien, le fil conducteur de cette audition : la confiance. Or, depuis le 20 janvier 2025 et l’avènement de Donald Trump comme quarante-septième président des États-Unis, beaucoup de choses ont été bouleversées dans le monde. En particulier, nous avons perdu la confiance.

Après la guerre, en France, en Europe et plus largement en Occident – même si ce terme est en train de perdre de son sens –, nous avons rebâti ce monde bouleversé, détruit, autour de cette pierre angulaire, la confiance. Pardonnez-moi de partir de si loin, mais cela me semble important pour qualifier nos besoins dans le monde nouveau qui se dessine, des besoins qui n’étaient peut-être pas nécessaires dans celui dont j’estime qu’il vient de s’effondrer.

La pierre angulaire de l’architecture à l’abri de laquelle nous nous sommes développés, c’est la confiance. Elle se traduit dans différents domaines. En matière commerciale, toute relation contractuelle est fondée sur la confiance et encadrée par la loi, qui veille à son respect, qu’il s’agisse d’un accord international supervisé par l’Organisation mondiale du commerce (OMC), d’un accord à l’échelle de l’Union européenne – à qui, je le rappelle, les États ont confié des compétences exclusives en matière de gestion des relations internationales – ou d’un accord entre États. En matière de défense, tout pays de l’Organisation internationale du traité de l’Atlantique Nord, l’Otan, sait qu’en vertu de l’article 5, il est tenu de défendre celui de ses membres qui serait attaqué. Cette obligation est fondée sur la confiance. Lorsqu’on signe un contrat pour le traitement de données confidentielles, on sait que seuls ceux qui en ont le droit y auront accès. Là encore, c’est fondé sur la confiance. Le Patriot Act, le Cloud Act, toutes ces nouvelles lois brisent, au fond, cette confiance.

Il me semblait très important de commencer par ce constat : il a fallu soixante-dix ans pour bâtir cette architecture, et seulement quelques jours, heures, minutes, pour la fracturer et la faire s’effondrer. Et nous voilà désormais dans ce nouveau monde.

Vous êtes le législateur, quand vous ne siégez pas dans des commissions d’enquête : à ce titre, vous organisez le droit, l’État de droit, fondé sur la confiance, que vous demandent les citoyens pour établir leur vivre-ensemble ; lorsque la confiance n’est plus là pour bâtir les relations entre les États, entre les entités supranationales, entre les entreprises, voire entre les citoyens, alors elle est remplacée par les rapports de force. On le voit chez nous, y compris dans les zones de non-droit, qui sont des zones de non-confiance ; c’est vrai aussi au niveau des États et des entreprises. D’où l’importance de s’arrêter sur cette notion, qui calibre et définit les relations.

Vos travaux portent sur un domaine extrêmement important et qui m’est cher, vous le savez, c’est pour cela que je suis heureux d’être là. Il se trouve que je me suis efforcé de mettre de la confiance dans l’espace informationnel ; et ceux qui n’en veulent pas se sont efforcés de la mettre à mal, y compris en essayant de pénaliser, de punir, de bannir celui qui était considéré comme en étant l’architecte. C’est ainsi que l’on m’a qualifié, en tout cas, pour justifier le fait que je suis désormais interdit de séjour aux États-Unis. J’ai été banni, pour reprendre le terme de certains, pour avoir contribué à proposer aux colégislateurs que sont le Parlement et le Conseil européens de bâtir une architecture de confiance dans l’espace informationnel – je n’en tire aucune gloire, c’était mon travail.

Car sans confiance dans l’espace informationnel, ceux qui prospèrent, ce sont ceux qui fournissent des services précisément hors de tout contrôle et hors des règles de l’État de droit. On livre alors nos enfants, nos adolescents, nos préadolescents, mais aussi nous-mêmes et notre démocratie, à des gens qui n’ont pas reçu mandat pour cela et qui vont faire appliquer leurs propres règles, je dirais même leurs propres lois, au détriment de ce que nous bâtissons, de ce que vous bâtissez, puisque votre rôle, votre travail, la mission que vous avez acceptée en acceptant de servir l’intérêt général dans le cadre du mandat que vous avez obtenu et que vous exercez, c’est de légiférer, de poser des règles de droit, donc de confiance. Vous le faites dans l’espace physique, pas encore assez dans l’espace informationnel. Ce n’est pas une critique : vous ne le faites pas assez parce que c’est naissant. L’espace informationnel a seulement vingt-cinq ans, on l’a vu apparaître au début de ce siècle. Il marque la troisième phase de la révolution de l’information.

Permettez-moi de m’arrêter un instant sur cette notion. Qu’est-ce que l’espace informationnel ? Pourquoi m’avez-vous invité aujourd’hui pour en parler ? Pourquoi avez-vous décidé d’y consacrer vos travaux ? La révolution de l’information débute vers 1942-1943 ; en 1945, le premier ordinateur calculateur, l’Eniac – electronic numerical integrator and computer – et ses18 000 tubes, est mis en place par les États-Unis dans le cadre du projet Manhattan, le premier programme de bombe A, développé à Los Alamos. Vingt-cinq ans plus tard – car les phases de l’évolution de l’information durent environ vingt-cinq ans, soit une génération –, on entre dans une deuxième phase, celle des « mini », comme on dit dans notre jargon. On est alors au milieu des années 1970. On entre ensuite progressivement dans la troisième phase, celle des PC – personal computers –, des ordinateurs plus petits que l’on va pouvoir, à partir des années 2000, brancher en réseau. C’est très facile, très utile, et c’est précisément cette capacité de mise en réseau qui fait que l’on va commencer, à la faveur de l’avènement d’internet, à générer des volumes absolument gigantesques – des zettabytes – d’informations. Peu à peu, ces données deviennent personnelles. C’est en gérant et stockant ces données, puis en proposant des services dans l’espace informationnel, que vont émerger puis prospérer les géants du numérique, les Gafa – Google, Apple, Facebook, Amazon.

Vingt-cinq après, nous entrons dans la quatrième phase de cette révolution de l’information, qui s’est déroulée sur un siècle : l’intelligence artificielle. Pour la première fois dans l’histoire de l’humanité, toutes les traces laissées dans l’espace informationnel entre 2000 et 2025 ont été stockées dans des data centers, permettant la traçabilité d’une grande partie de notre activité humaine. Et grâce aux supercalculateurs, nous allons pouvoir aller chercher très rapidement dans ces traces des cas similaires à ceux qui se présentent à nous et, par effet probabiliste, déduire des expériences passées les réponses à nos questions. Voilà ce qui nous attend pour les vingt-cinq ans à venir.

Jusqu’à l’émergence de l’espace informationnel, nous étions à peu près présents. Puis nous avons raté le virage des données personnelles, qui a permis la naissance des Gafa, au premier rang desquels Facebook et Google. C’est une phase qui nous émerveille toujours. Il se trouve que je connais assez bien l’ensemble des acteurs – c’était ma vie, je n’en tire aucune autre gloire que le fait d’avoir été moi-même un de ces acteurs et de les avoir côtoyés pendant toute cette période. Beaucoup sont encore très présents dans l’espace informationnel aujourd’hui. Les créateurs des Gafa se sont positionnés pour utiliser les données personnelles générées grâce à l’interconnexion, à l’internet, apparue au début des années 2000. Et si ces géants sont apparus aux États-Unis, puis en Chine, ce n’est pas parce que nous sommes plus idiots que les autres, mais parce que, eux, ils avaient accès à un marché très large avec une langue unique. Les États-Unis, c’est un marché de 330 millions de consommateurs ; nous, on était vingt-sept pays, avec autant de régulations ou de tentatives de régulation – souvent orthogonales d’un pays européen à l’autre, d’ailleurs –, dix-huit langues, des barrières.

C’est comme ça qu’aux États-Unis, un jeune un peu imaginatif, qui avait décidé d’abandonner ses études en première année de BS – bachelor of science – à Harvard, pour créer un annuaire pour identifier les autres élèves de Harvard. Je suis ingénieur, c’est une bonne idée, mais ce n’est pas non plus, comme on dit dans mon jargon, de la rocket science. Voyant que ça marchait, il l’a élargi, et grâce à ce marché de 330 millions de consommateurs, le concept s’est rapidement développé. Voilà comment est né Facebook. Et c’est pareil pour tous les autres : cela a été possible parce que les États-Unis sont une terre d’opportunités et d’innovation, que l’on peut y faire des tas de choses, mais aussi parce qu’il y a un marché. Or dans l’espace informationnel, ce qui compte, c’est le volume disponible de données structurées et à peu près homogénéisées. Alors évidemment, quand on a un marché de 330 millions de consommateurs avec une langue homogène et sans barrières, ça va vite. Voilà pourquoi nous n’avons pas pu créer des entreprises comme les Gafa : c’est une question de volume.

Désormais, nous sommes tous dans cet espace informationnel ; nous y passons en moyenne entre quatre et six heures par jour, c’est-à-dire plus que dans la rue. Or vous légiférez – à juste titre – pour ce qui se passe dans l’espace physique – et Dieu sait qu’il faut en permanence légiférer, parce que l’imagination humaine n’a pas de limites, y compris dans ses côtés déviants. Mais dans l’espace informationnel, c’est le no man’s land. C’est la raison pour laquelle, lorsque je suis arrivé à Bruxelles, où j’étais chargé à la fois du marché intérieur physique, matériel et du numérique, je me suis attaché à superposer les deux pour créer un marché numérique unifié.

Pour ce faire, j’ai voulu proposer non pas des directives, puisque les directives, comme vous le savez, donnent un cadre mais doivent ensuite être adoptées par l’ensemble des vingt-sept parlements nationaux – c’est très bien d’un point de vue démocratique, mais cela aurait ajouté des barrières et n’aurait pas permis de répondre à la problématique que je viens d’exposer –, mais des règlements. Je rappelle que la Commission ne fait que proposer les textes : ce sont ensuite les parlementaires européens et les membres du Conseil européen, équivalents respectivement de l’Assemblée et du Sénat, ou de la Chambre des représentants et du Sénat américains, qui, ensuite, les modifient et les adoptent dans le cadre de ce que l’on appelle des trilogues. Vous le savez, les règlements sont d’application directe : le processus est un peu plus long et lourd, mais dès qu’ils sont débattus, amendés et votés par le Parlement européen puis le Conseil européen, ils s’appliquent directement à l’ensemble des Vingt-Sept. C’est ainsi qu’il faut voir ce bouquet de lois que j’ai contribué à mettre sur pied, et qui me vaut aujourd’hui d’être banni des États-Unis – mais nous y reviendrons, car je ne l’ai pas été pour les raisons que l’on pense.

Pour la première fois, on a le Data Governance Act (DGA), un règlement définissant quelles données générées par les activités publiques ou gouvernementales sont stratégiques et strictement réservées à l’entité publique, et lesquelles peuvent être utilisées et partagées pour créer de l’activité ou des services. Car il faut mettre une barrière ; sinon, c’est la jungle, la porte ouverte à des class actions et des discussions juridiques sans fin. Donc on met du droit, c’est‑à‑dire de la confiance. Je le dis et je le répète, pour que ce soit bien clair : pas d’innovation sans confiance. Tous ceux qui disent qu’aux États-Unis on innove et qu’en Europe on régule sont des idiots utiles – pardon de le dire, je ne veux être méprisant avec personne – qui se font les porte-voix des Gafa, qui ne veulent évidemment pas la moindre régulation, afin que leur hégémonie perdure.

Deuxième acte : le Data Act, qui offre cette fois un cadre de droit à l’ensemble des données professionnelles et industrielles. Si nous avons raté la première révolution, celle des données personnelles, nous sommes très bien placés pour les données professionnelles et industrielles. D’où l’importance de nous doter très vite d’un cadre de droit. Depuis 2000, les États-Unis se sont massivement et très rapidement désindustrialisés. Je peux en témoigner : dans ma carrière, j’ai été président d’un certain nombre d’entreprises, en particulier d’Orange pendant longtemps, mais aussi de Thomson-RCA, alors premier fabricant d’électronique grand public. Ce que nous demandaient les actionnaires et l’État américain, c’était, pour diminuer les coûts, d’installer les usines à la frontière du Mexique dans ce que l’on appelle les maquiladoras ; puis on les a installées dans le delta de la rivière des Perles, entre Canton et Shenzen.

Les États-Unis se sont donc désindustrialisés beaucoup plus que nous, même si ce phénomène a été un peu plus marqué en France qu’ailleurs en Europe. Je vois dans ma liste qu’une commission d’enquête porte sur la désindustrialisation : je suis sûr qu’elle saura éclairer la représentation nationale – je n’y ai pas encore été invité, d’ailleurs… (Sourires.)

Mme Cyrielle Chatelain, rapporteure. Bientôt, après votre témoignage !

M. Thierry Breton. Je ne demande rien !

Ce que je veux dire, c’est que nous avons encore, en Europe, une base industrielle très solide, même si elle l’est moins qu’en Chine, où elle est passée de 1 % de la base manufacturière mondiale en 2000 à environ 33 % aujourd’hui – en une génération, donc.

Mais la révolution de l’information et de l’intelligence artificielle, ce n’est pas ce qui est devant nous, mais ce qui est derrière. Or nous, nous avons ces traces informationnelles industrielles majeures de ce qu’il s’est passé entre 2000 et 2025. Personne d’autre n’a l’historique informationnel que nous avons dans nos usines. On dit souvent que nous avons du savoir-faire – humain, évidemment, logistique, bien entendu, manufacturier, c’est certain –, mais nous avons aussi des informations générées par l’exploitation même de ces usines. Je peux vous dire que quand j’étais chef d’entreprise, des directeurs d’usine, on n’en trouvait plus ! Les Américains avaient disparu, ils ne savent plus gérer des usines ; on trouvait des directeurs d’usine en Europe – en Allemagne, en Italie du Nord, en France un peu moins malheureusement, parce qu’on s’est trop désindustrialisés, beaucoup en Pologne, et, évidemment, en Chine. Ce qui est important, c’est que nous avons un patrimoine informationnel considérable. On génère un nombre très important de données industrielles, qui vont constituer une montagne de zettabytes d’informations nous permettant de développer des applications, du savoir-faire, des programmes, des services sur des éléments très importants pour notre productivité, alors que, pour l’instant, tous les services que vous utilisez s’appuient sur l’historique des usages personnels entre 2000 et 2025.

Nous avons là un patrimoine à préserver absolument. Mais comment ? À qui appartient-il ? Prenons un exemple : lorsque vous conduisez, vous produisez environ 30 pétaoctets de données par jour. Appartiennent-elles aux conducteurs, aux constructeurs automobiles, à la société d’assurance, aux garages qui assurent la maintenance de la voiture ? Nous avons posé des règles : c’est le Data Act. Là encore, c’était très compliqué à organiser – car ce n’est pas de la régulation, mais de l’organisation –, mais progressivement, nous avons commencé à mettre des règles de droit, donc de la confiance, dans l’espace informationnel.

Sauf que nos amis américains n’en veulent pas, évidemment, puisqu’ils ont déjà des services tout prêts. « Ne vous inquiétez pas, on arrive ! On a tout prévu, on a tout innové, on arrive clé en main : on a les systèmes de paiement, de reconnaissance. » Mais non ! Les cartes d’identité, ça appartient à l’État ; le paiement, c’est souverain. Pour répondre à vos questionnements sur la souveraineté, on comprend bien, si on prend le problème tel que je vous l’ai présenté, pourquoi il faut mettre des règles de droit, de confiance, dans l’espace informationnel. C’est tout l’objet du Data Act : plus d’actions de groupe… Vous n’imaginez pas le travail que j’ai dû déployer pour mettre d’accord les constructeurs automobiles, les associations d’automobilistes, les compagnies d’assurance, non pour rendre un jugement de Salomon, mais pour essayer d’organiser de façon la plus juste possible l’utilisation de ces données – car évidemment, tout le monde se bat.

Mais encore une fois, chez nous, en Europe, on sait que la donnée a une valeur. Nous n’avons pas un de ces marchés bifaces décrits par M. Jean Tirole, le prix Nobel d’économie : les données ont de la valeur parce qu’on les laisse circuler – l’accès à nos données nous permet d’obtenir un service gratuit, mais elles sont ensuite utilisées pour de la publicité ciblée, par exemple. Nous, nous avons mis du droit ; c’est le Data Act.

Vient ensuite le DSA (Digital Services Act), le règlement sur les services numériques, qui vise à poser des règles de droit dans l’organisation sociale. Il y a une organisation sociale intense sur les réseaux sociaux, où nous passons beaucoup de temps. Vous passez votre temps à organiser l’espace social physique, en y mettant – à juste titre – le plus possible de règles de droit. Vous le faites au niveau de l’État, vous discutez avec les collectivités locales, les maires. C’est un travail extrêmement important qui est partagé. Mais dans l’espace social, il n’y a rien. Donc, avec mes équipes, nous avons tout simplement essayé de transposer, de faire progressivement remonter les règles qui régissent l’espace physique dans l’espace informationnel.

Prenons des exemples très simples de comportements qui ne font malheureusement que trop l’actualité en ce moment : dans l’espace physique, on n’a pas le droit de proférer des propos antisémites ou racistes, ni de faire l’apologie du terrorisme ; dans l’espace informationnel, où nous passons désormais plus de temps que dans l’espace physique, non plus. Ce n’est pas une privation de la liberté de parole – la parole est très libre en Europe, c’est même nous qui avons inventé cette liberté, au siècle des Lumières, bien avant les Américains.

Mais notre histoire fait que, depuis la seconde guerre mondiale, on n’a plus le droit de faire l’apologie d’Hitler, alors qu’aux États-Unis, le premier amendement autorise tout, y compris de dire des choses sympathiques sur Hitler. En Europe – en particulier en Allemagne, mais chez nous aussi – c’est une infraction pénale. C’est le fruit de notre histoire, il faut le respecter. Si nous ne mettons pas de règles, les Gafa vont arriver avec leur propre système, beaucoup plus libre, et c’est encore une fois toute l’architecture de notre gouvernance, de notre État de droit, de la confiance, qui va s’effondrer.

C’est aussi vrai, par parenthèse, d’autres excès, comme le cyberharcèlement ou les attaques contre notre démocratie. Car il y a une autre dimension dans l’espace informationnel : au-delà de la création de liens, il peut amplifier des données de façon artificielle, sans savoir d’où elles viennent ni si elles sont vraies ou fausses. C’est tout le problème de l’accélération algorithmique. C’est la raison pour laquelle j’ai absolument voulu qu’on ait accès aux algorithmes quand on les soupçonne de pousser certaines données dans l’espace informationnel sans que l’on sache vraiment pourquoi. Cette transparence est un gage de confiance : elle permet aux destinataires d’une information de savoir si celle-ci émane d’un robot, si elle est réelle et, surtout, si le fournisseur de ces services, auquel nous offrons l’accès à notre espace informationnel, respecte nos règles.

Nous avons le premier espace informationnel au monde. Certes, celui de la Chine est plus important, mais nous sommes une fois et demie plus importants que celui des États-Unis. Ils ont 330 ou 340 millions de eyeballs, de paires d’yeux – c’est ce qui compte pour valoriser les données ; nous, nous sommes 450 millions : on comprend qu’ils aient tous envie de venir nous offrir des services. Nous sommes un continent ouvert, mais nous avons mis des règles, et elles doivent être respectées, car elles sont le fruit de notre histoire, de notre démocratie, de nos idées sur le vivre-ensemble et l’État de droit. C’est juste l’application pure et simple de la démocratie et du travail que vous faites au nom de l’intérêt général et du mandat que vous avez reçu – et que, moi-même, à Bruxelles, je faisais dans cet esprit. Donc s’ils veulent venir, qu’ils viennent, mais ils doivent respecter la loi. Voilà ce qu’on vérifie dans le DSA, qui porte plutôt sur les aspects sociaux de l’usage de l’espace informationnel.

Vient ensuite le DMA, le Digital Markets Act, qui a pour objet d’introduire des règles de droit économique dans l’espace informationnel, à l’instar de celles qui régissent le monde physique pour éviter les concentrations et les abus de position dominante – et Dieu sait à quel point certains acteurs jouent l’éviction ou le monopole. Des règles économiques strictes, rigoureuses, ont donc été établies afin de garantir à chacun la possibilité d’émerger sur ce marché. Cette régulation est d’autant plus cruciale au moment où s’ouvre la phase de l’usage massif des données industrielles et professionnelles. L’unification de l’espace informationnel européen devrait permettre l’émergence de champions européens capables d’exploiter ce patrimoine informationnel sous-jacent, qui appartient à l’Europe et que tout le monde essaie de piller. C’est bien de cela qu’il s’agit : forts de ce qui s’est passé en 2025, les géants du numérique s’efforcent de rééditer l’expérience – bis repetita.

Enfin, l’AI Act, la loi européenne sur l’intelligence artificielle, revêt une importance capitale. Il n’a pas toujours été très bien compris en France, et je le regrette ; sa réception a parfois été influencée par des acteurs que je connais bien et dont les intérêts étaient peut-être trop alignés avec les positions américaines – je ne leur en fais pas le reproche, car chacun est libre. Pour ma part, ma mission consistait à défendre l’Europe, et personne d’autre. Or l’AI Act a été conçu précisément à cette fin : il s’agit d’affirmer qu’en Europe, certains usages doivent être encadrés. Ce règlement est fondé sur une approche par les risques, qui vise à encadrer le développement de l’intelligence artificielle lorsque celle-ci présente des dangers potentiels. Je le redis, à l’instar du marché intérieur, l’espace informationnel doit offrir de la sécurité, de la confiance et de la protection aux consommateurs, donc à nos concitoyens.

Ainsi, l’AI Act distingue cinq niveaux de risque. Par exemple, les parlementaires ont décidé de proscrire le recours au social scoring, cette pratique qui consiste à utiliser les traces laissées par un individu dans son espace informationnel pour restreindre ses droits ou ses libertés ; elle est tout à fait autorisée en Chine, mais nous la refusons. De même, c’est interdit en matière de recrutement, que ce soit dans les entreprises ou dans les administrations. S’agissant ensuite des applications de santé, une exigence de transparence s’applique désormais aux data sets. Quand vous prenez un médicament, vous voulez connaître sa composition ; de la même manière, nous devons savoir quelles données ont servi à entraîner un système d’IA qui fait par exemple de l’aide au diagnostic. Certaines pathologies diffèrent selon le contexte géographique ; c’est un fait. Et si elles sont issues de prisonniers ouïghours, on veut le savoir ! Encore une fois, la nature des données a un impact sur la validité du système et peut en outre introduire des risques.

Quand on utilise des systèmes d’intelligence artificielle pour des applications qui sont elles-mêmes potentiellement génératrices de risques, comme la mobilité ou la conduite autonome, des précautions s’imposent également. Je pense aussi aux auteurs et aux compositeurs : lorsqu’ils créent des œuvres, celles-ci sont stockées, comme toute activité humaine ; on veut savoir si ces contenus sont utilisés pour entraîner des modèles. À ce titre, j’ai beaucoup plaidé pour l’instauration d’un watermarking permettant de distinguer clairement les contenus générés par l’IA et ceux issus de l’activité humaine.

Je vous prie de m’excuser pour avoir été si long, mais il me semblait essentiel de poser ce décor pour mieux répondre ensuite à vos questions. Je pourrais énumérer tout ce qui ne va pas et tout ce qu’il faut faire, mais c’est la partie la plus facile ! Ce qui importe, c’est vraiment de prendre la mesure de ce changement de monde et de ce qu’il signifie pour nous. Nous entrons dans l’ère du rapport de force. Il faut aussi souligner que nous sommes le premier continent à avoir décidé de prendre enfin ce problème à bras-le-corps, et que nous l’avons fait en nous dotant d’un corpus législatif particulièrement solide. En tant que législateur, votre rôle ne s’arrête pas au vote de la loi : vous devez ensuite décider à qui vous allez donner le droit d’agir en notre nom à tous pour la faire appliquer. Vous êtes nos représentants ; à ce titre, vous êtes en droit d’attendre de ceux à qui vous confiez l’application de la loi qu’ils la fassent effectivement appliquer, et rapidement – non avec sévérité, mais avec diligence.

Force est de constater que ce corpus législatif existe désormais. Ces cinq actes législatifs qui structurent notre espace informationnel ont tous été adoptés par une majorité écrasante de parlementaires européens, recueillant entre 85 % et 95 % des suffrages. C’est un fait rare, voire inédit dans notre histoire institutionnelle et démocratique. Quand j’entends ceux qui, après avoir voté pour ces textes ou s’être abstenus, crient au scandale en dénonçant des atteintes à la liberté, je me demande d’ailleurs pourquoi ils n’ont pas voté contre. Je ferme la parenthèse, car je ne souhaite pas m’engager dans ces débats politiciens, mais les faits sont là. Quoi qu’il en soit, ce corpus demeure notre acquis, un acquis démocratique. Le Parlement européen a accompli un travail remarquable et je tiens à rendre hommage, devant la représentation nationale, à l’engagement extraordinaire de ses membres. Je les ai beaucoup côtoyés et je peux vous assurer, pour avoir échangé avec les représentants de nombreux pays – beaucoup sont venus nous voir, de la Corée du Sud au Japon en passant par les États-Unis –, que les parlementaires européens sont, de très loin, les plus à même de saisir ces enjeux et d’y apporter des réponses pertinentes.

Nous disposons donc d’un corpus législatif : il faut maintenant l’appliquer. J’ai moi-même lancé un certain nombre d’enquêtes lorsque j’étais encore commissaire, avant ma démission en septembre 2024 ; ces procédures sont toujours en cours. Je ne formulerai évidemment aucun jugement sur ces dossiers – je m’interdis de le faire –, mais il vous appartient, si vous le jugez utile, de vous en saisir. En tout état de cause, la loi est là pour être exécutée. Dans l’espace informationnel, les choses vont très vite ; il faut donc non pas de la précipitation, mais de la célérité et des moyens adéquats. Ces moyens existent : avec mes équipes, nous avons recruté près de 170 personnes de très haut niveau – des docteurs, des scientifiques. Nous disposons désormais de compétences équivalentes à celles des entreprises fournissant les services que nous régulons. Nous sommes équipés : nous sommes tout à fait en mesure d’analyser ce qui se passe, de décrypter les algorithmes et d’agir sur le plan juridique – et quand je dis « nous », je parle de la Commission, qui a reçu délégation pour ce faire ; il faut donc évidemment appliquer ces règles.

Nous ne sommes pas naïfs : la confiance, ce socle sur lequel nous reposions, s’est brisée. Certains sont restés très attachés à une vision atlantiste – et je ne les critique pas, ayant moi-même passé la moitié de ma vie aux États-Unis. J’aime ce pays que je connais par cœur ; j’y ai créé ma première entreprise, avant d’y diriger d’autres entreprises et d’enseigner dans des universités comme Harvard. Il vit ce qu’il vit aujourd’hui – c’est la démocratie ; mais il est clair que dans ce monde nouveau qui est apparu depuis le 20 janvier 2025, l’Europe doit prendre conscience que nous sommes entrés dans une ère de rapports de force. Nous avons les moyens d’y prendre part, y compris au sein de notre espace informationnel, marché extraordinairement lucratif où certains acteurs réalisent jusqu’à 30 %, 40 % voire 50 % de leurs profits. Très bien, mais nous – et je dis « nous », là encore, même si je n’y suis plus, mais vous y êtes, vous –, nous avons édicté des règles de droit. Notre rôle, c’est de faire en sorte que la loi soit appliquée pour protéger ceux que nous avons la responsabilité de protéger, à commencer par nos enfants. Des discussions sont en cours sur la limite d’âge pour l’accès aux réseaux sociaux : c’est un débat légitime, mais l’application stricte du DSA permettrait de résoudre ces questions. Si nous sommes contraints de légiférer à nouveau, c’est précisément parce que la loi existante n’est pas appliquée assez vite. Certains vous diront que vous n’avez pas le droit de le faire parce que c’est à l’Europe de s’en charger ; eh bien, qu’elle le fasse !

J’ai cru comprendre, du reste, que l’initiative était prise : pas plus tard que ce matin, la présidente de la Commission, Mme von der Leyen, aurait décidé d’agir toutes affaires cessantes. Tant mieux ! Mais encore une fois, les lois existent, qu’on les applique ! Elles n’ont pas été conçues pour ostraciser quiconque ni pour cibler spécifiquement les entreprises américaines, chinoises – comme AliExpress ou TikTok – ou singapouriennes ! Des entreprises européennes y sont également soumises, bien entendu, puisqu’il y a de très grandes entreprises en Europe. Dans les discussions qui se sont engagées à partir de 2025, notamment sur les questions tarifaires, le rapport de force a été explicite : les plus hautes autorités américaines ont clairement mis en balance le maintien de ces lois avec l’augmentation des droits de douane. Je suis bien placé pour le savoir, puisque cette posture m’a valu mon bannissement.

Et pourquoi exigent-elles le retrait de ces lois ? Pour deux raisons. La première est structurelle : dans ce monde qui s’est redessiné depuis vingt-cinq ans, les géants du numérique, qui se sont constitués notamment grâce à nos données personnelles, se sont accommodés de la fragmentation des Vingt-Sept. C’était peut-être un peu compliqué et un peu lourd, mais ils ont profité de cette dispersion pour s’établir dans les États membres les plus conciliants – je pense notamment à l’Irlande – puisque c’est le pays où l’on installe son siège social qui assurait la régulation.

La seconde raison tient à l’avènement d’un marché intérieur unifié. Désormais une fois et demie plus vaste que celui des États-Unis, cet espace constitue un levier de développement inédit et, contrairement à ce que certains prétendent, il offre finalement davantage de souplesse. Il impose certes des règles de vivre-ensemble et il doit y avoir une modération pour vérifier que nos lois relatives à l’expression publique sont appliquées – en particulier celles sur le terrorisme, le racisme et d’autres contenus interdits –, mais il libère surtout une capacité formidable de croissance, propice à l’émergence de nouveaux acteurs. La fragmentation européenne a fait de nous, d’une certaine manière, les idiots utiles de ceux qui ont su s’adapter et tirer profit de la liberté que nous leur avons concédée ces vingt-cinq dernières années. Je le répète : nous ne sommes pas naïfs. Les choses sont claires. Je vous parle librement, vous le voyez, et je m’exprimais avec la même liberté devant mes homologues américains pour leur exposer notre projet.

Je voudrais conclure, si vous le permettez – nous pourrons ensuite aborder les points plus techniques susceptibles d’intéresser la commission –, en soulignant le travail que nous avons accompli, moi et mes équipes, avec les colégislateurs que sont le Parlement et le Conseil européens. Nous avons mené un véritable combat. C’est dans l’ordre des choses ; vous êtes bien placés pour le savoir. On doit vous savoir gré de mener, quelles que soient vos appartenances politiques, cette mission d’intérêt général : c’est un engagement qui implique des sacrifices, et j’en suis pleinement conscient. N’en doutons pas : cette tâche a été ardue, même sous l’administration Biden. Le poids des Gafa est tel, et l’osmose entre eux et le pouvoir politique est si forte, que ces grandes entreprises savent très bien se faire entendre. Pourtant, nous avons réussi.

Une anecdote. Quelques jours avant ma démission – motivée par des questions de gouvernance, ou plutôt par un manque de gouvernance, ce qui était mon sujet de préoccupation majeur –, j’ai reçu une haute responsable du département d’État américain – une personne vraiment très haut placée –, qui avait demandé à venir me voir. Nous étions en août 2024, à la fin de l’administration Biden. Je l’ai donc reçue en présence d’un collaborateur et de l’ambassadeur des États-Unis. Elle m’a alors fait cette confidence – je vais commettre un crime de lèse-majesté et vous allez me rappeler à l’ordre, mais tant pis, je le dis en anglais : « Mister Commissioner, I came to tell you thank you – Je suis venue vous dire merci. » Je lui ai répondu : « Merci, c’est gentil, mais pourquoi ? » « Thank you for everything you did in the digital space – Merci pour tout ce que vous avez fait dans l’espace informationnel. » J’ai alors réagi : « Pourtant, vous ne m’avez pas aidé ! » Sa réponse fut sans équivoque : « Yes, but we were wrong – Oui, mais on a eu tort ». « Parce que tout ce que vous avez fait, ajouta-t-elle, nous n’arrivons pas à le faire aux États-Unis ; c’est un travail parlementaire gigantesque et nous sommes trop fragmentés. Ce que vous avez fait, qui va dans le sens de l’intérêt général, les Gafa vont devoir se l’appliquer pour vous ; nous allons donc pouvoir en bénéficier, par effet de bord ». Il s’agissait de l’administration démocrate ; venant d’elle, cette reconnaissance a sans doute aggravé mon cas : tout se sait et lorsque j’ai appris, le 23 décembre 2025, que j’étais désormais interdit de séjour aux États-Unis, je me suis souvenu de cet entretien, qui avait eu lieu, vous l’avez compris, avant le 20 janvier 2025.

M. le président Philippe Latombe. Comment voyez-vous l’omnibus numérique ? Est-ce une matérialisation de ce rapport de force ? Est-ce un recul par rapport aux législations que vous avez défendues ?

M. Thierry Breton. Je vais vous répondre à deux niveaux. D’abord, ces lois sont très récentes ; elles ne sont appliquées que depuis douze à dix-huit mois. C’est la première fois que je vois des textes dont l’élaboration et l’adoption ont nécessité trois ou quatre ans de travail parlementaire être remis en question si tôt, avant même que nous ayons pu mesurer leurs premiers effets. À peine entrés en application, on nous suggère déjà de commencer à les « simplifier ». Je n’avais jamais vu cela de ma carrière, mais il faut un début à tout… Cette situation est surprenante – pour vous comme pour moi, manifestement, monsieur le président. Comme vous, je m’interroge.

Mon deuxième niveau de réponse concerne la nature même de ces lois, qui ont été conçues comme de véritables architectures. La technologie évolue, tout comme son usage et nos comportements dans l’espace informationnel. Hélas, certaines de ces évolutions seront des déviances. Nous avons donc bâti un cadre adaptable, dans lequel on peut plugger, comme on dit dans notre jargon, c’est-à-dire brancher de nouvelles législations sectorielles dès que le besoin s’en fait sentir. Prenons l’exemple de la limite d’âge : une application rigoureuse des lois en question permettrait, me semble-t-il, de répondre aux problèmes soulevés. Mais si cela ne suffisait pas, nous pourrions toujours plugger des dispositions spécifiques sur ce cadre existant, sans en modifier la structure fondamentale. Ce cadre est indispensable pour les législateurs mais il l’est tout autant pour les entreprises qui, pour s’y adapter, ont durablement modifié leurs pratiques. Puisqu’il existe, il faut l’utiliser.

Je vais maintenant sortir un instant de ma condition. Vous l’avez bien vu : j’ai essayé de vous répondre avec la plus grande franchise, sans langue de bois. Mais compte tenu de la position qui est la mienne, je souhaite que mes propos ne souffrent d’aucune ambiguïté, car ma seule motivation est l’intérêt général. Je regrette donc que ces lois n’aient pas été appliquées plus rapidement. En tant qu’usager, en tant que père et grand-père, je vois les dégâts causés par ces réseaux, notamment chez les jeunes qui sont rendus dépendants. Ce sont des services qui sont conçus pour être addictifs ; or nous avons les moyens de les contrôler, mais nous ne le faisons pas. Les exemples sont légion.

Certains envisagent d’assouplir la réglementation pour faciliter la vie des entreprises, mais l’enjeu n’est pas là. Comme je l’ai rappelé, nous avons enfin instauré un cadre européen solide : il faut s’en servir. Quant à la volonté de simplification, certains journalistes s’en sont fait l’écho. Je m’abriterai derrière leurs analyses – sans me prononcer sur leur bien-fondé –, car je m’interdis désormais tout contact avec la Commission : il est naturel et légitime que mes successeurs puissent agir sans la moindre interférence de ma part. J’ai donc lu, comme vous, que certains journalistes s’interrogeaient sur l’omnibus numérique : ne serait-il pas le fruit de concessions destinées à éviter je ne sais quoi ? Il faut faire preuve de vigilance dans ce domaine. Nous devons veiller à ce que ces omnibus ne servent pas de levier pour dénaturer ce que 90 % des parlementaires européens ont voulu, au terme, je le redis, d’un travail extrêmement approfondi mené en leur âme et conscience et pour l’intérêt général. Alors quoi ? Se seraient-ils trompés à ce point ? La démocratie doit être respectée, y compris dans l’application effective des lois qu’elle produit. Ces textes n’ont qu’un an ou dix-huit mois ; ils commencent seulement à être appliqués et les mesures qu’ils contiennent sont pionnières au niveau mondial. Comment peut-on vouloir les simplifier, voire les détricoter ? Je n’irai pas plus loin.

Mme Cyrielle Chatelain, rapporteure. Vous avez été l’architecte de grandes réglementations européennes ; c’est pourquoi votre point de vue nous importe. Les parlementaires font parfois preuve de beaucoup d’imagination, comme vous l’avez dit ; bien légiférer requiert une connaissance fine des enjeux pour identifier les leviers d’action les plus pertinents.

Au-delà du rappel historique que vous venez de faire sur l’architecture globale de la réglementation européenne, j’aimerais que nous abordions sa mise en œuvre. Il faut souligner que les premières amendes ont été prononcées, mais qu’elles sont jugées peu dissuasives. Je comprends que vous ne vouliez pas vous exprimer à propos de l’actuelle Commission, mais c’est un écosystème bien plus vaste qui est concerné. Dès lors, quels sont, selon vous, les principaux obstacles – qu’ils soient juridiques ou politiques – qui freinent la bonne application de ces textes ?

Ensuite, eu égard à l’impact délétère des algorithmes, considérez-vous qu’il s’agisse d’éléments nocifs devant faire l’objet d’un encadrement spécifique ? Et si tel est le cas, selon quelles modalités ?

Enfin, vous avez insisté sur la puissance du marché européen et, parallèlement, sur le caractère néfaste de certaines plateformes, notamment pour les plus jeunes. Dans cette perspective, faut-il envisager, parmi les outils à notre disposition, une fermeture – temporaire ou prolongée – du marché européen aux plateformes qui persisteraient à ne pas respecter nos règles ?

M. Thierry Breton. Une amende a effectivement été prononcée, et elle a eu un certain retentissement. C’est d’ailleurs quelques jours après l’annonce de cette sanction que j’ai été informé que je n’étais plus persona grata aux États-Unis – je ne dis pas qu’il y a une relation de cause à effet entre ces deux événements, mais je remarque la coïncidence du calendrier. Il faut toutefois relativiser : 120 millions d’euros représentent un montant dérisoire pour des entreprises qui valent des centaines, voire des milliers de milliards. Elles ne se retrouvent pas étranglées. Je rappelle que les textes votés par les colégislateurs, en l’occurrence le DSA – puisque c’est bien celui auquel vous faites allusion, même si des sanctions ont aussi été prononcées au titre du DMA –, prévoient des amendes pouvant aller jusqu’à 6 % du chiffre d’affaires mondial. Si la plateforme ne corrige pas les manquements qui ont été identifiés, la procédure permet de saisir un juge pour obtenir, le cas échéant, une décision de fermeture temporaire du service.

Je me suis beaucoup battu pour introduire cette possibilité. J’ai eu du mal à y parvenir, car nombre de mes collègues atlantistes de la Commission – je ne les critique pas – étaient contre. Je tenais absolument à ce dispositif, car il s’agissait là enfin d’une sanction majeure pour des entreprises qui font 30 %, 40 % voire 50 % de leur chiffre d’affaires sur le marché européen. Or elles ne regardent qu’une chose : la réaction des marchés financiers. Pour nous, c’est un élément essentiel : si nous représentons un tel poids dans leur chiffre d’affaires et leurs profits, nous devons l’utiliser dans la logique de rapport de force qui prévaut désormais – et qui, hélas, s’est substituée à la logique de confiance. Cette décision m’amène à répondre à une autre de vos questions : la fermeture temporaire doit être maintenue jusqu’à ce que la plateforme dite systémique – c’est-à-dire qui compte plus de 45 millions d’utilisateurs, soit 10 % des consommateurs européens, et qui est donc soumise à la régulation du DSA – ne remédie à ses effets délétères.

Arrêtons-nous un instant sur ce point. Cette première amende est le fruit d’une enquête que j’avais lancée avec mes services de la DG Connect (direction générale des réseaux de communication, du contenu et des technologies), où sont regroupés les experts chargés de la régulation des plateformes. Elle visait l’utilisation peu claire – certains utiliseront d’autres termes – des « coches bleues » sur le réseau X. Si cela peut sembler anecdotique par rapport à l’ambition globale de nos textes, il s’agissait tout de même d’un manquement avéré ; il fallait donc le signaler. D’autres manquements, dont les effets sont peut-être plus délétères pour les usagers, ont également justifié le déclenchement d’enquêtes qui, elles, sont toujours en cours. Tous ces détails sont publics.

Il y a une chose que j’aurais aimé retrouver dans la législation omnibus – peut-être, du reste, n’est-il pas trop tard pour que vous le demandiez. Si l’on m’a souvent qualifié d’« architecte », je récuse un peu ce terme ; en tant que commissaire, j’ai travaillé avec des équipes. Bien sûr, j’ai été l’inspirateur et l’animateur, le patron pour ainsi dire, mais c’est un immense travail d’équipe qui a été accompli. Le texte final a ensuite été validé par le collège des commissaires, après de nombreuses discussions, avant d’être transmis aux colégislateurs. Ces derniers ont, à juste titre, largement amendé le texte initial, tout comme vous le faites ici avec les projets de loi.

C’est pourquoi je tiens à insister sur le caractère collectif et démocratique de ce travail. J’ai certes donné l’impulsion, je le reconnais, mais celle-ci a été relayée par toute une chaîne d’acteurs qui, en se l’appropriant, y ont apporté une réelle valeur ajoutée. Une fois ces règlements adoptés, ma mission a évolué : en tant que commissaire chargé de leur exécution, mon rôle consistait non seulement à veiller à leur respect strict, mais surtout à garantir que les plateformes opérant sur le marché européen se conforment à nos standards. L’objectif fondamental, à travers cette régulation, est d’introduire de la sécurité et de la confiance au sein de notre espace informationnel, là où elles faisaient défaut.

Ce travail a nécessité un effort de longue haleine, engagé bien en amont de la phase opérationnelle. Je suis allé rencontrer les responsables de toutes les entités potentiellement désignées comme plateformes systémiques – à San Francisco, à Houston, à Singapour… J’y suis allé avec mes équipes, non par goût du voyage – j’avais suffisamment voyagé dans mes fonctions précédentes – mais parce qu’il était indispensable de les rencontrer chez eux. Mon objectif était de leur expliquer, de vive voix, la philosophie voulue par les colégislateurs et la manière dont ils devaient s’y préparer.

On était encore dans le monde d’avant, fondé sur la confiance. Et tous – je dis bien tous – m’ont accueilli avec énormément d’intérêt. Chacun était à sa place. Il y avait du respect mutuel et de l’écoute, y compris de la part d’Elon Musk. Dans une vidéo que vous pourrez retrouver, tournée juste avant qu’il décide de racheter Twitter – devenu X –, je lui explique ce qu’il va devoir faire et il me répond « Sounds good » : cela lui semble bien, il comprend et il va bien entendu appliquer ce dont nous parlons.

À tous, nous avons expliqué les choses. Nous leur avons même proposé des stress tests pour leur montrer comment se déroulerait une éventuelle enquête et pour les y préparer. Mon objectif en effet n’était pas de leur infliger une sanction mais d’obtenir la sécurité voulue par nos colégislateurs, c’est-à-dire par la démocratie, pour ces réseaux.

Ce qui est important, c’est que cela s’est fait avec énormément de confiance et de respect. Mais comme vous peut-être, en tout cas comme beaucoup d’entre nous, j’ai ensuite été sidéré. Tous ces patrons de la tech que je connais bien avaient travaillé avec beaucoup d’allant – je n’irais pas jusqu’à parler d’enthousiasme – et avaient commencé à mettre en place les règles du DSA, y compris celles relatives à la modération. C’était le cas notamment de Mark Zuckerberg. Et puis, en janvier 2025, ils ont tous été invités à la Maison-Blanche, en première ligne. Certains avaient des mines réjouies, d’autres un peu moins. Quoi qu’il en soit, j’ai constaté comme vous un changement radical. On est entré dans un autre monde, un monde de rapports de force. Maintenant, il faudrait supprimer ce qui avait été fait ? Jamais personne ne m’avait dit cela avant, bien au contraire.

Vous me demandez ce qu’il reste à faire. Dans le DMA, on a prévu un délai d’un an – de mémoire – car il faut aller vite. Certes, nous sommes un État de droit et nous laissons la place au contradictoire. Lorsqu’un problème survenait, je demandais d’abord à mes équipes d’aller l’expliquer aux plateformes, plutôt que de les punir. Notre but n’était pas de nous faire de l’argent sur leur dos mais d’arriver à obtenir la confiance, la sécurité et la sérénité. Nous avons beaucoup corrigé ainsi, de façon constructive. Maintenant, les plateformes sont entrées dans une logique de rapport de force.

Pour le DMA, il y a donc une obligation de contradictoire, ce qui est normal. Et le temps pour répondre est imparti, comme dans une enquête classique.

Pour le DSA, c’est un peu la même chose, sauf qu’il n’y a pas de limite, ce dont jouent un certain nombre d’avocats. Je ne les critique pas, ils font ce qu’on leur demande de faire. Mais à partir du moment où certains ont les moyens de s’offrir les meilleurs cabinets d’avocats du monde, ils vont pouvoir continuer à agir au détriment de ceux qui souffrent des manquements que nous instruisons.

C’est quelque chose que je tenais à vous signaler. S’il fallait faire évoluer la législation avec un omnibus, ce ne serait pas pour la simplifier mais pour commencer à borner les choses. Ce serait une belle amélioration.

M. Éric Bothorel (EPR). Je me réjouis de vivre dans un pays qui, lorsqu’un désaccord survient avec un acteur étranger, choisit non pas de le bannir mais de l’inviter de manière cordiale à venir s’expliquer le 20 avril prochain en audition libre, devant les équipes de Mme la vice-procureure Johanna Brousse. J’espère que M. Elon Musk saura saisir cette opportunité – une opportunité dont vous êtes privé puisque les États-Unis vous sont interdits, alors même que rien ne peut vous être reproché.

Dans votre riche parcours, je veux interroger l’ancien commissaire européen en charge notamment du marché unique et du numérique. Vous avez été moteur pour l’adoption de règlements européens majeurs : le DSA, le DMA, l’AI Act et le Data Act. L’Europe était alors en train de se construire comme un marché numérique de poids avec sa propre philosophie, créant un modèle vertueux entre le far west américain et l’omnicontrôle des modèles russe ou chinois.

Depuis, l’Europe tremble à l’heure de se servir de son pouvoir de sanction contre les grands acteurs américains ou chinois. Depuis, les États membres multiplient les ébauches de réglementations nationales sur les mineurs et le numérique, sur les data centers ou sur les limitations à imposer à l’IA ; on l’a vu au Sénat la semaine dernière. Certaines ONG sont aussi source de jurisprudence : je pense à Democracy Reporting International, qui a obtenu l’accès aux données en Allemagne. Je pense aussi à la décision prise contre Meta aux Pays-Bas, qui va néanmoins se traduire par une fragmentation supplémentaire puisque Meta a indiqué qu’elle ne s’appliquerait que dans ce pays. Depuis, on présente le numérique exclusivement à charge, comme l’espace de tous les dangers et non plus comme celui des nombreux possibles.

Comment comprenez-vous le retour des approches nationales sur ces sujets ? Comment lisez-vous la nouvelle timidité européenne ? Plus globalement, le fait d’agir en Français et non en Européens n’est-il pas le moyen le plus sûr de rester dépendants en matière numérique dans un moment où, comme vous le dites vous-mêmes, il faut accepter voire provoquer le rapport de force ?

Le Chips Act, le règlement européen sur les semi-conducteurs, prévoit environ 43 milliards d’euros d’ici 2030 alors que TMSC – dont le T désigne Taïwan – investit à lui seul plus de 50 milliards de dollars par an, entre R&D et capacité industrielle. Dans ces conditions, l’Europe peut-elle réellement espérer rattraper son retard technologique ? Ou bien faut-il reconnaître que le Chips Act relève davantage d’une stratégie de souveraineté limitée que d’une ambition véritable de rivaliser avec les leaders asiatiques ?

Je profite de l’occasion pour vous dire que je bois vos paroles lorsque vous évoquez, au sujet des limites d’âge, notre capacité à produire du droit. Si nous pouvions rendre contraignantes les lignes directrices du DSA, nous nous épargnerions bien des débats ici et, peut-être, des commissions d’enquête sur les commissions d’enquête !

M. Thierry Breton. Et donc le plaisir pour moi d’être parmi vous, puisque je ne doute pas qu’on m’y inviterait !

On a voulu des règlements pour que précisément ils s’appliquent pour tout le monde – et non pas pour proposer une hégémonie européenne par rapport aux politiques nationales. Je sais qu’un certain nombre de partis politiques voient les choses ainsi mais ce n’est pas le cas. Plus aucun parti politique en France ni même en Europe, me semble-t-il, ne prône la sortie de son pays de l’Europe – même si chacun a évidemment sa propre appréciation quant au rôle des pays. C’est normal, c’est la démocratie.

C’est une évolution majeure par rapport à ce que l’on voyait encore jusqu’en 2015, 2016 ou 2017. Les sondages montrent que nos compatriotes sont tous très attachés à cet échelon européen. Celui publié dernièrement par Le Grand Continent montre, avec des scores incroyables, que tous les Européens savent désormais que l’Europe nous protège.

Je le dis parce que c’est important : si l’on promeut des règlements européens, c’est pour utiliser la puissance que nous représentons ensemble. Or s’il y a un espace qui ne reconnaît pas les frontières, c’est bien l’espace informationnel. J’ai retracé longuement l’historique tout à l’heure, je m’en excuse, mais c’est important de l’avoir en mémoire. Je ne doute pas que ce soit votre cas, mais je pense aussi à ceux qui nous regardent – je sais qu’ils sont très nombreux ! – et que j’espère ne pas avoir embêtés. Il faut comprendre d’où l’on vient pour savoir où l’on va.

Ce qui est très important, c’est que nous ayons une architecture permettant la circulation de nos données dans un marché intérieur enfin unique, et que nous puissions les utiliser sans entraves avec une même régulation. Je pense en particulier, je le redis, aux données professionnelles et industrielles car c’est dans ce domaine qu’il va y avoir des services et des innovations absolument formidables, y compris pour la robotique et l’IA.

Il faut appliquer avec vigueur les lois en considérant non pas qu’elles sont punitives mais qu’elles bâtissent notre architecture : il faut demander à la Commission qu’elle les applique vigoureusement et sans délai. Chaque délai ouvre une faille. Lorsque des drames surviennent sur les réseaux, vos électeurs ne comprennent pas pourquoi on n’a pas agi. Il y a le DSA ? Mais qu’attend-on pour l’appliquer ? Et au bout d’un moment, un certain nombre de pays décident d’agir eux-mêmes, ce qui crée de la complexité et de la fragmentation. Or les règlements sont des lois d’application directe qui s’imposent aux États car on a voulu, dans ce domaine, bénéficier de la globalité et de la profondeur du marché intérieur.

Je le redis : il faut du leadership et de la célérité ! Les choses ne sont pas parfaites, je suis le premier à le dire, mais je vous ai donné des clés : par définition, nous ne pouvions pas tout imaginer, et l’architecture transversale a été pensée pour vous donner à vous, législateur – ainsi qu’à nos successeurs et aux vôtres –, la capacité de faire évoluer les lois, pour les renforcer ou peut-être aussi pour les simplifier.

Je vous le dis : il faut être très vigilants et actifs. Je sors un peu de ma condition mais je voudrais souligner une chose. Compte tenu de la taille de notre pays, nous envoyons un très gros contingent de députés à Bruxelles. Or je sais que pour beaucoup de nos compatriotes, Bruxelles, c’est trop loin : ils votent contre un état d’esprit, contre un gouvernement, contre une mesure en particulier – ce qui est moins le cas évidemment pour un parlementaire français et encore moins pour un maire. Choisir un député européen, pourtant, c’est aussi important que de choisir un député national. Voter, c’est choisir quelqu’un pour porter notre voix, notre façon de voir les choses au niveau du Parlement européen. Le rôle du député européen est très important. Il n’est pas que politique, il est aussi sectoriel.

Croyez bien que je ne porte aucun jugement. Je suis de ceux qui respectent tous les élus. Je parle avec tout le monde, il n’y a pas d’ambiguïté sur ce point. J’ai un profond respect pour la démocratie. Mais ce que j’ai pu voir, c’est qu’en fonction des groupes auxquels ils appartiennent, certains jouent un rôle plus structurant et pèsent davantage que d’autres. Moi qui ai rencontré tous les députés français, je vais vous le dire comme je le pense : souvent, ils étaient moins organisés et moins efficaces que les députés espagnols, allemands ou italiens.

Il faut que la démocratie joue pleinement son rôle pour que nous puissions faire ce que nous avons à faire. C’est vrai pour les électeurs comme pour les parlementaires. J’ai voulu insister tout à l’heure sur le rôle absolument fondamental du Parlement. Les chiffres que j’ai cités – 85 % à 90 % de votes en faveur des textes – montrent que tous les partis ont joué leur rôle, sans distinction.

Le Chips Act, que j’ai aussi défendu, avait une vocation très importante. Alors qu’au début de ce siècle, 20 % à 30 % des semi-conducteurs étaient fabriqués sur le territoire européen, ce pourcentage est descendu à 8 % un quart de siècle plus tard. Est-ce que c’est grave, docteur ? Oui et non. Non dans le monde d’avant qui était un monde de confiance, dans lequel les chaînes de valeur qui structurent la planète étaient enserrées dans des règles de droit et n’étaient pas utilisées comme éléments d’un rapport de force. Ces chaînes avaient souvent été conçues, du reste, pour optimiser la logistique, le coût, la disponibilité, l’accessibilité, la séparation des tâches – donc pour redonner du pouvoir d’achat supplémentaire, à la fin, au consommateur. C’est le rôle qu’elles ont joué. Ce n’était pas une mauvaise approche mais elles n’étaient pas conçues pour être utilisées dans un rapport de force – une chaîne de valeur crée en effet, par définition, de la dépendance.

Or nous sommes entrés dans un autre monde et certaines de ces chaînes sont désormais vécues comme des éléments de dépendance, donc de rapport de force, et peuvent jouer contre nos souverainetés – c’est l’objet de votre commission.

J’ai vraiment poussé en faveur du Chips Act, qui fixe pour objectif de remonter la production européenne à 20 % de la production mondiale à l’horizon 2030 – un objectif qui ne me semble pas inatteignable, même si nous avons pris un peu de retard.

Vous n’imaginez pas les centaines d’heures que j’ai passées, y compris avec mes amis américains, qui ont fait un Chips – creating helpful incentives to produce semiconductors –and Science Act pratiquement en parallèle. J’ai très souvent rencontré ma collègue Gina Raimondo, qui était secrétaire au commerce. Elle m’avait expliqué que les Américains voulaient prendre les chips à très forte valeur ajoutée – c’est-à-dire inférieurs à 2 nanomètres, que les machines d’ASML peuvent pourtant très bien fabriquer – et nous laisser les autres… Il faut lutter contre cette tendance, qui existe toujours ! Il faut impérativement que nous ayons nous aussi la capacité de produire sur le territoire européen tous les semi-conducteurs, y compris ceux de 1,8 nanomètre.

Pourquoi ? Je suis de ceux qui travaillent à réindustrialiser la France. On va y arriver. Je n’ai pas de baguette magique, mais je sais ce qu’il y a à faire. Une usine aujourd’hui n’est plus la même qu’hier : elle fabrique des produits – bien souvent avec des imprimantes 3D ou des robots – de plus en plus finalisés, pour des usages de plus en plus spécifiques. Or la différenciation se fait par l’intégration de semi-conducteurs et de processeurs très avancés, y compris prêts à traiter le résultat de l’intelligence artificielle – c’est-à-dire le savoir hérité, notamment industriel, qui est stocké en Europe et qui ne l’est pas aux États-Unis.

Il est donc nécessaire de rapatrier les usines en Europe pour deux raisons : parce que cela limite la dépendance, et parce que les chips sont nécessaires à la différenciation des produits. Quand vous commandez une voiture, on vous demande si vous la voulez verte, bleue ou rouge et quelles options vous souhaitez. Les produits fabriqués sont beaucoup plus sophistiqués qu’auparavant. Ils intègrent des fonctionnalités d’intelligence artificielle qui les rendent plus intelligents et élargissent leurs capacités. Il n’y a plus un seul produit sans semi-conducteur, pas même votre sèche-cheveux ! Or les semi-conducteurs sont autant de portes d’entrée pour des attaques cyber, d’où la nécessité de se protéger ; c’est la raison pour laquelle j’ai mis en place le Cyber Resilience Act, le règlement sur la cyberrésilience.

Plus on est proche du client, plus on fait de la différenciation, plus on crée de la valeur ajoutée : désormais, les usines de semi-conducteurs doivent être à proximité des lieux de consommation et des lieux de production standard. Si vous produisez à 8 000 kilomètres… – et je ne parle même pas du fait que le trafic maritime passe par sept détroits, dont un et demi est aujourd’hui fermé, ce qui accroît encore nos dépendances.

Voilà les raisons pour lesquelles j’ai conçu le Chips Act, et pour lesquelles je me suis battu pour que nous ayons en Europe les usines les plus avancées.

Le Chips Act permet d’avoir des autorisations beaucoup plus rapides pour construire des usines. Pour le coup, voilà un domaine où on souffre et où il faudrait une loi omnibus de simplification, madame la rapporteure, par exemple pour construire des électrolyseurs. Là, nous sommes vraiment les champions du monde ! Et depuis trente ans que nous accumulons la paperasse, nous avons le recul nécessaire… Il faut donc simplifier et ouvrir ce que, dans notre jargon, nous appelons des vallées.

Mais ce n’est pas tout, et il s’agit de ne pas être naïf. Ni moi ni mes collègues de la Commission ne le sommes, j’espère vous en avoir convaincus : nous ne sommes pas des neuneus ou des imbéciles, nous sommes comme tout le monde, nous avons parfaitement compris. Certains sont simplement plus dépendants que d’autres : les Allemands sont plus dépendants des Américains, par exemple, à cause de l’arme nucléaire. C’est aussi simple que cela, et il faut le gérer.

Mais il faut aussi gérer le fait que certains, comme la Chine et les États-Unis, utilisent des moyens financiers en amont pour accélérer l’implantation d’usines stratégiques. Il nous faut faire en sorte d’être concurrentiels par rapport aux Chinois, aux Coréens, aux Japonais et aux Américains. Pour que nous soyons compétitifs, le Chips Act ouvre la voie à des financements privés – dans des proportions acceptables et comparables à ce que l’on voit dans d’autres secteurs. Les montants sont tout de même très importants et les projets peuvent prendre la forme d’IPCEI (projets importants d’intérêt européen commun), ce qui leur permet de passer en parallèle les fourches caudines du droit de la concurrence – l’objectif étant la réciprocité.

De nombreux projets ont été lancés, dont celui de TSMC en Allemagne et celui de Grenoble. L’industrie des semi-conducteurs est fortement implantée dans la région de Dresde : un autre projet, doté de 20 milliards d’euros de mémoire, y a été lancé avec Intel, qui a rencontré des problèmes mais qui ressort du bois aujourd’hui. Nous verrons ce que cela donne.

Les projets sont là, et ce sont de très gros projets. Les investissements dans les usines atteignent souvent 10 voire 20 milliards d’euros. On y trouve beaucoup de robots de la société anglaise ASML, spin-off de Philips. Ces robots, absolument gigantesques et plus complexes qu’un avion, permettent de réaliser la gravure nécessaire à la fabrication des semi-conducteurs. Leader mondial, ASML détient 90 % à 95 % de part de marché mondiale et l’on trouve ses robots dans toutes les usines de semi-conducteurs du monde. Cela signifie – rapport de force – qu’en ne maintenant plus sa production, on pourrait pousser les usines de semi-conducteurs du monde entier à fermer dans les quinze jours !

On ne va pas utiliser ce levier mais il faut que l’Europe commence à mettre sur la table les attributs de sa puissance et non pas uniquement le marché qu’elle représente, afin de parler d’égal à égal dans un monde qui est désormais – et pour longtemps peut-être – régi par les rapports de force.

M. Hervé Saulignac (SOC). Je voudrais revenir sur le Chips Act, car il est au cœur de ce qui intéresse notre commission d’enquête. La production de semi-conducteurs est un enjeu majeur. Le marché est colossal, approchant les 1 000 milliards de dollars, et il a vocation à croître en raison notamment de l’explosion de l’IA.

L’objectif premier du Chips Act était de stimuler la production de semi-conducteurs mais jusqu’à maintenant, les choses ne se sont pas déroulées comme on l’aurait voulu ; parmi les projets que vous évoquez, certains sont d’ailleurs suspendus ou à l’arrêt. La Commission a donc lancé un Chips Act 2 dont l’adoption, prévue en avril, a été reportée à la fois du mois de mai. On voit bien que les choses ne sont pas simples – ce que l’on peut parfaitement comprendre – et que les industriels trépignent.

Pourquoi le Chips Act n’a-t-il pas fonctionné et que faut-il faire pour que l’acte 2 atteigne son objectif ? Je voudrais souligner que vous me paraissez à ce sujet plutôt optimiste : je souhaite que nous atteignions 20 % de la production mondiale d’ici 2030, mais j’ai à ce sujet un petit doute – qui ne vaut pas grand-chose, je vous l’accorde !

M. Thierry Breton. Il est normal d’avoir des doutes dans un monde d’incertitudes ! Ils ne suffisent pas mais ils doivent guider notre action.

Je vais vous répondre en un mot : il faut du leadership. Ce n’est pas parce que l’on a fait une loi que les choses vont tomber du ciel – c’est vrai dans toute action politique mais en particulier à la Commission européenne, et plus encore sur ces sujets. Eh bien non, ça ne marche pas comme ça, la vie.

J’ai passé un temps considérable – encore une fois, je ne critique personne – avec tous les acteurs du monde de l’industrie des semi-conducteurs. Ils ne sont pas très nombreux mais je les connais tous. Je suis allé les rencontrer, j’ai étudié les projets, je suis allé sur le terrain et j’ai choisi avec eux. S’ils décident de venir, à la fin, c’est grâce à ce leadership.

Certains ont eu peur. Il m’a fallu beaucoup de temps pour convaincre la France qu’il fallait faire le Chips Act, en particulier face aux doutes de STMicroelectronics et de BPIFrance. Je ne dis pas qu’ils étaient timides mais ils voulaient regarder ce qui se passait, parce qu’il y aurait peut-être d’autres fabrications dans d’autres domaines. Chacun a trop regardé ses propres sujets par rapport à l’intérêt général européen. Je ne jette la pierre à personne ; c’est une réaction que je peux comprendre et qui peut être naturelle.

Pour expliquer l’intérêt du projet et montrer que tout le monde va y gagner, il faut avoir une vision plus européenne que purement nationale, sectorielle ou d’entreprise. Il faut du leadership, il faut parler leur langage, il faut mouiller la chemise. Combien de fois suis-je allé à Grenoble pour expliquer ce que nous faisions ? Cela m’a pris du temps, puis cela a bougé.

Je vais vous le dire de façon très libre : j’ai beaucoup de respect pour les équipes dirigeantes notamment de STMicroelectronics, qui font un bon travail, mais combien de fois a-t-il fallu que je leur explique qu’il était important de descendre en dessous de 2 nanomètres ? Ils me disaient, comme d’autres, que c’était une technologie beaucoup trop avancée, qu’il fallait des microcontrôleurs, et que le marché était dans l’industrie automobile.

J’utilise cet exemple pour vous montrer qu’il faut du leadership. Cela demande beaucoup d’énergie d’aligner des vecteurs, mais cela fait partie du travail de ceux à qui l’on confie une responsabilité politique, qui est aussi celle d’entraîner.

Finalement nous avons réussi, mais les choses ne tombent pas du ciel. Ce n’est pas parce que vous adoptez un Chips Act que le travail est fait et que l’on passe au sujet suivant : au contraire, c’est là que commence le problème !

J’ai passé énormément de temps avec TSMC car ils ont été très longs à se décider. À titre personnel, j’aurais mille fois préféré qu’ils choisissent la France plutôt que d’aller ailleurs, mais j’étais commissaire européen. Nous avons tout fait évidemment, au plus haut niveau, pour les convaincre qu’il était aussi important de s’implanter en Europe que dans le Nevada.

Il ne faut jamais oublier que dans le monde dans lequel nous vivons, l’action politique nécessite du leadership. Vous ne pouvez pas confier un tel sujet à vos services, quelle que soit leur qualité : il faut le porter politiquement. Ma collègue Gina Raimondo l’a fait, et elle a effectué un très bon travail. On parle de décisions très lourdes et d’investissements de plusieurs milliards, voire de plusieurs dizaines de milliards d’euros. J’ai été patron, moi aussi : pour un patron, ce n’est pas la même chose d’être face à des femmes ou à des hommes qui représentent une administration durant le temps très court de leur mandat que face à un politique.

Il faut cette double culture, il faut du leadership. Les femmes et les hommes qui occupent ces responsabilités doivent savoir parler ce langage-là, même si ce n’est pas le seul.

L’exemple que vous évoquez est particulier : il faut beaucoup de technicité, peut-être un peu de connaissance du secteur et la capacité de convaincre que vous avez créé un écosystème qui va leur être favorable. Mais cela ne tombe pas du ciel, je le redis.

Alors maintenant, que faut-il faire ? Il faut en permanence être à côté d’eux. Tant que la décision n’est pas prise, il faut être là, être là, être là. On connaît ça dans l’entreprise : tant que le contrat n’est pas signé, il faut être présent, parce qu’on ne peut pas gérer ces problèmes‑là avec une vision purement administrative.

Je n’ai pas la moindre idée de ce que l’on mettrait dans un Chips Act 2 – peut-être une obligation de leadership ?

Mme Cyrielle Chatelain, rapporteure. Vous avez évoqué le rôle particulier de l’Irlande, porte d’entrée des Gafam dans l’Union européenne. La logique de la réglementation européenne repose sur le pays d’origine. Faut-il revenir sur cette approche et sur la place particulière de l’Irlande ? J’ai cru comprendre de vos propos que vous faisiez vôtre l’analyse selon laquelle l’Irlande avait une vision très permissive. Convient-il de renforcer le rôle d’un régulateur européen ? Si tel n’est pas le cas, la France dispose-t-elle d’outils, respectant le droit de l’Union, qu’elle pourrait utiliser ?

M. Thierry Breton. Mis à part le règlement général sur la protection des données, la réglementation est la même dans tous les pays européens, donc vous vous installez où vous voulez : là-dessus, nous avons appris. Reste le RGPD, et là je vais vous dire les choses comme je les pense. Au moment du RGPD, nous avions mis l’accent sur le fait que nous voyions que nos données étaient utilisées – certains vont même utiliser le terme de « pillées » – pour nourrir les services qu’on allait soit acheter, soit nous imposer, soit nous proposer en échange de nos données générées par la consultation des services : une fois encore, la logique biface s’imposait. Cela a eu le mérite de sensibiliser nos concitoyens européens au fait que les données possédaient une valeur marchande.

Mais l’application est très lourde, parce qu’on l’a laissée à la main de ceux qui proposent les services ! Or l’espace informationnel est celui de l’immédiateté et de l’instant : on a immédiatement accès aux services et il n’y a de distance ni physique ni temporelle. Par conséquent, vous ne lisez pas les conditions et vous ne refusez pas les cookies. Tout le monde accepte de transmettre ses données.

Nous avons du recul sur l’application du RGPD. C’est un texte très positif. Nos données personnelles sont essentielles, et très personnelles, comme leur nom l’indique : il faut les préserver, il faut les garder, il faut savoir ce qu’on en fait, il faut décider comment on les monétise et contre quoi.

Avant d’évoquer des lois omnibus sur les cinq acts dont j’ai parlé, on pourrait discuter d’une loi omnibus sur le RGPD : elle serait la bienvenue pour en simplifier l’usage et le rendre plus efficace pour les utilisateurs finaux que nous sommes.

Mme Cyrielle Chatelain, rapporteure. Ma question portait sur le statut de l’Irlande, et j’aimerais vous entendre sur le sujet. Ensuite, on ne touche, dans le cadre de l’omnibus, ni au DSA, ni au DMA, mais à l’AI Act et, potentiellement, au RGPD. Nous avons reçu plusieurs alertes sur le fait que ces évolutions n’apporteraient pas de simplification, notamment pour les TPE et les PME (très petites, petites et moyennes entreprises). En outre, la redéfinition des données personnelles semble, à ce stade, assez dangereuse, puisqu’elle ne les protégerait pas.

M. Thierry Breton. L’Irlande va jouer un rôle beaucoup moins important qu’avant du fait de l’harmonisation normative. Du reste, dans toutes les discussions que j’ai eues, il apparaît que l’Irlande a évolué.

Vous avez raison, on parle essentiellement du RGPD actuellement. Le paradoxe autour du règlement sur l’intelligence artificielle est qu’il n’est en vigueur que depuis le 2 février ; et encore, sa mise en application se fait par tranches jusqu’en 2030. On voit bien que la démarche est tout de même plus idéologique que fonctionnelle.

J’ai quand même mentionné le DSA et le DMA pour appeler votre attention sur ces questions car elles ne sont, me semble-t-il, pas tranchées à l’heure où nous nous parlons, mais vous avez peut-être plus d’informations que moi puisque je m’interdis d’en avoir.

Sur l’Irlande, je suis donc moins inquiet parce que ces lois fondamentales font qu’il n’y a plus d’intérêt à s’installer dans un pays plutôt que dans un autre. En effet, tous appliqueront désormais les mêmes normes de régulation. Comme vous le savez, un board coordonne et contrôle l’ensemble de l’activité de tous les régulateurs : nous avons pris des dispositions qui me semblent répondre à la question. Reste le RGPD.

M. le président Philippe Latombe. L’omnibus fusionne la directive sur la protection de la vie privée dans le secteur des communications électroniques, dite e-privacy, avec le RGPD, ce qui pose un problème.

M. Thierry Breton. Oui, en effet.

Par ailleurs, je ne sais pas si vous l’avez en ligne de mire, mais nous sommes trop souples et pas assez exigeants sur un sujet majeur : depuis 2008, la section 702 du Foreign Intelligence Surveillance Act (Fisa) autorise l’administration américaine à écouter et à regarder tout ce que l’on fait, pour peu qu’on ne soit pas citoyen américain. Des discussions doivent se tenir sur ce thème au Congrès dans quelques mois.

M. le président Philippe Latombe. C’est ce mois-ci que le Congrès doit débattre de son renouvellement.

M. Thierry Breton. Plusieurs parlementaires du mouvement Maga – Make America Great Again – se disent qu’ils pourraient être potentiellement concernés, puisque j’ai compris qu’il y avait des débordements maintenant aussi aux États-Unis, mais nous sortons là du champ des travaux de la commission d’enquête, laquelle ne va certainement pas se lancer dans l’extraterritorialité.

Mme Cyrielle Chatelain, rapporteure. Effectivement, l’alerte sur le DSA et le DMA est réelle : vous avez bien fait de nous rappeler les bienfaits de ces textes.

Vous avez indiqué que l’AI Act avait été critiqué, notamment en France. Vous avez dit que vous respectiez tous les avis, mais que vous connaissiez bien les personnes qui avaient émis des critiques et qu’elles étaient peut-être proches des Américains. Nous n’avons pas la chance de les connaître, donc ma question sera simple : qui sont-elles et quels intérêts servent‑elles ?

M. Thierry Breton. Je vous remercie pour cette question, mais je ne faisais qu’évoquer le rôle des très grands agents, lesquels ont évidemment des moyens très importants, des data centers très puissants et des capacités de calcul très élevées. Tout le monde connaît le rôle qu’ont joué et que continuent de jouer Microsoft et OpenAI en particulier – sans doute avec d’autres. Je n’en dirai pas plus, mais on voit bien qu’une grande attention est portée à ce qui se passe en France et en Europe sur ces questions. Il ne faut pas qu’on soit naïf.

M. le président Philippe Latombe. Le conflit au Moyen-Orient pose-t-il un problème de financement des différents investissements qui ont été promis à la France et à l’Europe au titre de l’intelligence artificielle ? Faut-il être vigilant là-dessus ?

M. Thierry Breton. Monsieur le président, je me demande si vous n’auriez pas lu une petite tribune que j’ai publiée dans Les Échos avant-hier ! Si ce n’est pas le cas, je me permettrai de vous la transmettre puisque j’y traite effectivement de ce sujet…

Je conduis dans ce texte une réflexion d’anticipation, car ces questions commandent une telle approche. J’y fais référence aux signaux annonçant une possible crise de crédit, notamment du crédit privé. Je ne suis pas le seul à le dire : on peut nourrir des inquiétudes en la matière. Dans le domaine de l’intelligence artificielle, des entreprises se sont lancées dans des investissements absolument considérables, notamment en matière d’infrastructures, de data centers, de stockage de données voire de capacités de calcul. Ces investissements, qui se chiffrent en centaines de milliards, sont de très long terme. Or les modèles économiques sont encore, dans la plupart voire dans la presque totalité des cas, assez incertains par rapport aux montants qu’exigent les infrastructures nécessaires au stockage mais aussi à l’entraînement des machines sur le patrimoine informationnel dont je parlais tout à l’heure. Or, plus tout cela est localisé, plus l’accès est rapide, grâce à des supercalculateurs exaflopiques, et plus la capacité de réponse permet l’usage de services d’intelligence artificielle. Il faut donc des investissements. Ceux-ci ont stimulé la floraison de SPV, des special purpose vehicles dans notre jargon. Ces instruments vont avoir leur propre dynamique, souvent financée par des fonds de capital-investissement, pour engager des milliards voire des dizaines de milliards dans une énorme infrastructure. Ce n’est pas porté dans le bilan, c’est à côté ; on va donc le gager. Ensuite, les flux générés vont entraîner une rémunération pendant dix ou quinze ans, et celle-ci va financer l’intégralité du projet hors du bilan – off-balance-sheet en anglais. Ce sont des investissements privés. Voilà un exemple parmi beaucoup d’autres. Ces acteurs-là prennent beaucoup moins de précautions que les banques, notamment celles de taille systémique, dont l’activité est encadrée par des règlements et des covenants beaucoup plus stricts et rigoureux. Le fort développement de cette activité financière commence à créer une interrogation.

On voit des valorisations gigantesques dans le monde de l’intelligence artificielle. Vous avez bien compris que je suis de ceux qui pensent que l’IA va se développer : il faut l’encadrer un petit peu, mais elle va énormément nous apporter. C’est la quatrième phase de la révolution de l’information, qui sera source de nombreuses évolutions et de progrès. Les conséquences sur l’emploi ne seront pas négligeables : il faut en parler mais il ne faut pas nier les progrès qu’engendrera l’intelligence artificielle. Il n’en demeure pas moins que les valorisations de l’IA sont absolument stratosphériques, à tel point qu’on commence à lire qu’il y aurait une bulle de l’intelligence artificielle, tout simplement parce que son développement est assis sur des promesses d’investissements absolument considérables et des valorisations qui sont sous-tendues par ces promesses d’investissements. Pour son introduction en Bourse, OpenAI espère approcher les 1 000 milliards… On est entre 800 milliards et 1 000 milliards de valorisation pour des entreprises dont le chiffre d’affaires est de quelques centaines de millions de dollars. Je ne sais pas exactement où elles en sont, mais on voit que la valorisation est la caractérisation d’une promesse, mais ce sont des montants qui n’ont jamais été atteints dans l’histoire humaine pour des objets de cette nature. Cela signifie que l’entreprise doit tenir ses promesses.

Puisque vous m’interrogez sur l’aspect géopolitique, souvenez-vous que l’un des premiers voyages du président Donald Trump après son élection a été dans les pays du Golfe. Il a commencé par se rendre en Arabie Saoudite, me semble-t-il. Il en est revenu avec plusieurs promesses : 500 milliards ici, 400 milliards là. Il s’est rendu aux Émirats arabes unis, au Qatar, au Bahreïn, au Koweït, et chacun y est allé de ses promesses. Puis il est parti au Japon. Il est rentré avec 2 000 milliards de dollars de promesses faites par les monarchies du Golfe. C’était évidemment avant la guerre qui a été déclenchée à la fin du mois de février. Ces flux de promesses sous-tendent la valorisation et le financement des actifs.

Mais il s’est passé bien des choses depuis le début de la guerre en Iran. Nous subissons tous les jours les répercussions économiques de ce conflit sur le prix du pétrole, sur l’inflation, sur les taux d’intérêt. Mais il y a aussi des conséquences pour les pays du Golfe eux-mêmes, car ils ont été parmi les plus attaqués : ils ont reçu plus de missiles qu’Israël. Je pense en particulier aux Émirats arabes unis. Il y a eu beaucoup de dégâts, y compris sur les infrastructures pétrolières au Qatar et en Arabie Saoudite. Il va falloir reconstruire et revenir à l’essentiel, au cœur de l’activité économique de ces pays.

Et il n’y a plus d’exportations d’hydrocarbures depuis bientôt deux mois : ces pays ne vont pas exporter le double de la quantité habituelle lorsque le détroit d’Ormuz aura rouvert. C’est du manque à gagner pur, qui va se retrouver intégralement dans les déficits. Or ces pays accusent souvent un déficit élevé : la France est forte dans ce domaine, mais l’Arabie Saoudite se défend et connaît un déficit compris entre 4 % et 5 % de son PIB. Ce taux va s’accroître.

L’argent va être réorienté vers l’économie locale, à cause du manque à gagner qui grève les ressources et du besoin de reconstruire les infrastructures. Ces pays vont peut-être commencer à réfléchir à la diversification des routes d’exportations pour ne plus dépendre d’un détroit qui est une source de vulnérabilité.

En outre, ils devront se pencher sur l’architecture de sécurité. Là encore se posera la question de la confiance. L’ensemble des pays du Golfe avaient promis des montants considérables d’investissements aux États-Unis en pétrodollars et avaient, en quelque sorte, confié en grande partie leur défense aux États-Unis. Presque tous ces pays accueillent une base américaine et achètent des équipements militaires américains pour des centaines de milliards de dollars. C’est ce que font également vingt-six des vingt-sept États de l’UE depuis plus de cinquante ans, donc nous savons ce que veut dire sous-traiter sa défense, et nous connaissons les risques que ce choix emporte quand il faut changer – c’est un autre sujet.

Enfin, lorsque j’étais ministre de Jacques Chirac, je me suis rendu très souvent avec lui dans ces pays : il insistait beaucoup sur la fierté de leurs habitants, sentiment tout à fait normal du reste, en particulier ceux qui étaient à la tête de l’État. Alors quand on se fait insulter, comme l’un des grands dirigeants de l’Arabie Saoudite l’a récemment été, l’atmosphère se tend.

Si vous mettez tous ces éléments bout à bout, vous vous dites qu’il sera vraisemblablement compliqué de tenir les 2 000 milliards de promesses. Oui, il y a là, potentiellement, un problème que nous n’avions pas vu venir, parce que nous sommes focalisés sur les conséquences directes et immédiates du conflit. Beaucoup d’entre nous ont une voiture, c’est mon cas, je vais souvent dans la Creuse. L’autre jour, le prix du litre de diesel à la pompe atteignait presque 2,50 euros, niveau que je n’avais pas vu depuis longtemps !

Il ne serait donc pas inutile de se pencher sur le sujet des hypervalorisations. Une idée de nouvelle commission d’enquête, peut-être ?

Mme Cyrielle Chatelain, rapporteure. Vous avez parlé des progrès apportés par l’intelligence artificielle. L’IA, c’est très large, depuis les diagnostics médicaux jusqu’aux usages très précis de l’industrie. Mais les dernières études sur l’IA générative que j’ai lues, notamment celle du MIT, montraient que les retours sur investissement des entreprises étaient assez peu positifs. Auriez-vous des références d’études à nous transmettre ?

Je reviens sur ma question relative au lobbying. Que Microsoft ou OpenAI fassent du lobbying en faveur des Américains n’est pas surprenant, mais dans une interview à La Tribune en novembre 2023, vous avez dit : « OpenAI défend ses intérêts particuliers. À la limite, ce n’est pas choquant, mais autant que les choses soient dites. Je le dis aussi pour tous ceux qui font du lobbying en France : d’où parlez-vous et pour les intérêts de qui ? » Je vous repose la question des acteurs français, qu’ils soient économiques ou politiques : certains d’entre eux ont-ils fait du lobbying contre l’adoption de l’AI Act ?

M. Thierry Breton. Il n’y a aucun problème à faire du lobbying. À Bruxelles, il y a autant de lobbyistes que de journalistes, entre 1 200 et 1 300 personnes de l’une et l’autre catégorie. C’est exactement comme à Washington. Je n’aime pas le terme de lobbyiste parce qu’il a une connotation péjorative, mais on sait très bien à qui on a affaire. C’est pour cela qu’il faut du leadership. Il faut connaître ses sujets, parce qu’on ne peut pas prendre pour argent comptant tout ce qu’on nous dit : il faut savoir qui parle et pourquoi. Cela fait partie de la vie démocratique, pour peu que tout soit transparent. Il ne faut pas d’ambiguïté sur la position que l’on défend et sur les raisons pour lesquelles on la défend. Quand j’ai fait ces cinq lois, j’ai ouvert une consultation extraordinairement large en amont et j’ai demandé à tout le monde de venir nous voir pour que chacun expose ses idées. Je l’ai même fait à guichet ouvert : les entreprises, les ONG, les syndicats, les pays, tout le monde pouvait contribuer. Les consultations ont duré plusieurs mois voire plusieurs années pour certains textes. Cette phase est normale.

Une fois que tout le monde s’est exprimé, que le guichet ferme et que s’ouvrent les périodes de trilogue, alors il faut respecter le temps démocratique. Voilà ce que j’ai voulu dire : il y a un temps pour tout. Chacun s’exprime, puis nous tirons les conséquences des contributions, motivés par le seul souci de l’intérêt général. Lorsque l’on devient commissaire, on va à Luxembourg pour jurer, non pas sur la Bible comme à Washington mais sur le traité, qu’on oublie, pour la durée de ses fonctions, son pays d’origine, pour ne plus servir que l’intérêt général européen. Ce ne sont pas que des mots, c’est un moment très formel et très fort. Après la consultation et l’écoute, vient le temps de la rédaction. Ensuite, nous transmettons les textes au Parlement et au Conseil.

Les lobbies interviennent lors de la consultation, c’est normal. Ils peuvent approcher ensuite les parlementaires : cela se traduit dans certains cas par des amendements, dont certains sont bienvenus, d’autres moins. Le parlementaire, lui aussi uniquement motivé par l’intérêt général, doit faire le tri entre toutes ces demandes, mais certains éléments peuvent être pris en considération s’ils sont suffisamment pertinents – ils repassent de toute façon à la moulinette du vote général. Une fois que ce dernier a eu lieu, que le Conseil s’est également prononcé et que l’on est en trilogue, le lobbying doit cesser. À ce stade, il s’agit uniquement de trouver des concessions entre la position du Conseil et celle du Parlement pour aboutir à un accord sur un texte dans le cadre du trilogue avec la Commission. Comme je voyais que certains ne respectaient pas cette discipline démocratique, je me suis permis d’en rappeler très gentiment les règles. C’est ce que j’ai fait, me semble-t-il, dans le cadre de cette interview.

Mme Cyrielle Chatelain, rapporteure. L’interview est faite pendant la période du trilogue, à quelques jours des derniers arbitrages sur l’AI Act. Vous avez parlé avec raison de transparence et je vous demande un acte de transparence. Vous l’avez dit, des personnes faisaient du lobbying en France : qui ?

Dans cette interview, vous avez aussi déclaré : « La start-up Mistral AI, elle fait du lobbying, c’est normal. Mais nous ne sommes dupes de rien. Elle défend son business aujourd’hui, et non l’intérêt général. » Confirmez-vous ces propos ? Qui faisait du lobbying pour la start-up Mistral AI ?

M. Thierry Breton. Ils étaient plusieurs. Je n’ai plus leurs noms en tête, mais c’est normal, encore une fois, qu’ils aient été là. Simplement, je disais qu’il fallait faire attention : on avait écouté tout le monde, il fallait désormais laisser les colégislateurs décider entre eux.

 

 

 

La séance s’achève à dix-sept heures.

———


Membres présents ou excusés

 

Présents.  M. Éric Bothorel, M. Jérôme Buisson, Mme Cyrielle Chatelain, M. Philippe Latombe, M. Stéphane Rambaud, Mme Sophie-Laurence Roy, M. Hervé Saulignac, M. Vincent Thiébaut