N° 1862
______
ASSEMBLÉE NATIONALE
CONSTITUTION DU 4 OCTOBRE 1958
DIX-SEPTIÈME LÉGISLATURE
Enregistré à la Présidence de l’Assemblée nationale le 24 septembre 2025.
RAPPORT D’INFORMATION
DÉPOSÉ
en application de l’article 145 du Règlement
PAR LA COMMISSION DES AFFAIRES ÉCONOMIQUES
relatif aux effets de l’intelligence artificielle sur l’activité économique et la compétitivité des entreprises françaises
ET PRÉSENTÉ PAR
Mme Emmanuelle HOFFMAN et M. Antoine GOLLIOT
Députés
——
La mission d’information relative aux effets de l’intelligence artificielle sur l’activité économique et la compétitivité des entreprises françaises est composée de :
Mme Emmanuelle Hoffman et Antoine Golliot, rapporteurs ;
MM. Charles Alloncle, Pascal Lecamp, Laurent Lhardit, René Pilato et Mme Danielle Simonnet, membres.
SOMMAIRE
___
Pages
1. Une offre de solutions techniques à l’origine d’un nouveau secteur économique
b. Un écosystème dynamique de start-up développant des procédés et applications spécifiques
i. Un marché en expansion et une adoption croissante
ii. L’IA présente à toutes les étapes de soins
iii. IA et amélioration de la sécurité des patients
iv. IA générative et découverte de nouveaux médicaments
v. IA et santé mentale : suivi et prévention des troubles
vi. Obstacles et enjeux spécifiques de l’IA en santé
e. Automatiser, optimiser, sécuriser : l’IA à l’épreuve des réseaux télécoms
a. Des gains déjà tangibles d’amélioration de l’efficacité au travail
b. De nouvelles perspectives ouvertes par l’agentification
c. L’IA et la robotique : vers des assistants polyvalents ?
B. des effets encore restreints ou inÉgaux À l’Échelle de l’appareil productif français
a. Un manque de recul et des difficultés d’évaluation statistique
b. Des effets ambivalents sur le PIB, la productivité globale des facteurs (PGF)
i. Une nouvelle révolution industrielle
ii. Un effet globalement positif mais toujours incertain
c. Les limites structurelles et l’hypothèse d’un effet transitoire
i. Un effet transitoire et limité ?
2. Des disparités de développement au sein du tissu économique
a. Selon les secteurs d’activité
b. Selon la taille des entreprises
c. Des enjeux différenciés en matière de coûts
3. L’appropriation de l’IA : un enjeu diversement identifié
b. La nécessité de favoriser la porosité entre le monde de la recherche et celui des entreprises
1. Une inégalité des armes face à des géants de la tech
a. Un leadership français dans l’IA et le cloud, mais un rapport de force inégal
b. Un écosystème dynamique mais insuffisamment protégé
c. Miser sur des IA spécialisées en complément du développement de l’écosystème européen
a. Des barrières à l’entrée élevées et des positions dominantes consolidées
b. Les risques concurrentiels identifiés par l’Autorité de la concurrence
c. Un cadre réglementaire à adapter pour préserver des marchés contestables
3. Mobiliser les leviers de la commande publique pour rééquilibrer les rapports de force
a. Des politiques proactives via la commande publique aux États-Unis et en Chine
b. Un cadre européen longtemps ouvert qui limite l’émergence de champions locaux
c. Faire de la préférence européenne le principe directeur des achats publics
i. Vers une « préférence européenne » dans la commande publique ? Un principe déjà acté
1. Une domination incontestée des États-Unis et de la Chine dans les infrastructures critiques
a. Domination du cloud : 63 % du marché mondial aux GAFAM
i. Un marché mondial dominé par les acteurs américains et chinois
ii. Concentration du marché européen et déclin des parts de marché des acteurs locaux
iii. Une domination aux conséquence délétères pour l’IA
iv. Reprendre la maîtrise stratégique du cloud par l’action normative
b. La puissance de calcul : un enjeu stratégique dominé par les géants américains
i. Processeurs et accélérateurs : un quasi-monopole américain
ii. Une lueur d’espoir européenne à relativiser
iii. La Chine : vers une alternative émergente ?
d. Supercalculateurs : les États-Unis en tête, l’Europe à la traîne, la Chine dans l’ombre
2. Des infrastructures nationales et européennes à promouvoir
a. Un atout industriel européen géostratégique à protéger : ASML
i. Un monopole technologique total, indispensable dans la chaîne de valeur de l’IA
ii. ASML : un atout géopolitique unique pour l’Europe dans la guerre des semi-conducteurs
b. Gagner en puissance de calcul
i. Renforcer l’investissement européen dans les capacités de calcul intensif
ii. Lever les freins règlementaires et structurels au déploiement des centres de calcul
C. Un capital-risque structurellement en retard : un frein au passage à l’échelle
1. L’ampleur du retard européen en capital-risque de croissance
i. Un retard européen en phase de rattrapage pour les premières phases du financement
i. IA : une part croissante du capital-risque
ii. Des start-up IA européennes en mal d’échelle
iii. Des trajectoires freinées et des exits : le cas des start-up IA européennes
c. Quelques pistes pour combler le retard : initiatives publiques et leviers d’action
i. Mobiliser l’épargne institutionnelle et privée vers la tech en général et l’IA en particulier
ii. Créer des fonds publics-privés de « late stage »
iii. Remédier à l’absence de marché unique des capitaux
2. Des instruments de soutien public à conforter
b. Assurer l’efficacité des financements publics nationaux à l’innovation
1. Un enseignement supérieur disposant de savoirs théoriques et pratiques d’excellence
2. Un enseignement scolaire répondant aux besoins de l’IA ?
a. Des technologies dont le développement exige un nombre croissant et une diversité de profils
b. Une acculturation et des apprentissages nécessaires dans le cadre du cursus scolaire
c. Encourager l’orientation des jeunes filles vers les filières de l’IA
3. Un effort à maintenir dans le domaine scientifique
a. Un effort de recherche en matière d’IA demeurant du ressort de grands acteurs privés et publics
c. Une attractivité scientifique à conforter
E. FAVORISER L’appropriation de l’ia dans la marche des entreprises et sur le marche du travail
1. Des effets contrastés sur l’emploi et les conditions de travail
b. Une innovation source de chômage technologique ?
a. Un risque de déqualification ?
b. Une nécessaire adaptation des cadres et outils de la formation continue
3. Un approfondissement nécessaire du dialogue social face à des mutations d’ampleur
a. Des enjeux assez diversement appréhendés selon les entreprises
b. Des cadres de suivi et de négociation à formaliser ?
ii. Des procédures d’une portée incertaine suivant le contexte social et la conduite des projets
1. Une technologie ne rendant pas inopérantes les obligations régissant les secteurs d’activités
a. Des applications pouvant être déjà assez largement appréhendées par le droit général
b. Un droit de la responsabilité civile à consolider ?
ii. Des régimes de responsabilité extracontractuelle moins opérationnels ?
2. Un encadrement spécifique porteur d’un risque de surréglementation ?
a. Un « IA Act » fondé sur une approche par risques appropriée ?
b. Un instrument de droit spécifique source de conflits de normes ?
3. Un besoin de simplification dans l’application
a. Une nécessaire consolidation du classement et des conditions de conformité des SIA
c. L’utilité d’une pédagogie active sur le terrain
B. inscrire le dÉveloppement de l’ia Dans la consolidation d’une Économie de la donnÉe
i. Une maturité inégale de la gestion des données au sein des entreprises
i. Un déploiement de « communs numériques » à poursuivre à l’échelle nationale
ii. Des outils offrant de nouvelles opportunités à l’échelle européenne
b. Les données de santé : un patrimoine public à mieux valoriser
i. Un système national des données de santé conçu à des fins d’éclairage des politiques publiques
3. Une valorisation de la langue française nécessaire dans l’affirmation de l’écosystème national
Liste des personnes auditionnÉes
Gouvernance et structuration de l’écosystème
Le développement de l’intelligence artificielle en France et en Europe suppose une organisation claire de l’écosystème. Cela passe par des relais territoriaux, des guichets spécialisés, des réseaux européens et des dispositifs de mutualisation permettant de partager l’expertise et d’assurer la cohérence des initiatives.
Recommandation n° 1 : Renforcer le rôle des réseaux locaux (CCI, CMA, pôles de compétitivité) dans l’information et la sensibilisation des entreprises à l’IA, avec une attention particulière concernant les TPE-PME, en s’appuyant sur les dispositifs existants, tels que le programme des Ambassadeurs IA, afin de mieux les mobiliser et de les valoriser.
Recommandation n° 2 : Structurer un dispositif intégré de transfert technologique en mobilisant et en adaptant les outils nationaux (Centres techniques industriels – CTI – et Instituts Carnot) et les infrastructures européennes (AI Factories), afin d’accompagner les PME, start-up et filières stratégiques dans l’appropriation et l’intégration des technologies d’intelligence artificielle grâce à investissement capital exigeant l’accès de ressources stratégiques et un environnement propice.
Recommandation n° 17 : Créer guichet unique dédié à l’intelligence artificielle au sein du ministère de l’Économie, pour faciliter l’accès des PME et start-up françaises à la commande publique et fluidifier le dialogue entre l’État et l’écosystème numérique.
Recommandation n° 3 : Encourager la constitution d’écosystèmes locaux associant entreprises, collectivités territoriales, centres de recherche et opérateurs de data centers, afin de mutualiser les compétences et de favoriser le développement de projets collaboratifs en intelligence artificielle.
Stratégie industrielle et souveraineté technologique
La maîtrise des technologies clés, le contrôle des infrastructures critiques et une régulation adaptée sont indispensables pour garantir la souveraineté numérique et industrielle de l’Europe, et protéger ses acteurs face à la concurrence mondiale.
Recommandation n° 4 : Face aux fragilités structurelles de l’écosystème européen et à la domination des hyperscalers étrangers, compléter les initiatives en faveur de modèles généralistes par un effort public renforcé sur le développement d’intelligences artificielles spécialisées dans des secteurs critiques (santé, défense, renseignement), afin de garantir la souveraineté technologique de l’Union européenne dans ces domaines.
Recommandation n° 10 : Élargir la doctrine des infrastructures essentielles développée par la Commission européenne, afin de garantir à tous les acteurs un accès équitable aux ressources critiques du secteur (GPU de dernière génération, clouds souverains, API d’IA générative).
Recommandation n° 22 : Poursuivre et intensifier les investissements dans le développement de supercalculateurs à l’échelle européenne, afin de garantir un accès élargi et souverain à la puissance de calcul pour l’ensemble des acteurs publics et privés de la recherche et de l’innovation.
Recommandation n° 23 : Inviter le Gouvernement et les opérateurs de supercalculateurs publics à établir des règles d’accès transparentes et non discriminatoires pour les acteurs privés, contre rémunération, en veillant à préserver la priorité d’usage réservée à la recherche académique, et à articuler cette démarche avec les initiatives européennes déjà existantes.
Recommandation n° 24 : Promouvoir une politique industrielle européenne de la puissance de calcul, en articulation avec la stratégie française, fondée à la fois sur un soutien financier accru aux centres de calcul de très grande échelle et sur une simplification des règles pour faciliter leur déploiement, notamment en matière d’énergie, de raccordement électrique et d’implantation.
Recommndation n° 25 : Émettre des obligations pan-européennes dédiées au financement des infrastructures critiques de calcul intensif, en particulier pour les besoins de l’IA et de l’énergie.
Recommandation n° 26 : Accroître significativement les investissements européens dans la puissance de calcul, en portant l’effort cumulé à 250 milliards d’euros pour la France à l’horizon 2028, puis entre 600 et 850 milliards d’euros pour l’Union européenne d’ici 2030.
Recommandation n° 27 : S’inspirer des AI Growth Zones britanniques pour instituer en France des zones d’accélération de l’intelligence artificielle, associant un accès prioritaire à l’électricité décarbonée (notamment nucléaire) à un régime administratif allégé pour l’implantation des centres de données (data centers) stratégiques tel un label « territoire IA souverain ».
Recommandation n° 28 : Assurer l’attractivité du territoire français pour l’implantation de centres de données, en prévoyant des mécanismes transparents de tarification ou des contrats à long terme pour garantir des prix compétitifs pour l’électricité bas-carbone, et en mettant en place une procédure de raccordement électrique accélérée.
Régulation de la concurrence et acquisitions stratégiques
Les règles de concurrence et les outils de contrôle doivent évoluer afin de prévenir les risques de concentration, de monopole ou d’éviction des acteurs européens par des entreprises non européennes, notamment dans le domaine des marchés publics et des acquisitions stratégiques.
Recommandation n° 5 : Inviter la Commission européenne à surveiller le développement des services d’intelligence artificielle accessibles à distance (Model as a Service) et, si les critères du règlement sur les marchés numériques (DMA) sont réunis, envisager la désignation de certains fournisseurs comme contrôleurs d’accès afin de garantir un accès équitable au marché.
Recommandation n° 6 : Mettre en place, au niveau européen, ou à défaut au niveau national, une obligation de notification pour tout rachat ou prise de participation par un acteur non européen dans les secteurs de l’intelligence artificielle et du cloud, incluant les opérations de type acqui-hire, afin de mieux protéger l’écosystème européen.
Recommandation n° 7 : Instaurer un mécanisme d’inversion de la charge de la preuve pour les acquisitions précoces dans les secteurs de l’intelligence artificielle et du cloud par des acteurs non-européens, afin d’imposer à l’acquéreur de démontrer le caractère proconcurrentiel de l’opération.
Recommandation n° 8 : Étendre le contrôle des concentrations au niveau national et européen aux stratégies d’acqui-hire dans le secteur stratégique de l’intelligence artificielle.
Recommandation n° 9 : À l’occasion de l’obligation d’information des concentrations prévue à l’article 14 du DMA, prévoir que les contrôleurs d’accès (« gatekeepers ») transmettent également à la Commission européenne la liste de leurs participations minoritaires dans des entreprises du même secteur que la cible, afin de permettre une détection plus précoce des stratégies d’éviction. (Autorité de la concurrence ([1]))
Recommandation n° 11 : Créer une procédure accélérée de contrôle concurrentiel spécifique à l’intelligence artificielle et au numérique, intégrée à l’Autorité de la concurrence.
Recommandation n° 12 : Renforcer l’efficacité de l’arsenal concurrentiel en relevant le plafond des amendes à 20 % pour les récidivistes et en privilégiant les remèdes structurels dans les cas de pouvoir de marché durable.
Recommandation n° 13 : Mettre en place un régime de présomption de conformité au droit de la concurrence afin de sécuriser et d’encourager la constitution d’alliances pro-concurrentielles entre acteurs européens de l’intelligence artificielle et du cloud.
Recommandation n° 14 : Introduire un principe général d’exclusion des marchés publics de l’Union européenne pour les opérateurs économiques et les productions issus de pays tiers n’ayant pas conclu avec l’Union un accord assurant une réciprocité effective d’accès à leurs marchés publics.
Recommandation n° 15 (proposition de votre rapporteure Emmanuelle Hoffman) : Accompagner et soutenir la mise en œuvre de la préférence européenne pour les technologies stratégiques (intelligence artificielle, cloud, robotique), en s’assurant qu’elle soit pleinement mobilisée par la France dans ses politiques d’achat public.
Recommandation n° 16 (proposition de votre rapporteur Antoine Golliot) : Accompagner et soutenir la mise en œuvre de la préférence européenne pour les technologies stratégiques (IA, cloud, robotique), en veillant à ce qu’elle soit pleinement mobilisée par la France dans ses politiques d’achat public et complétée par une préférence nationale assumée, valorisant prioritairement les solutions et acteurs français afin de stimuler l’innovation locale, de renforcer la souveraineté technologique et de créer un effet d’entraînement sur l’ensemble de l’économie.
Recommandation n° 18 : Programmer un calendrier ambitieux de révision des directives européennes sur la commande publique pour préciser et rendre effectif le principe de préférence européenne d’ici 2026.
Financement et investissements
Le développement de l’IA nécessite une mobilisation accrue des financements publics et privés. Cela suppose un assouplissement des règles prudentielles et la création de fonds spécialisés couvrant toutes les étapes de croissance des entreprises du secteur.
Recommandation n° 29 : Adapter les règles de Solvabilité II pour permettre aux assureurs d’investir plus facilement dans l’IA, en élargissant le régime des investissements de long terme (LTEI) aux fonds technologiques stratégiques, afin de mobiliser leur épargne au service de l’innovation tout en gardant des garanties de sécurité.
Recommandation n° 30 : Créer un fonds public-privé dédié à l’intelligence artificielle, cofinancé par l’État, Bpifrance et des investisseurs privés, et ouvert à l’épargne des particuliers via un placement de long terme bénéficiant d’un cadre fiscal incitatif.
Recommandation n° 31 : Créer un fonds national de co-investissement dédié aux scale-ups technologiques, capitalisé par des fonds publics et privés, et géré par des investisseurs professionnels, afin de renforcer l’offre de financement late-stage en France, notamment pour l’intelligence artificielle, et de limiter la dépendance de nos entreprises stratégiques aux capitaux extra-européens.
Recommandation n° 32 : Accélérer la réalisation de l’Union des marchés de capitaux, en harmonisant les règles prudentielles applicables aux investisseurs institutionnels et en renforçant la supervision intégrée des marchés financiers européens, afin de favoriser l’émergence de fonds de capital-risque paneuropéens capables de soutenir les start-up d’intelligence artificielle sur l’ensemble du cycle de croissance.
Recommandation n° 33 : Privilégier le fléchage des fonds non utilisés de NextGenerationEU vers le développement d’infrastructures d’intelligence artificielle et le soutien ciblé à des champions nationaux, tels que Mistral.
Recommandation n° 34 : Réintroduire une éligibilité des dépenses de propriété intellectuelle et de veille technologique au crédit impôt-recherche (CIR), pour les start-up et PME opérant dans des secteurs stratégiques à forte intensité d’innovation, tels que l’intelligence artificielle. Favoriser la rapidité des versements aux entreprises.
Compétences, formation et recherche
Le renforcement des compétences numériques et en intelligence artificielle, la diffusion des connaissances et le soutien à la recherche sont indispensables pour bâtir une société compétente et un tissu économique attractif autour de l’IA.
Recommandation n° 35 : Intégrer la sensibilisation et l’initation à la connaissance et à l’usage des outils de l’intelligence artificielle au socle commun de connaissances, de compétences et de culture, défini par le ministère de l’Éducation nationale.
Recommandation n° 36 : Assurer la pertinence des programmes et volumes horaires dans l’enseignement des mathématiques et des compétences numériques dans l’enseignement scolaire et l’enseignement professionnels, afin de préserver les compétences nécessaires au développement des usages de l’intelligence artificielle.
Sensibiliser et former les apprentis aux usages de l’intelligence artificielle.
Recommandation n° 37 : Poursuivre et développer les actions tendant à favoriser l’orientation des filles vers les filières scientifiques et numériques et à se spécialiser dans les métiers de l’intelligence artificielle.
Recommandation n° 38 : Prévoir et financer la recherche sur l’intelligence artificielle dans le cadre de la programmation pluriannuelle de la recherche, en créant éventuellement une action budgétaire spécifiquement consacrée à l’IA au sein des programmes 172 et 150.
Recommandation n° 39 : Examiner les simplifications du cadre administratif, budgétaire et comptable applicable aux projets de recherche portant sur le développement des usages de l’intelligence artificielle.
Recommandation n° 40 : Évaluer l’efficacité des titres et procédures destinés à faciliter l’accueil des scientifiques étrangers, afin de favoriser le recrutement des chercheurs et ingénieurs susceptibles de concourir au renforcement des capacités d’innovation en matière d’intelligence artificielle.
Dialogue social et intégration de l’intelligence artificielle en entreprise
L’intégration de l’intelligence artificielle dans le monde du travail exige un dialogue social renouvelé, permettant de négocier des accords adaptés et d’impliquer pleinement les instances représentatives du personnel.
Recommandation n° 41 : Instituer un fonds de transition numérique subordonné à des obligations de formation. Renforcer l’aide aux formations apportées par FranceNum et BpiFrance et spécifiquement destinées aux TPE-PME.
Recommandation n°42 : Veiller à la pleine intégration des besoins de formation inhérents au développement des usages de l’intelligence artificielle dans les orientations et financement des opérateurs de compétence. Consacrer l’adaptation de la formation des salariés à la technologie au sein des conventions d’objectifs et de moyens des opérateurs.
Recommandation n° 43 : Assurer la possibilité pour les salariés et les actifs de recourir aux dispositifs de validation des acquis de l’expérience et du compte personnel de formation pour l’acquisition des compétences nécessaires aux usages de l’intelligence artificielle.
Recommandation n° 44 : Favoriser la conclusion d’un accord national interprofessionnel ou l’actualisation des accords de branche, afin de créer les conditions d’une intégration optimale de l’intelligence artificielle dans les entreprises.
Recommandation n° 45 : Expliciter dans la loi l’obligation d’engager les procédures d’information et, le cas échéant, de consultation des instances représentatives du personnel dès l’engagement des projets reposant sur l’introduction de procédés technologiques appuyés sur l’intelligence artificielle, y compris au stade expérimental.
Recommandation n° 46 : Inclure l’introduction des nouvelles technologies appuyée sur l’intelligence artificielle dans le champ des négociations annuelles obligatoires, ainsi que dans la consultation du comité social et économique sur les orientations stratégiques de l’entreprise.
Établir un cadre juridique conciliant développement de l’intelligence artificielle et protection de principes et d’intérêts publics
Le développement des usages de l’intelligence artificielle dans la sphère marchande suppose un cadre juridique ouvert à l’innovation et permettant une régulation pertinente.
Recommandation n° 47 : Mener une évaluation périodique des conditions d’application des branches du droit national applicables aux usages de l’intelligence artificielle.
Recommandation n° 48 : Garantir l’effectivité du droit à réparation dans la transposition de la directive (UE) 2024/2853 du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux. Veiller à l’adaptation si nécessaire des régimes de responsabilité sans faute en droit national au regard des spécificités de l’intelligence artificielle.
Recommandation n° 49 : Veiller à la cohérence des obligations découlant des instruments de droit susceptibles de régir le recours à l’intelligence artificielle et procéder à leur adaptation suivant la nouvelle approche réglementaire portée par la Commission européenne.
Recommandation n° 50 (Commission européenne): Établir et publier dès que possible les actes délégués et lignes directrices qu’implique le classement des systèmes d’intelligence artificielle.
Recommandation n° 51 (Commission européenne et États membres): Évaluer préalablement l’impact sur les charges administratives et financières des entreprises de l’adoption ou de la modification des actes délégués nécessaires à l’application du règlement (UE) 2024/1689 du 13 juin 2024.
Recommandation n° 52 : Favoriser la mise en place de bacs à sable réglementaires de l’intelligence artificielle autant que nécessaire dès la pleine entrée en vigueur du règlement (UE) 2024/1689 du 13 juin 2024.
Recommandation n° 53 : Procéder dans les meilleurs délais à la désignation d’une ou de plusieurs autorités nationales constituant le point de contact unique prévu par l’article 70 du règlement (UE) 2024/1689 du 13 juin 2024.
Recommandation n° 54 : Développer le réseau de l’initiative European Vision for AI et s’appuyer autant que nécessaire sur le réseau européen des entreprises afin d’assurer l’information des entreprises à propos de l’application du règlement (UE) 2024/1689 du 13 juin 2024. Y associer les chambres consulaires.
Recommandation n° 55 : Rendre opérationnel dès que possible un service assistance réglementaire aux entreprises au sein du Bureau de l’intelligence artificielle, afin d’accompagner les entreprises, en particulier les TPE/PME, dans la mise en œuvre du règlement (UE) 2024/1689 du 13 juin 2024.
Régulation, droit et protection des données
Le développement de l’intelligence artificielle doit s’appuyer sur une régulation adaptée, garantissant un accès sécurisé et mutualisé aux données, ainsi qu’une protection juridique efficace afin d’assurer confiance, sécurité et respect des droits.
Recommandation n° 19 : Accélérer l’adoption opérationnelle du label SecNumCloud, en facilitant les démarches de qualification et en incitant les acheteurs publics et privés à s’y référer.
Recommandation n° 20 : Rendre impératifs, dans le schéma EUCS (European Cybersecurity Certification Scheme for Cloud Services), les critères d’immunité aux lois extracommunautaires pour les données sensibles, et reconnaître un niveau de certification européen équivalent au référentiel français SecNumCloud.
Recommandation n° 21 : Faire de la certification EUCS, une fois adoptée avec des garanties de souveraineté effectives, un critère de référence dans les marchés publics européens, notamment pour l’hébergement des données sensibles.
Recommandation n° 56 : Renforcer l’acquisition par les entreprises d’une culture relative à la consolidation, à la valorisation et à la protection de leurs données, notamment en encourageant la poursuite et l’approfondissement des initiatives et actions de sensibilisation menées par les organisations représentatives et les réseaux professionnels.
Recommandation n° 57 : Renforcer le rôle des métiers spécialisés dans la gestion et la gouvernance des données au sein des entreprises, en développant la formation des professionnels et en élargissant les missions du délégué à la protection des données.
Recommandation n° 58 : Évaluer des conditions juridiques de la réutilisation des données et la nécessité d’un dispositif spécifique en rapport avec les exigences de la transformation numérique de l’économie et du développement des usages de l’intelligence artificielle.
Recommandation n° 59 : Encourager les dispositifs européens d’accès à des données dans un cadre mutualisé et sécurisé pour les entreprises susceptibles de contribuer au développement des usages de l’intelligence artificielle, telles que les usines et giga-usines d’intelligence artificielle et les installations sectorielles d’essai et d’expérimentation (TEF) de l’intelligence artificielle.
Recommandation n° 60 : Recourir autant que nécessaire aux bacs à sable réglementaires afin d’assurer la conciliation des exigences de la protection des données à caractère personnel avec l’encadrement juridique du développement des usages de l’intelligence artificielle.
Recommandation n° 61 : Assurer la pertinence des ressources humaines et moyens matériels de la Commission nationale au regard des effets du développement des usages de l’intelligence artificielle et de la pleine entrée en vigueur du règlement (UE) 2024/1689 du 13 juin 2024 sur l’exercice de ses missions de régulation et d’accompagnement.
Recommandation n° 62 : Prévenir la demande d’informations et de pièces redondantes pour la mise sur le marché de systèmes IA soumis au RGPD et au règlement (UE) 2024/1689 du 13 juin 2024. Examiner les conditions nécessaires à l’application du principe « Dites-le nous une fois » aux procédures de mise en conformité des systèmes d’IA relevant des deux règlements.
Recommandation n° 63 : Élargir et alléger les procédures simplifiées applicables aux demandes d’accès ou de constitution de bases de données de santé à caractère personnel ; rénover la procédure d’examen éthique et scientifique pour les études et recherches n’impliquant pas la personne humaine, dans une logique de subsidiarité vis-à-vis des comités éthiques et scientifiques locaux.
Recommandation n° 64 : Reconnaître en droit français la formation, les essais et l’évaluation d’algorithmes et de systèmes d’intelligence artificielle comme des finalités justifiant un traitement automatisé des données de santé à caractère personnel ou l’accès à des bases de données publiques existantes. Veiller à la cohérence des lois et règlements applicables au regard des dispositions du règlement (UE) 2025/327 du 11 février 2025.
Recommandation n° 65 : Établir une cartographie actualisée des bases de données de santé, en s’appuyant sur les outils développés par la CNIL et par des hubs sectoriels. En assurer la publicité auprès des porteurs de projets tendant au développement des usages de l’intelligence artificielle.
Recommandation n° 66 : Soutenir les initiatives visant à promouvoir une standardisation du format, de la présentation et des conditions d’accessibilité des données de santé.
Recommandation n° 67 : Développer le volume et l’accessibilité des données en langue française par la poursuite des projets et de nouvelles initiatives tendant à la valorisation des collections et données détenues par des administrations et institutions culturelles. Travailler à l’établissement d’un modèle de valorisation des œuvres respectueux du droit de la propriété intellectuelle et des intérêts afférants aux droits d’auteurs et droits voisins.
Recommandation n° 68 : Poursuivre le développement des dispositifs de l’Union européenne en faveur de la préservation de la diversité linguistique dans les données nécessaires au développement des usages de l’intelligence artificielle.
Dès 1950, Alan Turing soulignait, dans son article fondateur Computing Machinery and Intelligence, que les machines le suprenaient régulièrement par leurs résultats ([2]). Cette observation, formulée à une époque où l’informatique en était à ses balbutiements, contenait déjà une intuition essentielle : l’intelligence artificielle ne se résume pas à l’exécution mécanique d’instructions ; elle possède des capacités d’analyse et d’adaptation qui vont bien au-delà des programmes informatiques. Et de fait, ainsi que ChatGPT et Deepseek en apportent la preuve de manière spectaculaire au plan technique, elle ouvre la voie à l’émergence de technologies fondées sur une exploitation inédite des données et susceptibles de doter des programmes et des machines de capacités analogues aux fonctions cognitives humaines sur le plan de l’apprentissage, du raisonnement, de la résolution de problèmes, de la perception, voire de la prise de décision.
Au sens juridique, un système d’IA correspond à « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels » ([3]). Cette définition, à la fois technique et juridique, traduit la spécificité d’une technologie qui n’est pas un simple outil, mais un ensemble de procédés appelés à transformer en profondeur les sociétés et les économies. Du fait d’un passage accéléré du concept à la preuve, l’IA doit être envisagée à la fois comme une réalité scientifique et industrielle, un levier de compétitivité et d’innovation et un objet de régulation politique et juridique.
De fait, l’intelligence artificielle transforme d’ores et déjà les pratiques professionnelles, bien au-delà des fonctions d’automatisation auxquelles on la cantonnait initialement. Dans les entreprises, elle parait en mesure de modifier les processus de production, influe sur la prise de décision et réorganise le travail dans son ensemble. Surtout, les résultats obtenus dans ses différentes applications ne se réduisent pas à une amélioration de l’existant : la technologie fait émerger de nouveaux modèles économiques et recompose les équilibres dans des secteurs entiers de l’industrie aux services financiers, de la santé aux transports en passant pas la défense. Certaines entreprises y trouvent déjà un levier décisif de compétitivité, tandis que d’autres accusent un retard préoccupant. Cette diffusion inégale de l’IA contribue à dessiner une nouvelle géographie économique, dont les effets méritent une attention particulière.
Les définitions de l’intelligence artificielle
Selon la Commission nationale de l’informatique et des libertés ([4]), l’intelligence artificielle est un « procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies ». Selon le Parlement européen ([5]), relève de l’IA tout système permettant à une machine de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification ou la créativité ».
La Commission européenne ([6]) précise pour sa part que cette notion recouvre principalement trois familles d’approches :
– l’apprentissage automatique (machine learning) ;
– les méthodes fondées sur la logique et la représentation des connaissances ;
– les techniques statistiques, incluant l’estimation bayésienne ainsi que les procédés de recherche et d’optimisation.
Source : Travaux de la mission.
C’est la volonté d’examiner les moyens susceptibles de permettre aux entreprises françaises de s’illustrer et, à tout le moins, d’appréhender au mieux les exigences et les opportunités de cette mutation technologique qui a conduit la commission des Affaires économiques à créer, le 5 mars 2025, une mission d’information relative aux effets de l’intelligence artificielle sur l’activité et la compétitivité des entreprises françaises. Réunissant 7 députés, la mission a pour co-rapporteurs Mme Emmanuelle Hoffman et M. Antoine Golliot.
La mission d’information a entendu dresser un état des lieux précis des technologies existantes et de leurs usages et à mesurer leurs effets économiques. Elle s’est également attachée à évaluer le degré d’appropriation des outils par les différents secteurs d’activité de la sphère marchande, et à identifier les leviers publics susceptibles de renforcer l’innovation et de consolider la souveraineté nationale et européenne. Ces travaux mettent en lumière des tendances contrastées qui appellent une analyse nuancée : l’IA a déjà des effets tangibles sur l’organisation du travail et la productivité, mais son impact macroéconomique reste encore difficile à mesurer ; certains secteurs affichent un dynamisme remarquable, quand d’autres accusent un retard préoccupant ; l’écosystème français bénéficie de réels atouts scientifiques et entrepreneuriaux, mais demeure fragile face aux géants mondiaux.
Notre démarche ne vise pas à ignorer les travaux déjà réalisés sur l’intelligence artificielle, ni à sous-estimer les investissements importants menés par les acteurs économiques ou les initiatives publiques.
Depuis 2018, la France dispose d’une stratégie nationale en matière d’intelligence artificielle, inscrite dans le cadre du plan France 2030. Cette stratégie prévoit notamment un soutien à la recherche, au développement d’infrastructures de calcul, à la formation de compétences spécialisées, ainsi qu’à l’accompagnement des entreprises innovantes. Une coordination interministérielle a été mise en place, complétée en 2023 par la création de la Commission de l’intelligence artificielle, qui a formulé 25 recommandations stratégiques. Ces démarches s’inscrivent également dans le cadre plus large de l’action de l’Union européenne.
En 2025, Paris a accueilli le Sommet pour l’action sur l’intelligence artificielle, réunissant plus de cent délégations internationales et plaçant la France parmi les acteurs centraux des discussions mondiales sur la gouvernance de l’IA. Cette rencontre a mis en évidence la volonté de l’Europe de se positionner comme une alternative au duopole technologique américain et chinois, en mettant en avant les principes d’innovation responsable et de souveraineté numérique. Parallèlement, la France porte une dynamique politique forte pour accélérer les négociations européennes sur la régulation, le cloud et les standards technologiques, contribuant directement à l’élaboration d’un cadre d’excellence européen. La France confirme son leadership technologique avec l’inauguration en 2025 du supercalculateur Asgard, consacré au développement de l’intelligence artificielle dans le domaine militaire, classé en ce domaine comme le supercalculateur le plus puissant d’Europe et, en tant que tel, pilier de notre souveraineté nationale.
Ces initiatives ont accompagné et soutenu l’émergence d’un écosystème français dynamique, porté par des acteurs de rang mondial comme OVH ou Mistral, et nourri par un tissu foisonnant de start-up spécialisées qui bénéficient désormais d’un accès privilégié aux infrastructures nationales et européennes de pointe : supercalculateurs ouverts, AI Factories, programmes d’expertise et d’accompagnement technique qui démultiplient leur capacité d’innovation.
Pour autant, la France doit encore affronter une concurrence internationale d’une intensité considérable, en particulier celle des États-Unis et de la Chine, dont les moyens financiers et technologiques demeurent sans commune mesure avec ceux de l’Europe.
C’est précisément cette réalité géopolitique qui justifie l’urgence de nos travaux parlementaires. Face à cette compétition technologique mondiale, voulons-nous rester les consommateurs de la technologie, ou bien en devenir les producteurs et les régulateurs ? Notre mission d’information s’est attachée à apporter des réponses concrètes à cette question fondamentale, en évaluant les forces et les faiblesses de notre écosystème entrepreneurial, en analysant les besoins spécifiques des entreprises françaises, et en identifiant les leviers d’action publique les plus efficaces.
Car en dehors de l’accompagnement des entreprises françaises dans cette transition et la promotion de nos champions nationaux, c’est à une échelle européenne que doivent être appréhendés et traités par essence les enjeux que recèle le développement des usages de l’IA.
L’Union européenne a pris des mesures décisives, avec le règlement IA Act ([7]), qui propose une approche pionnière fondée sur le niveau de risque des usages, et avec des programmes de recherche et d’investissement destinés à renforcer la base industrielle et scientifique commune. Au-delà des initiatives juridiques et économiques, se dessine une conviction : l’IA est consubstantielle à l’avenir du continent et de ses entreprises. Elle conditionne la capacité de l’Union européenne et de chacun des États membres à demeurer souverains, dans un monde où les données, les infrastructures numériques et les capacités de calcul sont devenues des armes de puissance. Il s’agit d’une technologie dont la maîtrise engage notre indépendance industrielle, notre sécurité et, plus largement, notre aptitude à faire entendre une voix européenne dans la définition des normes mondiales.
Il nous faut en effet assumer que le développement de l’IA doit être encadré : par le droit, par la régulation, mais aussi par un dialogue permanent entre la recherche, les acteurs économiques, les citoyens et les pouvoirs publics. Dans cette optique, vos rapporteurs considèrent que le Parlement a un rôle éminent à jouer : il lui revient non seulement de fixer les règles encadrant l’usage de l’IA pour en prévenir les dérives, mais aussi de donner une orientation stratégique et d’impulser un effort public à la hauteur des enjeux.
La maitrise des concepts et procédés de l’IA, son appropriation et la capacité des entreprises à innover ne constituent pas un « luxe technologique » ou la manifestation d’un attrait pour le techno-solutionnisme : c’est un besoin fondamental pour l’avenir de nos sociétés. La technologie peut contribuer à relever des défis décisifs en matière de transition écologique, de compétitivité industrielle, de santé publique et de sécurité nationale, mais elle peut aussi fragiliser l’emploi, amplifier des dépendances et creuser de nouvelles fractures. C’est pourquoi la responsabilité des pouvoirs publics est double : protéger, tout en permettant d’innover ; encadrer, tout en favorisant la prise de risque ; réguler, tout en investissant.
Le présent rapport s’inscrit dans cette perspective. Il propose au Parlement une analyse précise des potentialités et des limites de l’IA du point de vue des entreprises françaises, dans leur diversité. Toutefois, notre mission a conscience des limites inhérentes à l’ampleur du sujet : si nous avons cherché à être le plus exhaustifs possible, certains secteurs d’activité — comme l’hôtellerie-restauration, l’artisanat ou encore l’économie sociale et solidaire — mériteraient des approfondissements spécifiques qui pourraient faire l’objet de travaux parlementaires complémentaires. Le rapport formule des orientations concrètes pour que la France et l’Europe prennent toute leur part dans une révolution technologique qui ne fait que commencer.
I. une technologie d’intÉrêt Économique majeur pour les entreprises BIEN QU’AUX PRÉMICES DE SA DIFFUSION
L’intelligence artificielle apparaît désormais comme une technologie stratégique, capable de modifier en profondeur l’organisation des entreprises, leurs produits et leurs modes de fonctionnement. Elle permet d’automatiser certaines tâches répétitives, d’appuyer le travail humain dans les fonctions les plus qualifiées et d’ouvrir de nouvelles perspectives d’innovation. À ce titre, elle constitue un levier important de compétitivité, dont l’impact pourrait être comparable à celui des grandes révolutions industrielles, invitant à repenser les bases mêmes de la croissance et de la productivité.
Toutefois, l’ampleur de cette transformation dépend encore largement des conditions concrètes de diffusion de l’IA. Dans les faits, malgré des avancées visibles dans certains secteurs et au sein de grandes entreprises, son adoption reste inégale et difficile à mesurer à l’échelle macroéconomique. Les bénéfices identifiés demeurent pour l’instant circonscrits à des périmètres limités, sans effet massif sur l’ensemble du tissu productif.
Cette période de transition souligne un double enjeu : tirer parti des opportunités économiques que représente l’IA, tout en créant les conditions d’une appropriation plus large, inclusive et effective dans l’ensemble du système productif.
A. une source d’innovations porteuses d’un profond renouvellement de l’activitÉ et des produits des entreprises
L’essor de l’intelligence artificielle (IA) ne constitue pas uniquement une avancée technologique : il marque une rupture systémique dans les modes de production, d’organisation et d’innovation des entreprises. Longtemps cantonnée à des usages expérimentaux, l’IA s’impose désormais comme un facteur clé de transformation économique, en révolutionnant les chaînes de valeur, en accélérant les cycles d’innovation, et en ouvrant la voie à de nouveaux modèles d’affaires. Son intégration progressive dans l’économie réelle préfigure un changement d’époque, comparable aux grandes révolutions industrielles du passé.
Ce basculement ne résulte pas uniquement de l’apparition de solutions logicielles plus puissantes. Il s’appuie sur l’émergence de véritables écosystèmes technologiques, portés par des entreprises innovantes, des infrastructures de calcul de nouvelle génération, et des dynamiques de financement massives. En France, cette dynamique est incarnée notamment par des acteurs tels que Mistral AI ou OVHcloud, qui ambitionnent de jouer un rôle moteur dans la redéfinition des équilibres technologiques mondiaux. L’émergence de start-up spécialisées dans les modèles de langage, les agents autonomes ou les applications sectorielles illustre la capacité du tissu économique national à innover et à se structurer autour de ces technologies de rupture.
Au-delà de l’offre technologique elle-même, l’IA bouleverse l’ensemble des secteurs d’activité, en permettant la création de nouveaux produits et services, en redéfinissant les métiers, et en induisant des gains d’efficacité souvent spectaculaires. De la santé à la défense, de la finance à l’agriculture, les cas d’usage se multiplient à un rythme soutenu, accélérant la transition vers une économie augmentée. Cette dynamique transforme non seulement les modes de production, mais ouvre aussi des perspectives inédites d’optimisation organisationnelle, avec l’apparition d’agents logiciels capables d’agir, de planifier et d’interagir de manière autonome. À travers l’IA, c’est donc une redéfinition profonde de l’activité économique qui s’amorce.
1. Une offre de solutions techniques à l’origine d’un nouveau secteur économique
a. Des concepteurs de logiciels et infrastructures français pouvant prétendre à une envergure mondiale : Mistral, OVH
Bien que l’Europe abrite des start-up prometteuses dans le domaine de l’IA, telles que Wayve au Royaume-Uni, DeepL et Black Forest Labs en Allemagne, et Poolside en France, aucune d’entre elles ne développe actuellement des modèles de langage de grande taille, c’est-à-dire des modèles d’usage général, hormis Mistral AI. La France se trouve donc dans une situation d’hégémonie sur le marché européen avec son champion national, Mistral AI.
Mistral, start-up fondée par un trio d’anciens chercheurs, Guillaume Lample, Timothée Lacroix et Arthur Mensch, s’est rapidement imposée comme le leader de l’IA en Europe. Valorisée à deux milliards d’euros en 2024 ([8]), Mistral incarne l’ambition d’une IA européenne souveraine et ouverte, indépendante des géants américains.
Depuis le recentrage stratégique de l’allemand Aleph Alpha ([9]), qui ne considère plus le développement d’un LLM européen comme un modèle économique suffisant et tenable à lui seul ([10]), Mistral s’impose comme la seule et unique start-up européenne développant un modèle de langage de grande ampleur avec une ambition de rang mondial.
Dans ce contexte, Mistral se distingue désormais nettement de ses concurrents européens selon les principaux indicateurs sectoriels : valorisation, levées de fonds, puissance de calcul et performances sur benchmarks publics. Mistral a effectué plusieurs levées de fonds, dont une de 600 millions d’euros (M€) en 2024 ([11]) et une à hauteur de 1 milliard d’euros (Md€) en 2025 ([12]) , là où son principal rival européen levait supposément ([13]) 467 M€ ([14]). Pour Thomas Knüwer ([15]) , qui a longuement enquêté et sollicité un à un les investisseurs cités dans les médias, « la taille réelle du cycle de financement de série B d’Aleph Alpha est d’environ 100 millions de dollars, peut-être 125 millions de dollars. En échange, les investisseurs ont reçu environ 20 % des actions. Cela m’a été rapporté par une source qui a vu la feuille de conditions. La société serait donc valorisée entre 500 et 625 millions de dollars ». Bien loin de la start-up française Mistral AI, avec les 640 millions de dollars de financement de série B qui valorisent l’entreprise 6 milliards de dollars en juin 2024. Cette dernière est désormais valorisée à 11,7 Md€ après avoir levé 1,7 Md€ ([16]).
Mistral AI dispose également de la flotte de GPU la plus importante en Europe. À l’occasion de VivaTech 2025, Mistral a annoncé un partenariat stratégique avec Nvidia concernant le déploiement de dix-huit mille GPU Grace Blackwell B200 dans un nouveau centre de données situé en Essonne et destinée à devenir la plus grande infrastructure dédiée à l’IA en Europe ([17]). Ce volume de ressources excède largement les capacités recensées chez les autres acteurs privés européens.
Bien qu’elle demeure un « petit poucet » face aux géants américains (OpenAI, Anthropic, Gemini) et chinois (DeepSeek, Ernie 4.5) en termes d’échelle, de financement et d’écosystème, Mistral AI progresse rapidement et s’affirme comme un acteur crédible à l’échelle internationale.
Sur le plan technique, les études récentes montrent que, bien qu’innovant, le modèle Mistral reste nettement en retrait par rapport aux modèles propriétaires comme GPT-4 ou Gemini, tant en matière de lisibilité, de raisonnement multimodal que de compréhension multilingue. Toutefois, les études universitaires publiées portent rarement sur les derniers modèles de Mistral (Mistral Large, Medium 3, Magistral), de sorte qu’il ne faut pas tirer de conclusions trop hâtives sur ses performances techniques.
Le modèle Mistral se distingue par des performances globalement inférieures à celles des leaders du marché de l’IA, comme GPT‑4, Gemini ou DeepSeek, avec un score de 1 252 dans le classement LMSYS Chatbot Arena publié dans le rapport AI Index 2025 ([18]). Il y occupe la dernière position parmi les modèles de référence évalués, avec un écart de plus de 130 points le séparant du modèle en tête (Gemini, 1 385).
Toutefois, sa présence même dans ce classement, aux côtés des géants de l’IA tels que Google, OpenAI, Meta ou Anthropic, témoigne de sa légitimité croissante sur la scène internationale.
Ce classement illustre par ailleurs une concurrence de plus en plus serrée entre les acteurs : l’écart entre les dix premiers modèles s’est réduit à moins de 6 points de pourcentage en un an, et les deux premiers ne sont désormais séparés que de 0,7 %. Le secteur devient ainsi de plus en plus compétitif, rendant chaque avancée technologique déterminante.
Évolution des performances des principaux modèles d’IA sur la plateforme LMSYS Chatbot Arena
Évolution des performances des principaux modèles sur LMSYS Chatbot Arena selon les fournisseur
Source : Standford University, The AI Index 2025 annual report, 2025.
Sur le plan des performances générales ([19]), Mistral se montre légèrement en retrait par rapport à ChatGPT et LLaMA sur l’ensemble des critères évalués. Il affiche une efficacité computationnelle de 78,4 %, inférieure à celle de ChatGPT (85,6 %) et de LLaMA (82,9 %), ce qui suggère un coût de calcul plus élevé à performance égale. Sa précision linguistique atteint 89,7 %, un score correct mais inférieur à ChatGPT (91,2 %) et LLaMA (90,5 %). Enfin, en matière d’alignement éthique, Mistral obtient 85 %, en retrait par rapport à LLaMA (87,1 %) et ChatGPT (88,3 %). Ces résultats soulignent que Mistral reste compétitif, mais moins optimisé sur les plans de l’efficience, de la rigueur linguistique et de la conformité éthique.
Résultats comparés des modèles d’IA en matière d’efficacité, de précision linguistique et d’alignement éthique
Source : Hou, G., & Lian, Q. (2024). Benchmarking of commercial large language models: ChatGPT, Mistral, and Llama, Shanghai Quangong AI Lab.
Plus précisément, plusieurs études récentes positionnent Mistral derrière les modèles propriétaires comme GPT-4o, Gemini 1.5 ou DeepSeek V3 en matière de performance sur les tâches complexes d’écriture, de raisonnement ou de compréhension multimodale.
Les résultats du tableau 7 d’une étude comparative des performances des LLM en matière académique ([20]) montrent que le modèle Mistral 7B présente une bonne capacité de reformulation sémantiquement fidèle, avec des scores de similarité atteignant 96,12 % avec ChatGPT, 94 % avec Qwen 2.5 Max, et 90 % avec Qwen 3 235B. Toutefois, il obtient un score nettement plus bas (85 %) lorsqu’il est évalué par DeepSeek v3, soit la performance la plus faible du corpus étudié. Cette variabilité suggère que Mistral reste moins constant que certains concurrents, dont les scores demeurent systématiquement au-dessus de 90 %.
Le modèle Mistral 7B affiche des performances modestes en matière de lisibilité et d’équilibre rédactionnel ([21]) particulièrement sur les tâches de paraphrase académique par rapport à ses concurrents internationaux. Il génère un nombre élevé de phrases jugées « très dures à lire » (152/179 selon Hemingway Editor), et obtient un score WebFX de 19,4 %, inférieur à ceux de Gemini 1.5 (22,2 %) ou de ChatGPT 4o mini (20 %), mais légèrement supérieur à DeepSeek v3 (14,6 %). Sa syntaxe est longue (23,4 mots par phrase en moyenne) et son score de lisibilité Grammarly reste moyen (16).
Enfin, sur des tâches de raisonnement visuel complexes, Mistral est également en retrait. Jegham, N., Abdelatti, M., & Hendawi, A. ([22]) concluent ainsi : « Comme l’illustre la figure 6, ChatGPT-o1 conserve la performance la plus équilibrée et la plus élevée à travers les différentes tâches, en affichant une précision constamment solide sans faiblesses notables dans une catégorie particulière. En revanche, des modèles tels que Pixtral 12B et Grok 3 présentent des performances plus inégales, excellant dans certaines tâches tout en rencontrant des difficultés dans d’autres. Pixtral 12B obtient des résultats relativement bons dans des tâches comme la compréhension de dessins animés et l’interprétation de diagrammes, mais sous-performe dans la détection de différences et l’appariement texte-image. ».
Comparaison de la précision de modèles d’IA sur diverses tâches (compréhension, repérage de différences, appariement texte-image…)
Source : Jegham, N., Abdelatti, M., & Hendawi, A. (2024). Visual reasoning evaluation of Grok, DeepSeek’s Janus, Gemini, Qwen, Mistral, and ChatGPT.
On pourrait objecter que les études disponibles présentent un biais d’évaluation, en ce qu’elles se concentrent majoritairement sur les performances des modèles en langue anglaise. C’est précisément pour pallier cette limite que l’étude Megaverse ([23]), l’une des plus complètes à ce jour, a été conduite, en proposant une évaluation systématique des capacités multilingues des modèles d’IA les plus avancés (GPT-3.5-Turbo, GPT-4, PaLM2, Gemini-Pro, Mistral, LLaMA2 et Gemma), à partir d’un ensemble homogène de jeux de données couvrant de nombreuses langues non anglophones.
L’étude précitée conclut que Mistral 7B reste significativement en retrait face aux leaders du marché comme GPT-4, Gemini-Pro ou PaLM2, notamment sur des tâches complexes de dialogue et de compréhension multilingue. Les auteurs concluent ainsi : « Nos expériences montrent que GPT-4 et PaLM2 surpassent les modèles Llama et Mistral sur diverses tâches, notamment pour les langues faiblement dotées, GPT-4 obtenant de meilleurs résultats que PaLM2 sur un plus grand nombre de jeux de données. » ([24]). Les performances de Mistral 7B (score moyen de 29,1) et de Mistral 7B Instruct (28,3) sur la tâche IndicXNLI montrent un net décrochage par rapport aux modèles propriétaires tels que GPT-4 (66,8) ou PaLM2 (44,5), confirmant ainsi leur relative faiblesse en compréhension multilingue, notamment sur des langues à faibles ressources.
Comparaison des performances de différents modèles
Source : Ahuja, S., Aggarwal, D., Gumma, V., Watts, I., Sathe, A., Ochieng, M., Hada, R., Jain, P., Ahmed, M., Bali, K., & Sitaram, S. (2024, March). Benchmarking large language models across languages, modalities, models and tasks. North American Chapter of the Association for Computational Linguistics (NAACL 2024).
Malgré des performances moindres selon les études récentes par rapport aux modèles propriétaires, la présence de Mistral dans ces méta-analyses universitaires constitue en soi un signe encourageant. L’entreprise est régulièrement comparée aux modèles les plus avancés d’IA à l’échelle mondiale, étant désormais perçu comme un acteur crédible sur la scène internationale. Le rapport 2025 de l’AI Index ([25]) publié par le Stanford HAI en témoigne : Mistral y figure aux côtés de GPT-4, Gemini, Claude ou DeepSeek.
Dans un domaine où l’argent reste le nerf de la guerre, le moindre financement dont bénéficie Mistral face à ses rivaux explique en partie son retard technique. Mais cela rend d’autant plus méritoire sa présence dans les classements internationaux, tant ces derniers sont dominés par des acteurs soutenus par des capitaux colossaux.
Les investisseurs technologiques européens, dont l’inquiétude croît, craignent que son financement de 1,2 milliard ([26]) de dollars depuis son lancement, une somme considérable pour une entreprise française de sa taille et de son âge, reste insuffisant au regard des normes de la Silicon Valley. Ses plus grands rivaux américains disposent aujourd’hui de moyens dix fois plus importants.
Fonds levés par les principaux américains fournisseurs de LLM comparés à ceux de Mistral
Source : Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025.
Financièrement, les entreprises américaines et chinoises bénéficient d’un avantage écrasant : OpenAI a levé 6,6 milliards ([27]) de dollars, Anthropic 4 milliards ([28]), tandis que les acteurs chinois sont bien positionnés en raison d’un fort soutien public constant depuis 2017, que la DGTrésor ([29]) estime entre dix et quinze milliards de dollars par an.
La sortie du modèle de DeepSeek, début 2025, a provoqué une onde de choc dans l’écosystème mondial de l’intelligence artificielle. Présentée par la presse internationale comme un tournant stratégique, elle a suscité de vives interrogations sur la capacité des acteurs européens, en réalité Mistral, à se maintenir dans la course technologique. Le Financial Times ([30]) soulignait alors « Puis, cette semaine, un coup de froid est venu de l’est. La société chinoise DeepSeek a stupéfié la Silicon Valley en publiant un modèle open-source de pointe avec ce qu’elle affirme être une infime fraction des ressources et de la puissance de calcul d’OpenAI ou de Meta - battant ainsi Mistral à son propre jeu. ». Le journal résumait ainsi la situation “With DeepSeek, China innovates and the US imitates” ([31]).
L’effet de surprise provoqué par l’initiative chinoise, un acteur jusque-là méconnu qui propose un modèle open source à la pointe, prétendant l’avoir pré-entraîné pour le coût dérisoire de 5,6 millions de dollars ([32]), là où les géants américains consacrent des centaines de millions, voire des milliards de dollars à leurs technologies.
Pour Mistral, l’impact est d’autant plus marqué que l’entreprise française s’est construite sur un positionnement original : démontrer qu’il est possible de concevoir des modèles performants et open source tout en mobilisant des moyens financiers et matériels bien inférieurs à ceux de ses concurrents. Comme le relève le Financial Times ([33]), Mistral se distingue par une efficacité technique qui constitue un avantage comparatif dans un environnement dominé par des acteurs largement capitalisés. L’arrivée de DeepSeek tend toutefois à fragiliser cette stratégie, en laissant apparaître qu’un acteur chinois, revendiquant lui aussi des ressources contraintes, serait parvenu à s’imposer face à des concurrents européens et américains, entraînant au passage une correction boursière significative des valeurs liées à l’intelligence artificielle.
Cependant, à mesure que les analyses se sont approfondies, l’image d’une IA chinoise frugale commence à se fissurer. Le cabinet SemiAnalysis ([34]), démontre que derrière la communication initiale de DeepSeek révélait une réalité bien plus contrastée : l’entreprise aurait en réalité investi 1,6 milliard de dollars en matériel, incluant un parc estimé à cinquante mille GPUs Nvidia Hopper, bien loin des 2 048 GPUs et des quelques millions de dollars annoncés au départ. Ces chiffres suggèrent que DeepSeek avait délibérément mis en avant une vision simplifiée de ses coûts pour servir une stratégie d’influence plus que pour refléter une véritable rupture technologique.
Cette évolution de la perception redonne un éclairage plus nuancé sur la position de Mistral dans l’écosystème mondial. Si l’entreprise ne dispose pas encore des moyens financiers de ses rivaux américains ou chinois, elle conserve un modèle fondé sur l’efficacité, l’efficience et l’agilité. Comme le rappelait son co‑fondateur ([35]), cette contrainte peut même constituer un atout : « Si vous avez une puissance de calcul illimitée, vous finissez par faire beaucoup de choses inutiles. La nécessité est mère de l’innovation. ». Ce pragmatisme, allié à une volonté d’affirmer une souveraineté technologique européenne, confère à Mistral un rôle singulier dans un paysage dominé par des colosses financiers.
En juin 2025, Mistral a franchi une nouvelle étape stratégique en lançant Mistral Compute ([36]), sa propre plateforme de cloud dédiée à l’intelligence artificielle en vue de rattraper le retard européen la matière. Développée en partenariat avec NVIDIA, cette infrastructure repose sur des serveurs équipés de 18 000 GPU Blackwell de dernière génération et propose un écosystème complet de services IA (API, stockage et puissance de calcul) ([37]). Ce projet s’inscrit dans une dynamique plus large soulignée par Jensen Huang ([38]), PDG de NVIDIA, selon laquelle l’Europe connaît une accélération massive de ses capacités IA, avec la construction prévue d’au moins 20 data centers sur le continent dans les prochaines années.
L’ambition affichée par Mistral est double : réduire la dépendance européenne aux hyperscalers ([39]) américains et chinois, et offrir aux acteurs publics et privés européens un environnement conforme aux exigences de souveraineté des données. Intégrer verticalement l’infrastructure permettra à Mistral de mieux maîtriser la chaîne de valeur de l’IA.
Si le lancement de Mistral Compute peut sembler audacieux, il s’inscrit pourtant dans une dynamique stratégique déjà largement éprouvée par les géants du numérique. Amazon (avec AWS), Microsoft (Azure) et Google (Google Cloud) combinent depuis plusieurs années le développement de modèles d’intelligence artificielle et la maîtrise de l’infrastructure cloud, créant ainsi des synergies fortes entre leurs services. Pour Mistral, ce mouvement vers l’aval permettrait de mieux contrôler les coûts d’entraînement de ses modèles et de proposer un écosystème intégré et européens aux entreprises, renforçant ainsi son attractivité.
Toutefois, la manœuvre comporte des risques stratégiques et financiers pour l’entreprise : la construction et l’exploitation d’un cloud à grande échelle exigent des investissements colossaux et une expertise industrielle qui pourraient détourner des ressources de son cœur d’activité. Dans un marché où les hyperscalers bénéficient d’effets d’échelle inégalés, la capacité de Mistral à atteindre une masse critique sera déterminante pour que cette stratégie devienne un levier de compétitivité plutôt qu’un facteur de fragilisation.
En réalité, le lancement de Mistral Compute répond également à une demande croissante des entreprises et des acteurs publics européens en matière d’autonomie stratégique. Comme l’a récemment souligné Arthur Mensch, directeur général de Mistral, de nombreux groupes souhaitent réduire leur dépendance vis-à-vis des fournisseurs américains ([40]), et il existe des tensions autour de la souveraineté numérique. L’entreprise noue des partenariats stratégiques avec des acteurs clés en Europe. Par exemple, Mistral a conclu en avril 2025 un contrat de 100 millions d’euros avec le groupe CMA-CGM pour développer des systèmes d’intelligence artificielle sur mesure. D’autres clients prestigieux, tels que BNP Paribas, AXA, Stellantis et Veolia, ont également choisi de faire confiance à la start-up française. Ces engagements témoignent d’un intérêt réel pour des solutions européennes, en particulier dans des secteurs sensibles comme la finance, la logistique et l’industrie de défense, où Mistral coopère notamment avec la société Helsing, spécialisée dans les technologies de défense.
Toutefois, ce projet ambitieux reste circonscrit à un segment spécialisé (le cloud IA) et ne saurait masquer le retard structurel plus général de l’Europe dans le domaine du cloud. En effet, si la France peut encore espérer jouer un rôle significatif dans le domaine des modèles de langage avec des entreprises comme Mistral, la situation apparaît nettement plus défavorable dans le secteur du cloud computing (informatique en nuage) ([41]).
OVHcloud, souvent présenté comme le champion national et européen, est aujourd’hui très retrait face aux hyperscalers américains. Amazon détient 32 %, Microsoft 23 %, Google 12 % du marché mondial de l’IaaS ([42]) /PaaS ([43]) ; aucun autre acteur (y compris OVHcloud qui n’en représente qu’environ 0,5 %) ne dépasse 4 %([44]). La Chine, en revanche, ne joue pas le jeu de la concurrence mondial en matière de cloud. Les fournisseurs de cloud occidentaux y sont fortement limités et ne peuvent y concurrencer librement. Le marché chinois, suffisamment vaste, permet l’existence de plusieurs acteurs locaux de premier plan. Il est aujourd’hui dominé par Alibaba, Tencent, China Telecom et Huawei, et les dix premiers fournisseurs de services cloud sont tous des entreprises chinoises.
Classement des principaux fournisseurs de services cloud par région
Source : consultancy.eu, European IaaS and PaaS cloud market to double by 2028, 11 septembre 2024.
Le marché européen des services cloud est fortement concentré : les géants américains Amazon, Microsoft et Google détiennent à eux seuls 72 % des parts de marché ([45]). Face à cette domination, les fournisseurs européens peinent à rivaliser et ne représentent aujourd’hui qu’environ 13 % du marché régional, là où ils représentaient 27 % en 2017. À l’échelle européenne, les principaux fournisseurs locaux sont SAP, Deutsche Telekom et OVHcloud, chacun détenant environ 2 % de part de marché ([46]). Viennent ensuite Telecom Italia, Orange Business et une multitude de petits acteurs.
Parts de marché des fournisseurs européens cloud au sein de l’UE
Source : consultancy.eu, European IaaS and PaaS cloud market to double by 2028, 11 septembre 2024.
OVHCloud
Fondé en 1999 et établi à Roubaix, OVHcloud est aujourd’hui le principal fournisseur européen de services cloud. L’entreprise exploite 44 datacenters dans le monde, avec un parc de plus de 450 000 serveurs ([47]), et propose une gamme complète de services : infrastructures en tant que service (IaaS), plateformes en tant que service (PaaS), solutions de stockage et hébergement web. OVHcloud se distingue par une approche orientée vers l’open source ([48]) et une forte attention portée à la souveraineté numérique, matérialisée par des certifications telles que SecNumCloud et ISO 27001.
Cette domination américaine s’explique par plusieurs facteurs structurels : une avance historique en matière de datacenters hyperscale, une maîtrise technologique des couches logicielles, des capacités d’investissement annuelles de plusieurs dizaines de milliards de dollars, et un écosystème client intégré qui renforce leur effet d’échelle.
La dépendance massive des entreprises et institutions européennes vis‑à‑vis des géants du cloud américain constitue une vulnérabilité stratégique majeure. C’est d’ailleurs ce constat qui a conduit M. Mario Draghi, dans son discours devant la Chambre et le Sénat italiens le 18 mars 2025 ([49]), à plaider pour que les dépenses liées au cloud et à la cybersécurité soient intégrées dans le cadre des dépenses de défense européenne.
Selon les analyses développées par Gilles Babinet et Milena Harito ([50]), plusieurs facteurs structurels expliquent cet écart de compétitivité avec les États-Unis. D’une part, l’écosystème américain présente des caractéristiques culturelles et financières particulièrement propices à l’innovation : le capital-risque ([51]) y occupe une position centrale, alimentant massivement le financement des start-up spécialisées dans les applications cloud, tandis que les entreprises établies font preuve d’une agilité remarquable dans l’adoption des nouvelles technologies, contrastant avec la prudence généralement observée chez leurs homologues européennes.
D’autre part, l’intégration du marché intérieur américain confère un avantage d’échelle déterminant. Une entreprise technologique peut ainsi accéder directement à 350 millions de consommateurs, sans avoir à surmonter d’obstacles linguistiques, culturels ou réglementaires caractéristiques du marché intérieur européen. Cet effet de masse se révèle particulièrement stratégique dans le secteur des services numériques, où les coûts sont en grande partie fixes et où chaque client supplémentaire n’occasionne qu’un coût marginal quasi nul.
À l’inverse, la fragmentation du marché européen limite structurellement la capacité d’investissement et de mutualisation à l’échelle continentale. C’est précisément pour répondre à cette difficulté qu’est née l’initiative GAIA‑X ([52]), un projet européen lancé en 2020 pour structurer un écosystème de cloud fédéré, ouvert et souverain. Si cette initiative témoigne d’une prise de conscience stratégique, elle reste encore peu opérationnelle et n’a pas permis, à ce stade, d’enrayer la domination américaine.
b. Un écosystème dynamique de start-up développant des procédés et applications spécifiques
La France a vu son écosystème de start-up en intelligence artificielle (IA) croître très rapidement ces dernières années, au point de s’affirmer comme l’un des plus dynamiques en Europe. Selon le mapping 2025 de France Digitale ([53]), le pays compte près de 781 ([54]) start-up spécialisées dans l’IA (produits, services ou infrastructures), soit une augmentation d’environ 27 % par rapport à l’année précédente.
À titre de comparaison, l’Allemagne en recense 687 ([55]), ce qui confirme la place de leader européen (au sein de l’UE) de la France en nombre de start-up en IA. Ce dynamisme se vérifie également via la montée en puissance de champions technologiques : depuis le lancement de la stratégie nationale pour l’IA en 2018 ([56]), le nombre total de licornes ([57]) françaises a fortement augmenté pour atteindre 28 ([58]) en 2024, dont 16 ([59]) concentrées sur des offres valorisant l’IA, à l’instar de Dataiku, Mirakl, Owkin, etc. Malgré un contexte économique incertain, les start-up françaises spécialisées dans l’IA ont su attirer des investissements prépondérants, traduisant l’attractivité croissante de l’écosystème national.
Rapporté à la taille de l’économie française (environ 2,2 % ([60]) du PIB mondial en parité de pouvoir d’achat), le volume de financements captés par les start-up françaises d’IA représente environ 2,5 % des financements mondiaux ([61]) dans l’IA générative pour la période récente. Cette part, légèrement supérieure au poids économique du pays, témoigne d’une surperformance relative et d’une position stratégique de la France dans la course mondiale à l’intelligence artificielle. Depuis leur création, elles ont levé près de 13 Md€ ([62]), dont 1,4 Md€ en 2024 ([63]), contre seulement 556 M€ en 2018. Pas moins de 24 tours de table supérieurs à 100 M€ ont été réalisés cette année, soit 2,5 fois plus qu’en 2023 ([64]), un indicateur clair de leur maturité croissante. Ce dynamisme s’inscrit dans une vague mondiale : selon la Commission pour l’intelligence artificielle ([65]), les start-up d’IA générative ont levé 22 milliards de dollars en 2023 à l’échelle internationale, un montant qui souligne l’ampleur du phénomène.
Cette surperformance française s’explique par les atouts, en matière scientifique et technologique, qui renforcent son écosystème de start-up. De 2017 à 2024, la France a maintenu son septième rang mondial et son deuxième rang européen ([66]) en matière de publications dans le cadre des conférences scientifiques sur l’IA (derrière la Chine, les États-Unis, l’Inde, l’Allemagne et le Royaume-Uni). Au cours des auditions, cette excellence académique et en ingénierie a été confirmée à plusieurs reprises ; elle constitue un facteur d’attractivité pour les investissements étrangers et un puissant levier d’innovation. Depuis 2018, de nombreux grands groupes mondiaux ont choisi d’implanter ou d’étendre en France leurs centres de R&D en IA, comme le rappelait Yann Le Cun, auditionné par la mission, citant l’exemple de Microsoft et de Meta. Ce cercle vertueux (talents locaux de haut niveau, recherche de pointe et start-up innovantes) confère à l’écosystème français une visibilité internationale et un leadership européen. Paris s’impose d’ailleurs comme le hub principal avec environ 63 % ([67]) des start-up IA du pays localisées en Île-de-France.
En Europe (hors UE), le Royaume-Uni reste aujourd’hui le principal pôle de financement de l’AI (près de 6 milliards de dollars ([68]) levés en 2024, soit plus que la France et l’Allemagne réunies).
Financements en capital-risque pour l’IA et hors IA
par pays en Europe (2024)
Cependant, la France se hisse en seconde position européenne pour de nombreux indicateurs et comble rapidement son retard. Comme explicité précédemment ([69]), le français Mistral AI est devenu en 2023-2024 l’un des premiers développeurs de modèles de langage européens, en levant plus d’1,6 milliard de dollars en un an pour rivaliser avec OpenAI. L’écosystème français connaît une dynamique de financement ascendante : en 2024, les start-up françaises d’IA ont pris la tête en Europe en levant plus de 1,3 milliard d’euros, soit près de 50 % ([70]) du total des investissements européens dans ce secteur.
Néanmoins, l’écosystème français demeure de taille encore modeste face aux superpuissances américaines et chinoises. Les entreprises d’IA établies aux États-Unis ont attiré près de 100 milliards de dollars de capitaux cumulés ([71]), soit davantage que le reste du monde combiné. La Chine investit aussi massivement ([72]) et fait émerger ses propres géants de l’IA. Ce rapport de force mondial impose à la France et à l’Europe de soutenir l’échelle de leurs start-up (scale-up ([73]) comme MistralAI) pour demeurer compétitives.
Malgré un écart de moyens financiers avec les leaders mondiaux, la France parvient à exceller dans certaines niches technologiques stratégiques, où ses start-up occupent parfois une place de leader mondial, voire de quasi-monopole technologique. C’est le cas dans le secteur de la défense, notamment pour les applications d’IA au renseignement et à la surveillance sous-marine. Par exemple, la société Safran.AI ([74]) (ex-Preligens), auditionnée par la mission et fondée en 2016, fournit des algorithmes d’IA capables d’analyser automatiquement d’immenses flux d’images satellite et de détection acoustique pour repérer des menaces ou des activités anormales est rapidement devenu comme l’un des leaders mondiaux de l’IA appliquée au renseignement géospatial. Faute de financements privés suffisants pour assurer sa croissance, Preligens a finalement été rachetée en 2024 par le groupe Safran ([75]) afin de préserver cette avance stratégique française. Ce rachat illustre à la fois l’excellence technologique locale et les difficultés à faire émerger un champion autonome ([76]) dans un secteur aussi sensible que celui du renseignement.
Toujours dans le domaine de la défense, Helsing AI, start-up allemande fondée en 2021 et active en France, en Allemagne et au Royaume‑Uni, s’est spécialisée dans les systèmes d’armes autonomes et l’analyse tactique par IA. Elle développe notamment des drones sous‑marins intelligents capables de patrouiller durant des semaines pour détecter navires et sous‑marins ennemis, dans une logique de « constellations mobiles de capteurs » offrant aux armées européennes une surveillance maritime inédite. En trois ans, Helsing est devenue l’une des start‑up d’IA de défense les plus valorisées en Europe (5,3 milliards de dollars fin 2024), après avoir levé 484 millions de dollars auprès d’investisseurs de premier plan. La France se positionne ainsi sur un créneau technologique de pointe, conférant un avantage stratégique aux industriels et forces armées qui maîtrisent ces solutions.
Au-delà du secteur militaire, l’écosystème français compte de nombreux champions technologiques de pointe dans des domaines civils variés. Par exemple, la start-up PhotoRoom, auditionnée par la mission, fondée en 2019, s’est imposée comme le leader mondial ([77]) de la génération d’images par IA pour l’édition photo. Son applicationpermet aux e-commerçants, aux photographes et aux particuliers d’améliorer automatiquement des photos de produits. Dans le domaine de l’imagerie médicale, Gleamer, auditionné par la mission, s’impose comme l’un des principaux acteurs européens de l’IA du secteur visant à faciliter et à fiabiliser le diagnostic des professionnels médicaux.
2. Cas d’usage de l’intelligence artificielle : vers une transformation différenciée des secteurs économiques
a. Dans le champ de la consommation : entre personnalisation, optimisation et recomposition des chaînes de valeur
Dans le domaine de la consommation, l’intelligence artificielle (IA) prédictive est aujourd’hui un levier essentiel pour les entreprises souhaitant optimiser leur chaîne logistique et leurs stocks ([78]). Ces systèmes reposent sur des algorithmes de machine learning capables d’analyser de vastes historiques de ventes, de données saisonnières, comportementales ou environnementales afin de générer des prévisions de demande très précises. Des revues universitaires récentes soulignent que ces technologies permettent de réduire les erreurs de prévision et d’améliorer la disponibilité produit, tout en diminuant les coûts d’inventaire ([79]).
Impact de l’IA sur les performances analytiques des magasins et l’optimisation des références produits
Source : Bharti, M. (2025). AI-driven retail optimization: A technical analysis of modern inventory management. International Journal of Advances in Engineering and Management (IJAEM), 7(2), 31–38.
Dans ce contexte technologique, des entreprises telles que Carrefour, auditionné par la mission, ou Cdiscount utilisent des modèles d’IA prédictive pour anticiper efficacement la demande. Carrefour déploie des algorithmes prédictifs, notamment via la plateforme SAP S/4HANA ([80]), pour optimiser ses prévisions de demande, réduire les ruptures et les pertes, ou encore optimiser ses stocks de manière proactive. L’optimisation des itinéraires de livraison, rendue possible par ces systèmes, contribue également à réduire les délais de livraison et les émissions de CO₂, tout en augmentant la satisfaction des clients.
Exotec, spécialisé dans les solutions logistiques automatisées avec ses robots Skypod, illustre une application concrète de l’IA dans la chaîne d’approvisionnement : combinant robotique avancée et algorithmes d’optimisation, l’entreprise permet aux entrepôts de gérer de manière fluide les flux ([81]), d’améliorer la précision des prélèvements et de réduire les délais de préparation. LOKAD, également auditionné par la mission, propose une approche disruptive de la supply chain (chaîne d’approvisionnement), en se spécialisant sur l’optimisation prédictive des chaînes d’approvisionnement. L’entreprise combine intelligence artificielle, statistiques avancées et cloud computing pour automatiser la prise de décision et maximiser la performance économique des supply chains.
Par ailleurs, l’IA s’applique aussi à l’analyse du comportement des consommateurs. En exploitant les historiques d’achat des clients, des enseignes comme Zalando ([82]) segmentent leurs audiences et génèrent des recommandations personnalisées. Ces systèmes accroissent à la fois le panier moyen et la fidélisation client, tout en améliorant l’expérience de navigation. Des publications universitaires ([83]) récentes montrent que l’intégration de l’IA et de la réalité augmentée dans la beauté permet d’améliorer l’intention d’achat et la fidélité des clients.
L’Oréal, acteur majeur du secteur, auditionné par la mission, met en œuvre des dispositifs de réalité augmentée couplés à l’IA (notamment via SkinConsult AI issu de ModiFace ([84])) pour proposer un diagnostic cutané personnalisé et un essayage virtuel de produits. Ces outils améliorent le taux de conversion en ligne, réduisent les retours produits et contribuent à une réduction des déchets, consolidant ainsi leur impact environnemental positif ([85]).
Des travaux universitaires spécifiques ([86]) (entre autres, celui de Malalur Rajegowda et al., 2024) présentent des systèmes immersifs combinant IA (réseau de neurones convolutionnel ([87]) ) et réalité étendue (XR) pour analyser les types de peau et recommander des produits avec une précision de classification de l’ordre de 93 %. D’autres études ([88]) mettent en évidence que les applications de réalité augmentée dans le maquillage et le soin (Virtual Try-On) favorisent une meilleure évaluation du produit et influencent positivement la décision d’achat des consommateurs.
Enfin, l’introduction de l’IA dans la R&D permet de traiter d’énormes volumes de données issues des avis clients et des tendances sociales. Cela soutient l’identification de nouvelles formulations, simule virtuellement l’efficacité des ingrédients, accélère le prototypage et réduit les erreurs expérimentales. Cette dynamique d’innovation s’accompagne également de nouveaux modèles d’expérimentation, intégrant à la fois l’IA, la modélisation 3D et les biomatériaux. La collaboration récente ([89]) de L’Oréal avec l’université de l’Oregon sur une peau bioprintée permettant un retour sensoriel est un exemple marquant de convergence entre innovation scientifique et technologie beauté, ouvrant la voie à des tests éthiques, personnalisés et plus efficaces.
b. IA et finance : une transformation en cours, entre promesses d’efficacité et défis de mise à l’échelle
Le secteur financier, en particulier la banque et l’assurance, se place à l’avant-garde de l’adoption de l’intelligence artificielle (IA). Alors que les entreprises de services financiers ont dépensé environ 35 milliards de dollars dans la mise en œuvre de l’intelligence artificielle en 2023, cet investissement devrait plus que doubler pour atteindre 97 milliards de dollars d’ici 2027, soit le taux de croissance le plus rapide parmi toutes les grandes industries, selon le Fonds monétaire international ([90]) ([91]). D’après une étude du BCG, la banque figure d’ailleurs aux côtés des fintech et du logiciel parmi les secteurs comptant la plus forte concentration d’entreprises « leaders » dans l’usage de l’IA ([92]) . Les acteurs français s’inscrivent dans cette dynamique, comme l’illustrent les initiatives de groupes auditionnés par la mission d’information, tels que BNP Paribas, Société Générale ou AXA, qui voient dans l’IA un levier stratégique de compétitivité et de transformation de leurs activités.
Dans le secteur bancaire, les cas d’usage de l’IA se multiplient à grande échelle. BNP Paribas ([93]), par exemple, intègre l’IA dans ses processus depuis 2016 et revendique déjà plus de 750 cas d’usage en production à travers ses métiers. La banque anticipe ainsi 500 millions d’euros de revenus additionnels d’ici fin 2025 grâce à l’intégration de ces solutions d’IA. De son côté, Société Générale ([94]) a également industrialisé l’IA dans ses opérations quotidiennes avec 300 cas d’usage en production, dont un quart vise directement à améliorer l’expérience client. Concrètement, ces applications couvrent toute la chaîne de valeur bancaire ([95]) : agents virtuels pour assister la clientèle, automatisation de la notation de crédit et de la conformité, recommandation personnalisée de produits financiers, optimisation des risques et détection de fraudes, etc. Par exemple, la banque de détail de Société Générale s’appuie sur des chatbots comme SOBOT (assistant en ligne) et ELLIOT (outil de sa filiale Boursorama automatisant plus de 70 % des demandes clients de bout-en-bout) afin d’offrir un service plus réactif tout en soulageant les centres d’appels ([96]).
De même, des algorithmes d’IA renforcent en arrière-plan la lutte anti-fraude ([97]) et le contrôle des transactions suspectes, protégeant ainsi les clients. Par exemple, Mastercard utilise un système d’IA appelé Decision Intelligence ([98]), qui analyse en temps réel jusqu’à 160 milliards de transactions par an. Ce système attribue à chaque transaction un score de risque en moins de 50 millisecondes, détectant les comportements inhabituels tout en réduisant de plus de 85 % les faux positifs ([99]), c’est-à-dire les blocages injustifiés de paiements légitimes.
L’essor récent de l’IA générative accélère encore ces usages : BNP Paribas a déployé en 2025 une plateforme interne de « LLM-as-a-Service » ([100]) pour donner à l’ensemble de ses entités un accès unifié et sécurisé aux modèles de langage avancés. Cette mutualisation technologique facilite le développement rapide de nouveaux cas d’usage (assistants virtuels internes, génération automatisée de documents, recherche intelligente d’informations, aide à la programmation, etc.), tout en assurant un cadre contrôlé et conforme aux exigences de sécurité bancaire.
À l’instar des banques, le secteur de l’assurance connaît lui aussi une adoption rapide de l’IA, avec des acteurs français de premier plan. Le groupe AXA, par exemple, a intégré l’IA dans l’ensemble de ses activités : plus de 400 cas d’usage ([101]) de la donnée et de l’IA ont été identifiés et déployés au sein de ses différentes entités, couvrant toute la chaîne de valeur assurantielle. Ces applications variées visent autant à améliorer la détection des fraudes qu’à affiner la tarification des primes, à fluidifier les parcours clients (par exemple, via des chatbots pour déclarer un sinistre) ou encore à anticiper les risques climatiques émergents (AXA Wildfire). Cette transformation repose sur d’importants investissements techniques et humains : AXA s’est dotée d’une équipe mondiale de 2 000 experts en data (données) et IA (dont 900 scientifiques dits data scientists), et a mis en place dès 2022 une académie interne pour former ses collaborateurs aux compétences data/IA. L’IA générative trouve également des cas d’usage concrets : AXA a développé « Secure GPT » ([102]), un assistant fondé sur Azure OpenAI, aujourd’hui accessible à 154 000 employés du groupe et déjà intégré dans 79 applications métier pour accélérer le traitement des réclamations, améliorer la souscription automatisée ou assister les interactions clients. Grâce à cette stratégie volontariste, AXA s’impose comme un leader international : le cabinet britannique Evident ([103]) a classé l’assureur au premier rang mondial en 2025 pour la maturité de son déploiement de l’IA. Plus largement, les grands assureurs européens comme Allianz ([104]) ou Generali ([105]) rivalisent d’initiatives en IA (prévention prédictive, indemnisation automatisée, etc.), tandis qu’aux États-Unis et en Asie, les groupes d’assurance investissent également massivement pour ne pas être distancés dans cette mutation numérique du métier.
Sur la scène internationale, les cas d’usage de l’IA en banque-assurance se multiplient de façon tout aussi spectaculaire, confirmant que les initiatives françaises s’inscrivent dans une tendance globale. Aux États-Unis, par exemple, la banque Bank of America a annoncé que son assistant virtuel Erica (l’un des premiers chatbots bancaires à large échelle) a franchi le cap d’un milliard d’interactions client ([106]) en à peine quatre ans, signe de l’engouement du public pour ces nouveaux outils numériques. D’autres grands groupes bancaires mondiaux, comme JPMorgan Chase ([107]) ou HSBC ([108]), ont investi dans des plateformes d’IA propriétaires couvrant des usages allant du conseil financier personnalisé à l’optimisation automatisée des portefeuilles et à la surveillance avancée des risques. Dans l’assurance, des groupes internationaux majeurs comme Zurich Insurance ([109]) opèrent aujourd’hui plus de 500 applications et outils d’IA en production ou en développement, couvrant des usages stratégiques (souscription intelligente, gestion proactive des sinistres, interface client augmentée, etc.).
Si le potentiel de l’IA est considérable pour la banque et l’assurance, ces secteurs doivent néanmoins relever plusieurs défis majeurs pour concrétiser pleinement ces gains. Un premier enjeu est la conformité réglementaire et éthique ([110]) : la finance est un domaine strictement régulé, et l’intégration d’algorithmes intelligents doit respecter des normes de transparence, d’équité et de protection des données. Les établissements français en sont conscients : BNP Paribas ([111]), par exemple, intègre la confidentialité dès la conception et s’est engagée à ne pas commercialiser les données personnelles de ses clients. L’IA Act encadre en partie les usages à risque (notation de crédit par exemple) ([112]).
Un deuxième défi est d’ordre organisationnel et humain : exploiter l’IA à grande échelle nécessite une transformation culturelle et un renforcement massif des compétences des collaborateurs. Au Royaume-Uni, un rapport récent de la Financial Services Skills Commission ([113]) souligne qu’environ 160 000 professionnels du secteur financier dans ce pays doivent être formellement requalifiés ou formés pour combler un écart de compétences estimé à 35 points de pourcentage entre l’offre et la demande de compétences liées à l’IA.
Enfin, bien que les projets pilotes en IA se multiplient, le retour financier réel reste rare : selon une étude du BCG ([114]), le ROI médian se situe autour de 10 %, et un tiers des dirigeants déclarent un impact limité ou aucun gain. La conclusion est que le retour sur investissement a lieu grâce à l’exécution pilote de ces cas d’usage.
c. Soigner mieux, soigner autrement ? Les promesses et les limites de l’IA dans le domaine de la santé
i. Un marché en expansion et une adoption croissante
L’intelligence artificielle (IA) en santé connaît une croissance exponentielle à l’échelle mondiale. Selon les projections, le marché global de l’IA médicale devrait passer d’environ 21,7 milliards de dollars en 2025 à plus de 110 milliards en 2030, soit un taux annuel de croissance proche de 38 % ([115]) ([116]). Au niveau international, l’AMA (American Medical Association) ([117]) rapporte que 66 % des médecins aux États‑Unis utilisent désormais l’IA dans leur pratique en 2024–2025 (contre 38 % en 2023) et que 68 % considèrent que l’IA apporte un avantage au soin. En France, cette dynamique s’accompagne d’une adoption de plus en plus large par les professionnels de santé. Plus d’un soignant français sur deux (53 %) déclare intégrer l’IA dans sa pratique quotidienne, signe que ces outils ne sont plus cantonnés aux laboratoires mais entrent dans la routine clinique ([118]).
Par ailleurs, les médecins se montrent très favorables à ces technologies selon Sanofi : 75 % d’entre eux soutiennent le développement de l’IA dans le secteur médical (contre 67 % de l’ensemble de la population) ([119]). Près de 70 % des médecins français se déclarent favorables à une collaboration avec l’IA dans la prise en charge, contre seulement 45 % des patients ayant confiance à son usage pour soigner ([120]). Une étude de Philip’s Future Health Index ([121]) indique que 63 % des professionnels de santé américains estiment que l’IA peut améliorer les soins, contre 48 % des patients, ce qui reflète une confiance plus marquée du corps médical dans cette technologie par rapport au grand public.
ii. L’IA présente à toutes les étapes de soins
Considérée comme un levier de transformation du système de santé, les cas d’usages de l’IA existent aujourd’hui à toutes les étapes du parcours de soins ([122]) : de la prévention et du dépistage précoce jusqu’au diagnostic, au traitement et au suivi des patients. Les médecins utilisent par exemple des algorithmes pour détecter plus en amont des pathologies difficiles à diagnostiquer (maladies rares, lésions peu visibles...), ou pour anticiper des risques ([123]) avant même l’apparition des symptômes. Dans le domaine du diagnostic, l’IA peut apporter une rapidité et une précision inédites : certaines applications d’analyse d’images médicales surpassent désormais l’humain en vitesse et en exactitude, par exemple pour interpréter des radiographies ou des scanners ([124]).
Concrètement, de nombreux champs médicaux bénéficient déjà de ces avancées, de l’oncologie (détection automatisée de tumeurs en imagerie) à l’ophtalmologie (dépistage de la rétinopathie diabétique), en passant par la cardiologie, la dermatologie ou la génomique. Des jeunes pousses françaises illustrent bien ces usages. Par exemple, Gleamer, auditionné par la mission, propose un copilote intelligent pour les radiologues : sa suite d’IA d’aide à l’interprétation des images médicales est déployée dans plus de 2 000 établissements à travers 45 pays, avec à ce jour 35 millions d’examens analysés et des certifications CE et FDA pour son module de détection des fractures osseuses ([125]). Dans le domaine de la prescription, la start-up Synapse Medicine ([126]), également auditionnée par la mission a, elle, développé une plateforme d’intelligence médicamenteuse qui aide les professionnels à sécuriser leurs prescriptions. En utilisant le traitement automatique du langage naturel, cet outil fournit des informations fiables sur les médicaments et permet de prévenir les erreurs de prescription (interactions, contre-indications, posologies inappropriées, etc.).
iii. IA et amélioration de la sécurité des patients
Les cas d’usage de l’IA s’étendent désormais jusqu’à l’acte de soin lui-même, contribuant notamment à la sécurité des patients. Dans les blocs opératoires, des systèmes prédictifs assistés par IA aident par exemple les anesthésistes et chirurgiens à prévenir des complications aiguës en cours d’intervention ([127]). Plusieurs hôpitaux, dont l’AP-HP et le CHU de Strasbourg, ont déployé un système d’IA capable d’anticiper les épisodes d’hypotension artérielle peropératoire ([128]), difficiles à détecter avec les moniteurs classiques. Au CHU de Strasbourg, un supercalculateur analyse en temps réel les données physiologiques du patient, les compare à une vaste base de cas et identifie les signaux faibles annonciateurs d’une chute de tension, permettant à l’équipe médicale d’intervenir avant qu’elle ne survienne et d’éviter ainsi un risque d’hypoxie des organes. Ce genre d’assistant intelligent agit comme un coéquipier supplémentaire qui renforce la vigilance humaine et réduit le risque de complications post-opératoires.
En dehors du bloc opératoire, l’IA peut assurer le suivi à distance et la télémédecine, au bénéfice des patients chroniques. La start-up française BioSerenity, par exemple, déploie des dispositifs médicaux connectés (électroencéphalographes mobiles et capteurs de paramètres vitaux) couplés à de l’IA pour aider au diagnostic et au monitoring en temps réel de diverses maladies chroniques, en particulier dans le domaine neurologique et les troubles du sommeil ([129]) ([130]). Grâce à ces solutions, un volume massif de données de santé peut être analysé de manière continue et fine, permettant de détecter plus tôt une dégradation de l’état d’un patient à domicile et d’intervenir préventivement. L’IA devient ainsi un outil transversal, présent de la planification de la prise en charge jusqu’à sa mise en œuvre, avec à la clé des soins plus sûrs et personnalisés.
iv. IA générative et découverte de nouveaux médicaments
L’IA de nouvelle génération joue également un rôle crucial en recherche pharmaceutique, où elle accélère la découverte de médicaments et la conception de molécules innovantes ([131]). Le développement d’un médicament est un processus long (plusieurs années) et coûteux, jalonné d’un fort taux d’échecs. Les modèles d’IA générative apportent ici un levier d’efficacité : ils peuvent tester virtuellement d’innombrables configurations moléculaires, prédire leurs propriétés pharmacologiques et aider à identifier de nouvelles cibles thérapeutiques, le tout bien plus rapidement que les approches traditionnelles.
En conséquence, laboratoires pharmaceutiques et start-up « TechBio » nouent des partenariats pour tirer parti de ces avancées. Un exemple emblématique est le partenariat signé fin 2023 entre la pharmaceutique Sanofi et la start-up française Aqemia ([132]) : Sanofi a signé un contrat de 140 millions de dollars avec Aqemia pour exploiter ses algorithmes inspirés de la physique quantique et son IA générative dans un objectif de découverte de molécules thérapeutiques et d’accélération de la recherche de nouveaux candidats-médicaments.
De son côté, Owkin est une start-up française fondée en 2016, spécialisée dans l’intelligence artificielle appliquée à la médecine, notamment via l’apprentissage fédéré, pour accélérer la recherche de traitements contre des maladies graves comme le cancer, en collaboration avec des hôpitaux et institutions de recherche. Ces alliances incarnent une tendance de fond : l’IA permet aux industriels de la santé d’innover plus vite et à moindre coût, tout en réduisant le risque d’échec, ce qui pourrait à terme raccourcir le temps d’accès des patients à de nouveaux traitements ([133]).
v. IA et santé mentale : suivi et prévention des troubles
Les professionnels de santé exploitent également l’IA pour améliorer la prise en charge de la santé mentale et le suivi des populations fragiles. Des start-up françaises émergent sur ce créneau. Par exemple, Emobot ([134]) est une start‑up MedTech française fondée en 2022, qui propose un dispositif reposant sur l’analyse continue des expressions faciales et de la voix via l’IA, afin de surveiller les troubles de l’humeur, notamment la dépression, et d’offrir des indicateurs objectifs utilisés par les médecins et industries pharmaceutiques.
L’IA, dans le domaine de la recherche, peut également aider à mieux comprendre et prévenir les troubles psychiques. Une étude française ([135]) menée par laboratoire Trajectoires développementales et psychiatrie (Inserm/ENS Paris-Saclay) et le Centre Borelli (CNRS/Université Paris-Saclay) a utilisé le machine learning sur un large ensemble de données cliniques, génétiques et d’imagerie afin d’identifier les signes avant-coureurs de troubles anxieux à l’adolescence. Ce travail pionnier a mis en évidence trois signes avant-coureurs les plus prédictifs dont la présence à 14 ans augmente significativement le risque de développer un trouble anxieux à l’entrée dans l’âge adulte. Ces résultats publiés dans Nature ([136]) ouvrent la voie à des dépistages plus précoces et ciblés des troubles mentaux grâce à l’IA.
vi. Obstacles et enjeux spécifiques de l’IA en santé
Malgré ses promesses, l’IA en santé fait face à des défis importants qu’il convient de relever pour une adoption pérenne et responsable. D’abord, la question des biais algorithmiques suscite une grande vigilance dans le milieu médical.
Des données d’entraînement inappropriées ou non représentatives peuvent conduire à des recommandations fausses ou inéquitables ([137]), ayant un impact disproportionné ou inapproprié sur certaines populations (personnes issues de minorités ethniques, femmes, personnes âgées, etc.). En particulier, une revue systématique récente sur les grands modèles de langage appliqués à la clinique montre que les biais y sont omniprésents ([138]) : disparités de performance selon l’ethnie, le genre, l’âge ou le handicap, pouvant conduire à de mauvaises recommandations thérapeutiques ou des diagnostics erronés.
Ensuite, l’explicabilité et la transparence des décisions de l’IA sont cruciales en médecine. L’opacité des décisions algorithmiques suscite une méfiance notable parmi les professionnels de santé. Selon un rapport du Parlement européen ([139]), le manque de transparence des systèmes d’IA est identifié comme un risque majeur, freinant leur adoption et compromettant la confiance des soignants et des patients. Une étude récente ([140]) en Europe a interrogé 115 professionnels de santé et révélé que la transparence réglementaire offerte par la réglementation européenne (AI Act 2024/1689) ne correspond souvent pas aux besoins réels des utilisateurs, rendant les dispositifs perçus comme des « boîtes noires » difficiles à accepter cliniquement. En outre, l’intégration de l’IA dans la pratique soulève des enjeux de protection des données de santé, qui sont parmi les plus sensibles ([141]).
Une étude récente ([142]) montre que les réponses générées par l’IA sont souvent perçues comme plus empathiques que celles de médecins humains, notamment dans des contextes de communication écrite. Ces résultats invitent à repenser la relation soignant‑patient, en envisageant l’IA comme un outil d’assistance qui renforcerait la qualité du dialogue médical tout en recentrant le médecin sur les dimensions humaines du soin.
d. Dominer, protéger, encadrer : l’IA au cœur des rapports de force dans la défense et l’aéronautique
L’intelligence artificielle (IA) est en passe de transformer en profondeur l’art de la guerre. Le conflit en Ukraine a illustré le rôle critique de l’IA dans le renseignement, l’emploi de drones autonomes et la cyberguerre ([143]). Face à cela, une véritable course aux armements en IA s’est engagée entre les puissances : les États-Unis, la Chine et, dans une moindre mesure, la Russie, investissent massivement dans le développement de systèmes militaires autonomes, de capacités de surveillance renforcées, et d’outils d’aide à la décision.
Les stratégies de défense américaines de 2018 et 2022 placent l’IA au cœur de la modernisation des armées, avec une intégration croissante dans des domaines tels que le renseignement, la logistique ou les opérations cyber ([144]) ([145]). Le Pentagone a créé le Chief Digital and Artificial Intelligence Office (CDAO) pour piloter cette transformation, et des projets concrets comme le drone MQ-9 Reaper ([146]) ou le programme Project Maven ([147]) illustrent l’intégration opérationnelle de ces technologies.
Une analyse révèle que le financement de l’innovation en matière de défense, dont une partie est consacrée à des projets d’intelligence artificielle, représentait 34 milliards de dollars du budget de sécurité nationale des États-Unis en 2022, soit environ 4 % du total ([148]). Les investissements non classifiés du Département de la Défense dans l’IA sont passés de légèrement plus de 600 millions de dollars en 2016 à environ 1,8 milliard de dollars en 2024 ([149]), avec plus de 685 projets d’IA actifs actuellement en cours.
La Chine, principal concurrent des États-Unis dans ce domaine, mise elle aussi sur l’IA pour atteindre son objectif de constitution d’une armée « de classe mondiale » ([150]) d’ici 2050. Son plan de développement de l’IA de 2017 ([151]) et l’importance croissante accordée à l’autonomie des systèmes militaires montrent une volonté claire de rivaliser avec les capacités américaines. Le manque de transparence budgétaire ([152]) rend les comparaisons difficiles, mais des analyses ([153]) suggèrent que l’Armée populaire de libération (APL) investit massivement dans l’intelligence artificielle, avec des montants qui pourraient égaler voire dépasser les dépenses du Département de la Défense des États-Unis. Par ailleurs, l’examen du budget de la défense chinoise indique que les dépenses réelles seraient supérieures de 40 % à 90 % aux chiffres officiellement annoncés, portant les dépenses totales estimées pour 2024 à environ 330 à 450 milliards de dollars ([154]), dont une part serait consacrée à la recherche et technologie (R&T).
La Russie, quant à elle, accuse un retard technologique ([155]) mais cherche à le combler via une stratégie nationale de l’IA et un plan militaire décennal ([156]). Elle mise sur l’autonomisation partielle de son matériel militaire (à hauteur de 30 %) d’ici fin 2025 ([157]), notamment dans le contexte de la guerre en Ukraine qui accélère l’intégration de technologies d’IA sur le champ de bataille. À l’instar de la Chine, les dépenses du budget militaire russe sont difficiles à évaluer ([158]).
L’Union européenne reconnaît de plus en plus l’intelligence artificielle comme un levier stratégique de puissance, tant sur les plans économiques que militaire, dans un contexte de montée en puissance des rivalités géopolitiques. Cette prise de conscience s’inscrit dans la volonté affirmée de renforcer l’autonomie stratégique et la souveraineté technologique de l’Europe, comme l’illustrent la Boussole stratégique adoptée en 2022 ([159]) et la stratégie industrielle de défense de mars 2024 ([160]). L’UE développe une approche intégrée fondée sur le renforcement de la base industrielle et technologique de défense européenne (BITDE), en créant des synergies entre innovation civile et militaire, notamment dans les technologies duales ([161]). Des instruments comme le Fonds européen de défense (EDF) ([162]) et le plan ReArm Europe ([163]) mobilisent d’importants moyens, jusqu’à 800 milliards d’euros ([164]), pour accélérer le développement de technologies critiques, dont l’IA, en privilégiant des projets communs et l’innovation de rupture.
Toutefois, malgré des avancées notables, les moyens alloués restent inférieurs à ceux de ses concurrents : l’ensemble des États membres consacre 14,4 milliards d’euros ([165]) par an à la R&D militaire, contre 130 milliards aux États-Unis ([166]). Les efforts européens souffrent encore de fragmentation, d’une faible coordination et d’une concentration excessive des dépenses sur quelques États. Des initiatives récentes, comme la plateforme STEP ([167]) ou l’allocation croissante de fonds aux technologies émergentes, témoignent néanmoins d’une dynamique ascendante. Les projets financés incluent des applications concrètes de l’IA en cybersécurité, systèmes autonomes, automatisation intelligente ou traitement linguistique, dans le respect du principe de contrôle humain significatif imposé par la réglementation du Fonds européen de défense.
Enfin, plusieurs voix ([168]) alertent sur les dangers de cette course à l’armement algorithmique, soulignant l’urgence d’un encadrement éthique et international afin de prévenir les dérives, de favoriser les usages civils de l’IA et d’éviter des scénarios de confrontation incontrôlée. L’article du MIT ([169]) estime qu’une course à l’IA entre les États-Unis et la Chine est dangereuse et inefficace, appelant à une coopération internationale pour encadrer les usages de l’IA, prévenir les dérives, et concentrer les efforts sur les grands défis globaux comme la santé, l’éducation ou le climat. Il insiste sur le fait que l’affrontement technologique affaiblit la stabilité mondiale et retarde les bénéfices que l’IA pourrait apporter à l’humanité.
L’essor de l’IA de défense s’accompagne de défis éthiques et géopolitiques majeurs. L’utilisation d’algorithmes dans des systèmes d’armes pose la question de la responsabilité, de la conformité au droit international humanitaire et du risque d’escalade incontrôlée si l’on réduit la supervision humaine. Les approches divergent : les États-Unis privilégient des lignes directrices souples favorables à l’innovation, tandis que l’Europe promeut une approche plus centrée sur l’humain, misant sur la fiabilité et la gestion des risques ([170]). Le Parlement européen, par exemple, reconnaît l’importance stratégique de l’IA militaire, mais appelle à interdire les armes létales autonomes échappant à tout contrôle humain.
Consciente de ces enjeux, la France s’est engagée depuis plusieurs années dans le développement de l’IA de défense. L’État a encouragé la recherche et les écosystèmes d’innovation (création d’instituts spécialisés 3IA en 2018, programmes d’accélération France 2030, etc.) et inscrit l’IA au cœur de sa stratégie de défense. Néanmoins, comparée aux puissances de feu américaines et chinoises disposant des géants du numérique, l’Europe ne bénéficie pas du même niveau de ressources technologiques et financières ([171]) . Pour compenser ce handicap, la France et ses partenaires misent sur des niches technologiques où ils peuvent exceller de manière souveraine, ainsi que sur une approche fondée sur la confiance et la transparence de l’IA ([172]). L’élaboration de solutions d’IA dignes de confiance (fiables, explicables, traçables) est perçue comme un moyen de se démarquer face à des compétiteurs parfois moins regardants, tout en évitant une dépendance stratégique à des technologies boîte noire ([173]) .
Cette stratégie porte ses fruits dans certains domaines pointus de la défense et de l’aéronautique où des start-up françaises occupent des positions mondiales de premier plan, voire de quasi-monopole technologique, malgré des moyens plus limités que leurs concurrents étrangers. C’est le cas, notamment pour les applications d’IA au renseignement et à la surveillance sous-marine. Par exemple, la société Safran.AI ([174]) (ex-Preligens), auditionnée par la mission et fondée en 2016, fournit des algorithmes d’IA capables d’analyser automatiquement d’immenses flux d’images satellite et de détection acoustique pour repérer des menaces ou des activités anormales ; elle est rapidement devenue l’un des leaders mondiaux de l’IA appliquée au renseignement géospatial. Faute de financements privés suffisants pour assurer sa croissance, Preligens a finalement été rachetée en 2024 par le groupe Safran ([175]) afin de préserver cette avance stratégique française. Ce rachat illustre à la fois l’excellence technologique locale et les difficultés à faire émerger un champion autonome ([176]) dans un secteur aussi sensible que celui du renseignement.
Toujours dans le domaine de la défense, Helsing AI, start-up allemande fondée en 2021 et active en France, en Allemagne et au Royaume‑Uni, s’est spécialisée dans les systèmes d’armes autonomes et l’analyse tactique par IA. Elle développe notamment des drones sous‑marins intelligents capables de patrouiller durant des semaines pour détecter des navires et sous‑marins ennemis, dans une logique de « constellations mobiles de capteurs » offrant aux armées européennes une surveillance maritime inédite. En trois ans, Helsing est devenue l’une des start‑up d’IA de défense les plus valorisées en Europe (5,3 milliards de dollars fin 2024 ([177])), après avoir levé 484 millions de dollars auprès d’investisseurs de premier plan.
Parallèlement, on distingue plusieurs catégories d’IA en contexte militaire : l’IA dite « faible » appliquée aux capteurs (images, sonars, etc.) pour fournir aux analystes des informations exploitables plutôt que des données brutes, l’IA générative qui, entraînée sur des masses de données textuelles, peut assister les états-majors en accélérant la rédaction de rapports ou l’analyse de renseignement, et l’IA d’aide à la décision stratégique qui agrège des données hétérogènes afin de suggérer des anticipations du comportement adverse ([178]).
Les armées ont intensément intégré ces technologies, tant pour optimiser les décisions en opérations que pour moderniser leurs processus internes. Par exemple, les systèmes équipés d’IA intégrés au véhicule blindé « Griffon » ([179]) permettent désormais à l’équipage d’identifier des cibles jusqu’à trois kilomètres, y compris en sous-bois, là où l’œil humain ne suffit plus. Dans le domaine de la guerre acoustique, l’IA trie efficacement les signaux pertinents, réduisant la charge cognitive des analystes de 98 %. Par ailleurs, l’application souveraine Rora ([180]), utilisée par la SIMMT, permet d’identifier instantanément des pièces détachées via une simple photo (même hors connexion), évitant erreurs logistiques et retards de maintenance. Dans la formation aéronautique, l’IA analyse les données de vol ou de simulation pour aider les instructeurs à repérer précocement les difficultés des élèves pilotes et à augmenter ainsi leur taux de réussite ([181]).
Elle contribue également à la lutte contre la désinformation, en détectant rapidement deepfakes vidéo ou audio qui visent les forces armées, facilitant ainsi l’alerte opérationnelle. Dans un contexte militaire américain, l’Army Research Laboratory (DEVCOM-ARL) a développé DefakeHop ([182]), une méthode légère de détection de fake vidéo/audio utilisable sur des dispositifs tactiques en opérations, capable d’identifier les contenus manipulés malgré les attaques adverses.
Pour surmonter les défis liés à la diversité et au volume croissant des données militaires ([183]), Safran (via Safran.AI) a développé des solutions d’IA optroniques (ACE), de consolidation multi‑capteurs (AI.STAR) et de surveillance satellite (GeoAI). Ces outils traitent des flux massifs : détection, classification, géolocalisation immédiate, réduisant des heures d’analyse humaine à quelques minutes.
L’intelligence artificielle transforme les systèmes d’armement, notamment à travers des programmes comme Project Maven ([184]) du Pentagone, qui utilise le machine learning pour analyser des images et accélérer le ciblage en opérations. Lors d’exercices récents, cette IA a permis de réduire de 90 % les effectifs nécessaires à une frappe d’artillerie, tout en doublant la cadence de ciblage. Si ces avancées augmentent l’efficacité opérationnelle, elles soulèvent aussi des enjeux éthiques majeurs : la perte de contrôle humain significatif, les biais algorithmiques et la difficulté à déterminer les responsabilités en cas de faute. Des chercheurs comme Feldman et al. ([185]) appellent à une régulation internationale encadrant les systèmes d’armes autonomes.
Enfin, au-delà de ces cas emblématiques, l’IA irrigue de plus en plus largement le secteur aéronautique français. Dans l’aviation civile par exemple, l’IA sert à l’optimisation des trajectoires de vol pour économiser le carburant, comme l’a démontré le modèle Constellation de Qantas ([186]), aboutissant à des gains de l’ordre de 2 %, soit environ 92 millions de dollars économisés en 2023. En parallèle, les compagnies utilisent la maintenance prédictive, combinant l’IoT, l’analyse de données et le machine learning afin de surveiller en temps réel l’état des moteurs et prévenir les pannes éventuelles. Des études universitaires et industrielles ([187]) ([188]) montrent que cette approche permet de réduire les coûts de maintenance et le temps d’immobilisation, tout en améliorant la disponibilité des avions. Enfin, des modèles de deep learning appliqués à la prévision de la consommation de carburant, comme celui évoqué par Jarry et al. ([189]), peuvent estimer celle-ci avec une erreur comprise entre 2 % et 10 % selon l’appareil, ouvrant la voie à une planification plus précise et économiquement efficiente.
L’intelligence artificielle irrigue désormais largement les activités d’Airbus et de Safran, tant dans l’aviation civile que dans le domaine militaire. En juin 2024, Safran a finalisé l’acquisition de Preligens ([190]), renommée Safran AI, afin de renforcer son expertise dans l’analyse d’images satellites et vidéo à usage civil, spatial et de défense. Cette acquisition vise à déployer des outils d’inspection numérique automatisée permettant d’augmenter la fiabilité, la sécurité et la rapidité des contrôles qualité en production aéronautique.
Chez Airbus, auditionné par la mission, l’IA s’est déployée selon plusieurs axes stratégiques. Sa plateforme Skywise ([191]), fondée sur le traitement automatique du langage naturel (NLP) ([192]) et le machine learning, est utilisée pour la maintenance prédictive dans l’aviation civile, réduisant les pannes et améliorant la disponibilité des avions. Dans le spatial, Airbus explore des systèmes d’IA intégrée capables de traiter directement à bord des images satellites. En outre, le groupe expérimente l’IA générative en interne ([193]) pour accélérer la conception de composants et améliorer l’efficacité administrative, notamment pour l’analyse automatisée de contrats ou la génération de documentation.
Dans le domaine militaire, Airbus développe le concept de « Wingman », un drone de combat autonome destiné à accompagner des avions pilotés sous commandement humain, en partenariat avec la start‑up européenne Helsing ([194]). Ce démonstrateur, présenté en 2024, illustre l’essor de l’IA coopérative dans les systèmes d’armes de nouvelle génération au sein du système de combat aérien du futur (SCAF).
e. Automatiser, optimiser, sécuriser : l’IA à l’épreuve des réseaux télécoms
Historiquement prudennts sur l’IA, les opérateurs télécoms français (Orange, SFR, Free, Bouygues) ont accéléré son adoption depuis 2020 sous l’effet de plusieurs facteurs. Dès 2020 ([195]), l’Arcep identifiait les interrogations des opérateurs télécoms concernant le recours à l’intelligence artificielle dans la gestion des réseaux, notamment en matière de fiabilité, de transparence des décisions automatisées et de rôle des techniciens. Depuis, plusieurs dynamiques ont levé les hésitations initiales : la 5G a considérablement accru la complexité des réseaux et la nécessité de les automatiser ; la crise énergétique de 2022 a renforcé la recherche d’efficacité énergétique, pour laquelle l’IA constitue un outil précieux ; enfin, la diffusion rapide des modèles d’IA générative à partir de 2023 a ouvert de nouveaux cas d’usage dans la relation client et l’assistance technique.
Ces facteurs combinés ont conduit les opérateurs à structurer davantage leur stratégie IA. En 2024, 65 % des opérateurs télécoms mondiaux avaient déjà une stratégie IA dédiée ([196]). Les réseaux produisant des volumes massifs de données, l’apprentissage automatique s’y est imposé pour détecter des tendances et anomalies impossibles à repérer manuellement ([197]). Aujourd’hui, l’IA est intégrée dans de nombreuses composantes des infrastructures télécoms, même si le secteur s’appuie surtout sur des modèles classiques de machine learning : d’après le World Economic Forum ([198]) (2025), les opérateurs télécoms disposent d’une expérience étendue en matière d’intelligence artificielle traditionnelle, tandis que l’IA générative fait encore l’objet de phases d’expérimentation, avec pour priorité en 2025 d’étendre les cas d’usage à l’échelle de l’organisation.
L’IA améliore la fiabilité et la performance des réseaux de télécommunication tout en réduisant les coûts d’exploitation.
Les opérateurs utilisent l’IA comme outil d’aide à la décision pour optimiser leurs investissements et améliorer l’efficacité de leurs réseaux mobiles ([199]). Des algorithmes de machine learning surveillent en continu l’état des équipements : ils détectent les comportements anormaux de composants critiques (batteries, systèmes de climatisation...) afin de prévenir des pannes avant qu’elles ne surviennent. Ces modèles analysent aussi le flot d’alertes techniques du réseau d’accès radio pour mieux anticiper les défaillances ([200]).
En parallèle, l’IA contribue à la maintenance prédictive ([201]) : en identifiant des signaux faibles dans le comportement des équipements, elle déclenche des interventions préventives, réduisant les incidents et les astreintes d’urgence. L’intelligence artificielle traditionnelle contribue depuis longtemps à la réduction des coûts et à l’amélioration de l’efficacité opérationnelle, notamment grâce à la maintenance prédictive. Selon Nvidia ([202]), près des deux tiers des professionnels de l’IA, issus des opérateurs de télécommunications et des fournisseurs de matériel ou de logiciels, déclarent avoir observé des économies liées à ces cas d’usage.
L’efficacité énergétique est un autre enjeu clé : grâce à l’IA, les opérateurs mettent en place des fonctionnalités green innovantes ([203]). Par exemple, des modèles prédisent le trafic sur chaque antenne mobile et peuvent désactiver dynamiquement des bandes de fréquences en heures creuses ([204]), sans dégrader le service. Ericsson rapporte qu’un opérateur (Far EasTone) a réduit de 25 % sa consommation énergétique quotidienne sur le RAN ([205]) grâce à une solution AI intégrée, prenant en compte la prédiction du trafic et la mise en sommeil dynamique des ressources peu occupées. Orange ([206]) a déployé une solution d’intelligence artificielle permettant d’optimiser la consommation énergétique de ses antennes mobiles en ajustant dynamiquement leur puissance selon le trafic observé, ce qui a permis, sur certains sites, de diviser par trois la consommation électrique sans dégrader la qualité de service.
Enfin, l’IA aide à la planification des capacités réseau ([207]) : Orange a déployé sa solution Smart Capex ([208]), qui exploite des algorithmes de machine learning pour analyser en temps réel le trafic utilisateur, la consommation énergétique et les données environnementales, afin d’orienter les investissements réseau vers les zones présentant le plus fort besoin en capacité.
Au-delà des infrastructures, l’IA assiste les équipes terrain et améliore l’expérience client. Les techniciens profitent de la vision par ordinateur ([209]) pour contrôler la qualité des installations. Par exemple, SFR analyse chaque mois plus de 5 millions de photos ([210]) de ses déploiements fibre via un outil d’IA visuelle (Deepomatic), ce qui garantit la conformité des raccordements et la qualité du réseau fixe pour les abonnés. Des expérimentations combinent même réalité augmentée et reconnaissance d’images pour guider les techniciens en temps réel, rendant les interventions plus sûres et efficaces ([211]). En outre, certaines défaillances réseau peuvent désormais être diagnostiquées à distance grâce à l’IA, évitant l’envoi de techniciens en situations dangereuses (par exemple l’inspection de pylônes) ([212]).
Côté utilisateurs, les opérateurs intègrent l’IA générative dans la relation client. Des modèles de langage (LLM) assistent les conseillers clients en analysant instantanément les conversations et en suggérant des réponses pertinentes. SFR a déployé en 2024 l’IA générative Gemini de Google via la plateforme Vertex AI ([213]) pour épauler ses centres d’appels : l’outil comprend les demandes des clients et fournit aux agents un support en temps réel, ce qui accélère la résolution des requêtes et améliore la précision des réponses. L’opérateur estime pouvoir ainsi traiter plus de deux millions de dossiers supplémentaires par an via les canaux digitaux, en réduisant drastiquement les délais de traitement. De même, Orange et SFR explorent l’usage de LLM internes pour aider les ingénieurs à interroger les bases de connaissances techniques ([214]) (procédures d’installation, protocoles de résolution d’incident), ce qui facilite et fiabilise la résolution des pannes complexes. Ces apports de l’IA permettent aux opérateurs d’améliorer la satisfaction client (par la réduction des temps d’attente et d’indisponibilité), tout en libérant les employés des tâches routinières pour se concentrer sur des activités à plus forte valeur ajoutée.
Conscients de l’enjeu, les opérateurs télécoms s’allient avec les pépites technologiques pour rester à la pointe de l’innovation. Orange a ainsi annoncé en 2025 un partenariat stratégique avec la start-up française Mistral AI, afin de développer des algorithmes avancés et de préparer les réseaux de demain, notamment via une collaboration en recherche et développement (R&D) sur l’effet du déploiement massif de l’IA et l’adaptation des infrastructures (GPU en périphérie, gestion intelligente du trafic) ([215]). Bouygues Telecom ([216]), de son côté, a noué un accord avec Perplexity AI, offrant un accès gratuit à son assistant de recherche pendant un an. Free propose quant à lui 12 mois offerts au chatbot Le Chat Pro de Mistral AI dans ses forfaits mobiles. À l’international, Vodafone s’est associé à Microsoft ([217]) pour intégrer l’IA générative à ses services numériques. Cette effervescence partenariale témoigne d’un secteur en mutation, où opérateurs de télécommunication et entreprises d’IA conjuguent leurs atouts (la puissance des réseaux d’un côté, les avancées algorithmiques de l’autre) pour innover plus vite.
L’impact de l’IA sur la qualité et la résilience des infrastructures numériques est stratégique. À l’avenir, la convergence de l’IA et des réseaux pourrait ouvrir de nouveaux services différenciants ([218]) : par exemple, allouer à la volée une qualité de service premium sur le réseau 5G pour un usager le demandant. Selon Ericsson ([219]), lors d’un essai réalisé avec le groupe taïwanais Far EasTone dans le cadre de la 5G‑Advanced, il a été démontré qu’un système d’allocation dynamique de ressources QoS piloté par l’IA permettait de proposer une voie rapide sur demande à certains utilisateurs, notamment dans des contextes de forte affluence comme un concert.
Enfin, selon GSMA Intelligence ([220]), plusieurs freins structurels ralentissent l’adoption à grande échelle de l’intelligence artificielle dans le secteur des télécommunications. Le principal obstacle identifié concerne les enjeux de cybersécurité, cités par 49 % des répondants, ce qui reflète une inquiétude croissante face aux risques liés à l’intégration d’outils algorithmiques dans des infrastructures critiques. Viennent ensuite les préoccupations liées à la confidentialité des données et aux considérations éthiques (41 %), qui renvoient à la difficulté de concilier innovation et respect des principes de souveraineté numérique. Les limites des infrastructures informatiques (38 %) freinent également le déploiement de solutions avancées, notamment en matière d’IA embarquée ou de traitements en périphérie de réseau. La pénurie de talents spécialisés (34 %), la qualité et la complexité des données disponibles (30 %), ainsi que les contraintes réglementaires (28 %) complètent ce panorama.
Principaux freins à l’adoption de l’intelligence artificielle Dans le secteur des télécommunications
Source : GSMA intelligence, Telco AI : State of the Market, Q4 2024, Janvier 2025.
L’intelligence artificielle (IA) s’est imposée ces dernières années dans le secteur juridique, particulièrement depuis l’essor des modèles de langage et agents conversationnels comme ChatGPT en 2022. De nombreuses legaltech ([221]) , comme DAstra, Legalvision, Doctrine ou Avocalc, ont émergé et des outils juridiques propulsés par l’IA (générative ou prédictive) se multiplient, automatisant des tâches jusqu’alors chronophages ([222]) : gestion documentaire (classement, vérification de conformité de documents), rédaction et relecture de contrats à partir de modèles prédéfinis, recherche d’informations dans les textes de loi et la jurisprudence, détection d’anomalies dans des dossiers ([223]), etc. Ces usages, déjà expérimentés par certains professionnels, témoignent du fort potentiel de l’IA pour augmenter la productivité des juristes en les déchargeant de tâches répétitives.
L’automatisation permise par l’IA offre en effet aux avocats, notaires, juristes d’entreprise ou conseils en propriété industrielle des gains de temps significatifs, leur permettant de se recentrer sur des missions à plus forte valeur ajoutée telles que la stratégie, le conseil personnalisé ou le contentieux. Selon le rapport du Sénat ([224]), l’utilisation de l’IA générative pourrait faire gagner jusqu’à 90 minutes par dossier aux notaires. LexisNexis ([225]) notait que près de 4 professionnels du droit sur 5 estiment que les outils d’IA générative renforceront leur efficacité. De même, le Conseil national des barreaux (CNB), comme il le rapportait à la mission, anticipe une hausse de la productivité dans les cabinets d’avocats grâce à ces outils, et plusieurs cabinets témoignent ([226]) déjà d’un avantage compétitif à recourir quotidiennement à des IA comme support à la recherche juridique. Les legaltech françaises l’ont bien compris : l’éditeur LexisNexis a investi 20 millions d’euros en 2022 ([227]) pour intégrer l’IA dans ses services, et des solutions telles que GenIA-L (Lefebvre Dalloz), Doctrine ou Predictice proposent respectivement de la recherche jurisprudentielle assistée par IA, des résumés de références juridiques mis à jour, ou encore de l’analyse prédictive des décisions de justice.
Des études récentes confirment que l’intelligence artificielle génère un gain de productivité réel sans pour autant menacer massivement l’emploi juridique. Une enquête de Thomson Reuters ([228]) indique que l’IA pourrait libérer 4 heures de travail par semaine par professionnel, soit l’équivalent de 100 000 dollars de recettes facturables supplémentaires par avocat aux États-Unis. Une étude empirique publiée en avril 2025 ([229]) compare les modèles de langage aux réviseurs humains dans le domaine de la facturation juridique : les LLM atteignent jusqu’à 92 % de précision, contre 72 % pour les professionnels expérimentés, avec des temps de traitement de moins de 4 secondes par facture au lieu de plusieurs minutes, et des coûts moindres de 99,97 %.
g. L’IA au champ : une révolution en germe entre promesse technologique et réalités agricoles contrastées
À l’échelle mondiale, l’adoption de l’intelligence artificielle en agriculture reste majoritairement embryonnaire malgré une croissance rapide du marché. En 2024, le marché global de l’IA appliquée à l’agriculture était estimé entre 1,8 et 4,7 milliards de dollars, avec des projections jusqu’à 12,5 milliards de dollars d’ici 2034–2035, selon le Market Resarch report ([230]), soit un taux anticipé de croissance de 18,95 % par an.
En 2024, les États-Unis détenaient la plus grande part du marché de l’IA générative appliquée à l’agriculture ([231]). Un rapport publié en 2023 par le Département de l’Agriculture des États-Unis (USDA) ([232]) indique que plus de 50 % du maïs, du coton, du riz, du sorgho, du soja et du blé d’hiver sont semés à l’aide de systèmes de guidage automatisés. Cette position dominante s’explique par une infrastructure numérique avancée et une adoption précoce de l’intelligence artificielle. Les principales entreprises d’agritech y investissent massivement dans la recherche et le déploiement de solutions basées sur l’IA. L’agriculture de précision y est largement mise en œuvre, notamment sur de vastes exploitations commerciales. Par ailleurs, les financements publics et les partenariats privés continuent de stimuler l’innovation dans ce domaine.
La Chine mène une transition planifiée : un plan quinquennal (2024‑2028) ambitionne de digitaliser massivement l’agriculture via big data, GPS et IA pour améliorer la productivité et la sécurité alimentaire déficitaire malgré une production de plus de 700 millions de tonnes ([233]). Malgré cela, le modèle chinois d’exploitations agricoles très fragmentées (fermes de petite taille) freine encore l’adoption à grande échelle, même si des progrès sont confirmés en développement de l’agriculture de précision ([234]).
Marché de l’IA générative dans l’agriculture : tendances régionales
2025-2033
Source : Grand View Research, Generative AI In Agriculture Market Size, Share & Trends Analysis Report By Technology, By Application (Precision Farming, Livestock Management, Agricultural Robotics & Automation, Weather Forecasting), By Region, And Segment Forecasts, 2025 – 2033, 2025.
Toutefois, les données fiables sur l’adoption des technologies sont rares : les rapports disponibles signalent d’amples disparités entre pays selon la taille des exploitations, l’accès au matériel et la politique publique ([235]). Ainsi, une exploitation chinoise ou française située peut être précoce, alors que l’adoption réelle demeure limitée auprès des exploitations de petite taille à l’échelle mondiale.
Marché de l’IA générative dans l’agriculture : répartition par application en 2024
Source : Grand View Research, Generative AI In Agriculture Market Size, Share & Trends Analysis Report By Technology, By Application (Precision Farming, Livestock Management, Agricultural Robotics & Automation, Weather Forecasting), By Region, And Segment Forecasts, 2025 – 2033, 2025.
L’Australie, un véritable laboratoire mondial pour l’agriculture du futur ([236])
L’Australie est en train de devenir un véritable laboratoire mondial pour l’agriculture du futur, portée par une culture de l’innovation pragmatique et une faible dépendance aux subventions publiques. Face aux défis climatiques et à la nécessité de renforcer la sécurité alimentaire, les agriculteurs australiens adoptent massivement des technologies de pointe : capteurs de données, intelligence artificielle, biotechnologies fongiques pour régénérer les sols, ou encore pollinisateurs robotiques comme ceux testés par la start-up israélienne Arugga. Des entreprises comme Loam Bio, spécialisée dans les champignons capturant le carbone, ou Cauldron, axée sur la fermentation de précision, illustrent la vitalité de l’écosystème ag-tech centré autour de la ville d’Orange. Si les investissements mondiaux dans ce secteur ont chuté récemment, l’Australie tire son épingle du jeu en misant sur des solutions concrètes et rentables, attirant à la fois des fonds publics et privés, locaux et internationaux. Les autorités fédérales et régionales soutiennent activement cette dynamique à travers des programmes de financement, d’infrastructure et de formation. Enfin, les perspectives d’exportation vers l’Asie du Sud-Est, où les besoins en productivité agricole explosent, pourraient faire de l’agriculture technologique australienne un levier d’influence stratégique à l’échelle mondiale.
En Europe ([237]), le marché de l’intelligence artificielle générative appliquée à l’agriculture progresse de manière constante , porté par une volonté affirmée de promouvoir des pratiques agricoles durables et respectueuses de l’environnement, mais moins rapidement que pour l’Asie et que les États-Unis. Les réglementations européennes favorisent l’adoption de méthodes fondées sur l’analyse de données et l’optimisation des intrants. Des pays tels que l’Allemagne, la France ou les Pays-Bas figurent parmi les leaders en matière d’agriculture intelligente. Le taux d’adoption de l’IA dans le secteur agricole et agroalimentaire européen reste globalement modeste et inégal, comme le constate la Commission européenne ([238]).
Le rapport du Parlement européen ([239]) sur l’usage de l’intelligence artificielle dans le secteur agroalimentaire, qui décline tous les cas d’usage potentiels de cette technologie en agriculture, souligne que le taux d’adoption de ces technologies reste globalement limité à l’échelle européenne. Bien que les potentialités offertes par l’IA soient reconnues, notamment en matière d’agriculture de précision, de gestion des ressources ou de traçabilité, leur intégration demeure freinée par plusieurs obstacles. Parmi ceux-ci, le rapport mentionne notamment la faible numérisation de nombreuses exploitations agricoles, le manque de compétences techniques dans les zones rurales, des coûts d’investissement initiaux élevés, ainsi qu’une faible interopérabilité des systèmes numériques existants. Face à ce constat, le Fraunhofer institute ([240]) recommande un plan d’action structuré en trois volets (immédiat, intermédiaire et structurel), allant du soutien à l’annotation des données et à l’interopérabilité des outils jusqu’à la création de modèles d’IA ouverts, l’intégration des outils certifiés dans la PAC et, à plus long terme, le développement d’infrastructures numériques souveraines garantissant un accès inclusif à l’IA dans les territoires.
En Asie-Pacifique ([241]), la dynamique est plus marquée : cette région connaît la plus forte croissance mondiale en matière d’IA générative appliquée à l’agriculture. La pression exercée par la croissance démographique pousse les États à investir massivement dans des infrastructures numériques agricoles. Des pays comme la Chine, l’Inde ou le Japon misent sur l’IA pour accroître l’efficacité des productions agricoles et limiter les pertes de récolte. L’essor de l’équipement mobile et une sensibilisation croissante des agriculteurs accélèrent l’adoption de ces outils technologiques dans l’ensemble de la région.
L’agriculture connaît donc à son tour sa révolution numérique portée par l’IA. Désormais considérée comme un levier d’innovation et de durabilité, l’intelligence artificielle s’intègre au sein de l’agriculture connectée (drones, capteurs IoT, plateformes de données) dont l’essor est manifeste ([242]) avec divers cas d’usage (voir tableau ci-après).
Principaux cas d’usage de l’IA en agriculture
Source : Commission européenne, Libérer le potentiel de l'intelligence artificielle pour une agriculture durable, 7 juillet 2025
En France, près d’une exploitation sur cinq (18 %) utilise déjà des solutions fondées sur l’IA, un taux qui pourrait doubler d’ici 2030 sous l’effet des politiques de soutien public et de la généralisation des outils numériques et robotiques dans les champs ([243]). La demande croissante des consommateurs pour des produits de haute qualité, incitant à des méthodes de production plus précises et traçables, constitue également un facteur d’accélération de cette transition.
La promesse de l’IA se manifeste d’abord par l’optimisation des cultures et des rendements. Des outils d’analyse prédictive exploitant des images satellites et des données climatiques aident à planifier les semis, à surveiller la météo et à anticiper les récoltes, comme le soulignait Jérome Le Roy, fondateur start-up Weenat et président de la Ferme Digitale, auditionné par la mission. En fournissant des recommandations précises sur l’irrigation, la fertilisation et les traitements phytosanitaires, ces technologies d’agriculture de précision permettent aux agriculteurs d’ajuster de manière ciblée et en temps réel les intrants aux besoins des plantes ([244]). Les exploitants bénéficient ainsi d’une meilleure visibilité sur l’état de leurs cultures et parviennent à réduire les pertes de récolte imputables aux aléas climatiques, jusqu’à 20 % de pertes ([245]) en moins grâce à ces systèmes d’aide à la décision. Par ailleurs, une gestion agronomique plus fine, fondée sur l’analyse des données de sol et de végétation, se traduit par une augmentation notable des rendements, pouvant atteindre 25 % ([246]).
En améliorant la gestion des intrants, l’IA contribue également à une agriculture plus durable. Les systèmes intelligents optimisent l’usage des engrais, des produits phytosanitaires et de l’eau, évitant les excès tout en maintenant la productivité des cultures. À la clé, les exploitations peuvent diminuer d’environ 30 % leurs dépenses en intrants grâce à ces ajustements pilotés par algorithme ([247]), ce qui réduit d’autant leurs coûts de production. Limiter l’emploi d’engrais et de pesticides permet en outre d’atténuer l’empreinte écologique des fermes : l’adoption de solutions d’IA pourrait réduire jusqu’à 40 % l’impact environnemental de l’agriculture en optimisant les ressources utilisées. La gestion de l’eau illustre ces gains : Weenat, fondée à Nantes en 2014, développe des capteurs connectés permettant aux exploitants de mieux gérer l’irrigation et les ressources en fonction des variations du climat ; forte d’une levée de 8,5 M€ en 2024 ([248]), la start‑up affirme avoir permis en 2023 une économie de 32 millions de m³ d’eau (soit environ 12 000 piscines olympiques) grâce à l’utilisation de ses données pour optimiser l’irrigation ([249]).
Par ailleurs, l’IA accélère l’automatisation des tâches agricoles. On estime qu’environ 50 % des travaux mécanisables sur une exploitation sont désormais réalisables par des solutions robotisées pilotées par l’IA. De fait, de plus en plus de robots et de machines autonomes interviennent sur le terrain, prenant en charge des opérations pénibles ou répétitives (récolte, désherbage, etc.), ce qui accroît la productivité tout en réduisant la pénibilité du travail agricole. La société toulousaine Naïo Technologies ([250]) a développé plusieurs robots agricoles autonomes, conçus pour assister les exploitants dans les tâches agricoles répétitives et pénibles, notamment le binage. Ces machines permettent de limiter le recours aux produits phytosanitaires, en particulier les herbicides, en assurant un désherbage mécanique de précision. Parmi les modèles proposés figurent TED, enjambeur viticole réellement autonome et polyvalent ; JO, chenillard autonome adapté aux vignes étroites, pépinières et petits fruits ; OZ, assistant robotisé dédié au semis et au désherbage en maraîchage ; et ORIO, porte-outils autonome destiné aux cultures légumières et aux pépinières.
Enfin, l’IA ne se cantonne pas aux cultures : elle trouve aussi des applications majeures en élevage. Des systèmes de vision par ordinateur peuvent surveiller en continu le bétail afin d’améliorer le suivi sanitaire et la productivité des troupeaux. Par exemple, la start-up irlandaise Cainthus ([251]) a développé un dispositif de caméras intelligentes observant 24h/24 le comportement des vaches laitières en stabulation. En analysant automatiquement des paramètres comme le temps de repos des animaux et leur accès à l’alimentation, cet outil aide les éleveurs à optimiser la production de lait tout en veillant au bien-être du troupeau. La start‑up française AIHerd, établie à Nantes et fondée en 2020 par des vétérinaires en collaboration avec le CEA‑List et Thales ([252]), développe un système de surveillance des troupeaux sans port d’équipement invasif. Grâce à une combinaison de vision par ordinateur et d’algorithmes d’intelligence artificielle, la solution capte en continu des comportements individuels des vaches (alimentation, repos, déplacements, interactions sociales) et détecte automatiquement les signaux caractéristiques d’événements importants tels que la chaleur, un vêlage imminent ou l’apparition d’une maladie. Cette approche contribue à améliorer le bien‑être animal tout en permettant un gain économique estimé à 30 % ([253]) de productivité supplémentaire par tête chaque année.
h. L’intelligence artificielle dans l’automobile : un potentiel industriel immense, freiné par une adoption encore fragmentée
L’industrie automobile est aujourd’hui un secteur potentiellement majeur dans l’adoption de l’automatisation intelligente. Selon l’International Federation of Robotics (IFR), elle représente environ 30 % des installations mondiales de robots industriels dans le monde en 2019 ([254]), 33 % des installations de robots industriels aux Etats-unis en 2024 ([255]). Ces évolutions traduisent une volonté croissante des constructeurs, tels que Renault ou Stellantis, auditionnés par la mission, de moderniser l’ensemble de la chaîne de valeur, du processus industriel à la relation client, en passant par l’usage même des véhicules.
Toutefois, selon une étude de Capgemini publiée en 2019 ([256]), seuls 10 % des constructeurs automobiles avaient alors déployé l’intelligence artificielle (IA) à l’échelle de l’entreprise, tandis que 24 % l’avaient mise en œuvre de manière plus sélective. Depuis, si les initiatives se sont multipliées, le secteur reste globalement dans la norme d’adoption de l’IA par rapport à d'autres secteurs, alors que les potentielles retombées de productivité y sont bien supérieures. En 2025, une enquête mondiale de McKinsey ([257]) indique que 78 % des entreprises (tous secteurs confondus) utilisent désormais l’IA dans au moins une fonction de leur organisation. À titre de comparaison, les réseaux de concessions automobiles en Amérique du Nord affichent des taux d’adoption de l’ordre de 80 % ([258]).
L’adoption de l’intelligence artificielle dans le secteur automobile progresse rapidement, mais elle demeure très inégale selon les cas d’usage (voir infra). De nombreuses entreprises du secteur, y compris les plus grandes, ont lancé des projets pilotes intégrant de l’IA, mais très peu d’entre elles sont parvenues à une mise à l’échelle complète. Selon une étude ([259]) sur les entreprises du Fortune 2000 du secteur automobile, 85 à 90 % ont lancé au moins un projet IA, mais seules 15 à 20 % ont déployé ces solutions à l’échelle de toute l’entreprise. Les freins cités sont les silos de données (44 % des cas), la pénurie de talents (37 %), les préoccupations autour des biais (28 %) et l’incertitude réglementaire.
Cette fragmentation se retrouve également dans les chaînes de recherche et développement (R&D) automobile. D’après McKinsey ([260]), 75 % des entreprises automobiles expérimentent au moins un cas d’usage de l’IA générative, mais aucune ne l’intègre de manière systématique sur l’ensemble de la chaîne de R&D. La majorité concentre leurs efforts sur une ou deux phases, telles que l’ingénierie des exigences, le design, ou encore les tests de performance. Cette approche cloisonnée limite fortement le potentiel d’optimisation globale permis par l’IA.
Les écarts sont encore plus nets lorsqu’on examine les différents cas d’usage. Ainsi, les systèmes avancés d’aide à la conduite (ADAS) ([261]), la maintenance prédictive ou l’optimisation de la chaîne de production ([262]) font partie des domaines les plus avancés en matière d’IA. Ces technologies sont déjà mises en œuvre dans plusieurs grands groupes automobiles, souvent dans des usines spécifiques ou des pôles d’excellence. En revanche, les usages plus ambitieux tels que la conduite autonome de niveau 4 (autonomie géo-ciblée) ou 5 (autonomie totale en toutes conditions), ou les communications V2X (vehicle-to-everything), demeurent largement expérimentaux ([263]). La complexité technique, les contraintes de fiabilité et les incertitudes réglementaires freinent encore leur adoption à grande échelle.
Un exemple particulièrement éclairant est celui de General Motors concernant l’adoption de l’IA par le secteur automobile. Dans son usine Factory Zero ([264]), l’entreprise a recours à l’IA pour diverses fonctions : maintenance prédictive, détection de défauts par vision industrielle, gestion logistique automatisée, ou encore segmentation marketing. Toutefois, ces applications ne sont pas encore généralisées à l’ensemble de ses sites ou lignes de produits. L’IA reste ainsi cantonnée à certaines zones géographiques ou à des fonctions spécifiques, ce qui témoigne d’un déploiement encore parcellaire.
Si l’adoption de l’intelligence artificielle dans le secteur automobile demeure globalement fragmentée, elle s’organise néanmoins autour de plusieurs cas d’usage récurrents, qui révèlent à la fois les priorités industrielles et les limites techniques ou économiques du moment. L’analyse de ces usages permet de mieux comprendre les domaines dans lesquels l’IA offre déjà des gains concrets, en matière de productivité, de sécurité ou d’efficacité énergétique, ainsi que ceux où son intégration reste balbutiante, voire hypothétique.
Dans un premier temps, l’IA est mobilisée au cœur des chaînes de production, notamment à travers le déploiement de robots dits « collaboratifs » ou cobots. Ils remplacent les tâches manuelles répétitives par des opérations automatisées plus précises. Par exemple, Renault utilise des cobots dans ses usines pour automatiser des opérations de montage (pose de composants) et de soudage de châssis ([265]). Conçus pour interagir en toute sécurité avec les opérateurs, ces robots exécutent des tâches répétitives et précises, tout en réduisant les risques d’erreur humaine. Grâce à des systèmes de vision par ordinateur, ils permettent une détection automatisée et fine des défauts de fabrication (défauts de surface, soudures incomplètes, erreurs d’assemblage), avec une précision qui peut dépasser de 30 à 40 % ([266]) ([267]) celle d’un contrôle manuel selon les études disponibles.
Certaines études ([268]) soulignent que la collaboration avec un cobot améliore la robustesse et la qualité de la performance humaine face à des tâches complexes, mais au prix d’un allongement du temps d’exécution et d’une gestuelle plus importante.
En parallèle, l’IA est devenue un levier stratégique de maintenance prédictive, tant pour les équipements industriels que pour les véhicules eux-mêmes. Sur les lignes de production, l’installation de capteurs intelligents couplés à des modèles d’analyse permet de surveiller l’état des machines en temps réel et d’anticiper les pannes, réduisant ainsi les coûts d’arrêt non planifié et augmentant la disponibilité opérationnelle des outils industriels ([269]). Appliquée aux véhicules, cette approche prédictive se fonde sur l’analyse des données issues des capteurs embarqués, permettant de détecter l’usure des pièces, de recommander des interventions ciblées, et de limiter les temps d’immobilisation des véhicules ([270]).
Par ailleurs, les fonctionnalités intégrées (navigation, reconnaissance vocale, services connectés, notamment) dans les véhicules sont également pilotées par l’IA. Les constructeurs automobiles recourent ainsi à l’IA pour concevoir des fonctionnalités qui permettent des interactions entre le conducteur et le véhicule, ce qui offre une expérience personnalisée aux conducteurs ([271]). À titre d’illustration, le système i-Cockpit® 3D de Peugeot ou le modèle Ë-C4 de Citroën proposent des systèmes dits « d’infodivertissement » avancés intégrant un assistant vocal, offrant ainsi différents services connectés (actualités, prévisions météo, entre autres).
L’IA transforme par ailleurs profondément la relation client. En matière de services après-vente, les constructeurs recourent à des assistants virtuels ou à des chatbots disponibles en continu, capables de répondre instantanément à des demandes fréquentes. Ces outils contribuent à fluidifier l’interaction et à réduire les délais d’attente. Surtout, les données issues de l’usage réel du véhicule, analysées par des modèles prédictifs, permettent d’anticiper les besoins de maintenance, voire d’adresser des rappels personnalisés pour des révisions ciblées, renforçant ainsi l’efficience du suivi client tout en optimisant les coûts de maintenance à long terme.
Les technologies d’IA s’imposent enfin comme des outils de premier plan en matière de sécurité routière. Les systèmes d’aide à la conduite (ADAS, pour Advanced Driver Assistance Systems) ([272]), déployés sur une part croissante du parc automobile, reposent sur des dispositifs de perception avancée (radars, caméras, capteurs) alimentés par des algorithmes d’apprentissage profond. Ces dispositifs permettent la détection de piétons, de cyclistes ou d’obstacles et peuvent déclencher automatiquement un freinage d’urgence ou une alerte de franchissement de ligne. À titre d’exemple, l’équipementier français Valeo, auditionné par la mission, figure parmi les leaders mondiaux des technologies de perception embarquée. Il a développé des solutions de détection à 360°, combinant radar, lidar et vision numérique, aujourd’hui intégrées dans environ un tiers des véhicules neufs produits dans le monde.
En revanche, dans l’industrie automobile, les usages les plus ambitieux tels que la conduite autonome de niveau 4 ou 5 ([273]) et les communications V2X (vehicle‑to‑everything) ([274]) restent encore largement au stade expérimental, en raison de contraintes techniques majeures, de difficultés réglementaires persistantes et d’une acceptation publique limitée.
Si les systèmes d’aide à la conduite de niveau 2 ou 2+ ([275]) se sont largement diffusés sur les véhicules neufs, le déploiement des véhicules autonomes de niveau 4 et 5 ([276]) reste freiné par des contraintes techniques majeures ([277]), tenant à la puissance de calcul nécessaire pour traiter en temps réel les données issues des capteurs, à une latence encore trop élevée dans les environnements complexes, et à l’exigence de redondance des composants critiques, qui renchérit et complexifie leur intégration ([278]).
En parallèle, de nombreuses études scientifiques insistent sur l’inadéquation des infrastructures actuelles ([279]) avec les exigences de la conduite autonome (marquages au sol dégradés, signalisation incohérente, manque de connectivité...) ainsi que sur l’absence de standards industriels consolidés ([280]), notamment pour l’interopérabilité entre systèmes de perception et de logiciel embarqué.
Concernant le V2X ([281]), malgré des projets pilotes dans plusieurs pays, son adoption reste freinée par des problèmes liés à l’interopérabilité ([282]), au partage du spectre radio, et à des doutes quant à son efficacité si seuls quelques véhicules sont équipés. En effet, V2X ([283]) ne devient réellement pertinent que lorsque la quasi-totalité des véhicules et infrastructures sont compatibles, ce qui rend son intégration progressive peu efficace
Du point de vue réglementaire, la régulation des véhicules autonomes (niveau 3 à 5) reste largement incomplète ou fragmentée selon les juridictions ([284]), ce qui ralentit leur mise en circulation à grande échelle. En outre, dans certains pays comme la Chine ou aux États‑Unis ([285]) , l’absence de cadre juridique uniforme empêche tout déploiement commercial rapide, faute de clarifier les responsabilités ou les normes de sécurité exigées.
a. Des gains déjà tangibles d’amélioration de l’efficacité au travail
La diffusion des technologies d’intelligence artificielle, qu’il s’agisse des systèmes dits « faibles » ou des modèles de langage, s’accompagne déjà de premiers effets perceptibles sur l’efficacité du travail et la productivité globale. Si ces impacts demeurent à ce stade hétérogènes selon les secteurs et les usages, les études empiriques les plus récentes tendent à confirmer des gains tangibles, tant à l’échelle microéconomique (entreprises, métiers, tâches) qu’au niveau macroéconomique (productivité nationale, croissance des facteurs) ([286]).
De nombreuses études ont été menées sur les effets des robots industriels sur la productivité ([287]) ([288]), grâce à la disponibilité des données de la Fédération internationale de la robotique (IFR) sur l’utilisation des robots par pays et par secteur. En revanche, l’impact quantitatif de l’intelligence artificielle sur la productivité reste encore mal connu, principalement en raison d’un manque de données statistiques sur l’usage de l’IA.
Sur un plan macroéconomique, les effets de l’IA sur l’efficacité du travail commencent donc à être perceptibles et mesurés, dans les données agrégées, bien qu’encore modestes et parcellaires. Au Japon, une large enquête en 2023-2024 ([289]) estime que l’usage de l’IA par les travailleurs se traduit déjà par un surcroît d’environ 0,5 à 0,6 % de productivité du travail à l’échelle de l’économie. En convertissant cette hausse en productivité globale des facteurs, cela correspond à un gain de l’ordre de 0,3 % de TFP (productivité totale des facteurs).
Effets de l’intelligence artificielle sur la productivité selon le niveau d’éducation et de revenus
Source : Morikawa, M.. The impact of artificial intelligence on macroeconomic productivity. 13 janvier 2025.
Dans cette perspective, aux États-Unis, plusieurs récentes études tentent d’estimer l’impact de l’intégration de l’IA sur la productivité à moyen terme. Acemoglu ([290]) estime l’effet à moyen terme de l’IA sur la productivité aux États-Unis en multipliant le pourcentage de tâches affectées par l’IA par les économies réalisées au niveau des tâches, sur la base de ces études existantes au niveau des tâches. Selon ses estimations, l’impact macroéconomique de l’IA serait non négligeable mais modeste à l’heure actuelle, avec une augmentation cumulative de la productivité globale des facteurs (PGF) inférieure à 0,7 %. Il souligne toutefois la difficuté à déterminer l’impact réel de cette technologie sur le travail en raison d’une incertitude considérable quant aux types de tâches qui seront effectivement automatisées et aux économies de coûts réellement obtenues.
Dans la continuité de ces travaux, Filippucci et al. (2024) ([291]) estiment que, en supposant des économies de coûts de l’ordre de 30 %, l’IA pourrait contribuer à hauteur de 0,25 à 0,6 point de pourcentage à la croissance annuelle de la PGF aux États-Unis au cours de la prochaine décennie. Ces estimations convergent vers l’idée que l’IA pourrait devenir un vecteur significatif de gains de productivité, sans pour autant transformer instantanément l’économie.
À l’avenir, les gains de productivité au travail devraient croître, mais les gains marginaux semblent décroissants. Selon Morikawa ([292]), l’utilisation de l’IA au travail devrait logiquement continuer de croître, près de 28 % des répondants à son étude déclarant envisager de l’adopter à l’avenir dans leur travail. En extrapolant les gains actuels, l’économiste trouve que l’effet macroéconomique de l’IA sur la productivité du travail pourrait être quatre fois supérieur, atteignant une hausse d’environ 2 % (soit une augmentation de 1,1 % pour la PTF).
Toutefois, les gains marginaux semblent décroissants : les nouveaux utilisateurs d’IA enregistrent des améliorations de productivité moindres (4,4 %) que les utilisateurs plus expérimentés (7,8 %)([293]), ce qui suggère que les premiers usages concernaient des tâches à fort potentiel d’automatisation. Autrement dit, ce résultat conduit à penser que la diffusion de l’IA a commencé par les emplois pour lesquels l’effet de la mise en œuvre de l’IA est important et s’est progressivement étendue aux emplois pour lesquels son effet est plus faible. Si ces tendances se poursuivent, la contribution supplémentaire de l’IA à la productivité macroéconomique pourrait diminuer progressivement, à mesure que le nombre d’utilisateurs de l’IA augmente.
Si les effets macroéconomiques de l’IA demeurent globalement incertains et difficiles à mesurer, ses effets sur des tâches définies sont mieux renseignés. Différentes études portant sur des tâches ou des métiers circonscrits confirment, de manière certaine, le lien de causalité entre IA et productivité. Ce lien est, par exemple, avéré pour le métier de conducteur de taxis ([294]) ou pour le savoir-faire de développeur informatique ([295]). Ces résultats, bien que circonscrits à certaines catégories de fonctions ou de secteurs, permettent de mieux cerner les apports concrets de l’IA sur l’organisation et la performance du travail.
Concernant les tâches rédactionnelles bureautiques, les modèles de langage ont déjà démontré des gains substantiels de productivité. Par exemple, une expérience randomisée ([296]) menée en 2023 auprès de 453 professionnels tous domaines confondus dans les secteurs des services (marketing, ressources humaines, consultants, etc.) a montré qu’un accès à l’assistant ChatGPT permettait de réduire le temps d’accomplissement des tâches rédactionnelles de 40 %, tout en améliorant la qualité du résultat d’environ 18 %. L’étude montre également que les gains de productivité générés par l’IA profitent à l’ensemble des collaborateurs, avec un effet de nivellement par le haut particulièrement notable. L’outil contribue à réduire les disparités de performance en apportant un accompagnement renforcé aux employés moins expérimentés, permettant ainsi d’élever le niveau général de compétences, tout en optimisant l’efficacité opérationnelle de l’organisation.
Dans le secteur du service client, les gains d’efficacité par l’IA sont déjà mesurables sur le terrain. Une étude ([297]) conduite en 2023 dans un grand centre d’appels (plus de 5 000 agents support) a introduit un assistant conversationnel basé sur un modèle génératif. Le résultat est une hausse moyenne de 14 % du nombre de tickets résolus par heure. Rejoignant les conclusions sur les métiers requérant des compétences rédactionnelles, l’effet a été particulièrement marqué pour les employés juniors : les agents les moins expérimentés ont résolu 34 % de tickets en plus grâce à l’IA, tandis que les employés chevronnés n’ont que peu bénéficié de l’outil. En plus d’accélérer le traitement des demandes, l’IA a contribué à améliorer la satisfaction des clients et l’intrégration par les employés de l’entreprise des bénéfices qualitatifs liés à cette technologie, ces bénéfices s’ajoutant aux gains de productivité.
En développement informatique, les assistants de codage pilotés par l’IA (tels que GitHub Copilot) offrent déjà des améliorations notables d’efficacité. Plusieurs expériences contrôlées montrent des accélérations spectaculaires : dans l’une d’elles, des programmeurs réalisant une tâche de code avec l’aide de Copilot ont mis 56 % de temps en moins ([298]) que ceux codant sans assistance. Dans la même lignée, une autre étude randomisée à grande échelle ([299]) estime quant à elle un gain de temps de l’ordre de 26 % pour le développement informatique. Ici aussi, les développeurs les moins expérimentés affichent les plus forts gains relatifs de productivité.
Dans les métiers du conseil, de l’analyse et de la stratégie, l’IA entraîne des gains de temps et de qualité. Une étude de la Harvard Business School ([300]) trouve que « Pour chacune des 18 tâches de conseil (rédaction de rapport, analyse, brainstorming ect…) réalistes situées à la frontière des capacités de l’IA, les consultants utilisant l’IA ont été nettement plus productifs (ils ont accompli 12,2 % de tâches en plus en moyenne et 25,1 % de tâches en moins) et ont produit des résultats d’une qualité nettement supérieure (plus de 40 % de qualité en plus par rapport à un groupe de contrôle). ». En revanche, l’étude note que pour des tâches sortant du domaine de compétence actuel de l’IA, son usage peut devenir contre-productif (les consultants tendant alors à fournir moins de solutions correctes).
Les tâches non intellectuelles bénéficient elles aussi de l’apport de l’IA, notamment via l’optimisation et la robotique. Dans les transports, une étude ([301]) sur les chauffeurs de taxi a montré qu’un système d’IA prédictif (suggérant des itinéraires à forte demande) permet d’augmenter la productivité des conducteurs en réduisant le temps passé à circuler à vide. De même, dans la production industrielle, l’adoption accrue de l’automatisation et des robots a déjà entraîné des gains agrégés significatifs. Une analyse ([302]) couvrant 17 pays entre 1993 et 2007 a estimé que l’introduction des robots industriels a contribué à faire augmenter la croissance annuelle de la productivité du travail d’environ 0,36 point de pourcentage en moyenne – un effet comparable à celui qu’eut la machine à vapeur sur la productivité britannique au 19ème siècle, d’après les auteurs. Ces gains s’accompagnent d’une hausse de la productivité totale des facteurs et d’une baisse des coûts de production, sans réduction nette de l’emploi total observée sur la période.
b. De nouvelles perspectives ouvertes par l’agentification
L’agentification correspond à la transformation des IA conversationnelles (LLM) en agents autonomes capables d’interagir avec des applications tierces et des sources de données externes. L’agentique en IA désigne un champ en développement qui se décline aujourd’hui en deux niveaux ([303]) : d’une part, des AI agents capables d’exécuter des tâches spécifiques grâce à des modèles de langage reliés à des outils, et d’autre part, une Agentic AI plus ambitieuse, où plusieurs agents coopèrent, planifient et mémorisent pour agir de manière orchestrée dans des environnements complexes. Comme le soulignait Raja Chatila, professeur émérite de robotique à la Sorbonne Université auditionné dans le cadre de la mission, cette dernière relève toutefois, à ce stade, davantage d’une projection théorique que d’une réalité technologique établie.
Cinq niveaux d’autonomie pour agents IA fondés sur des LLM : évolution des capacités et expansion des risques
Figure 2 : Une taxonomie en cinq niveaux de l’autonomie des agents fondés sur des LLM, illustrant à la fois l’évolution des capacités et l’élargissement des risques. La classification s’étend des agents sans état, fondés sur des règles, jusqu’aux agents pleinement autonomes, alignés sur des valeurs et opérant en domaine ouvert. Chaque niveau introduit des caractéristiques architecturales qualitativement distinctes ainsi que des surfaces de menaces correspondantes.
Source : Su, H., Luo, J., Liu, C., Yang, X., Zhang, Y., Dong, Y., & Zhu, J. A survey on autonomy-induced security risks in large model-based agents. arXiv, 2025.
Concrètement et de manière technique, des protocoles unifiés comme le Model Context Protocol (MCP), introduit fin 2024 par Anthropic, servent de « port universel » entre un modèle d’IA et le monde logiciel. Grâce à ces connecteurs standardisés, un agent IA peut consulter des bases de données, appeler des API ou utiliser des outils variés via des requêtes structurées, sans intégrations sur-mesure pour chaque application.
Il s’agit d’un élargissement du champ d’action de l’IA qui ne se limite plus à générer du texte, l’agent peut percevoir, raisonner et agir de manière itérative en boucle fermée (perception → décision → action). Une étude([304]) récente, rejoignant les conclusions de nombreux acteurs auditionnés par la mission, résume ainsi les avancées : « Ces agents à grands modèles marquent un changement de paradigme, passant de systèmes d’inférence statiques à des entités interactives à mémoire augmentée. ». De premiers prototypes ([305]) ont montré qu’un LLM doté d’une mémoire persistante et pouvant exécuter des commandes est capable de mener des tâches en plusieurs étapes sans supervision humaine constante : on assiste donc à un passage d’une IA statique (répondant tour par tour) à une IA agentive active, « brouillant la frontière entre logiciel et robot dans le cyberespace » ([306]). Autrement dit, un agent conversationnel bien outillé peut devenir un assistant numérique proactif, apte à enchaîner des actions complexes pour atteindre un objectif fixé par l’utilisateur : la supervision humaine demeure.
Cependant, ces systèmes « agentiques » à large spectre restent essentiellement des prototypes expérimentaux, avec des limites techniques notables à leur développement et notamment, « la conservation de la mémoire à long terme, l’utilisation modulaire des outils, la planification récursive et le raisonnement réfléchi. » ([307]).
Malgré ces contraintes techniques, les principaux acteurs technologiques, OpenAI, Google DeepMind, Anthropic, entre autres, investissent massivement dans des architectures agentiques, intégrant notamment des protocoles inter‑agents (comme MCP), l’accès à des outils, et des mécanismes de mémoire avancée. S’ils investissent dans l’agentique afin de dépasser les capacités réactives des modèles actuels en développant des systèmes proactifs capables de planifier et d’agir de manière autonome ([308]), tout en expérimentant des architectures susceptibles de constituer une étape vers une intelligence artificielle plus générale ([309]) (AGI – artificial general intelligence).
En Europe, Mistral AI ([310]) s’est également alignée sur ces ambitions : le 28 mai 2025, elle a lancé officiellement son Agents API, reposant sur le standard ouvert Model Context Protocol (MCP), permettant à ses agents d’exécuter du code, effectuer des recherches web, générer des images et conserver un contexte mémoire persistant, demeurant à nouveau le seul concurrent européen sérieux aux acteurs IA chinois et américains.
Évolution historique des paradigmes des agents d’IA
Figure 1 : La trajectoire de développement se divise en une phase pré-LLM (années 1950–2020), englobant les agents symboliques, réactifs, fondés sur l’apprentissage par renforcement (RL) et sur le méta/apprentissage par transfert, puis en une phase des agents d’IA fondés sur les grands modèles (2022–aujourd’hui), marquée par l’émergence d’agents propulsés par de vastes modèles de fondation. Les principaux projets et institutions représentatifs sont associés à leurs paradigmes respectifs, mettant en évidence le passage de systèmes à base de règles vers des agents LLM capables d’utiliser des outils, dotés de mémoire et de capacités de planification.
Source : Su, H., Luo, J., Liu, C., Yang, X., Zhang, Y., Dong, Y., & Zhu, J. A survey on autonomy-induced security risks in large model-based agents. arXiv, 2025.
Du point de vue de l’économie et de la productivité, les retombées seraient considérables si l’IA agentique était pleinement déployée. Ces agents automatiques pourraient prendre en charge de multiples tâches intellectuelles routinières (recherche d’information, rédaction de rapports, gestion d’emails, support client...), avec à la clé un gain d’efficacité notable pour les entreprises. Deloitte ([311]) estime d’ailleurs que dès 2025, 25 % des entreprises utilisant l’IA générative lanceront des projets pilotes d’IA agentique, et cette proportion pourrait atteindre 50 % en 2027. Plus de 2 milliards de dollars ([312]) ont été investis dans des startups d’agents autonomes en 2025.
De nombreux acteurs technologiques développent parallèlement leurs propres offres d’agentification, convaincus que ces agents pourraient automatiser des processus multi-étapes dans presque toutes les fonctions de l’entreprise. Un exemple emblématique est Devin, un agent développé en 2024 par la start-up Cognition pour agir comme un ingénieur logiciel autonome capable de raisonner, planifier et écrire du code complet à partir de simples idées en langage naturel ([313]). Un tel cas d’usage illustre la promesse d’une automatisation massive d’activités non-physiques grâce à l’IA agentique, avec un impact subséquent sur la croissance et la productivité.
Toutefois, les perspectives offertes par le développement potentiel de cette technologie soulèvent des défis techniques et sécuritaires. À l’heure actuelle, les agents basés sur des LLM demeurent imparfaits et doivent souvent être surveillés. Ils commettent encore trop d’erreurs pour qu’on les laisse gérer intégralement des tâches complexes sans relecture humaine([314]). Dans le domaine de la programmation par exemple, l’agent Devin mentionné ci-dessus n’a pu résoudre de manière autonome qu’environ 14 % ([315]) des tickets GitHub qui lui étaient soumis, soit certes deux fois plus qu’un chatbot classique, mais ce résultat demeure insuffisant pour un usage 100 % automatisé. Ces modèles peuvent facilement halluciner, c’est-à-dire fournir des informations fausses ou préconiser des actions inappropriées, ce qui, couplé à leur pouvoir d’agir, peut avoir des conséquences dommageables et présentent un réel risque dans le domaine sécuritaire ([316]). Le risque de cyber-attaques est décuplé : chaque nouvelle faculté de ces agents ouvre une « surface d’attaque » supplémentaire (mémoire empoisonnée, détournement de l’API, prompt injection malveillant…). L’alignement des objectifs de l’agent avec le cadre éthique humain pose aussi question : un agent très autonome pourrait poursuivre aveuglément une instruction mal formulée d’une manière contraire aux intérêts de l’entreprise ou de la société, par manque de jugement ou de contexte éthique.
OpenAI vient également de lancer sa propre version d’agent conversationnel avancé, baptisé « ChatGPT agent » ([317]), disponible depuis le 17 juillet 2025. Ce système combine plusieurs outils antérieurs d’agentification d’OpenAI (Operator, Deep Research, connecteurs vers Gmail, GitHub, un terminal de code, etc.), intégrés dans un agent unique capable de planifier et d’exécuter des tâches complexes, comme naviguer sur le web via un navigateur virtuel, compiler des recherches ou générer des présentations, tout cela avec une boucle de réflexion-action complète.
Cependant, malgré ses avancées, OpenAI souligne que ce lancement constitue encore une étape expérimentale : l’agent peut produire des erreurs, ses actions sensibles exigent une autorisation explicite de l’utilisateur, et la mémoire est désactivée par défaut pour éviter les risques d’injection ou d’exfiltration de données. Open Ai recommande de ne pas l’utiliser pour des tâches critiques sans supervision humanisée ([318]) . En ce sens, ChatGPT agent se situe en deçà de l’« Agentic AI » ([319]) pleinement orchestrée : il reste un agent autonome, puissant certes, mais encore loin d’un système multi-agents doté de planification complexe, mémoire persistante sécurisée et alignement éthique complet.
c. L’IA et la robotique : vers des assistants polyvalents ?
L’intégration de l’IA dans la robotique ouvre également la voie à une nouvelle génération de robots assistants polyvalents, capables d’évoluer dans le monde physique pour effectuer des tâches variées. Contrairement aux robots industriels traditionnels, confinés à des opérations spécifiques en environnement structuré, ces nouveaux automates visent une plus grande souplesse d’utilisation. Beaucoup adoptent une forme humanoïde (bipède avec bras) en raison de sa polyvalence, de sa capacité à se mouvoir dans des espaces conçus pour les humains et à manipuler des objets du quotidien.
Les progrès récents dans ce domaine montrent que cette technologie ne relève plus de la pure spéculation. Par exemple, la société Agility Robotics, qui est sur le point de lever 400 millions de dollars ([320]), teste son robot bipède Digit pour déplacer des cartons dans des entrepôts logistiques, tandis que Boston Dynamics ([321]) a démontré avec Atlas qu’un androïde peut marcher, saisir des objets et même collaborer à des tâches de chantier expérimental. De son côté, Tesla a présenté en 2022 les premiers prototypes de son robot humanoïde Optimus ([322]) , destiné à terme à réaliser des travaux répétitifs.
Ces projets pilotes restent élémentaires et peu fiables en dehors des conditions très contrôlées d’un laboratoire. Les robots humanoïdes sont encore loin d’égaler la polyvalence humaine dans des situations réelles. Si, sur le plan fonctionnel, certains robots humanoïdes surpassent déjà l’être humain en termes de force, d’endurance et de résistance mécanique ([323]), ils demeurent incapables de reproduire la polyvalence et l’adaptabilité humaines dans des environnements complexes et imprévisibles. The Economist ([324]) résume bien la situation : « (ces exemples) mettent néanmoins en évidence les progrès impressionnants réalisés par les robots humanoïdes au cours des dernières décennies. Et les investisseurs sont optimistes. (…) Un fournisseur de données, estime que depuis 2020, 2,3 milliards de dollars ont été investis dans des start-up qui construisent des robots humanoïdes. »
Une tendance clé qui rend ces robots généralistes envisageables est la convergence avec les avancées de l’IA. Les grands modèles de langage et les modèles multimodaux fournissent désormais aux robots « une sorte de cerveau générique » leur permettant de comprendre des instructions complexes et d’y répondre de manière appropriée ([325]). Il s’agit des modèles VLAM (Vision-Langage-Action Model), qui combinent traitement du langage, vision par ordinateur et retours de capteurs physiques, afin qu’un robot comprenne son environnement et planifie ses mouvements en conséquence ([326]). Les start-up chinoises d’IA et de robotique accélèrent leur développement pour dominer le marché des humanoïdes. La société EngineAI a récemment démontré la capacité de son robot PM01 ([327]) à apprendre et reproduire des mouvements complexes grâce à la vision par ordinateur et à l’apprentissage automatique, illustrant ainsi le potentiel des robots à s’adapter sans programmation spécifique. Ces avancées s’inscrivent dans une stratégie industrielle nationale ambitieuse : la Chine prévoit d’investir 1 000 milliards ([328]) de yuans en robotique et hautes technologies au cours des 20 prochaines années. Avec plus de 10 000 ([329]) humanoïdes produits cette année, soit plus de la moitié du total mondial, le pays dépasse déjà les États-Unis et le Japon en densité robotique sur les lignes de production.
Progression du nombre de robots industriels en Chine comparée aux États-Unis, à l’Allemagne et au Japon (2019-2023)
Source : Bloomberg, China’s Startups Race to Dominate the Coming AI Robot Boom, 30 mai 2025.
La production de robots humanoïdes est désormais un levier majeur de compétitivité et fait l’objet d’une intense rivalité entre la Chine et les États-Unis. À l’instar du secteur de l’intelligence artificielle, l’Europe accuse un certain retard dans ce domaine.
Capacités de production prévues en robots humanoïdes des principales entreprises
Source : BainAndCompany, Humanoid Robots at Work: What Executives Need to Know, 2025.
Impact cumulé des robots et de l’IA sur les salaires
aux États-Unis (2028-2050)
Toutefois, à l’image de Mistral AI pour les modèles de langage, l’entreprise allemande Neura Robotics se distingue comme le seul acteur européen véritablement compétitif sur le marché des humanoïdes. Neura adopte une approche innovante qui associe intelligence artificielle, robotique cognitive et capacités sensorielles avancées. Son humanoïde 4NE‑1 (prononcé for anyone) a été conçu pour interagir de manière fluide et sécurisée avec les humains. Sa maîtrise des technologies d’interaction homme‑machine et sa stratégie de production localisée en Allemagne lui confèrent un rôle stratégique pour préserver une souveraineté technologique face à la montée en puissance des acteurs extra‑européens. Neura a également annoncé son ambition de livrer 5 millions de robots de différents types d’ici 2030 ([330]), soit un volume bien supérieur aux 100 000 unités prévues par Figure. Les premières livraisons de son humanoïde 4NE‑1 devraient intervenir dès cette année.
Malgré des avancées notables, de nombreux défis techniques empêchent encore les robots humanoïdes d’être véritablement polyvalents. Faire évoluer un robot dans le monde réel est bien plus complexe que générer du texte : comme pour les questions de fiabilité développées plus haut pour l’agentification, les algorithmes doivent gérer l’incertitude ainsi que la variabilité des environnements, et garantir la sécurité en temps réel. Le principal frein réside dans les limites matérielles ([331]) (le hardware) : capteurs, moteurs, batteries et articulations restent insuffisants pour assurer puissance, légèreté et robustesse.
L’interaction homme-machine pose aussi des défis en matière de sécurité : percevoir finement les signaux humains (gestes, voix, émotions) ([332]) et réagir de manière sûre et adaptée, sans mouvements brusques ni force excessive. Sur le plan logiciel, l’intégration de LLM dans les robots soulève des questions de fiabilité et de sûreté : éviter qu’un modèle interprète d’une mauvaise manière une commande ou agisse de manière dangereuse nécessite des architectures hybrides combinant IA et règles strictes de contrôle.
Enfin, des progrès sont nécessaires en perception 3D, reconnaissance d’objets, planification de trajectoires, dextérité des mains robotiques et autonomie énergétique ([333]), aujourd’hui limitée à quelques heures.
Quoiqu’il en soit, l’essor des robots humanoïdes pourrait, selon un rapport prospectif de Morgan Stanley ([334]), avoir un impact transformateur sur l’économie mondiale, en particulier sur le marché du travail. Leur diffusion massive, anticipée dès la fin de la décennie, entraînerait des gains de productivité considérables, tout en soulevant de profondes questions sociales et économiques.
Nombre cumulé d’emplois américains concernés par l’automatisation humanoïde (2028-2050)
D’ici 2050, l’effet cumulé sur les salaires aux États-Unis est estimé à près de 3 000 ([335]) milliards de dollars, avec un remplacement progressif de plus de 62 millions d’emplois humains par des robots humanoïdes (voir graphiques 1 et 2 ci-dessous). Ces remplacements concerneraient d’abord les tâches simples, pénibles ou répétitives (tiers 1), puis des fonctions plus complexes ou relationnelles (tiers 2 et 3), notamment dans les secteurs des services et de la logistique.
La production accrue de robots humanoïdes performants pourrait renforcer la compétitivité des économies qui investiront tôt dans cette technologie, en automatisant des domaines d’activité jusqu’ici peu mécanisables. Les robots humanoïdes permettraient ainsi d’atténuer les effets de la « loi de Baumol » ([336]), selon laquelle les secteurs où, en dépit de gains de productivité quasi inexistants (éducation, santé, services à la personne), les rémunérations et les coûts progressent sous l’effet de la dynamique salariale générale induite par les hausses de productivité observées dans les autres secteurs de l’économie (secteurs industriels). Or, entre 2022 et 2024, le coût unitaire des humanoïdes aurait chuté d’au moins 40 % ([337]), tandis que les salaires dans l’Union européenne augmentaient de 5 %. Le robot humanoïde de Unitree, vendu 16 000 dollars ([338]), correspond par exemple au coût annuel du salaire minimum aux États-Unis et reste bien inférieur au coût d’un travailleur qualifié.
Plus de seniors, moins d’actifs pour les soutenir
Source : Hanbury, P., Dutt, A. Veratti, E. (2025). Humanoid robots at work: What executives need to know. Bain & Company.
Les robots humanoïdes pourraient jouer un rôle crucial face au contexte démographique critique. En 2050, une personne sur six dans le monde aura plus de 65 ans, contre une sur dix en 2021. Le ratio de soutien (nombre d’actifs pour un retraité) passera de quatre à moins de deux en Europe et en Amérique du Nord. Dès lors, les humanoïdes pourraient jouer un rôle d’appoint crucial dans les pays confrontés à la contraction de leur population active. L’ONU prévoit désormais un pic de population mondiale plus précoce et plus bas qu’anticipé, à environ 10,3 milliards d’habitants vers 2084 ([339]) ([340]), suivi d’un déclin graduel d’ici la fin du siècle.
Les taux de fécondité sont passés sous le seuil de renouvellement dans la plupart des continents
Cette révision à la baisse des perspectives démographiques, due à la chute généralisée des taux de fécondité, soulève de lourds enjeux pour les économies confrontées au vieillissement et à la raréfaction de la main-d’œuvre. Dans ce contexte, plusieurs pays comme la Chine ([341]) et le Japon ([342]) envisagent explicitement d’intégrer des robots humanoïdes pour compenser ces pénuries et maintenir leur compétitivité, en particulier dans les secteurs des soins, de la logistique et de l’industrie.
La contrepartie de cette potentielle révolution technologique serait également l’émergence de nouveaux déséquilibres sociaux. Le risque principal est celui d’un chômage technologique, affectant les travailleurs les moins qualifiés. En outre, les écarts de revenus entre les travailleurs qualifiés et non qualifiés pourraient se creuser ([343]), à mesure que les premiers bénéficieraient des gains liés à l’IA et à la robotisation, tandis que les seconds subiraient le fait d’être remplacés. Enfin, l’acceptabilité sociale de ces machines sera un facteur déterminant.
B. des effets encore restreints ou inÉgaux À l’Échelle de l’appareil productif français
Si l’IA est largement perçue comme une technologie de rupture susceptible de transformer durablement les économies contemporaines, ses effets concrets demeurent encore limités, hétérogènes et difficilement mesurables à l’échelle macroéconomique. Loin de produire pour l’instant un « miracle statistique », elle s’inscrit dans une trajectoire d’innovation dont les retombées exigent des transformations organisationnelles profondes, un investissement massif en capital immatériel, et un temps d’adoption souvent sous-estimé. Le cas de l’électricité au début du XXᵉ siècle, ou celui des technologies numériques dans les années 1990, rappellent que les grandes vagues technologiques s’accompagnent généralement de décalages temporels significatifs entre l’innovation technique et la croissance observable de la productivité.
À ce stade, les effets de l’IA sur l’appareil productif français apparaissent marqués par de fortes disparités sectorielles et structurelles, tant en termes d’adoption que de gains économiques. Alors que certains secteurs et grandes entreprises ont d’ores et déjà intégré des applications concrètes permettant des gains mesurables de productivité ou de qualité, la diffusion reste très inégale selon la taille des entreprises, leur niveau de maturité technologique ou leur exposition aux cas d’usage pertinents. Cette fragmentation freine l’agrégation des effets positifs au niveau national, et pourrait accentuer les écarts de compétitivité si elle n’est pas compensée par des politiques publiques favorisant l’appropriation de ces technologies, notamment par les PME. L’IA ne saurait donc être considérée comme un levier automatique de croissance : son potentiel dépendra largement de la capacité de l’écosystème productif à se réorganiser, à innover et à mutualiser les ressources nécessaires à son intégration.
1. Des effets macro-économiques peu perceptibles en l’état malgré le potentiel d’une véritable révolution industrielle
a. Un manque de recul et des difficultés d’évaluation statistique
Si les premières études empiriques([344]) mettent en évidence des effets positifs et désormais mesurables de l’intelligence artificielle sur l’efficacité du travail et la productivité, ces résultats demeurent encore partiels et hétérogènes selon les secteurs, les tâches et les contextes d’usage. En particulier, l’impact agrégé de l’IA sur la croissance et la productivité globale reste difficile à appréhender avec précision, faute de données suffisamment consolidées et en raison des incertitudes entourant la diffusion et l’adoption de ces technologies. Toutefois, la mission s’évertue à rendre compte de l’ensemble des résultats récents en la matière, qu’ils concernent l’efficacité du travail, la productivité globale des facteurs ou la croissance, et un bilan globalement positif semble se profiler.
Au niveau macroéconomique, malgré des estimations agrégées qui se précisent, l’essor de l’IA ne s’est pas encore traduit par une accélération pleinement mesurable, de manière fiable, de la productivité ou de la croissance. Le rapport de l’OPESCT ([345]) constatait à cet égard que l’intelligence artificielle illustre pleinement le « paradoxe de Solow » ([346]), selon lequel « on voit des ordinateurs partout sauf dans les statistiques de productivité ». Formulé dans les années 1980 à propos de l’informatisation massive, ce paradoxe décrit le décalage entre l’adoption visible d’une technologie et ses effets mesurables sur la productivité.
Plus globalement, comme le souligne la Commission de l’intelligence artificielle ([347]), il est difficile de mesurer les effets de l’IA sur la productivité, car ses impacts pourraient s’apparenter à ceux d’innovations majeures du passé. Au XVIIᵉ siècle, l’invention du calcul infinitésimal a permis des progrès décisifs en physique, tandis que les techniques de polissage du verre ont conduit à la découverte du monde microscopique et des microbes, ouvrant la voie à des avancées médicales majeures. De la même manière, l’IA pourrait générer des effets à long terme sur la croissance de la productivité, mais leur ampleur reste impossible à quantifier à ce stade.
Dans cette même logique, l’histoire des grandes innovations suggère souvent un décalage temporel important avant d’en observer pleinement les gains, le temps que l’innovation trouve des applications et se diffuse concrètement au sein de l’appareil productif. Par exemple, l’électricité n’a réellement dopé la productivité industrielle que plusieurs décennies après son invention ([348]), une fois repensées en profondeur les organisations des usines (passage des systèmes d’arbre de transmission central aux moteurs électriques individuels). L’électrification n’a contribué de manière décisive à la croissance de la productivité manufacturière américaine qu’à partir des années 1920, où elle a compté pour près de la moitié de cette progression ([349]). De la même manière, les impacts de l’IA pourraient n’apparaître pleinement qu’avec la diffusion de vagues secondaires de technologies et d’usages complémentaires tels que les robots humanoïdes, les systèmes agentiques ou l’Internet des objets, qui permettraient une transformation plus profonde des processus productifs.
Ces retards d’adoption et de réorganisation pourraient expliquer qu’à ce jour, l’intelligence artificielle n’ait pas encore produit de « miracle statistique », en dépit des effets attendus. Plusieurs économistes estiment que nous traversons une phase de « paradoxe de la productivité de l’IA » ([350]), caractérisée par des progrès rapides des technologies d’IA, mais nécessitant encore des innovations complémentaires, des investissements immatériels et des transformations organisationnelles avant de produire des effets macroéconomiques significatifs. En outre, les gains induits par l’IA sont susceptibles d’être imparfaitement captés par les instruments statistiques classiques, notamment lorsqu’ils se traduisent par une amélioration de la qualité des services ou l’apparition de nouveaux produits numériques gratuits, ce qui accroît la difficulté d’évaluation.
Par ailleurs, l’hétérogénéité des effets de l’IA et de son application selon les secteurs complique l’établissement de conclusions agrégées. Les précédentes révolutions technologiques ont montré que seule une poignée de secteurs jouant un rôle moteur peuvent concentrer l’essentiel des gains de productivité. Par exemple, dans la seconde moitié des années 1990 aux États-Unis, six secteurs liés aux technologies de l’information (commerce de gros et de détail, télécoms, finance, fabrication de semi-conducteurs et d’ordinateurs) ont à eux seuls généré virtuellement la totalité de la croissance de productivité supplémentaire, grâce à l’adoption d’innovations numériques couplées à des évolutions des modèles d’affaires ([351]). À l’inverse, d’autres branches n’enregistraient pas de progrès notable, tirant vers le bas la moyenne nationale.
Les technologies de l’information n’expliquent qu’en partie l’accélération de la productivité américaine après 1995
Enfin, l’adoption de l’IA demeure limitée à une fraction d’entreprises, souvent les plus grandes. Au niveau européen en 2024, seuls 13,5 % des établissements d’au moins 10 salariés utilisent l’IA, et le taux d’adoption de l’IA était de 41 % parmi les grandes entreprises, contre seulement 11 % pour les petites ([352]). En France, les premières données ([353]) montrent que les entreprises adoptant l’IA sont en moyenne plus grosses, plus productives et plus intensives en main-d’œuvre qualifiée que les autres.
b. Des effets ambivalents sur le PIB, la productivité globale des facteurs (PGF)
Bien que le manque de recul lié à l’évolution rapide des outils d’IA générative limite encore notre capacité d’analyse, deux grandes catégories d’études peuvent néanmoins être distinguées. La première concerne des travaux empiriques portant sur des tâches ou des métiers précis ([354]) , telles que le conseil, le support client ou l’analyse juridique, généralement fondés sur des études de cas. La seconde regroupe des analyses visant à évaluer l’impact agrégé (macroéconomique) de l’IA générative sur la productivité et, par extension, sur l’emploi à partir de modèles théoriques.
i. Une nouvelle révolution industrielle
D’une part, une vision optimiste présente l’IA comme un moteur potentiel de nouvelle prospérité, susceptible de sortir nos économies de la « stagnation séculaire » ([355]) observée depuis les années 2010 et définie comme une situation économique durable où la croissance reste faible malgré des taux d’intérêt bas, en raison d’un déséquilibre structurel entre l’épargne et l’investissement. En automatisant de nombreuses tâches et en augmentant l’efficacité du travail, l’IA pourrait renouer avec des gains de productivité substantiels et relancer la croissance à long terme et de manière structurelle. Plusieurs études chiffrent ainsi une contribution macroéconomique significative de l’IA dans la décennie à venir. Par exemple, les travaux du McKinsey Global Institute ([356]) estiment que l’adoption généralisée de l’IA générative pourrait à elle seule ajouter de 0,1 à 0,6 point de pourcentage par an à la croissance de la productivité du travail d’ici 2040, et jusqu’à 0,5 à 3,4 points par an en combinant l’IA avec l’ensemble des autres technologies d’automatisation. De tels ordres de grandeur représentent un saut remarquable au regard du rythme tendanciel actuel (le consensus des projections officielles situe la croissance potentielle de la France entre 1,05 % et 1,35 %([357]) par an pour la période 2023–2027) et le potentiel de productivité à 0,5 % par an ([358]).
Ces résultats varient toutefois en fonction de la nature de la révolution technologique à venir. Selon Aghion et Bunel ([359]), si l’on considère que les gains de productivité liés à la vague d’intelligence artificielle au cours de la prochaine décennie seront comparables à ceux engendrés par l’électrification des années 1920 en Europe, la croissance de la productivité augmenterait de 1,3 point de pourcentage par an à partir de 2024 (voir figure 2 (a) dans le document ci-après). En revanche, si l’on prend pour référence la vague des technologies numériques à la fin des années 1990 et au début des années 2000 aux États‑Unis, l’accélération de la productivité serait plus modérée, de l’ordre de 0,8 point de pourcentage par an (voir figure 2 (b) du même document). Ces projections supposent toutefois que les progrès technologiques resteront comparables aux précédentes vagues d’innovation.
Effet des révolutions technologiques passées sur la croissance de la productivité
Source : Aghion P., Bunel S., AI and Growth: Where Do We Stand?, juin 2024.
Si, à l’inverse, l’intelligence artificielle devait évoluer vers des formes d’autonomie et d’auto‑amélioration radicales, certains auteurs, comme Nick Bostrom ([360]), estiment que l’impact sur la productivité pourrait dépasser de très loin les cadres d’estimation traditionnels. Des économistes ([361]) ont tenté de manière prospective de mesurer les effets économiques de l’avènement d’une singularité technologique ([362]). Les auteurs expliquent qu’une singularité économique causée par l’IA est théoriquement possible et pourrait entraîner une croissance explosive, mais que des frictions (tâches non automatisables, concentration des rentes ([363])) pourraient aussi fortement limiter cet effet.
ii. Un effet globalement positif mais toujours incertain
Au‑delà de ces considérations générales et prospectives, les études institutionnelles récentes convergent vers l’hypothèse d’un effet globalement positif de l’intelligence artificielle sur la productivité et la croissance potentielle, tout en soulignant que ces effets sont différents sur les plans macroéconomique et microéconomique, ainsi qu’entre pays et entre secteurs.
À court terme, les effets macroéconomiques de l’IA apparaissent encore incertains et difficiles à mesurer de manière fiable, en raison d’une adoption encore partielle et de la nécessité d’adaptations structurelles. Les effets microéconomiques sont quant eux plus fiables et indiquent des résultats positifs.
À moyen et long terme, l’IA pourrait en revanche constituer un levier majeur de compétitivité et permettre un redressement significatif de la productivité française, à condition qu’elle soit déployée à grande échelle et accompagnée des réformes nécessaires.
Comparaison des gains de productivité macroéconomique prévus grâce à l’IA selon différentes études
Source Filippucci, F., P. Gal and M. Schief (2024), “Miracle or Myth ? Assessing the macroeconomic productivity gains from Artificial Intelligence”, OECD Artificial Intelligence Papers, No. 29, OECD Publishing, Paris, https://doi.org/10.1787/b524a072-en.
Le rapport de l’OCDE ([364]) estime que l’IA pourrait contribuer à une croissance annuelle de la productivité globale des facteurs (PGF) comprise entre 0,25 et 0,6 point, soit un gain de l’ordre de + 0,4 à + 0,9 point pour la productivité du travail. Ces ordres de grandeur sont comparables à ceux observés lors de la diffusion de la micro-informatique dans les années 1990, mais leur réalisation dépend d’un ensemble de facteurs : degré d’exposition sectorielle, vitesse d’adoption et capacité d’absorption organisationnelle des entreprises.
Dans un rapport plus récent de l’OCDE ([365]), l’analyse est étendue aux pays du G7, montrant des disparités entre pays. Dans les trois scénarios envisagés pour cette étude, la fourchette estimée pour la croissance annuelle de la productivité globale du travail due à l’IA se situe entre 0,4 et 1,3 point de pourcentage jusqu’à 2034 dans les pays fortement exposés à l’IA, en raison d’une spécialisation plus forte dans les services à forte intensité de connaissances exposés à l’IA, tels que les services financiers et les TIC, et d’une adoption plus généralisée (par exemple, les États-Unis et le Royaume-Uni). À l’inverse, pour les pays où l’exposition à l’IA est moindre en raison d’un tissu économique moins spécialisé dans les services intensifs en connaissances, notamment la France, l’Italie et le Japon, la fourchette des gains attendus se situe entre 0,2 et 0,8 point par an.
Part des entreprises supposées adopter l’IA dans les dix prochaines années selon les pays
Source : Filippucci, F., P. Gal and M. Schief (2024), “Miracle or Myth ? Assessing the macroeconomic productivity gains from Artificial Intelligence”, OECD Artificial Intelligence Papers, No. 29, OECD Publishing, Paris, https://doi.org/10.1787/b524a072-en.
Ces chiffres contrastent toutefois nettement avec le rythme actuel : la productivité du travail en France a augmenté en moyenne de 0,2 % par an pendant la dernière décennie ([366]) ([367]), soit un niveau encore inférieur aux 0,5 % considérés comme potentiellement tendanciels.
Le rapport de l’OCDE ([368]) souligne par ailleurs l’hétérogénéité des effets de l’IA selon les secteurs. Les premières entreprises adoptant l’IA, généralement de grande taille et spécialisées dans les technologies, enregistrent des gains de productivité significatifs, tandis que les PME et les secteurs moins technologiques peinent à intégrer ces outils et à en retirer des bénéfices substantiels.
La demande de compétences en IA se concentre dans les services à forte intensité de connaissances et dans l’industrie manufacturière
Source : OCDE, The impact of artificial intelligence on productivity distribution and growth, Avril 2024.
Pour la France, le Conseil national de productivité ([369]) constate que, depuis 2019, la productivité du travail en France accuse un retard préoccupant par rapport à ses principaux partenaires. En 2023, la productivité apparente du travail par tête en France restait inférieure de 3,5 % à son niveau d’avant-crise sanitaire, tandis que la productivité horaire demeurait 2,4 % en deçà de celle de 2019. À l’inverse, les États-Unis ont enregistré une hausse de 7,6 % de leur productivité horaire pendant la même période, traduisant un différentiel croissant d’efficacité entre les deux économies. Ce décrochage s’explique en partie par une croissance française riche en emplois mais pauvre en gains de productivité, et par une adoption insuffisante des technologies numériques avancées. Le Conseil national de la productivité souligne en particulier le retard de la France et de l’Europe dans l’investissement en intelligence artificielle (IA) : entre 2013 et 2023, le secteur privé américain a investi 335 milliards de dollars (suivi par la Chine avec 103 milliards de dollars) dans l’IA, contre seulement 8 milliards pour la France. Or, les analyses du CNP confirment que l’IA générative constitue un levier essentiel de gains de productivité futurs ([370]), à condition surtout d’être couplée à d’autres technologies comme la robotique. Ce couplage se traduirait par une augmentation du taux de croissance de la PGF de 0,3 point de pourcentage en moyenne par an. Dans ce contexte, le Conseil appelle à un effort massif d’investissement dans la recherche, le développement et la diffusion de l’IA, afin d’éviter un décrochage structurel de la productivité française et européenne face aux États-Unis et à la Chine.
Au delà des estimations globales encore incertaines, les premières études empiriques confirment des gains de productivité notables au niveau micro-économique, alimentant l’optimisme quant à leur agrégation future. Une étude ([371]) portant sur plus de 5 000 agents de centre d’appels a montré que l’introduction d’un assistant conversationnel à base d’IA générative a accru le nombre de demandes client résolues par heure de 14 % en moyenne, la hausse atteignant même 34 % pour les employés débutants, peu expérimentés.
L’IA a agi comme un égaliseur de performances, en diffusant les bonnes pratiques des meilleurs employés et des plus expérimentés vers l’ensemble des opérateurs, tout en améliorant la satisfaction des clients et en réduisant le renouvellementdu personnel.
De même, des expérimentations contrôlées dans le secteur du conseil et du marketing ont mesuré des gains de productivité et de la qualité des livrables grâce à l’usage de ChatGPT. Une étude de terrain ([372]) menée auprès de 758 consultants de Boston Consulting Group a mis en lumière l’impact de GPT‑4 sur le travail intellectuel et les modes de collaboration homme‑machine. Les résultats montrent que, pour des tâches situées à l’intérieur de la frontière technologique (analyse, synthèse, rédaction ou créativité), l’usage de l’IA permet des gains substantiels : hausse de 25 % de la rapidité d’exécution, de 12 % du nombre de tâches accomplies, et de 40 %, soit une augmentation notable, de la qualité perçue des livrables. À l’inverse, lorsque l’IA est appliquée à des tâches hors de ce périmètre (impliquant une intégration fine de données hétérogènes ou un raisonnement contextuel complexe), elle tend à dégrader la qualité, avec une baisse de 19 points du taux de solutions correctes.
L’étude distingue deux archétypes de collaboration entre humain et IA : les « centaures », qui répartissent le travail entre eux et la machine en fonction des points forts de chacun, et les « cyborgs », qui opèrent dans une fusion symbiotique avec l’IA, l’intégrant dans chaque étape du processus. Ces derniers semblent mieux exploiter le potentiel créatif et productif de GPT‑4, mais exigent une maîtrise plus fine de ses limites (contrôle de données).
Fait notable, ces outils bénéficient souvent davantage aux travailleurs les moins expérimentés ou les moins qualifiés ([373]), en automatisant les tâches routinières de rédaction ou de codage et en leur permettant de se concentrer sur des missions à plus forte valeur ajoutée. L’IA pourrait ainsi agir comme catalyseur d’une réduction des inégalités de productivité.
En France, selon une étude France Travail ([374]), les employeurs ayant déjà intégré l’IA partagent globalement ce constat positif : 72 % d’entre eux estiment que ces technologies améliorent la performance de leurs salariés, notamment en réduisant les tâches fastidieuses (63 % citent cet effet) et le risque d’erreur (51 %). L’IA est donc perçue comme un levier majeur de compétitivité pour les entreprises.
c. Les limites structurelles et l’hypothèse d’un effet transitoire
i. Un effet transitoire et limité ?
D’autre part, une vision plus prudente tempère ces projections, en soulignant les obstacles et les incertitudes entourant l’impact réel de l’IA sur la croissance.
Certains avancent d’abord que les gains de l’IA pourraient n’être que transitoires. Une fois les technologies largement diffusées et intégrées, l’effet de rattrapage sur la productivité s’estomperait, tout comme l’apport des TIC à la croissance s’est affaibli aux États-Unis après 2005, une fois passé le boom d’adoption ([375]). Le scénario « effet transitoire » ([376]) implique un surcroît de croissance limité dans le temps, sans changement du taux de croissance de long terme une fois le nouveau générateur de productivité pleinement absorbé par l’économie.
Ensuite, la progression rapide des systèmes actuels d’IA générative pourrait buter sur des rendements décroissants. En effet, Ilya Sutskever, ancien directeur scientifique d’OpenAI et autrefois ardent défenseur du passage à l’échelle, affirme désormais que les gains de performance liés à l’augmentation de la taille des modèles ont atteint un plateau. Un article du Time magazine ([377]) analyse les débats actuels sur un possible ralentissement des progrès en intelligence artificielle (IA). Depuis des années, les entreprises ont misé sur la loi de l’« échelle » : plus de données et de puissance de calcul entraînent des améliorations prévisibles des modèles.
Cependant, des rapports récents ([378]) suggèrent des rendements décroissants avec les derniers systèmes. D’autres, comme Anthropic et Sam Altman (OpenAI), défendent la continuité de cette dynamique. Le ralentissement perçu pourrait être dû aux limites des techniques actuelles ou au manque de données de qualité, ce que des innovations pourraient compenser. Ce débat a des implications politiques et géopolitiques majeures, notamment pour la régulation et la rivalité technologique entre les États-Unis et la Chine. Il reste difficile de savoir s’il s’agit d’un plateau temporaire ou d’un vrai tournant dans l’évolution de l’IA.
Les potentiels de croissance et de productivité de l’IA varient enfin fortement en fonction du caractère général ou non des avancées actuelles de l’IA, un point qui demeure débattu. Les modèles d’IA générative comme les grands modèles de langage (LLM) affichent des performances impressionnantes, mais restent loin d’une « intelligence générale ». Auditionné par la mission, Yann LeCun, directeur scientifique de l’IA chez Meta, a souligné que ces modèles auto-régressifs ne font que prédire du texte de manière statistique, sans véritable compréhension du monde réel. Il estime que les modèles de langage (LLM) actuels parfois décrits par les sceptiques comme des « perroquets stochastiques » ([379]) parviennent à générer des réponses cohérentes sans comprendre les concepts qu’ils manipulent. Ils manquent de capacité de raisonnement critique, de planification, de mémoire de long terme et d’ancrage physique, autant de composantes essentielles de l’intelligence humaine.
Il critique ([380]) la philosophie dominante selon laquelle la simple augmentation de la taille des modèles, des jeux de données et de la puissance de calcul (les fameuses « lois d’échelle ») assurerait une progression vers l’intelligence humaine, ce qu’il juge illusoire face à la complexité réelle du monde.
Pour Le Cun, les IA doivent acquérir une mémoire persistante, un sens du monde physique, une capacité de raisonnement structuré et une planification hiérarchique, qualités absentes des LLM, et cela ne peut se faire que par une formation intégrant l’interaction sensorielle et l’observation, par le développement de world models ([381]), qui pourraient ne jamais advenir ou prendre des décennies à se développer.
ii. Limites structurelles spécifiques à l’Union européenne au développement de l’intelligence artificielle
Le développement de l’intelligence artificielle (IA) représente une promesse de transformation profonde des économies modernes. Cependant, en Europe, plusieurs facteurs structurels tendent à en freiner la pleine réalisation selon Luis Garicano ([382]). Ces contraintes tiennent à la fois aux caractéristiques sectorielles de l’économie européenne, aux rigidités institutionnelles et réglementaires qui y prévalent, ainsi qu’à une organisation des systèmes de production qui perpétue des goulets d’étranglement. Leur analyse met en lumière les défis spécifiques que l’Union devra relever pour tirer parti des potentialités de l’IA.
L’un des premiers freins tient à la composition sectorielle de l’économie européenne, qui concentre une part importante de ses activités dans des secteurs peu propices à l’automatisation ([383]). Comme l’a montré William Baumol ([384]), certains secteurs tels que les soins aux personnes, l’éducation, le tourisme ou encore l’artisanat affichent des gains de productivité très faibles comparés à ceux des industries fortement mécanisées ou numérisées. Ce phénomène, connu sous le nom de « paradoxe de Baumol », tend à s’amplifier avec l’avancée des technologies d’automatisation : plus certains secteurs gagnent en efficacité et voient les salaires progresser, plus les activités restant fortement dépendantes de la main-d’œuvre subissent une hausse relative de leurs coûts.
En Europe, cette dynamique est d’autant plus marquée que le vieillissement de la population accroît la demande pour ces services peu automatisables. À l’horizon 2030, un quart des citoyens de l’Union aura plus de 65 ans ([385]), ce qui accroîtra mécaniquement la demande pour des services humains, notamment dans les domaines des soins, de l’accompagnement social et des activités de proximité. Or, ces services sont difficilement remplaçables par des machines, ce qui en fait un frein endémique à la diffusion des effets de l’IA vers la croissance globale.
À cette contrainte structurelle s’ajoute une rigidité institutionnelle et réglementaire qui ralentit l’adoption des technologies d’automatisation, selon Luis Garicano ([386]). Dans de nombreux États membres, la législation du travail impose des obligations lourdes aux entreprises souhaitant réorganiser leurs activités. En Allemagne, le principe de codétermination oblige les grandes entreprises à obtenir l’accord des représentants des salariés avant tout investissement majeur en matière d’automatisation. En Espagne et en Italie, les coûts associés aux licenciements collectifs et aux plans de reclassement freinent également les projets de transformation numérique. Ces dispositifs, s’ils traduisent une volonté de protection sociale, compliquent néanmoins la réallocation de la main-d’œuvre vers les secteurs d’avenir et créent, selon cet économiste, un effet d’inertie dans les systèmes productifs.
Enfin, la structure même des systèmes européens de production et de régulation favorise l’apparition de « goulots d’étranglement humains » ([387]) qui limitent l’impact de l’automatisation. Comme le souligne la théorie de l’ « O-ring » développée par Michael Kremer ([388]), la performance globale d’un système complexe dépend de la qualité de son maillon le plus faible.
Ces limites structurelles combinées font peser sur l’Europe un risque majeur : celui de voir ses gains de productivité et son dynamisme économique freinés, à l’heure où d’autres régions du monde, moins contraintes par des rigidités comparables, pourraient capter l’essentiel des bénéfices liés à l’IA. Dans les services financiers, la directive européenne MiFID II impose une surveillance humaine constante ([389]) des systèmes d’IA, obligeant les opérateurs à pouvoir intervenir ou désactiver les programmes d’algorithmic trading en cas de défaillance. De même, le règlement européen sur l’IA ([390]) classe de nombreuses applications financières comme « à haut risque » ([391]), imposant des exigences de transparence et de contrôle humain qui freinent l’automatisation complète. En matière de sécurité alimentaire, le cadre réglementaire européen ([392]) ([393]) impose également la présence d’inspecteurs humains à chaque étape de la production, même avec des systèmes automatisés avancés.
Ce principe de « human in the loop », qui traduit des valeurs européennes de prudence et d’encadrement, a pour effet de ralentir les gains d’efficacité technologique, en modulant la performance des systèmes selon le rythme des capacités humaines.
2. Des disparités de développement au sein du tissu économique
a. Selon les secteurs d’activité
La diffusion de l’intelligence artificielle (IA) dans les entreprises françaises diffère fortement selon les secteurs d’activité, comme l’ont illustré les auditions conduites par la mission. Cette hétérogénéité sectorielle reflète des écarts de maturité technologique, mais également des choix stratégiques et des contraintes propres à chaque filière.
Les données récentes confirment l’ampleur de ces disparités. D’après Eurostat ([394]), en 2024, près de 48,7 % des entreprises du secteur Information et Communication dans l’Union européenne avaient recours à l’IA, contre seulement 6,1 % dans la construction et 6,09 % dans l’hébergement‑restauration. Ce constat révèle une fracture nette entre des secteurs fortement numérisés et d’autres peinant à franchir le seuil d’adoption, mais reflète également une moindre nécessité d’y recourir dans certaines activités où les cas d’usage de l’IA sont moins évidents ou moins prioritaires.
Répartition sectorielle des employeurs utilisant l’IA aux États-Unis (2022)
Source : Eurostat, Use of artificial intelligence in enterprises, Janvier 2025.
L’OCDE corrobore cette tendance en distinguant une « intensité IA » élevée dans les secteurs des technologies de l’information et de la communication (TIC) et les services financiers. Dans son rapport ([395]), l’organisation indique qu’en 2023, environ 28 % des entreprises du secteur TIC utilisaient l’IA, contre seulement 8 % en moyenne dans l’ensemble des secteurs. Le rapport A Sectoral Taxonomy of AI Intensity ([396]) précise que les services IT et la R&D scientifique présentent les plus fortes concentrations en brevets liés à l’IA, en postes spécialisés et en taux d’adoption, tandis que des secteurs comme la construction restent en retrait.
Ces chiffres sont confirmés également au niveau des pays du G7. Un rapport récent de l’OCDE ([397]), fondé sur un échantillon de 840 entreprises, montre que les filières finance, TIC et services professionnels sont largement en tête, tandis que la construction, l’hôtellerie et le transport affichent des taux d’adoption inférieurs à 10 %.
Niveau d’exposition des secteurs à l’IA selon leur intensité en connaissances (2019)
Source : Filippucci et al (2024) and OECD (2024) based on (Felten, Raj and Seamans, 2021).
En France, certains secteurs apparaissent comme des pionniers, ayant massivement investi dans ces technologies pour renforcer leur compétitivité. Le secteur bancaire, par exemple, figure parmi les plus avancés : les grandes banques françaises comme BNP Paribas et la Société Générale, auditionnées par la mission, ont développé de nombreux outils d’IA visant à améliorer l’efficacité opérationnelle et la gestion des risques (détection des fraudes, optimisation du crédit, relation client, etc.). L’industrie aéronautique et plusieurs groupes industriels emblématiques, Renault, Airbus ou Michelin, ont également intégré précocement l’IA dans leurs processus (maintenance prédictive, automatisation de la production, IA embarquée), s’affirmant ainsi à la pointe de l’innovation.
L’intelligence artificielle chez Renault
Renault déploie l’intelligence artificielle (IA) à plusieurs niveaux de ses activités. Le groupe utilise des technologies d’IA pour optimiser la maintenance prédictive des machines, simplifier la programmation robotique grâce au reinforcement learning, et améliorer l’efficacité globale de ses processus industriels. L’IA générative (IAG) est également mobilisée pour accélérer le cycle de développement logiciel dans le cadre du projet AI for SDV (Software Defined Vehicle). Ces applications visent à renforcer l’innovation, à automatiser le traitement des données et à améliorer l’expérience client, en positionnant la voiture comme un véritable « smartphone sur roues ».
À l’inverse, d’autres secteurs accusent un net retard : selon l’Insee ([398]), 42 % des entreprises de l’information-communication utilisent l’IA, contre 5 % ou moins pour les transports, l’hébergement et la restauration ou la construction. Ces écarts confirment que certains secteurs affichent un fort usage de l’IA, quand d’autres secteurs moins numérisés restent logiquement en retrait.
En revanche, certaines industries disposant d’un potentiel d’usage élevé demeurent notablement en retard. Dans le domaine de l’industrie manufacturière ([399]), seulement 18,4 % des entreprises européennes utilisent un logiciel d’IA dans au moins un domaine de leur production : 25 % des grandes entreprises, 18 % des entreprises moyennes et 15 % des petites entreprises en sont parties prenantes. Une étude de mai 2024 ([400]) confirme que l’adoption de l’IA par les entreprises allemandes est passée de 6 % à 13,3 % entre 2020 et 2023. Ces chiffres témoignent d’un retard d’adoption, en dépit de la maturité de cas d’usage tels que la maintenance prédictive, l’optimisation logistique et le contrôle qualité pour l’IA.
L’adoption de l’intelligence artificielle dans l’industrie se heurte à trois obstacles majeurs ([401]). La qualité des données est souvent insuffisante, avec des informations dispersées et peu fiables. Les compétences humaines manquent pour développer et piloter ces outils. Enfin, l’intégration aux systèmes existants est complexe, en raison de logiciels et machines souvent incompatibles. Ces freins exigent des efforts en formation, en modernisation et en gestion des données.
D’après Clinical Trials Arena ([402]), 49 % des entreprises pharmaceutiques et biotechnologiques européennes déclaraient utiliser l’IA ou le Big Data en 2024, principalement pour l’analyse de données, sans que cela ne représente encore un déploiement systématique dans la découverte ou le développement de médicaments. En parallèle, l’Europe ne compte que trois modèles d’IA biotech notables, là où les États-Unis en comptent 40, et la Chine 15. Ce retard est manifeste, alors que les États-Unis ont obtenu 223 dispositifs médicaux IA approuvés par la FDA en 2023. Or le développement de médicaments est par nature répétitif et structuré : IA générative, pipelines numériques, criblage virtuel, etc., sont des applications matures mais insuffisamment exploitées en Europe.
b. Selon la taille des entreprises
L’adoption de l’intelligence artificielle augmente proportionnellement à la taille des entreprises. En 2024, 41,2 % des grandes entreprises européennes (>250 salariés) utilisent l’IA, contre 21,0 % des entreprises de taille intermédiaire (50 à 249 salariés) et seulement 11,2 % des petites entreprises (10 à 49 salariés), selon Eurostat ([403]). Cette dynamique s’explique par la capacité des grands groupes à mobiliser des moyens financiers, des équipes spécialisées et des infrastructures numériques avancées, leur permettant d’intégrer l’IA dans des processus stratégiques comme la production, la logistique ou la relation client.
L’utilisation selon la taille des entreprises, 2023 et 2024
Source : Eurostat, Use of artificial intelligence in enterprises, Janvier 2025.
Aux États-Unis, cet écart est encore plus marqué. Une analyse du MIT Sloan ([404]) indique que plus de 50 % des entreprises de plus de 5 000 salariés et près de 60 % des entreprises de plus de 10 000 salariés recourent à des outils d’IA, tandis que le taux d’adoption chute à moins de 4 % ([405]) pour les petites entreprises. Les grandes entreprises américaines déploient des solutions propriétaires et disposent d’équipes internes capables de concevoir et d’optimiser ces technologies, ce qui leur confère un avantage compétitif notable.
Part des entreprises américaines utilisant l’IA selon leur taille (2016-2018)
En France, la même logique se vérifie. D’après l’Insee ([406]), en 2024, 33 % des entreprises de 250 salariés ou plus ont adopté l’IA, contre seulement 15 % des entreprises de 50 à 249 salariés et 9 % des entreprises de 10 à 49 salariés. Cet écart reflète une fracture entre, d’une part, les grandes organisations, qui concentrent près de 50 % du chiffre d’affaires cumulé et 40 % des emplois du secteur marchand, et, d’autre part, un tissu de PME/TPE souvent dépourvu des ressources nécessaires pour initier de tels projets.
En 2024, l’adoption des technologies d’intelligence artificielle par les entreprises françaises demeure inférieure à celle observée dans l’ensemble de l’Union européenne ([407]). Alors que 13 % des entreprises européennes déclarent recourir à au moins une technologie d’IA, ce taux n’est que de 10 % en France, un écart qui reste stable par rapport à 2023. Cette différence concerne l’ensemble des tailles et secteurs d’entreprises. Les grandes entreprises françaises de 250 salariés et plus présentent ainsi un taux d’usage inférieur de huit points à la moyenne européenne. Le secteur national de l’information et de la communication accuse également un retard de sept points, alors qu’il se situait légèrement au-dessus de la moyenne en 2023. En outre, la progression du recours à l’IA dans les activités spécialisées, scientifiques et techniques, deuxième secteur en termes d’adoption, s’avère moins dynamique en France que dans l’Union européenne.
Ces tendances s’inscrivent dans un contexte européen marqué par de fortes disparités : les pays du Nord (Allemagne, Danemark, Suède, Finlande, Pays-Bas, Belgique, Luxembourg) affichent des taux d’adoption deux fois supérieurs à celui de la France (20 à 28 %), tandis que les pays d’Europe orientale (Roumanie, Pologne, Bulgarie, Hongrie) enregistrent des niveaux bien plus faibles (3 à 7 %).
c. Des enjeux différenciés en matière de coûts
Au préalable, le développement des modèles d’IA comporte deux grandes phases : l’entraînement (la phase d’apprentissage à partir des données) et l’inférence (utilisation du modèle pour générer des réponses et accomplir des tâches).
L’IA constitue un investissement massif et croissant pour les fournisseurs de modèles d’IA. Les entreprises qui développent et fournissent des modèles d’IA de pointe doivent supporter des coûts d’investissement exponentiels. L’entraînement des modèles, en particulier des grands modèles de langage récents, est devenu un poste de dépense majeur mobilisant des infrastructures prépondérantes (centres de données, GPU...).
À capacité constante, le coût d’entraînement des modèles d’intelligence artificielle enregistre une baisse soutenue, évaluée à un facteur quatre par an ([408]), traduisant une efficience accrue. Cette dynamique s’explique par les progrès technologiques réalisés tant sur le plan matériel ou hardware, qui permettent d’accroître la puissance de calcul disponible pour un investissement donné, que sur le plan algorithmique, en réduisant le volume d’opérations nécessaires à l’apprentissage. Des acteurs tels que DeepSeek ou Mistral AI ont su capitaliser sur ces avancées en innovant à la fois dans l’architecture des modèles, les méthodes d’entraînement et l’optimisation des flux de données entre processeurs graphiques.
Cependant, l’efficience accrue n’implique pas une baisse des dépenses totales pour les fournisseurs d’IA. Au contraire, la course à des modèles toujours plus puissants et complexes fait exploser les coûts absolus : les dépenses nécessaires pour entraîner les modèles de pointe ont augmenté d’environ 2,4 fois par an depuis le milieu des années 2010 ([409]). Par exemple, l’entraînement du modèle GPT-4 d’OpenAI aurait coûté de l’ordre de 78 millions de dollars, et celui du modèle Gemini Ultra de Google près de 191 millions ([410]), à comparer aux quelques centaines de dollars nécessaires pour entraîner le premier Transformer en 2017, qui a introduit l’architecture qui sous-tend pratiquement tous les LLM modernes.
Coûts et puissance de calcul nécessaires à l’entraînement de différents modèles d’IA
Source : Stanford Institute for Human-Centered Artificial Intelligence. (15 avril 2024). AI Index: State of AI in 13 charts.
Les géants investissent donc massivement pour rester au niveau des innovations sur le plan technologique : les dépenses en capital (CapEx) liées aux centres de données et à la puissance de calcul des GAFA ont dépassé les 100 milliards de dollars en 2024 ([411]), en hausse de plus de 35 % par rapport à 2023. Si cette tendance se poursuit, seuls les acteurs les mieux financés pourront assumer les prochains cycles d’entraînement des modèles les plus avancés, dont le coût pourrait dépasser 1 milliard de dollars d’ici 2027 ([412]). Ce niveau d’investissement, inaccessible aux nouveaux entrants plus modestes, concentre le marché de l’IA autour de quelques fournisseurs dominants et pose la question d’une dépendance accrue des autres entreprises envers ces derniers.
Évolution des coûts matériels et énergétiques pour l’entraînement des modèles d’IA de pointe
Source : EpochAI, How Much Does It Cost to Train Frontier AI Models?, 13 janvier 2025.
Toutefois, certains observateurs, comme Gary Marcus ([413]), soulignent que : « D’autres pays, également en Europe, pourraient également rattraper leur retard, car les LLM sont devenus beaucoup moins chers et, par conséquent, la nécessité de disposer de vastes réseaux de matériel spécialisé s’est quelque peu estompée. Il n’y a pratiquement plus de fossé ; les nouvelles pistes techniques ont une durée de vie très courte, qui se mesure en mois, voire en semaines, et non en années. »
Même si l’apprentissage initial (capex) des modèles d’IA demeure principalement soutenu par les fournisseurs (OpenAI, Google, etc.), pour les entreprises utilisatrices, les coûts significatifs résident aujourd’hui dans l’inférence, c’est-à-dire l’utilisation opérationnelle des modèles. Parmi les études récentes, Stanford HAI ([414]) souligne que le coût d’inférence pour atteindre les performances de GPT‑3.5 a été divisé par 280 entre novembre 2022 et octobre 2024, tandis que le matériel a vu ses coûts diminuer de 30 % par an et son efficacité énergétique progresser de 40 % annuellement.
Évolution du coût de l’inférence des modèles d’IA selon différents benchmarks (2022-2024)
Source : HAI, The 2025 AI Index Report, 2025.
Par ailleurs, s’agissant de l’évaluation empiritique « Cost‑of‑Pass », défini comme le coût moyen nécessaire pour qu’un modèle d’IA produise une réponse correcte, en tenant compte à la fois de la complexité des tâches et de l’efficacité des modèles et infrastructures utilisées, une étude récente ([415]) montre que pour les tâches complexes, les progrès techniques (modèles allégés, quantification, optimisation) permettent de réduire drastiquement le coût par prédiction correcte, divisant ces coûts par deux tous les quelques mois. En conséquence, même si les GAFAM intensifient leurs investissements pour accroître les capacités globales, le coût unitaire d’inférence pour les entreprises utilisatrices décline fortement, rendant l’IA de plus en plus abordable.
Pour les entreprises utilisatrices, les coûts liés à l’intégration et à l’utilisation quotidienne de l’intelligence artificielle demeurent un enjeu majeur. Bien que le coût unitaire d’inférence ait fortement diminué ces dernières années grâce aux progrès des modèles et du matériel, l’inférence représente encore entre 80 % et 90 % des coûts opérationnels liés à l’IA ([416]). Ce poids financier est particulièrement sensible pour les PME et ETI, qui disposent rarement des capacités techniques et du volume d’activité nécessaires pour négocier des tarifs préférentiels avec les fournisseurs ou internaliser des infrastructures.
En l’absence de ces leviers, les entreprises utilisatrices, les plus petites en particulier, peuvent être confrontées à des charges d’exploitation croissantes dès lors que l’usage de l’IA est intensifié, ce qui freine leur adoption et creuse un écart de compétitivité avec les grandes entreprises. Toutefois, l’évaluation de ce coût reste délicate, car il convient de le mettre en regard des gains de productivité et d’efficacité que l’IA peut générer dans les organisations.
3. L’appropriation de l’IA : un enjeu diversement identifié
a. Une proximité inégale des entreprises avec l’innovation en général et l’intelligence artificielle en particulier
L’appropriation des technologies innovantes, et en particulier de l’intelligence artificielle (IA), par les entreprises françaises demeure très contrastée. Les grandes entreprises, dotées de services R&D structurés et de ressources humaines qualifiées, présentent généralement une capacité d’intégration technologique bien supérieure à celle des petites et moyennes entreprises (PME) et des très petites entreprises (TPE) ([417]). Ces dernières, qui représentent pourtant 99,9 % ([418]) du tissu économique national et génèrent en moyenne 50 % à 60 % de la valeur ajoutée, souffrent d’un accès limité à l’expertise technique et d’un déficit d’information sur les cas d’usages pertinents de l’IA, comme l’a rapporté la CPME à la mission.
Les pôles de compétitivité et clusters, mis en place depuis 2005, illustrent bien cet écart. Selon une étude de l’INSEE (2007‑2011) ([419]), les entreprises adhérentes à ces pôles ont vu leur investissement en R&D progresser en moyenne de 76 000 euros par an, tandis que celles situées en dehors de ces réseaux ne bénéficient pas des mêmes effets d’entraînement. Ces constats sont confirmés au niveau européen : une analyse ([420]) des projets collaboratifs du 5ᵉ programme-cadre de recherche (FP5) souligne que la proximité géographique et technologique est déterminante pour favoriser les collaborations R&D, lesquelles sont beaucoup plus fréquentes entre acteurs partageant des compétences techniques communes.
Cet écart de proximité à l’innovation se traduit, pour les entreprises les plus fragiles, par un retard potentiel dans l’adoption de l’IA, compromettant ainsi leur compétitivité face aux acteurs étrangers. Les études statistiques d’Eurostat ([421]) récentes confirment ce constat. L’adoption de l’intelligence artificielle augmente proportionnellement à la taille des entreprises. En 2024, 41,2 % des grandes entreprises européennes (de plus de 250 salariés) utilisent l’IA, contre 21,0 % des entreprises de taille intermédiaire (de 50 à 249 salariés) et seulement 11,2 % des petites entreprises (de 10 à 49 salariés), selon Eurostat.
Pour combler ces inégalités d’accès à l’innovation, il est indispensable de s’appuyer sur des relais locaux capables d’assurer l’acculturation des entreprises aux enjeux technologiques et de leur proposer des outils adaptés. Les chambres de commerce et d’industrie (CCI) et les chambres des métiers et de l’artisanat constituent des interfaces privilégiées entre le monde de la recherche et celui de l’entreprise. Leur rôle peut être renforcé pour offrir des diagnostics personnalisés, organiser des ateliers de sensibilisation et mettre en réseau les acteurs d’un territoire autour de projets d’innovation.
Le dispositif Ambassadeurs IA([422]), lancé par le Gouvernement dans le cadre du plan Osez l’IA ([423]) ([424]) illustre cette logique de relais de proximité. Le réseau des Ambassadeurs IA, lancé par la Direction générale des entreprises, vise à fédérer des acteurs publics et privés capables d’accompagner les TPE et PME dans l’appropriation concrète de l’intelligence artificielle, en diffusant une culture numérique commune, en orientant vers les dispositifs existants et en favorisant le partage d’expériences au niveau régional et sectoriel.
Recommandation n°1 : Renforcer le rôle des réseaux locaux (CCI, CMA, pôles de compétitivité) dans l’information et la sensibilisation des entreprises à l’IA, avec une attention particulière concernant les TPE-PME, en s’appuyant sur les dispositifs existants, tels que le programme des Ambassadeurs IA, afin de mieux les mobiliser et de les valoriser.
L’accompagnement par ces relais locaux est primordial pour maximiser l’effet de l’IA sur la compétitivité. Selon une étude de McKinsey ([425]), l’adoption de l’intelligence artificielle pourrait accroître de 3 % par an la croissance de la productivité en Europe d’ici 2030. Cette étude constate : « En matière d’adoption, les organisations européennes accusent un retard de 45 à 70 % par rapport à leurs homologues américaines. Pourtant, c’est en Europe que réside la majeure partie du potentiel économique de l’intelligence artificielle générative. La technologie étant encore à un stade précoce et une grande partie de ses gains de productivité restant à exploiter, la fenêtre d’opportunité pour l’Europe demeure largement ouverte. »
Ce constat fait écho à une analyse empirique française ([426]), qui montre que les technologies de type cloud ont exercé un impact particulièrement marqué sur la croissance des petites entreprises. Cela suggère qu’un effet de levier comparable pourrait être observé pour les PME adoptant des solutions d’IA si elles sont pleinement accompagnées dans cette transition.
b. La nécessité de favoriser la porosité entre le monde de la recherche et celui des entreprises
Aux États‑Unis, la dynamique public‑privé autour de l’IA est structurée et efficace. Des organismes comme la DARPA ont historiquement initié des programmes d’envergure (par exemple la Strategic Computing Initiative dans les années 1980‑1990), pour lesquels la collaboration avec des universités, le Carnegie Mellon et le MIT notamment, ou encore des acteurs industriels a permis de déboucher sur des avancées majeures, jusqu’à l’émergence des véhicules autonomes et d’outils logistiques d’intelligence avancée – sans atteindre, certes, son objectif initial d’intelligence artificielle de haut niveau. Plus récemment (2022‑2023), l’initiative AI Forward ([427]) de la DARPA, combinant ateliers, appels à projets et partenariats tripartites, rassemble plus de 200 experts issus du monde académique, industriel et gouvernemental pour explorer des pistes en IA de rupture. Ces dispositifs reposent sur un financement ciblé, des contrats structurants et une approche agile qui favorise la translation rapide de la recherche en applications concrètes.
À l’inverse, l’Europe se trouve en retard, comme le souligne clairement le rapport Draghi ([428]). Celui-ci dénonce la fragmentation des financements R&D, l’absence d’agences de transfert comparables à la DARPA et un manque de continuité entre la recherche fondamentale et les applications industrielles, qui conduit à un scepticisme généralisé face aux capacités de l’UE à capturer les bénéfices de l’IA. L’écart d’investissement est gigantesque : selon l’ECIPE ([429]), le déficit accumulé en matière d’ICT et cloud entre l’UE et les États-Unis s’élève à 1,36 trilliard de dollars, et rattraper ce retard d’ici 2030 nécessiterait des investissements annuels de 157 milliards à 1,2 trilliard de dollars, soit jusqu’à 6,4 % du PIB européen.
Alors que le rapport Draghi ([430]) souligne également la nécessité pour les États membres de l’Union européenne de renforcer leur soutien à l’innovation des entreprises afin de capter pleinement les bénéfices des prochaines vagues technologiques, au premier rang desquelles figure l’intelligence artificielle générative, il met également en évidence plusieurs obstacles récurrents à une action publique efficace dans ce domaine. Parmi ces écueils figurent :
– l’inefficience des dispositifs de soutien public à la R&D des entreprises, due à une fragmentation excessive des sources de financement et à un ciblage encore insuffisant sur les innovations de rupture ;
– le nombre limité d’institutions universitaires d’excellence, capables de rayonner au niveau européen et international ;
– un manque de continuité entre la recherche fondamentale conduite par les organismes scientifiques et la commercialisation effective des découvertes, en particulier en raison d’une intégration insuffisante des établissements de recherche au sein des clusters d’innovation.
Les recommandations du rapport mettent en avant la nécessité d’un soutien public‑privé structuré, via des agences fortes au service de l’innovation, à l’image du modèle américain.
Dans ce contexte, la France bénéficie déjà d’un réseau de Centres techniques industriels (CTI) ([431]) et d’Instituts Carnot ([432]), qui pourraient constituer des pivots stratégiques pour l’appropriation de l’IA par les PME. Les actions des CTI, entités d’utilité publique financées conjointement par les filières industrielles et l’État, portent principalement sur la mutualisation de moyens et de compétences au profit des TPE et PME industrielles, sur la transformation des entreprises et l’anticipation des évolutions du marché. Il serait à cet égard pertinent d’envisager la création d’un CTI spécifiquement dédié à l’intelligence artificielle, afin d’accompagner les entreprises dans l’intégration de ces technologies stratégiques.
Le label « Institut Carnot », instauré en 2006, vise à encourager la recherche partenariale entre les laboratoires publics et les entreprises. Ce dispositif, mis en œuvre par l’Agence nationale de la recherche (ANR) et placé sous la tutelle du ministère de l’Enseignement supérieur et de la Recherche ainsi que du ministère de l’Industrie, distingue des structures de recherche capables de développer des collaborations contractuelles avec des acteurs socio-économiques. Attribué à l’issue d’appels à candidatures périodiques, ce label s’accompagne d’un soutien financier : en 2024, 39 structures en bénéficient, pour un montant total de 116 M€, calculé en fonction du volume des contrats facturés à leurs partenaires socio-économiques l’année précédente (636 M€ en 2023). Ce dispositif a permis à la majorité des instituts labellisés d’accomplir des progrès en matière de professionnalisation de leurs activités contractuelles. Apprécié de ses bénéficiaires, le dispositif a renforcé la professionnalisation des instituts labellisés, mais souffre d’un pilotage insuffisant, d’objectifs flous et d’une faible notoriété auprès des entreprises.
S’agissant de ce label, l’inspection générale des finances ([433]) préconise d’alléger les conditions de labellisation, afin d’encourager un plus grand nombre de laboratoires à déposer leur candidature lors de la prochaine vague. La mission recommande, à cet effet, la suppression de 70 des 80 indicateurs actuellement requis, afin de concentrer le suivi sur un nombre restreint d’indicateurs véritablement pertinents pour la recherche contractuelle : le nombre de chercheurs impliqués, l’attraction de nouveaux partenaires, le taux de fidélisation des partenaires existants et les délais de contractualisation. Ce recentrage serait également l’occasion de mieux aligner le dispositif sur les priorités stratégiques nationales, en orientant une part de l’effort vers des secteurs à fort potentiel technologique et industriel, tels que le développement et l’intégration de l’intelligence artificielle.
Le renforcement de ces dispositifs est confirmé empiriquement. Plusieurs analyses ([434]) confirment que la proximité physique et les échanges informels amplifient les innovations, avec un effet quantifiable sur le nombre de projets menés. Pour les décideurs publics, ces éléments prouvent que le renforcement des écosystèmes locaux et des plateformes nationales permet de limiter le fossé entre grands groupes ou centres de recherche, d’une part, et PME, d’autre part, afin de renforcer la souveraineté technologique française et européenne.
Enfin, dans le cadre de son AI innovation Package ([435]), la Commission européenne a fait de la création des AI Factories ([436]) une priorité stratégique. Ces écosystèmes dynamiques visent à fédérer la puissance de calcul, les données et les compétences pour permettre le développement de modèles et d’applications d’IA de pointe. Ils reposent sur une logique de partenariat public-privé, rassemblant supercalculateurs, universités, start-up, PME, grands groupes industriels et acteurs financiers, afin de stimuler l’application de l’IA dans des secteurs stratégiques tels que la santé, le climat, la finance, la fabrication ou encore l’espace.
Le dispositif, annoncé dans le train de mesures sur l’innovation en IA de 2024 et renforcé par le Plan d’action pour le continent de l’IA ([437]), prévoit l’ouverture d’ici 2026 d’au moins 15 AI Factories et de plusieurs antennes associées à des supercalculateurs optimisés pour l’IA. Cette initiative s’appuie sur le programme EuroHPC Joint Undertaking ([438]), qui donne accès aux capacités de calcul et aux services de soutien nécessaires au développement d’un écosystème paneuropéen. L’objectif est double : stimuler la recherche et l’innovation, tout en assurant une priorité d’accès aux startups et PME, qui peinent souvent à mobiliser des ressources de calcul adaptées à leurs besoins. Dans ce cadre, au moins neuf nouveaux supercalculateurs optimisés pour l’IA seront déployés dans l’Union européenne, triplant la capacité de calcul actuelle.
Pour compléter cet effort, le mécanisme InvestAI ([439]), qui mobilise 200 milliards d’euros pour l’IA, sera doté d’un fonds européen de 20 milliards d’euros, soutiendra la création de jusqu’à cinq Gigausines ou gigafactories d’IA. Ces infrastructures de très grande échelle permettront de former les prochaines générations de modèles d’IA, comprenant des trillions de paramètres, tout en favorisant des partenariats public-privé pour garantir un environnement d’investissement sécurisé et un écosystème européen compétitif et innovant.
Implantation des AI factories au sein des pays membres de l’Union européenne
Dans ce cadre, la France a été sélectionnée en 2025 pour accueillir une AI Factory nationale, portée par le Grand Équipement National de Calcul Intensif (GENCI). Ce projet s’appuie sur un partenariat étroit entre des acteurs universitaires, des structures d’innovation et des industriels de premier plan tels que l’INRIA, le CNRS, le CEA, le CINES, la Mission French Tech, France Universités, Station-F et HubFranceIA.
AI Factory France ([440]) se donne pour ambition de répondre au triple défi de l’IA en matière de calcul, de données et de compétences. Elle propose une palette de services destinés à accompagner les utilisateurs, notamment les PME et startups, dans l’accès et l’exploitation de ces technologies complexes. Elle héberge également un centre d’expertise et de support technique qui constitue un atout unique en Europe, en appui au réseau européen des AI Factories pour le déploiement des infrastructures et des services.
La France met ainsi à disposition son savoir-faire et ses infrastructures de calcul, dont le supercalculateur Jean Zay, en service depuis 2019, et le futur supercalculateur exaflopique Alice Recoque, prévu pour 2026, capable de réaliser un milliard de milliards d’opérations par seconde. Ce dispositif illustre la volonté française de développer un écosystème d’intelligence artificielle souverain, au service de la recherche publique et des besoins industriels, tout en s’inscrivant dans la dynamique européenne.
Recommandation n° 2 : Structurer un dispositif intégré de transfert technologique en mobilisant et en adaptant les outils nationaux (Centres techniques industriels – CTI – et Instituts Carnot) et les infrastructures européennes (AI Factories), afin d’accompagner les PME, startups et filières stratégiques dans l’appropriation et l’intégration des technologies d’intelligence artificielle avec un investissement capital exigeant l’accès de ressources stratégiques et un environnement propice.
Au-delà des grandes infrastructures nationales, l’appropriation de l’intelligence artificielle passe par la capacité des acteurs à coopérer à l’échelle locale. En effet, les PME et startups rencontrent souvent des difficultés d’accès aux données de qualité, aux compétences spécialisées et aux capacités de calcul. La constitution de véritables écosystèmes territoriaux apparaît dès lors comme un levier essentiel pour réduire ces obstacles, selon vos rapporteurs. Ces écosystèmes, en associant entreprises, centres de recherche, collectivités territoriales, opérateurs de data centers et structures d’accompagnement, peuvent favoriser la mutualisation des expertises, l’émergence de plateformes de données sectorielles ou régionales, ainsi que le développement de projets collaboratifs concrets adaptés aux besoins d’un territoire ou d’une filière.
Recommandation n° 3 : Encourager la constitution d’écosystèmes locaux associant entreprises, collectivités territoriales, centres de recherche et opérateurs de data centers, afin de mutualiser les compétences et de favoriser le développement de projets collaboratifs en intelligence artificielle.
II. soutenIR LA VITALITÉ d’un Écosystème prometteur mais fragile, condition d’une offre compÉtitive et souveraine
Le développement de l’intelligence artificielle constitue un levier stratégique majeur pour l’avenir économique, technologique et géopolitique des nations. Si l’Europe, et en particulier la France, peuvent s’appuyer sur un tissu d’acteurs dynamiques et innovants, cet écosystème reste confronté à de profondes vulnérabilités. L’asymétrie des moyens face aux grandes puissances technologiques, la dépendance aux infrastructures critiques non européennes, la fragmentation du marché intérieur ou encore l’insuffisance du capital-risque pèsent sur la capacité du continent à faire émerger des champions durables.
Ce constat appelle une action résolue pour conforter les acteurs nationaux et européens, sécuriser leur environnement économique, technologique et financier, et construire une stratégie industrielle cohérente et ambitieuse. Ce deuxième axe du rapport vise ainsi à identifier les fragilités structurelles de l’écosystème européen de l’IA et à proposer des leviers efficaces pour renforcer concrètement sa compétitivité et sa souveraineté à long terme.
A. Des acteurs nationaux à conforter face à une concurrence mondiale et dans leur leadership européen
Face à l’accélération de la course mondiale à l’intelligence artificielle et aux technologies critiques, l’Europe se trouve confrontée à un double défi : maintenir sa souveraineté technologique, tout en défendant la compétitivité de ses propres acteurs, dans un environnement marqué par des asymétries massives en matière de financement, d’infrastructures et de ressources humaines. Dans ce contexte, la France dispose d’atouts réels, incarnés notamment par des champions émergents comme Mistral AI, qui démontrent la capacité du continent à faire émerger des leaders de rang mondial. Mais ces réussites, encore isolées, ne sauraient masquer les fragilités structurelles actuelles de l’écosystème européen.
En effet, les géants technologiques américains et chinois bénéficient d’un soutien public massif, d’un accès privilégié aux infrastructures critiques (GPU, cloud, données) et de marchés intérieurs largement captifs, qui renforcent leur avance stratégique. À l’inverse, les acteurs européens restent confrontés à un marché unique fragmenté, à une réglementation contraignante et à des investissements encore très en-deçà des besoins. Dans ce contexte de concurrence déséquilibrée, il devient urgent de conforter les acteurs nationaux et européens, non seulement en soutenant leur montée en puissance dans les technologies généralistes, mais aussi en protégeant les niches où ils excellent et en sécurisant leur ancrage territorial.
L’ambition européenne ne peut reposer uniquement sur l’espoir de faire émerger un ou deux hyperscalers concurrents des GAFAM : elle suppose une stratégie industrielle globale, articulant soutien à la croissance endogène des acteurs existants, protection contre les logiques de prédation extra-européennes, et consolidation de marchés réellement contestables. Ce volet entend ainsi analyser les fragilités actuelles de l’écosystème européen de l’IA et du cloud, identifier les obstacles à l’émergence de champions durables, et proposer des leviers d’action concrets pour préserver la souveraineté numérique du continent.
1. Une inégalité des armes face à des géants de la tech
a. Un leadership français dans l’IA et le cloud, mais un rapport de force inégal
Comme développé plus haut, bien que l’Europe accuse un retard manifeste face aux géants américains et chinois, la France peut s’enorgueillir de compter avec Mistral AI le seul acteur européen capable de rivaliser sur le terrain stratégique des modèles de langage de grande ampleur. Fondée en 2023, cette start‑up s’est rapidement imposée comme le leader incontesté de l’IA en Europe, devenant la seule entreprise du continent à développer des modèles d’usage général (LLM) avec une ambition de rang mondial.
En 2025, Mistral envisage de lever 1 milliard d’euros, après un tour de table précédent de 600 M€ ([441]), et atteint une valorisation de 6 milliards de dollars ([442]), reléguant son principal concurrent européen, Aleph Alpha, qui a depuis abandonné son modèle d’affaires initial de développement de modèle de langage de grande taille. Elle dispose désormais de la plus grande flotte de GPU en Europe grâce à un partenariat avec Nvidia, qui a permis l’installation de 18 000 GPU Grace Blackwell B200 dans un centre de données en Essonne ([443]), la plus vaste infrastructure IA du continent.
Évolution comparative des performances des modèles d’IA sur LMSYS Chatbot Arena (2023-2025)
Source : Standford University, The AI Index 2025 annual report, 2025.
Si ses modèles restent perfectibles par rapport à GPT‑4 ou Gemini en termes de performance, leur présence dans les classements mondiaux ([444]) aux côtés d’OpenAI, Google et Anthropic atteste de la crédibilité croissante de Mistral sur la scène internationale. Cette trajectoire confirme qu’un acteur européen peut émerger, même face à des rivaux disposant de moyens financiers dix fois supérieurs ([445]).
Fonds levés par les principaux groupes d’IA comparés à ceux de Mistral
Source : Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025.
Financièrement, les entreprises américaines et chinoises bénéficient d’un avantage écrasant : OpenAI a levé 6,6 milliards ([446]) de dollars, Anthropic 4 milliards ([447]), tandis que les acteurs chinois sont bien positionnés en raison d’un fort soutien public constant depuis 2017, que la DGTrésor ([448]) estime entre 10 et 15 milliards de dollars par an.
La percée de DeepSeek début 2025 a bousculé l’écosystème mondial de l’intelligence artificielle, en démontrant, du moins en apparence, qu’il est possible de concevoir un modèle performant en source ouverte, avec des moyens financiers et matériels bien moindres que ceux mobilisés par les géants américains. Comme le relevait Gary Marcus ([449]), cette approche frugale constitue un signal fort pour l’Europe, en confortant l’intuition de Mistral AI selon laquelle l’efficacité et l’agilité peuvent compenser des ressources limitées.
Toutefois, cette réussite chinoise mérite d’être relativisée : des analyses ultérieures, notamment celles de SemiAnalysis ([450]), ont révélé que DeepSeek disposait en réalité d’un parc de 50 000 GPUs Nvidia Hopper et aurait investi 1,6 milliard de dollars, bien au-delà des chiffres initialement annoncés. Ce décalage met en lumière une stratégie de communication habile plus qu’une véritable rupture technologique. Pour Mistral, l’épisode DeepSeek est doublement significatif : il valide son propre positionnement fondé sur l’efficience, tout en rappelant qu’un acteur capable de conjuguer discours frugal et ressources massives représente une menace directe pour son modèle dans une compétition technologique mondialisée.
Globalement, cet épisode en évidence le fossé croissant entre l’Europe et ses concurrents mondiaux en matière d’intelligence artificielle et de technologies critiques. En 2024, les institutions américaines ont produit 40 modèles d’IA notables, contre 15 pour la Chine et seulement trois pour l’Europe ([451]). Si les États-Unis conservent une avance quantitative, les modèles chinois ont réduit l’écart qualitatif : sur des analyses comparatives majeures comme MMLU et HumanEval, l’écart de performance est passé de plusieurs dizaines de points en 2023 à une quasi‑parité en 2024.
Ce mouvement s’accompagne d’une domination chinoise sur les publications scientifiques et les brevets en IA. Ce déséquilibre reflète un sous‑investissement structurel de l’Union européenne. Le rapport Draghi ([452]) estime à 750 à 800 milliards d’euros par an le déficit d’investissement global de l’UE par rapport aux États‑Unis et à la Chine, affectant des secteurs stratégiques comme l’IA, le cloud, les supercalculateurs et les semi‑conducteurs. Selon l’ECIPE ([453]), le retard accumulé sur les infrastructures numériques et le cloud s’élève déjà à 1 360 milliards de dollars, et le combler d’ici 2030 nécessiterait des efforts financiers annuels représentant jusqu’à 6,4 % du PIB européen. Ce décalage est amplifié par la dynamique du secteur privé ([454]) : en 2024, les investissements américains dans l’IA ont atteint 109 milliards de dollars, soit près de 12 fois ceux de la Chine (9,3 milliards de dollars) et 24 fois ceux du Royaume‑Uni (4,5 milliards de dollars). Les hyperscalers américains, quant à eux, engagent 10 à 15 milliards de dollars ([455]) chaque trimestre dans leurs infrastructures, consolidant une avance qui fragilise la capacité de l’Europe à capter les bénéfices des prochaines vagues technologiques et à préserver sa souveraineté économique.
Évolution des parts de marché des acteurs européens du cloud sur le marché européen (2017-2022)
Si l’Europe dispose d’un concurrent potentiel aux hyperscalers mondiaux en matière de LLM, force est de constater que, dans le domaine du cloud computing, la situation européenne est nettement moins favorable. Malgré les efforts d’OVHcloud, de SAP et Deutsche Telekom, présentés comme des champions nationaux et européens, la part de marché des fournisseurs européens a chuté de 27 % en 2017 à seulement 13 % aujourd’hui, tandis qu’Amazon, Microsoft et Google concentrent à eux seuls 72 % ([456]) du marché européen. OVHcloud, avec environ 2 % de part du marché européen ([457]), reste un acteur de taille modeste face aux hyperscalers américains, capables d’investir des dizaines de milliards de dollars par an.
Le projet GAIA‑X, censé structurer un écosystème de cloud souverain, peine à produire des effets tangibles. Cette domination américaine dans le cloud constitue une vulnérabilité stratégique majeure pour l’Europe, en particulier dans des secteurs sensibles où la maîtrise des infrastructures numériques est cruciale.
b. Un écosystème dynamique mais insuffisamment protégé
Répartition régionale des financements consacrés
à l’intelligence artificielle en 2024
Source : Silicon Valley Bank, The state of AI industry trends in Europe: Talent drives success, but U.S. funding still crucial, 15 avril 2025
Comme développé précédemment, la France dispose aujourd’hui d’un écosystème de start-up en intelligence artificielle (IA) particulièrement dynamique à l’échelle européenne. Avec 781([458]) ([459]) start-up IA en 2025 (soit une hausse de 27 % en un an), elle devance l’Allemagne (comptant 687 start-up) et capte près de 2,5 % ([460]) des financements mondiaux en IA générative, une part supérieure à son poids économique (2,2 % du PIB mondial). En 2024, les start-up françaises ont levé 1,4 milliard d’euros ([461]), soit près de 50 % des investissements européens dans le secteur. Cette surperformance relative traduit une véritable montée en puissance. Néanmoins, en valeur absolue, la France reste loin des États-Unis (près de 100 milliards de dollars levés ([462]) par leurs start-up IA) et de la Chine, qui font émerger leurs propres géants technologiques.
Malgré un écart de moyens financiers avec les leaders mondiaux, la France parvient à exceller dans certaines niches technologiques stratégiques, où ses start-up occupent parfois une place de leader mondial, qu’il convient de préserver.
Parmi les « champions » français, plusieurs réussites marquantes se distinguent, mais certaines ont été rachetées ou ont partiellement quitté le territoire national.
Ces réussites marquantes illustrent le dynamisme de l’écosystème national, tout en révélant une certaine fragilité face aux logiques de marché mondialisé. Synapse Medicine, fondée en 2016 par Clément Goehr, a su s’imposer dans le domaine de l’intelligence médicamenteuse grâce à une plateforme d’aide à la prescription, sécurisant les traitements pour des milliers de patients et suscitant l’intérêt international : après avoir levé près de 25 M€ ([463]) entre 2019 et 2022, elle a réalisé sa première acquisition aux États‑Unis, tout en conservant son ancrage à Bordeaux.
Dans un tout autre registre, Exotec, créée à Lille en 2015, a révolutionné la logistique grâce à son robot Skypod®, en fournissant des solutions d’automatisation d’entrepôts plus intelligentes, devenant la première licorne industrielle française et exportant ses solutions dans une quinzaine de pays, tout en maintenant sa R&D dans les Hauts‑de‑France. En janvier 2022, après une levée de fonds de 335 millions de dollars, elle est valorisée à 2 milliards de dollars et devient la 25e licorne française ([464]). Dans le secteur agricole, Weenat, fondée à Nantes en 2014, développe des capteurs connectés permettant aux exploitants de mieux gérer l’irrigation et les ressources en fonction des variations du climat ; forte d’une levée de 8,5 M€ en 2024 ([465]), la start‑up affirme avoir permis en 2023 une économie de 32 millions de mètres cubes d’eau (soit environ 12 000 piscines olympiques) grâce à l’utilisation de ses données pour optimiser l’irrigation ([466]).
Ces trajectoires traduisent la capacité de la France à faire émerger des acteurs de premier plan dans des niches stratégiques, mais elles rappellent aussi la nécessité de préserver cet élan face aux risques de rachats ou de délocalisations. Les rachats et relocalisations de start-up européennes révèlent des causes structurelles profondes, bien au‑delà de la simple recherche de profits à court terme.
Les États‑Unis exercent une force d’attraction sans équivalent sur les start-up européennes. En effet, une étude récente montre que 6 % des start-up en moyenne européenne ([467]) (soit 661 sur 11 066 dans 17 pays européens) relocalisent leur siège, générant 17 % de la valeur totale, principalement vers les États-Unis (85 % des relocalisations). La start‑up Pathway, créée à Paris pour proposer une IA adaptative en temps réel, a transféré son siège social en fin 2024 à Menlo Park, tout en maintenant une partie de ses équipes en France.
Face à un écosystème européen fragmenté et des financements publics ou privés encore insuffisants, de nombreux entrepreneurs optent également pour des cessions à l’étranger : le manque de capitaux de croissance en Europe, avec seulement 9 milliards d’euros investis dans l’IA en 2023 contre 62,5 milliards aux États‑Unis ([468]), alimente cette fuite des talents et des technologies. En décembre 2023, Apple a discrètement acquis ([469]) la société parisienne Datakalab, spécialisée en compression d’algorithmes et intelligence artificielle. En avril 2023, la legaltech Doctrine, fondée en 2016, a accepté un rachat majoritaire par le fonds américain Summit Partners (avec Peugeot Invest), pour un montant estimé à plus de 100 M€ ([470]).
Au-delà des délocalisations, selon la Commission européenne ([471]), l’Europe souffre d’un tissu industriel figé, sans création récente de géants technologiques capables de rivaliser à l’échelle mondiale : aucune entreprise européenne de plus de 100 milliards d’euros n’a été fondée ces cinquante dernières années, alors que les États‑Unis ont vu émerger six entreprises dépassant 1 trillion de dollars. Ce manque de dynamisme se traduit par des investissements en recherche et innovation inférieurs de 270 milliards d’euros à ceux des États‑Unis en 2021, ces investissements étant dominés en Europe par l’automobile et non les technologies de rupture.
Si le continent ne manque ni d’idées ni de talents, l’innovation y reste bloquée au stade de la commercialisation, freinée par des réglementations complexes. Cette situation pousse de nombreux entrepreneurs à se tourner vers le financement américain et à délocaliser leur siège : entre 2008 et 2021, près de 30 % ([472]) des licornes européennes ont transféré leur siège hors de l’UE, principalement aux États‑Unis, induisant un déséquilibre préoccupant pour la souveraineté européenne.
L’Europe peine à conserver ou à valoriser sur son sol les startups innovantes, en particulier dans le domaine de l’intelligence artificielle, en raison de plusieurs facteurs structurels qui affectent leur croissance et leur pérennité. Le premier d’entre eux réside dans un déficit massif d’investissements privés. Selon le rapport AI Index 2025 ([473]), les États‑Unis ont enregistré en 2024 un investissement privé en IA de 109,1 milliards de dollars, soit près de douze fois le montant investi par la Chine (9,3 milliards) et vingt‑quatre fois celui du Royaume‑Uni (4,5 milliards). L’écart est encore plus marqué dans le domaine stratégique de l’intelligence artificielle générative : les financements américains y dépassent de 25,4 milliards de dollars l’ensemble cumulé de ceux de la Chine, de l’Union européenne et du Royaume‑Uni, accentuant de 21,8 milliards le déséquilibre observé en 2023. Ce retard structurel en matière de capital-risque prive l’Europe de la masse critique nécessaire pour faire émerger des champions technologiques capables de rivaliser à l’échelle mondiale.
Financement privé dans l’IA par zone géographique en 2024
Source : Banque européenne d’investissement, The scale-up gap Financial market constraints holding back innovative firms in the European Union, Juin 2024.
En outre, l’écosystème européen souffre d’une absence de financements dans les cycles de développement avancés, en particulier les levées de fonds dites de « série D » ([474]) , qui sont décisives pour permettre à des entreprises technologiques de passer du stade de l’innovation à celui de la consolidation industrielle, comme le rapportait Pierre Entremont, CEO du fond Frst à la mission ([475]). Cette carence est aggravée par la faiblesse relative des marchés de capitaux européens. Alors que l’Union européenne ne représente que 11 % des introductions en Bourse (IPO) mondiales, la capitalisation boursière de ses marchés ne s’élève qu’à 55 % du PIB européen, contre 147 % pour les marchés américains ([476]).
Cette situation limite fortement les perspectives de sortie pour les investisseurs et incite de nombreuses start-up prometteuses à opter pour un rachat par des groupes étrangers ou à relocaliser leur siège social hors d’Europe. Ce constat rejoint les analyses du Conseil d’analyse économique (CAE) et du German Council of Economic Experts (GCEE) ([477]), qui ont récemment appelé à un renforcement des marchés de capitaux de l’Union européenne afin de permettre aux entreprises technologiques d’accéder à des financements à grande échelle. Ces travaux insistent notamment sur la nécessité de lever les obstacles structurels qui freinent la capacité des start-up européennes à se financer au stade de la montée en puissance et à concurrencer les acteurs américains ou asiatiques.
Par ailleurs, le cadre réglementaire et administratif européen constitue un frein majeur à l’investissement et au développement des entreprises innovantes. Selon la BEI ([478]), plus de 60 % des entreprises européennes estiment que la réglementation représente un obstacle important à l’investissement, tandis que 55 % ([479]) des petites et moyennes entreprises identifient la charge administrative et les contraintes réglementaires comme leur principale difficulté.
Enfin, ces faiblesses intrinsèques sont exacerbées par la fragmentation persistante du marché unique. La diversité des législations nationales, des langues et des régimes fiscaux complexifie la montée en échelle des start-up au sein de l’Union et freine leur capacité à accéder à un marché de taille critique au niveau mondial. Cette complexité favorise le recours à des stratégies d’acquisitions transfrontalières, où des entreprises étrangères (souvent américaines) rachètent des start-up européennes non pas pour exploiter immédiatement leurs produits ou technologies, mais pour capter leurs équipes et leurs compétences clés. Ces opérations, souvent qualifiées de « talent-hoarding » ou d’« acqui-hire », consistent à intégrer les talents d’une start-up dans une entreprise plus grande, parfois dans une logique défensive visant à empêcher les concurrents d’y accéder. Si ces acquisitions peuvent sembler inoffensives, des travaux récents ([480]) montrent qu’elles entraînent une allocation inefficace des compétences, fragilisent la souveraineté technologique de l’Europe, réduisent le bien-être des consommateurs et accroissent la précarité des emplois pour les salariés concernés.
c. Miser sur des IA spécialisées en complément du développement de l’écosystème européen
Vos rapporteurs soutiennent l’émergence d’acteurs européens compétitifs dans le domaine de l’intelligence artificielle généraliste, par l’intermédiaire du champion français en position de leadership monopolistique en Europe : Mistral AI. Ils reconnaissent également les limites structurelles qui pèsent sur cette ambition. L’écosystème européen des start-up, bien que très dynamique en France, reste insuffisamment développé et protégé à l’échelle de l’Union européenne. La fragmentation du marché unique, la faiblesse des financements de croissance et la prédominance des acteurs américains dans des secteurs connexes (notamment le cloud, où les fournisseurs européens comme OVH ne représentent que 2 % du marché continental) illustrent les obstacles persistants à la consolidation de véritables champions européens.
Dans ce contexte, l’essor rapide d’un acteur comme Mistral AI, qui se positionne comme le seul concurrent européen encore en lice sur le marché mondial des grands modèles de langage (LLM), nourrit un espoir légitime. Néanmoins, cet optimisme doit être tempéré par la réalité des rapports de force mondiaux. Les capacités d’investissement colossales des hyperscalers américains et chinois, conjuguées aux acquisitions régulières de start-up stratégiques européennes, laissent craindre un scénario d’échec ou de rachat compromettrait les perspectives d’autonomie technologique.
Face à cette situation, vos rapporteurs considèrent qu’il est impératif de compléter l’ambition portée par Mistral AI par une stratégie parallèle de développement d’intelligences artificielles spécialisées, afin de garantir la souveraineté numérique européenne dans des domaines d’importance critique. Cette approche consisterait à concentrer les efforts publics et privés sur des secteurs clés, tels que la santé et la défense, en appui au développement d’un modèle généraliste européen dont la trajectoire reste particulièrement exigeante face aux hyperscalers étrangers.
Vos rapporteurs ont longuement débattu de l’orientation stratégique à privilégier. Ils considèrent que la priorité doit rester le soutien à l’émergence de modèles généralistes européens de grande ampleur, en cohérence avec la stratégie nationale et le rôle de Mistral AI. En effet, c’est à ce niveau que se joue aujourd’hui la puissance économique et géopolitique mondiale. Toutefois, le développement d’IA spécialisées présente des atouts qu’il serait imprudent d’ignorer : une meilleure performance sur des cas d’usage précis (santé, défense, droit, énergie), une accessibilité accrue pour des PME, start-up et laboratoires incapables de rivaliser sur les LLM géants, ainsi qu’une forme de souveraineté sectorielle limitant la dépendance à un seul type de technologie.
Vos rapporteurs estiment en définitive que ces deux approches doivent être menées de front. Le soutien à un modèle généraliste européen demeure indispensable pour rester dans la course mondiale, mais le développement d’IA spécialisées constitue un complément stratégique : il permet d’assurer une souveraineté sectorielle, de diversifier les opportunités d’innovation, et de constituer un filet de sécurité face au risque d’échec ou de captation des acteurs émergents par des groupes extra-européens.
Recommandation n° 4 : Face aux fragilités structurelles de l’écosystème européen, à la domination des hyperscalers étrangers, et au risque que n’émerge pas un acteur européen capable de soutenir des modèles généralistes à grande échelle, prévoir une stratégie de repli consistant à concentrer les efforts publics sur le développement d’intelligences artificielles spécialisées dans des domaines critiques (santé, défense, renseignement), afin d’assurer la souveraineté technologique de l’Union européenne dans lesdits secteurs.
Cette option présente plusieurs avantages stratégiques qui méritent d’être soulignés :
– D’abord, elle permettrait de maîtriser les coûts de développement et de déploiement, les modèles de taille réduite nécessitant une puissance de calcul bien moindre que celle exigée par les grands modèles généralistes tels que GPT‑4. Une telle approche éviterait à l’Europe de s’engager dans une course aux infrastructures où les hyperscalers américains et chinois disposent d’une avance considérable ;
– Ensuite, le choix de concentrer les efforts sur des intelligences artificielles spécialisées renforcerait la souveraineté technologique de l’Union européenne là où elle est impérative (défense, santé, industrie, renseignement) en l’absence d’émergence d’un hyperscaler européen qui serait le plus protecteur. Ces IA, intégrées dans des chaînes industrielles, des systèmes de soins ou des dispositifs de sécurité, seraient en mesure d’apporter des réponses directes à des enjeux nationaux et européens majeurs tels que la cybersécurité, la surveillance des infrastructures critiques ou l’analyse géopolitique ;
– Enfin, cette stratégie offrirait l’opportunité de créer des synergies avec les politiques publiques existantes. Les instruments européens, à l’instar d’Horizon Europe, de l’AI Act ou encore de l’initiative GAIA‑X, pourraient être mobilisés afin de prioriser le développement de ces modèles sectoriels, d’accélérer leur adoption et de garantir leur ancrage dans l’écosystème européen.
Cette stratégie ne doit pas exclure l’ambition de soutenir des champions européens sur les LLM généralistes ou le cloud, mais elle constitue un filet de sécurité indispensable pour éviter un effondrement de la souveraineté numérique en cas d’échec ou de captation des acteurs émergents par des groupes extra-européens.
2. Une nécessaire préservation de marchés contestables de l’intelligence artificielle : un enjeu stratégique pour l’Europe
Les évolutions rapides de l’intelligence artificielle (IA), et notamment de l’IA générative, suscitent une vigilance accrue des autorités de concurrence face aux risques de concentration et d’abus de position dominante. Le président de l’Autorité de la concurrence, Benoît Cœuré, alertait dès 2023 sur le fait que l’IA générative « a le potentiel de devenir le musée des horreurs de l’antitrust si on ne fait rien » ([481]). Ce constat fait écho aux pratiques déloyales déjà déployées par le passé par les géants du numérique comme les ventes liées, l’auto‑préférence ([482]) et le verrouillage technologique ([483]), pratiques qui pourraient se renforcer à mesure que l’IA devient un levier central d’innovation et de compétitivité.
L’écosystème européen se trouve confronté à plusieurs défis structurels ([484]) : la domination des hyperscalers étrangers (Amazon, Microsoft, Google), la fragmentation du marché unique, et l’absence d’un acteur européen capable de soutenir durablement des modèles généralistes à grande échelle. Si des initiatives telles que Mistral AI nourrissent un espoir légitime, la bataille mondiale des infrastructures (cloud, processeurs, données) laisse entrevoir un risque de marginalisation technologique de l’Europe.
a. Des barrières à l’entrée élevées et des positions dominantes consolidées
L’avis rendu par l’Autorité de la concurrence le 28 juin 2024 met en lumière un ensemble de risques majeurs pour la dynamique concurrentielle, directement corrélés aux positions dominantes et aux barrières à l’entrée identifiées dans le secteur de l’intelligence artificielle. Ces risques, bien connus dans la littérature économique sur les marchés à effets de réseau et sur les industries numériques, présentent des enjeux importants pour l’innovation et la diversité des acteurs.
En premier lieu, l’Autorité de la concurrence alerte sur le risque d’abus liés aux composants essentiels à la filière, notamment les semi-conducteurs et les puces graphiques de dernière génération. Dans un contexte d’oligopole, où quelques fabricants concentrent l’essentiel des capacités de production, des pratiques telles que l’application de tarifs excessifs, la discrimination tarifaire ou encore l’instauration de restrictions d’accès peuvent émerger. Ces comportements relèvent des théories classiques de l’abus de position dominante ([485]) et risquent d’entraver l’entrée de nouveaux acteurs ou de marginaliser les concurrents existants.
Par ailleurs, le secteur du cloud computing, infrastructure indispensable au déploiement des technologies d’IA, est susceptible de connaître des stratégies de verrouillage (« lock-in »). Les principaux fournisseurs recourent à des crédits cloud massifs pour capter les jeunes entreprises et imposent des obstacles techniques à la migration de services vers des plateformes concurrentes. Ces pratiques rappellent les stratégies de « switching costs » analysées par Farrell et Klemperer (2007), selon lesquelles le coût de changement élevé d’un fournisseur à un autre crée un quasi-monopole une fois le client captif.
Un troisième risque réside dans la captation des données. L’IA dépend de l’accès à des volumes massifs de données variées. Or, certaines pratiques contractuelles – exclusivités ou restrictions anticoncurrentielles – peuvent limiter l’accès des concurrents à ces ressources essentielles, créant une asymétrie informationnelle majeure. La théorie des « marchés bifaces » ([486]) souligne combien le contrôle des données peut devenir un levier d’exclusion concurrentielle, renforçant la position dominante d’un acteur en alimentant un cercle vertueux à son seul bénéfice.
L’Autorité de la concurrence identifie également des pratiques affectant le marché des talents, telles que les accords de non-débauchage ou les stratégies d’acqui-hire (rachat d’entreprises dans le seul but de s’approprier leurs ressources humaines). Ces comportements soulèvent des enjeux de concentration et d’éviction, qui sont particulièrement préoccupants dans un secteur où l’expertise technique constitue une ressource rare.
Enfin, des effets congloméraux apparaissent par le biais de ventes liées et d’auto-préférence des écosystèmes intégrés. Les grands acteurs peuvent favoriser leurs propres produits ou services dans leurs plateformes, au détriment d’offres concurrentes. Ces effets sont analysés dans la littérature comme des formes de leveraging (extension abusive d’une position dominante d’un marché vers un autre) pouvant freiner l’innovation ([487]).
Ces différents éléments appellent une vigilance particulière des autorités de régulation afin d’éviter une concentration excessive du pouvoir économique et de préserver des conditions de concurrence équitables, seules garantes d’un écosystème d’innovation dynamique.
L’IA générative est caractérisée par des barrières à l’entrée particulièrement importantes selon l’Autorité de la concurrence ([488]) :
– La puissance de calcul : L’entraînement des grands modèles d’IA générative repose sur des processeurs spécialisés, principalement les GPU de Nvidia (séries A100, H100, Blackwell) et les TPU de Google, ainsi qu’une infrastructure cloud d’envergure. Selon IoT Analytics ([489]), Nvidia détenait 92 % du marché des GPU pour centres de données en 2024, un ratio similaire à celui de 2023.
Répartition de la part de marché des fournisseurs de l’IA générative par segment (matériel, modèles, services)
Source : IOTAnalytics, The leading generative AI companies, 4 mars 2025.
La pénurie mondiale de composants ([490]) , alimentée par la hausse de la demande entre 2021 et 2023 et associée à la dépendance vis‑à‑vis de solutions propriétaires comme CUDA (Nvidia), renforce la position dominante des acteurs intégrés verticalement.
Le rapport ([491]) de Bain & Company met en garde contre une nouvelle crise des semi-conducteurs alimentée par l’explosion de la demande en IA. L’adoption rapide de l’IA générative fait flamber les besoins en GPU (notamment ceux de Nvidia) et en composants en amont, dont la production devra croître de 30 % ou plus d’ici 2026 pour éviter des goulets d’étranglement. La prolifération d’appareils intégrant l’IA (ordinateurs et téléphones portables) pourrait amplifier la pénurie, rappelant la flambée de demande durant la pandémie.
Pour mesurer le risque de dépendance au sujet de la puissance de calcul, il faut rappeler qu’actuellement, 70 % de la puissance de calcul mondiale pour l’IA est détenue par les États-Unis, dont 80 % ([492]) par les hyperscalers américains. L’Europe ne représente que 4 % de la capacité mondiale et souffre de coûts énergétiques industriels 1,5 à 3 fois plus élevés que ceux des États-Unis.
– Les données : les modèles de fondation nécessitent des volumes massifs de données, souvent issues d’Internet. L’accès privilégié des GAFAM à des contenus stratégiques (YouTube ([493]) pour Google, Reddit ([494]) pour OpenAI via un accord exclusif, X pour xAI) crée un avantage concurrentiel difficilement réplicable.
– Les talents : les compétences en apprentissage profond et en machine learning sont rares et concentrées dans quelques centres d’excellence, ce qui facilite les pratiques d’« acqui‑hire » ([495]) et le recrutement massif par les hyperscalers de capital humain élevé, induisant un brain drain pour le reste du monde, et l’Europe en particulier.
– Les financements : Selon le rapport AI Index 2025 ([496]), les États‑Unis ont enregistré en 2024 un investissement privé en IA de 109,1 milliards de dollars, soit près de douze fois le montant investi par la Chine (9,3 milliards) et vingt‑quatre fois celui du Royaume‑Uni (4,5 milliards).
Chaîne de valeur de l’intelligence artificielle générative
Source : Autorité de la concurrence, Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur de l’intelligence artificielle générative, 28 juin 2024.
Ces facteurs, combinés à l’intégration verticale et conglomérale des grandes plateformes, leur confèrent des économies d’échelle et des effets de réseau qui alimentent un cercle vicieux : les données issues des utilisateurs enrichissent leurs modèles, renforçant leur attractivité et capturant toujours plus d’entreprises utilisatrices.
b. Les risques concurrentiels identifiés par l’Autorité de la concurrence
L’avis rendu par l’Autorité de la concurrence le 28 juin 2024 ([497]) met en lumière un ensemble de risques majeurs pour la dynamique concurrentielle, directement corrélés aux positions dominantes et aux barrières à l’entrée identifiées dans la partie précédente ([498]), dans le secteur de l’intelligence artificielle. Ces risques, bien connus dans la littérature économique sur les marchés à effets de réseau et sur les industries numériques, présentent des enjeux importants pour l’innovation et la diversité des acteurs.
En premier lieu, l’Autorité alerte sur le risque d’abus liés aux composants informatiques essentiels à la filière, notamment les semi-conducteurs et les puces graphiques de dernière génération. Le marché des GPU est aujourd’hui fortement concentré autour de NVIDIA, qui détient une position quasi-monopolistique à hauteur de 92 % ([499]) de parts de marché, niveau situé bien au-delà du seuil défini comme présomptif de dominance selon l’article 102 du traité sur le fonctionnement de l’Union européenne (TFUE) et la jurisprudence européenne ([500]).
Dans ce contexte quasi-monopolistique, des pratiques telles que l’application de tarifs excessifs, la discrimination tarifaire ou encore l’instauration de restrictions d’accès peuvent émerger. Ces comportements relèvent des théories classiques de l’abus de position dominante ([501]) et risquent d’entraver l’entrée de nouveaux acteurs ou de marginaliser les concurrents existants.
D’ailleurs, le Département de la Justice (DOJ) américain enquête ([502]) actuellement sur Nvidia pour d’éventuelles violations antitrust. Le DOJ, cherche à déterminer si Nvidia, devenu la première capitalisation boursière (plus de 3 000 milliards de dollars) ([503]), abuse de sa position dominante, notamment via des clauses contractuelles restrictives ou des pratiques qui faussent la concurrence (ex. pratiques qui empêcheraient des concurrents d’émerger ou permettraient de maintenir des prix élevés ([504])).
Dans le même temps, la Federal Trade Commission (FTC) ([505]) a pris en charge l’enquête sur Nvidia, Microsoft et OpenAI pour examiner leurs pratiques. Ces deux enquêtes s’inscrivaient dans une offensive plus large de l’administration Biden visant à réguler les géants technologiques tout en protégeant la position des États-Unis face à la Chine (interdiction d’exportation de certaines puces Nvidia vers ce pays).
Depuis janvier 2025, sous la présidence de Donald Trump, le DOJ ([506]) poursuit son enquête antitrust sur Nvidia, tandis que la FTC continue d’examiner les liens entre Microsoft et OpenAI. Ce renforcement de la surveillance s’inscrit dans une stratégie globale de contrôle des géants technologiques, désormais couplée à une politique d’exportations ajustée ([507]), permettant la reprise des exportations des puces H20 vers la Chine, sous des conditions liées aux terres rares. Des concurrents ([508]) comme AMD (Instinct MI300X) et Intel (Gaudi 3), ainsi que des startups comme Cerebras Systems, tentent de se faire une place, mais restent loin derrière.
Par ailleurs, le secteur du cloud computing, infrastructure indispensable au déploiement des technologies d’IA, est susceptible de connaître des stratégies de verrouillage (« lock-in »). L’Autorité de la concurrence ([509]) relève que plusieurs pratiques de verrouillage financier et technique, déjà mises en lumière dans l’avis n° 23-A-08 relatif au cloud ([510]), semblent non seulement persister mais également s’intensifier, dans le but d’attirer un nombre croissant de start-up actives dans le domaine de l’IA générative. Les principaux fournisseurs recourent à des crédits cloud massifs pour capter les jeunes entreprises et imposent des obstacles techniques à la migration de services vers des plateformes concurrentes. Ces pratiques ont été à plusieurs reprises dénoncées par les entreprises utilisatrices de ces services à l’occasion des auditions menées dans le cadre de la mission d’information. Ces pratiques rappellent les stratégies de « switching costs » ([511]), selon lesquelles le coût de changement élevé d’un fournisseur à un autre crée un quasi-monopole une fois le client captif.
L’Autorité de la concurrence rappelle à cet égard que ces comportements pourraient être qualifiés d’abus de position dominante. Certaines de ces pratiques font par ailleurs l’objet d’un encadrement spécifique en vertu de la loi n° 2024‑449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (loi SREN), sur laquelle l’Autorité s’était déjà prononcée, ainsi que du règlement européen sur les données (Data Act).
Aux États-Unis, la Federal Trade Commission a ouvert une enquête sous la section 6 (b) du FTC Act, visant à analyser les partenariats entre les principaux fournisseurs cloud (Alphabet, AWS, Microsoft) et les grands acteurs de l’IA (OpenAI, Anthropic). Un rapport ([512]) de la FTC de janvier 2025 conclut à l’existence d’un risque avéré de verrouillage (lock-in) et de concentration des avantages au bénéfice des grands fournisseurs de service cloud (Cloud service provider, CSP), proposant que ces éléments soient surveillés attentivement et informant de futures décisions de régulation.
Les services de type Model as a Service (MaaS), qui permettent d’accéder aux modèles d’IA générative via le cloud, constituent un levier stratégique majeur pour la diffusion de ces technologies. Leur développement s’appuie directement sur des infrastructures critiques telles que les capacités de calcul et les centres de données. Cette position leur confère un pouvoir de marché susceptible d’être utilisé pour verrouiller l’accès à l’innovation et évincer des concurrents émergents.
Dans cette perspective, la Commission européenne devrait accorder une attention particulière au développement des services permettant l’accès aux modèles d’IA générative dans le cloud (connus sous l’appellation anglaise Model as a Service ou MaaS).
Les rapporteurs s’inscrivent, à cet égard, dans le prolongement de l’avis rendu par l’Autorité de la concurrence ([513]), qui recommandait d’évaluer l’opportunité de qualifier certains acteurs du MaaS de contrôleurs d’accès (gatekeepers) au sens du règlement européen sur les marchés numériques (Digital Markets Act – DMA). Une telle désignation permettrait de soumettre ces acteurs à des obligations spécifiques, afin de prévenir de manière précoce des comportements problématiques identifiés précédemment, tels que les pratiques de verrouillage ou d’éviction.
Recommandation n° 5 : Inviter la Commission européenne à surveiller le développement des services d’intelligence artificielle accessibles à distance (Model as a Service) et, si les critères du règlement sur les marchés numériques (DMA) sont réunis, envisager la désignation de certains fournisseurs comme contrôleurs d’accès afin de garantir un accès équitable au marché.
Un troisième risque réside dans la captation des données. L’IA dépend de l’accès à des volumes massifs de données variées. Or, certaines pratiques contractuelles (exclusivités ([514]) ou restrictions anticoncurrentielles) peuvent limiter l’accès des concurrents à ces ressources essentielles, créant une asymétrie informationnelle majeure. La théorie des « marchés bifaces » ([515]) souligne combien le contrôle des données peut devenir un levier d’exclusion concurrentielle, renforçant la position dominante d’un acteur en alimentant un cercle vertueux à son seul bénéfice.
L’Autorité de la concurrence identifie également des pratiques affectant le marché des talents, telles que les accords de non-débauchage (« no-poach agreements ») ou les stratégies d’acqui-hire ([516]) (rachat d’entreprises dans le seul but de s’approprier leur capital humain).
Les accords de non‑débauchage, qui limitent la mobilité des salariés entre entreprises concurrentes, ont déjà fait l’objet d’importantes sanctions aux États‑Unis. Dans l’affaire High‑Tech Employee Antitrust Litigation ([517]) (2011‑2015), des géants tels qu’Apple, Google et Intel ont versé 415 millions de dollars pour solder les accusations de pactes secrets visant à geler les salaires et restreindre le recrutement mutuel de talents ([518]). Une étude empirique récente ([519]) estime qu’une telle pratique a entraîné une baisse moyenne de 6 % des rémunérations dans le secteur technologique.
Par ailleurs, les « acqui‑hires », acquisitions ciblées destinées essentiellement à absorber des équipes qualifiées, tendent à se multiplier dans l’écosystème de l’IA. Ainsi, le rachat partiel d’Inflection AI par Microsoft en 2024 a principalement consisté à recruter ses dirigeants et ingénieurs, plutôt qu’à intégrer ses technologies ([520]). Ces stratégies présentent un double risque : elles accentuent la concentration des talents au sein des leaders du marché et freinent l’émergence de nouveaux acteurs innovants. Une analyse récente ([521]) souligne que ces opérations peuvent provoquer un désinvestissement en innovation et limiter la concurrence sur des marchés en forte croissance.
Enfin, des effets congloméraux apparaissent par le biais de ventes liées et d’auto-préférence des écosystèmes intégrés. Les grands acteurs peuvent favoriser leurs propres produits ou services dans leurs plateformes, au détriment d’offres concurrentes. Ces effets sont analysés dans la littérature comme des formes de leveraging (extension abusive d’une position dominante d’un marché vers un autre) pouvant freiner l’innovation ([522]). Par exemple, selon une étude du NBER ([523]), Amazon favorise systématiquement ses propres produits, comme Amazon Basics, dans les résultats de recherche, les plaçant entre 30 % et 60 % plus haut que des produits similaires proposés par des vendeurs tiers. Dans le même esprit, l’Union européenne a condamné Google Shopping ([524]) pour avoir favorisé son propre service dans les résultats de recherche, estimant qu’il s’agissait d’un abus autonome de position dominante.
c. Un cadre réglementaire à adapter pour préserver des marchés contestables
Ces dynamiques décrites dans la partie précédente appellent une vigilance renforcée des autorités de régulation, car elles menacent l’équilibre et la vitalité de l’écosystème européen des start-up. Les stratégies de verrouillage (crédits cloud massifs, obstacles techniques à la migration, captation des talents par les hyperscalers) font peser un risque d’asphyxie sur le tissu entrepreneurial européen en quête de protection.
Alors que l’Europe dispose de start-up prometteuses et de talents reconnus, comme en témoigne l’émergence de Mistral AI, elle se trouve confrontée à une inégalité des armes face à des hyperscalers qui bénéficient de ressources financières illimitées, d’effets de réseau massifs et d’un pouvoir d’éviction croissant.
Si des instruments comme le règlement sur les marchés numériques (Digital Markets Act – DMA ([525]) ([526])) ont amorcé une régulation ex ante des gatekeepers (gardes-barrières), vos rapporteurs considèrent que leur mise en œuvre demeure longue et insuffisante pour contenir des pratiques d’éviction rapides et systémiques, typiques du domaine de l’intelligence artificielle. Dans ce contexte, l’Union européenne doit adapter son cadre concurrentiel avec une double exigence : renforcer la répression des comportements abusifs des acteurs dominants, tout en assouplissant certaines règles pour permettre l’émergence d’acteurs européens compétitifs. Ce double mouvement est indispensable pour favoriser l’émergence de champions locaux et préserver la souveraineté numérique de l’Europe.
i. Application stricte du droit de la concurrence aux acteurs en position dominante à l’échelle mondiale
La consolidation des hyperscalers américains s’appuie largement sur deux stratégies convergentes en Europe ([527]): les killer acquisitions, qui consistent à neutraliser des startups prometteuses avant qu’elles ne deviennent concurrentielles, et les acqui-hires, qui visent à absorber des équipes entières de développeurs ou de chercheurs pour priver l’écosystème local de ses talents. Ces deux dynamiques, bien que différentes, aboutissent au même résultat : l’étouffement progressif de l’innovation européenne et le renforcement des positions dominantes extra-européennes.
Pour contrer ces effets, l’Union européenne s’est dotée d’armes concurrentielles via les DMA.
Ce que prévoit le DMA en matière de concentrations (article 14 ([528]))
Toute entreprise désignée comme contrôleurs d’accès ou gatekeeper ([529]) (Alphabet, Amazon, ByteDance, Meta, Microsoft, Booking ([530])) a une obligation de notification préalable pour toute concentration, même si cette concentration ne franchit pas les seuils des concentrations prévus par le règlement européen sur les concentrations (Règlement européen n° 139/2004) dont le contrôle est de la compétence de la Commission européenne, ou ne relève pas des seuils nationaux de notification. Cela inclut l’acquisition d’une autre entreprise, qu’elle soit petite ou grande. Concrètement, le contrôleur d’accès doit informer la Commission européenne au plus tard lors de la conclusion de l’accord (ou du dépôt d’une offre publique d’achat) de toute concentration impliquant une autre entreprise fournissant des services dans le secteur numérique ou de collecte de données. Dans la définition des entreprises soumises à ce contrôle, le règlement DMA prend en considération les chiffres d’affaires réalisés dans l’Union européenne, mais aussi, de manière distincte, la fourniture d’un service de plateforme essentiel qui constitue un point d’accès majeur permettant aux entreprises utilisatrices d’atteindre leurs utilisateurs finaux.
Toutefois, vos rapporteurs saluent cette obligation de notification pour les contrôleurs d’accès, considérant qu’il s’agit d’une mesure protectrice contre les killers acquisitions dans le secteur du numérique. Toutefois, deux bémols doivent, à l’évidence, être apportés en ce qui concerne l’efficacité de cette législation : d’une part, elle ne vise que les entreprises considérées comme contrôleurs d’accès et, d’autre part, ne donne pas lieu à une autorisation ou interdiction automatique ; la Commission européenne peut seulement décider d’ouvrir une enquête. Or, beaucoup d’acteurs puissants n’ayant pas le statut de contrôleur d’accès peuvent aussi racheter des start-up dans des secteurs stratégiques comme l’IA ou le cloud (exemple : Nvidia ou OpenAI rachetant une entreprise d’IA européenne, ou des acteurs chinois entrant dans le cloud). Ces opérations échappent souvent au contrôle classique des concentrations, car les seuils financiers (chiffre d’affaires, parts de marché) ne sont pas atteints.
Pour aller plus loin, l’UE devrait instaurer un régime de notification obligatoire de toutes les acquisitions et prises de participation par des acteurs non européens, même en l’absence d’un contrôleur d’accès partie prenante et sans seuil minimal, dans les secteurs stratégiques de l’IA et du cloud. Une telle mesure viserait à prévenir la captation d’entreprises innovantes européennes par des groupes extra-européens, susceptibles de compromettre la contestabilité des marchés et l’autonomie technologique européenne. Ce régime s’inscrirait dans la continuité et dans une forme de généralisation des mécanismes de filtrage des investissements étrangers ([531]) ([532]) mis en place au niveau européen et dans plusieurs États membres, pour les domaines spécifiques du cloud et de l’IA, tout en complétant les dispositifs existants fondés sur la valeur des transactions déjà en vigueur en Allemagne et en Autriche ([533]).
Conscients qu’il s’agit d’une atteinte à la liberté d’établissement et à la circulation des capitaux, vos rapporteurs estiment que cette obligation ciblée sur les acteurs non-européens peut être justifiée par des motifs d’ordre public, de sécurité publique et de souveraineté numérique.
Les seuils actuels du contrôle des concentrations au niveau européen sont largement inadaptés aux killer acquisitions dans l’IA, le cloud ou les semi-conducteurs ([534]). Selon le règlement CE 139/2004 ([535]), une notification à la Commission européenne est obligatoire uniquement si le chiffre d’affaires mondial des parties dépasse 5 milliards d’euros et leur chiffre d’affaires dans l’UE atteint au moins 250 M€ chacun ([536]). Ces critères ne captent pas les acquisitions de start-up prometteuses dont le chiffre d’affaires est faible, mais dont le prix d’achat peut être élevé ([537]). Les opérations de type acqui‑hire ou rachat ciblant un petit développeur d’IA, a fortiori, souvent structuré autour d’un noyau d’ingénieurs ou d’une technologie prometteuse, ne génèrent pas de chiffre d’affaires significatif. Ces partenariats ou acquisitions d’équipes « ne sont pas structurés comme des opérations traditionnelles de M&A » ([538]) et échappent donc au contrôle européen.
Un examen ex post par le biais du mécanisme national de renvoi (article 22 du règlement précité) reste insuffisant : il requiert l’initiative des États membres et ne garantit ni couverture systématique, ni prise en compte proactive de l’autonomie stratégique européenne. En outre, la portée de cet article a été réduite par l’arrêt récent Illumina/ GRAIL. Avant Illumina/GRAIL ; ainsi, l’article 22 était vu comme un outil flexible pour contrôler les petites acquisitions stratégiques (comme dans l’IA) ([539]), mais l’arrêt a resserré les conditions d’utilisation : désormais, si aucun État membre n’a compétence nationale, il est impossible de demander à la Commission européenne de contrôler l’opération, même si elle présente des risques pour la concurrence.
En Allemagne et en Autriche, un seuil fondé sur la valeur de la transaction complète le critère du chiffre d’affaires. En Allemagne (§ 35 GWB ([540])), une opération est notifiable si le prix d’achat excède 400 millions d’euros, même si la cible réalise moins de 50 millions d’euros de chiffre d’affaires, à condition que cette cible ait des activités significatives dans le pays ; en Autriche (§9 KartG ([541])), ce seuil est fixé à 200 millions euros ([542]) ([543]). Ce dispositif a pour objectif de détecter les acquisitions prédatrices dirigées contre des entreprises innovantes.
Toutefois, l’application par les autorités a été récemment restreinte : la jurisprudence allemande considère désormais que ces seuils ne s’appliquent que lorsque le chiffre d’affaires ne reflète pas le potentiel du marché (par exemple, les produits dans des marchés « matures ») ([544]). Ces évolutions montrent à la fois la pertinence du concept, mais aussi ses limites pratiques, confirmant la nécessité d’un régime européen plus ambitieux et systématique, sans seuils exclusifs, afin de garantir la sauvegarde de l’autonomie technologique et la compétitivité du marché unique.
Le contrôle des concentrations en France
En France, l’'Autorité de la concurrence ne dispose pas aujourd’hui d’un mécanisme automatique pour contrôler les opérations « below-threshold », c’est-à-dire les acquisitions stratégiques de petites cibles à fort potentiel mais à faible chiffre d’affaires. Le régime français exige le respect de seuils cumulatifs (chiffre d’affaires mondial supérieur à 150 M€, chiffre d’affaires en France supérieur à 50 M€ pour au moins deux parties ([545])) pour déclencher une notification ; il n’existe aucun seuil basé sur la valeur de la transaction comme en Allemagne ou en Autriche.
En réaction à l’arrêt Illumina/GRAIL([546]), qui a restreint l’usage de l’article 22 du règlement européen sur les concentrations, l’Autorité de la concurrence a mené une consultation publique ([547]) début 2025 pour envisager l’introduction de pouvoirs de « call‑in » (capacité à saisir des marchés non notifiables sous certaines conditions) ou d’un mécanisme de notification basé sur l’existence d’un statut de contrôleur d’accès ou d’une forte position sur le marché ([548]). Aucune réforme n’a cependant été adoptée à ce jour.
En parallèle, la France envisage une hausse des seuils de notification ([549]) (chiffre d’affaires mondial à 250 M€, chiffre d’affaires en France à 80 M€), dont l’adoption est envisagée pour début 2026 (en cas de réussite de la commission mixte paritaire relative au projet de loi simplification de la vie ([550]) économique qui contient ces mesures).
Recommandation n° 6 : Mettre en place, au niveau européen, ou à défaut au niveau national, une obligation de notification pour tout rachat ou prise de participation par un acteur non européen dans les secteurs de l’intelligence artificielle et du cloud, incluant les opérations de type acqui-hire, afin de mieux protéger l’écosystème européen.
Une telle mesure viendrait combler les limites des dispositifs existants. En effet, le Digital Markets Act (DMA) prévoit déjà un régime de notification obligatoire pour les acquisitions opérées par les contrôleurs d’accès, mais ce dispositif reste circonscrit aux seules entreprises désignées comme telles et ne cible pas spécifiquement des secteurs stratégiques tels que l’intelligence artificielle et le cloud. Or, ces secteurs concentrent une part essentielle de l’innovation et des données, tout en demeurant particulièrement vulnérables à des stratégies d’acquisitions prédatrices par des acteurs extra-européens. Ces opérations, souvent de faible montant et réalisées à un stade précoce du développement des entreprises cibles, échappent fréquemment aux seuils du règlement européen sur les concentrations.
Par ailleurs, comme l’a souligné Jean Tirole ([551]), prix Nobel d’économie, l’efficacité des mécanismes de contrôle actuels est limitée par la charge de la preuve, qui repose quasi exclusivement sur l’autorité de concurrence. Cette situation incite les entreprises dominantes à procéder à des acquisitions préventives (killer acquisitions et acquire-hire), car il est extrêmement difficile d’établir, a posteriori, leur impact anticoncurrentiel. Pour y remédier, Jean Tirole suggère d’inverser la charge de la preuve lorsque l’opération intervient à un stade précoce de la vie de l’entreprise cible. L’acquéreur serait alors tenu de démontrer, à l’appui d’éléments tels que des tendances technologiques ou des données de marché, que l’opération présente un caractère proconcurrentiel.
Recommandation n° 7 : Instaurer un mécanisme d’inversion de la charge de la preuve pour les acquisitions précoces dans les secteurs de l’intelligence artificielle et du cloud par des acteurs non-européens, afin d’imposer à l’acquéreur de démontrer le caractère proconcurrentiel de l’opération.
En complément, vos rapporteurs considèrent nécessaires d’encadrer davantage les stratégies d’acqui-hire, qui se révèlent particulièrement répandues dans le domaine de l’IA.
L’affaire récente Microsoft/Inflection ([552]) a mis en lumière une pratique en plein essor dans le secteur technologique : les stratégies d’acqui-hire, consistant à recruter en bloc les équipes d’une entreprise concurrente, souvent dans le but de capter leur savoir-faire et leur expertise. Si ces opérations n’impliquent pas nécessairement l’acquisition d’actifs matériels ou de parts de marché, leur effet économique peut s’apparenter à une concentration, avec des conséquences significatives pour l’écosystème d’innovation.
L’affaire Microsoft/Inflection ([553]), dans laquelle Microsoft a engagé la quasi-totalité des équipes d’une start-up d’IA pour 650 millions de dollars, a révélé les limites du cadre actuel de contrôle des concentrations : malgré des effets assimilables à un transfert de position de marché, la Commission européenne n’a pu examiner l’opération, faute pour Inflection de franchir les seuils de chiffre d’affaires du règlement (CE) n° 139/2004. La tentative de recours à l’article 22 du même règlement a été bloquée par l’arrêt Illumina/Grail de la Cour de justice, obligeant les autorités nationales ayant sollicité une révision à retirer leurs demandes. Cette situation interroge sur l’opportunité de renforcer les outils existants, fondés principalement sur le chiffre d’affaires, en élargissant les règles de notification aux opérations impliquant une absorption massive de talents dans des secteurs stratégiques, afin de prévenir les risques de verrouillage concurrentiel et d’entrave à l’innovation.
Certains États membres (Danemark, Irlande, Italie, Suède ([554])) se sont dotés de pouvoirs d’évocation (« call-in ») pour examiner des opérations ne remplissant pas les critères habituels de notification. Toutefois, l’application de ces mécanismes demeure fragmentée et insuffisante face aux enjeux transnationaux.
Recommandation n° 8 : Étendre le contrôle des concentrations au niveau national et européen aux stratégies d’acqui-hire dans le secteur stratégique de l’intelligence artificielle.
Enfin, à droit constant, il apparaît nécessaire de renforcer la transparence concernant les prises de participations minoritaires par les grandes plateformes numériques. Ces opérations, bien qu’elles ne nécessitent pas de contrôle au sens du règlement européen sur les concentrations, peuvent néanmoins permettre à des acteurs dominants d’exercer une influence stratégique sur des entreprises innovantes ou concurrentes potentielles, voire d’entraver leur développement.
La Commission européenne dispose déjà, à l’article 14 ([555]) du règlement sur les marchés numériques (Digital Markets Act – DMA), d’un outil de notification ex ante concernant certaines acquisitions réalisées par des contrôleurs d’accès dans le secteur numérique. Toutefois, ce mécanisme ne couvre pas explicitement les prises de participations minoritaires, qui échappent ainsi à toute analyse concurrentielle préalable.
L’élargissement de ce dispositif permettrait de détecter plus en amont des stratégies d’éviction déguisées, consistant pour les géants du numérique à prendre des participations financières dans des entreprises émergentes afin de verrouiller l’accès à des technologies critiques ou de neutraliser des concurrents potentiels. Une telle mesure contribuerait à préserver la contestabilité des marchés numériques et à limiter les effets de verrouillage observés dans certains écosystèmes dominés par les GAFAM.
Recommandation n° 9 : À l’occasion de l’obligation d’information des concentrations prévue à l’article 14 du DMA, prévoir que les contrôleurs d’accès (« gatekeepers ») transmettent également à la Commission européenne la liste de leurs participations minoritaires dans des entreprises du même secteur que la cible, afin de permettre une détection plus précoce des stratégies d’éviction (Autorité de la concurrence([556])).
Les infrastructures technologiques (capacités de calcul, centres de données, ensembles de données d’entraînement) constituent des goulots d’étranglement stratégiques pour le développement des modèles d’IA ([557]). Or, la détention de ces ressources ([558]) par un nombre restreint d’acteurs crée un risque de verrouillage des marchés européens et de fragilisation de la souveraineté technologique de l’Union européenne.
Dans ce contexte, une évolution de la doctrine européenne des infrastructures essentielles (dite essential facilities doctrine ([559])) apparaît nécessaire. Cette doctrine permet, en droit de la concurrence, d’imposer à un acteur dominant de donner accès à une infrastructure lorsqu’elle est indispensable à l’activité de concurrents. La jurisprudence européenne a récemment ouvert la voie à un assouplissement ([560]) de cette doctrine : dans l’affaire Android Auto (CJUE, février 2025), la Cour de justice de l’UE ([561]) a jugé qu’il n’était plus nécessaire de démontrer que l’infrastructure était absolument irremplaçable, ni que le refus d’accès avait un effet d’élimination sur la concurrence. Désormais, il suffit que ce refus limite significativement la capacité d’un concurrent à se développer pour justifier une intervention au titre de l’article 102 du TFUE.
Cette évolution autorise de facto à considérer les ressources technologiques stratégiques (GPU de dernière génération, clouds souverains, API d’IA générative) comme des éléments critiques pouvant être soumis à une obligation d’accès pour prévenir les pratiques d’éviction.
Considérant ces récentes évolutions jurisprudentielles européennes, vos rapporteurs estiment nécessaire d’adapter la doctrine européenne des infrastructures essentielles afin d’imposer un accès ouvert et non discriminatoire à ces ressources pour les acteurs européens. Une évolution de l’article 102 du TFUE codifiant une telle doctrine serait également bienvenue.
Recommandation n° 10 : Élargir la doctrine des infrastructures essentielles développée par la Commission européenne, afin de garantir à tous les acteurs un accès équitable aux ressources critiques du secteur (GPU de dernière génération, clouds souverains, API d’IA générative).
L’efficacité du droit européen de la concurrence souffre d’une temporalité inadaptée aux cycles d’innovation numérique. Les procédures, qui s’étalent sur plusieurs années, aboutissent trop souvent à des sanctions tardives, sans effet correctif réel, constat formulé dès 2019 par l’inspection générale des finances ([562]). Une étude récente de la DG COMP ([563]) révèle également que les délais actuels (jusqu’à 45 mois pour les décisions d’interdiction) rendent la répression trop lente pour les marchés numériques, où les effets de verrouillage sont rapides et durables. Bien que la Commission européenne dispose d’un outil théorique, les mesures conservatoires prévues à l’article 8 du règlement 1/2003, celui-ci reste rarement mobilisé, sauf exception, notamment dans l’affaire Broadcom en 2019 ([564]). Or, comme le souligne Carla Farinhas ([565]), la dynamique nouvelle impulsée par le Digital Markets Act (DMA) et ses pouvoirs provisoires conférés à la Commission européenne (article 24) devrait également irriguer l’application du droit de la concurrence, afin de revitaliser ces mesures conservatoires dans le contexte numérique. La doctrine plaide ainsi pour un recours plus fréquent et adapté à ces outils, afin d’assurer une protection effective des objectifs concurrentiels dans des marchés caractérisés par des effets de réseau et une rapidité d’évolution accrue.
Face à l’inertie procédurale constatée dans l’application du droit de la concurrence aux marchés numériques, vos rapporteurs conviennent qu’il faudrait doter la DG COMP d’un mécanisme de « procédure accélérée IA » pour s’adapter pleinement à la temporalité de ce marché si spécifique. Là où les mesures conservatoires s’apparentent à un gel provisoire en attendant la décision finale dans une affaire d’abus de position dominante, cette nouvelle procédure accélérée permettrait à la Commission européenne de traiter rapidement une affaire et d’adopter une décision au fond. Vos rapporteurs ont conscience qu’il s’agit d’une réforme lourde car elle impliquerait de revoir les garanties procédurales des entreprises.
Recommandation n° 11 : Créer une procédure accélérée de contrôle concurrentiel spécifique à l’IA et au numérique, intégrée à l’Autorité de la concurrence
Parallèlement, au vu des risques concurrentiels et des enjeux d’indépendance technologique qui se posent, un durcissement du régime des sanctions en matière de droit de la concurrence serait également opportun. Les conclusions d’une étude récente de la DG COMP sur l’effectivité des recours antitrust ([566]) montrent que les remèdes financiers seuls sont souvent inefficaces pour corriger les déséquilibres du marché. Les sanctions comportementales, qui imposent à l’entreprise dominante de modifier certaines pratiques (par exemple, l’obligation de cesser des discriminations d’accès), demeurent la réponse privilégiée par les autorités. Pourtant, elles ne permettent pas de restaurer la concurrence dans plus de la moitié des cas. À l’inverse, les remèdes structurels (divestments), consistant à obliger une entreprise à céder des actifs ou des filiales afin de réorganiser le marché, sont certes plus rares mais se révèlent nettement plus efficaces.
Dans ce contexte, vos rapporteurs estiment nécessaire de renforcer également l’arsenal répressif afin d’assurer une dissuasion crédible, s’inscrivant ainsi pleinement dans la continuité des recommandations scientifiquement étayées de la DG COMP et de la doctrine ([567]), en combinant sanctions plus fortes et remèdes structurels, pour garantir une restauration rapide et durable de la contestabilité des écosystèmes numériques dominés.
Les travaux économiques et juridiques récents soulignent les limites de l’arsenal sanctionnateur actuel en matière de concurrence, notamment face aux entreprises numériques disposant d’un pouvoir de marché. En effet, le plafond des amendes, aujourd’hui fixé à 10 % du chiffre d’affaires mondial par le règlement 1/2003 ([568]), ne suffit pas toujours à dissuader les comportements anticoncurrentiels. Plusieurs études ([569]) ([570]) démontrent que ces entreprises tendent à internaliser le coût des amendes comme une charge d’exploitation ordinaire, poursuivant leurs stratégies illicites dès lors que les gains attendus excèdent le risque financier encouru. Dans ce contexte, vos rapporteurs portent l’idée d’un relèvement du plafond des amendes à 20 % pour les récidivistes, comme le recommande une partie de la doctrine souhaitant une augmentation de la pression financière ([571]) ([572]), afin de restaurer une véritable dissuasion et d’adapter le régime aux enjeux des marchés numériques.
Recommandation n° 12 : Renforcer l’efficacité de l’arsenal concurrentiel en relevant le plafond des amendes à 20 % pour les récidivistes et en privilégiant les remèdes structurels dans les cas de pouvoir de marché durable.
Parallèlement, les analyses empiriques sur l’efficacité des remèdes correctifs mettent en évidence les limites des sanctions comportementales, largement privilégiées mais inefficaces dans plus de la moitié des cas, et la supériorité des remèdes structurels ([573]) (tels que des cessions ciblées d’actifs ou l’ouverture d’accès à des API et données stratégiques). Ces derniers, plus intrusifs, permettent une remise à niveau effective de la structure du marché et favorisent une concurrence réelle et pérenne. Cette approche a d’ailleurs inspiré des textes récents comme le Digital Markets Act (DMA), qui consacre de tels outils face aux plateformes dominantes.
Les remèdes comportementaux et structurels dans le Digital Markets Act (DMA)
Le Digital Markets Act (DMA) ([574]), entré en vigueur le 6 mars 2024, consacre une approche proactive pour réguler les plateformes désignées comme contrôleurs d’accès (gatekeepers) ([575]). Il repose principalement sur :
- des obligations comportementales (behavioral remedies) prévues aux articles 5 et 6, qui imposent directement aux contrôleurs d’accès (gatekeepers) d’adopter ou d’abandonner certaines pratiques (par exemple, interdiction d’auto-préférence, obligation d’interopérabilité des services, interdiction de combiner les données d’utilisateurs sans consentement explicite). Ces mesures visent à corriger les déséquilibres concurrentiels tout en laissant intacte la structure de l’entreprise ;
- des remèdes structurels (structural remedies), plus intrusifs, prévus par l’article 18 (2). En cas de non‑respect systématique des obligations du règlement (violation d’au moins trois obligations distinctes en huit ans), la Commission européenne peut imposer des mesures structurelles, telles que la cession d’actifs ou la séparation d’activités, lorsque des solutions comportementales se sont révélées insuffisantes pour garantir une concurrence effective.
Cette articulation illustre un changement de paradigme par rapport au droit antitrust classique : le DMA ne se limite pas à sanctionner a posteriori, mais cherche à prévenir les pratiques anticoncurrentielles et, si nécessaire, à remodeler la structure des marchés numériques pour rétablir une dynamique concurrentielle pérenne.
Source : Travaux de la mission.
Enfin, de manière plus structurelle, des auteurs tels que Jasper van den Boom ([576]) soulignent que les outils actuels de sanction ex post sont inadaptés et appellent à un recalibrage du « design des remèdes », pour restaurer la concurrence de manière effective dans des marchés dominés par les grandes plateformes. Dans la même lignée, la commission pour l’intelligence artificielle ([577]) rappelle qu’« à moyen terme, il convient d’envisager un changement de doctrine de la politique de concurrence, en passant d’un système statique (quelles parts de marché détient aujourd’hui cette entreprise ?) à une vision dynamique (quelles parts de marché pourraient demain détenir cette entreprise et quelles entreprises pourraient demain entrer sur ce marché ?), permettant d’anticiper les concentrations plutôt que d’attendre de pouvoir les constater ».
Ces trois leviers – accélérer les procédures, renforcer le cadre répressif et repenser structurellement l’architecture globale du droit de la concurrence au niveau européen – apparaissent complémentaires pour répondre aux défis posés par les marchés numériques en matière de concurrence.
ii. Assouplissement du cadre réglementaire pour protéger l’écosystème européen d’intelligence artificielle
Dans une démarche convergente, en juillet 2024, les chefs des autorités antitrust de l’Union européenne, du Royaume-Uni et des États-Unis ont pris un engagement commun pour garantir des marchés de l’IA « ouverts et concurrentiels » ([578]). Ils reconnaissent qu’une concurrence loyale constitue le meilleur levier pour libérer le potentiel d’innovation de ces technologies, conformément à l’approche schumpétérienne qui voit dans la rivalité entre acteurs le moteur du progrès technique.
Toutefois, vos rapporteurs relèvent que cette concurrence est en réalité inéquitable sur le plan des moyens : les hyperscalers américains et chinois disposent de ressources financières, computationnelles et humaines sans commune mesure avec celles des acteurs européens. Cette asymétrie impose de concilier la protection de la souveraineté numérique avec la promotion d’une concurrence véritablement européenne, seule à même de garantir l’émergence de solutions crédibles face aux géants extracommunautaires, dans une logique de « protection des industries naissantes » (infant industries ([579])).
Cependant, face aux effets de réseau et aux économies d’échelle colossales des hyperscalers américains, l’Union européenne doit adapter son cadre juridique pour ne pas laisser ses acteurs fragmentés se faire marginaliser.
L’article 101 TFUE ([580]) prohibe certes les ententes qui entravent, restreignent ou faussent le jeu de la concurrence, l’article 102 du traité interdit les abus de positions dominante, mais une interprétation trop rigide de ces principes pourrait paradoxalement entraver la constitution d’écosystèmes européens capables de rivaliser en matière d’IA et de cloud. Michael G. Jacobides, Georgios Petropoulos et al. ([581]) observent que le cadre actuel du droit de la concurrence, centré sur les accords restrictifs et la logique bilatérale, n’est pas pleinement adapté aux échanges massifs au sein d’écosystèmes numériques. Selon eux, les régimes de type article 101, fondés sur une analyse classique, ne prennent pas suffisamment en compte les effets systémiques, les économies d’échelle et les externalités positives générées par ces alliances ([582]).
À cette fin, la Commission européenne pourrait instituer un régime de présomption du respect du droit de la concurrence permettant, sous conditions strictes, la formation d’alliances technologiques (mutualisation des ressources, interopérabilité des solutions, partage de modèles de fondation) entre start-up et entreprises européennes. Ces coopérations, conçues pour abaisser les barrières à l’entrée et favoriser des externalités positives, ne seraient pas qualifiées d’ententes anticoncurrentielles dès lors qu’elles renforcent la capacité de l’Europe à proposer des alternatives crédibles aux solutions dominantes.
Recommandation n° 13 : Mettre en place un régime de présomption de conformité au droit de la concurrence afin de sécuriser et d’encourager la constitution d’alliances pro-concurrentielles entre acteurs européens de l’intelligence artificielle et du cloud.
3. Mobiliser les leviers de la commande publique pour rééquilibrer les rapports de force
Le constat d’une inégalité des armes face aux hyperscalers américains et chinois est désormais largement partagé. Ces géants bénéficient de soutiens publics massifs dans leurs pays d’origine (comme en Chine, où l’investissement public alimente le développement de l’IA selon une note de la DG Trésor ([583])) et d’avantages structurels tels que le capital-risque (VC), les effets d’échelle, des infrastructures colossales et l’attraction des talents (brain drain). Dans ce contexte, l’Europe risque un triple déclassement technologique dans le secteur de l’IA qui menace sa souveraineté et sa compétitivité.
– sur les modèles de langage (LLM) : Mistral AI, le seul acteur européen positionné sur ce segment, fait face à des perspectives de rachat par Apple ([584]). Une telle opération priverait l’Europe d’un atout stratégique dans les technologies d’IA génératives. Vos rapporteurs considèrent urgent de soutenir cet acteur par la commande publique européenne, afin de consolider sa place sur le marché et de lui permettre de résister aux acquisitions extra-européennes. Faute de quoi, l’Europe ne pourra que se contenter de produire des « petits modèles IA souveraines » dans des domaines critiques mais insuffisants pour rester compétitive face aux hyperscalers ;
– sur le cloud : OVHcloud et l’allemand SAP, souvent présentés comme les champions nationaux et européens, restent marginaux face aux géants américains. Amazon détient 32 %, Microsoft 23 % et Google 12 % du marché mondial de l’IaaS/PaaS, tandis qu’aucun acteur européen ne dépasse 4 % ([585]), OVHcloud compris. Ce déséquilibre rend l’Europe dépendante de fournisseurs étrangers pour des services stratégiques ;
– sur la robotique humanoïde : l’entreprise allemande Neura Robotics constitue une exception notable. Avec son humanoïde 4NE1 (prononcé for anyone), qui combine intelligence artificielle, robotique cognitive et capacités sensorielles avancées, elle est le seul acteur européen réellement compétitif face à Tesla (Optimus) et aux robots chinois de nouvelle génération. Neura a annoncé des ambitions massives avec la livraison de 5 millions de robots d’ici 2030 ([586]), soit un volume bien supérieur aux 100 000 unités prévues par la start-up américaine Figure.
Ce panorama illustre la nécessité, pour l’Europe, de déployer une double stratégie publique :
– investir massivement dans les infrastructures critiques et la puissance de calcul (voir partie suivante) ;
– mobiliser les leviers de la commande publique pour rééquilibrer les rapports de force face aux hyperscalers, soutenir la position dominante et l’émergence d’acteurs européens.
a. Des politiques proactives via la commande publique aux États-Unis et en Chine
Les États-Unis et la Chine mobilisent activement la commande publique comme levier d’appui à leurs industries technologiques stratégiques – ce qui inclut explicitement les secteurs des modèles de langage (LLM), de la robotique humanoïde et du cloud computing. Aux États-Unis, un ensemble de dispositifs « Buy American » ancre la préférence domestique comme norme dans les marchés publics fédéraux ([587]).
En pratique, même si certains achats informatiques commerciaux échappent à ces règles, l’immense majorité des contrats publics technologiques bénéficient aux acteurs nationaux. Par exemple, le département de la Défense a attribué en 2022 un contrat cloud géant (Joint Warfighting Cloud Capability) d’un montant potentiel de 9 milliards de dollars ([588]) exclusivement à des fournisseurs américains (Amazon Web Services, Google, Microsoft, Oracle).
De même, dans la robotique avancée, le gouvernement américain a joué un rôle moteur : l’agence DARPA ([589]) a financé des projets pionniers chez Boston Dynamics (créateur de robots humanoïdes) à hauteur de plusieurs millions de dollars, catalysant le développement de ces technologies dans le giron national. Plus généralement, l’État fédéral investit massivement dans la R&D en IA et encourage l’adoption de l’IA par ses agences, soutenant indirectement un écosystème privé déjà très dynamique ([590]). Cette synergie entre innovation privée et soutien public a donné aux États-Unis un avantage décisif dans des domaines comme les LLM, le cloud et la robotique.
En Chine, le soutien public revêt un caractère encore plus explicite et protectionniste ([591]). Pékin utilise la puissance de son marché public pour favoriser systématiquement les fournisseurs locaux. La Chine n’a pas adhéré à l’Accord de l’Organisation mondiale du Commerce (OMC) sur les marchés publics, ce qui la libère de toute obligation d’ouvrir ses achats publics aux entreprises étrangères ([592]) ([593]).
En pratique, les entreprises étrangères sont souvent exclues ou désavantagées dans les appels d’offres chinois, sauf cas de besoin technologique impossible à satisfaire localement ([594]). Une réforme récente va plus loin : depuis fin 2024, la Chine propose d’accorder un avantage de 20 % sur le prix offert aux produits fabriqués sur son sol dans les marchés publics ([595]). Concrètement, un bien produit en Chine, quelle que soit la nationalité de l’entreprise, sera évalué avec une décote de 20 % sur son prix, ce qui garantit un net avantage aux fournisseurs domestiques.
Parallèlement, les autorités chinoises protègent leur marché intérieur des solutions étrangères : les services d’IA générative américains (tels que ChatGPT) sont bloqués par le Grand Firewall et par des restrictions réglementaires, forçant les utilisateurs chinois à se tourner vers les alternatives locales ([596]). Cette situation, conjuguée aux investissements publics massifs (fonds étatiques, subventions, commandes des administrations), a stimulé une prolifération de champions nationaux de l’IA. La Chine compte déjà plus de 130 LLM domestiques (soit 40 % du total mondial ([597])), proposés par des géants comme Baidu, Alibaba, SenseTime ou de nouveaux entrants soutenus par l’État.
L’État chinois accélère le développement des start-up chinoises d’IA et de robotique pour dominer le marché des robots humanoïdes. La société EngineAI a récemment démontré la capacité de son robot PM01([598]) à apprendre et reproduire des mouvements complexes grâce à la vision par ordinateur et à l’apprentissage automatique, illustrant ainsi le potentiel des robots à s’adapter sans programmation spécifique. Ces avancées s’inscrivent dans une stratégie industrielle nationale ambitieuse : la Chine prévoit d’investir 1 000 milliards ([599]) de yuans en robotique et hautes technologies au cours des 20 prochaines années. Avec plus de 10 000 ([600]) humanoïdes produits cette année, soit plus de la moitié du total mondial, le pays dépasse déjà les États-Unis et le Japon en densité robotique sur les lignes de production, grâce un soutien de la commande publique préférentielle de l’État chinois ([601]).
Dans le domaine du cloud, les fournisseurs étrangers (notamment AWS, Microsoft Azure) sont obligés de constituer des coentreprises avec des partenaires locaux pour opérer en Chine, et ne peuvent pas concurrencer directement dans les services IaaS, PaaS ou SaaS ; ils sont fortement désavantagés par des conditions réglementaires restrictives ([602]). La loi sur la cybersécurité (2017) impose que les données des utilisateurs chinois restent stockées en Chine et qu’elles puissent être accessibles aux autorités si besoin. Ce régime a stimulé la croissance des acteurs locaux comme Alibaba Cloud, Tencent Cloud, Baidu ou Huawei, qui bénéficient à la fois de commandes étatiques et d’un environnement protégé.
En somme, États-Unis et Chine utilisent la commande publique et des politiques commerciales volontaristes pour consolider leurs industries technologiques, garantissant des débouchés domestiques importants à leurs champions du cloud, de l’IA et de la robotique.
b. Un cadre européen longtemps ouvert qui limite l’émergence de champions locaux
À l’inverse, l’Union européenne applique une doctrine d’ouverture des marchés publics qui, si elle vise à favoriser la concurrence et l’efficience, peut freiner l’essor de ses propres acteurs technologiques. L’UE, en tant que membre de l’OMC et signataire de l’Accord sur les marchés publics, a ouvert la quasi-totalité de son marché public à la concurrence internationale ([603]), sans discrimination envers les offres étrangères, hormis pour certains marchés sensibles (défense par exemple). Par conséquent, les acheteurs publics européens n’ont pas le droit d’écarter un fournisseur au motif qu’il n’est pas européen ([604]), tant que son pays d’origine bénéficie d’un accord d’accès (par exemple un accord OMC ou bilatéral) ([605]). Ce principe ne fait toutefois pas l’objet d’une application et d’une interprétation uniforme au sein de l’UE ([606]).
Les règles internes (directive « marchés publics » et code de la commande publique en France) interdisent la préférence géographique explicite, sauf exceptions très ciblées. Par exemple, depuis 2018 il est possible d’exiger que l’exécution d’un marché se fasse sur le territoire de l’UE pour des raisons de sécurité, d’environnement ou de protection des approvisionnements ([607]), mais ce dispositif ne doit pas servir à instaurer une préférence européenne généralisée ni à discriminer des entreprises de pays avec lesquels l’UE a passé des accords de marché. En pratique, ces marges de manœuvre restent peu utilisées et n’équivalent pas à un véritable « Buy European Act ».
Cette ouverture unilatérale contraste fortement avec les pratiques de nos grands partenaires commerciaux. Aux États-Unis, la préférence nationale est la règle ([608]) dans l’ensemble des marchés publics, et la Chine ferme largement ses marchés aux fournisseurs étrangers. L’Europe, elle, est longtemps restée dans une forme de « naïveté » ([609]) selon les propres mots du ministre de l’Industrie et de l’Énergie, en espérant que la réciprocité serait respectée spontanément.
Il en résulte une asymétrie de concurrence dommageable ([610]) : les entreprises américaines ou chinoises profitent pleinement des marchés européens ouverts (gagnant par exemple des contrats de cloud public en Europe ([611]) ([612]) ([613])), tandis que les entreprises européennes n’ont pas les mêmes opportunités chez nos partenaires. En 2020, des sociétés chinoises ont remporté près de 2 milliards d’euros de marchés en Europe, profitant de la décennie où l’UE débattait sans agir, alors même que l’accès inverse leur était largement fermé ([614]).
Dans des secteurs de pointe comme l’IA et le cloud, cette situation a contribué au décalage compétitif : les hyperscalers américains dominent le cloud européen (beaucoup d’administrations et entreprises en Europe utilisent AWS, Azure ou Google Cloud faute d’alternative de même envergure), et les solutions d’IA américaines ou chinoises s’imposent souvent sur le marché, reléguant les initiatives locales au second plan.
Le constat d’un « triple déclassement » européen est particulièrement criant dans les LLM, la robotique humanoïde et le cloud : l’UE ne compte qu’une poignée d’acteurs émergents dans les grands modèles de langage (par exemple la start-up française Mistral AI) face aux géants américains et chinois, un seul acteur notable en robotique humanoïde (NEURA Robotics en Allemagne), et aucun fournisseur cloud capable de rivaliser en taille avec les géants américains.
Ce retard s’explique par de nombreux facteurs (fragmentation du marché, moins de financement privé, etc.), mais la faiblesse des soutiens publics orientés industrie et l’absence de préférence nationale et locale jouent un rôle important ([615]). Les industries européennes font face à une concurrence souvent jugée déloyale (soutien massif des États-Unis et de la Chine à leurs entreprises, non-respect de l’esprit de réciprocité de l’OMC) sans bénéficier de protection similaire pour des retombées économiques non négligeables. Selon la Banque des Territoires ([616]), les retombées économiques de la commande publique pour les entreprises produisant en France et en Europe représentent 170 milliards d’euros chaque année en France et près de 2 000 milliards au niveau européen.
c. Faire de la préférence européenne le principe directeur des achats publics
i. Vers une « préférence européenne » dans la commande publique ? Un principe déjà acté
Consciente de ces limites, l’Europe amorce un tournant en envisageant d’introduire une certaine préférence pour les produits et entreprises européens dans ses politiques d’achat public. Un consensus émerge progressivement sur la nécessité de rééquilibrer les règles du jeu afin de ne plus désavantager l’industrie européenne sur son sol ([617]).
Sur le plan juridique, plusieurs pistes se dessinent pour accroître la marge de manœuvre : l’Union a récemment adopté un Instrument international de marchés publics (IPI) ([618]) permettant de restreindre l’accès aux appels d’offres européens aux entreprises de pays qui ne nous accordent pas une ouverture comparable. Cet instrument, entré en vigueur en 2022, permet par exemple d’écarter (ou de pénaliser) les offres provenant de pays tiers fermés aux entreprises européennes, ciblant implicitement la Chine ou toute autre puissance pratiquant un protectionnisme asymétrique.
Parallèlement, un règlement sur les subventions étrangères faussant les marchés ([619]) permet désormais d’exclure d’un appel d’offres un soumissionnaire qui aurait profité de subventions publiques étrangères contraires aux règles de concurrence.
Surtout, la Commission européenne a approuvé, à la suite du rapport de Mario Draghi sur la compétitivité, le principe de faire de la préférence européenne un axe stratégique des achats publics au travers de deux communications récentes, la boussole pour la compétitivité de l’Union européenne, publiée en janvier 2025 ([620]), et le Pacte pour l’industrie propre ([621]), publié en février 2025.
Un calendrier ambitieux de révision des directives européennes sur la commande publique d’ici 2026 a été annoncé, afin d’y intégrer des critères favorisant l’origine UE des biens et services.
La Commission européenne envisage de permettre aux gouvernements de favoriser les entreprises européennes ([622]) dans l’attribution de certains marchés publics, en particulier dans des secteurs et technologies jugés critiques ([623]). Cela répond aussi à une demande de la France, qui milite depuis longtemps pour une « autonomie stratégique » de l’UE. Ce projet pourrait toutefois entrer en conflit avec les règles de l’Organisation mondiale du commerce (OMC) et les engagements internationaux de l’UE. Concrètement, cela pourrait se traduire par une obligation pour les acheteurs publics de privilégier, à performance équivalente, une offre contenant une proportion significative de contenu européen. Il est également envisagé d’interdire l’accès des marchés publics de l’UE, sauf exception, aux entreprises de pays n’ayant pas d’accord de réciprocité avec l’UE ([624]), sans avoir à recourir à l’instrument international de marchés publics peu utilisé jusqu’ici, ce qui établirait enfin une forme de conditionnalité inspirée du « Buy American ».
Toutefois, vos rapporteurs constatent que l’Instrument international pour les marchés publics (IIP), censé permettre une meilleure ouverture réciproque des marchés, demeure à ce jour peu utilisé ([625]) et peu agile ([626]), d’une portée trop limitée pour répondre aux enjeux géopolitiques et économiques actuels.
Dans cette perspective, avec le CNI ([627]), vos rapporteurs considèrent qu’il est indispensable d’introduire, à l’échelle européenne, un principe général d’exclusion des marchés publics de l’Union européenne pour les opérateurs économiques et les productions provenant de pays tiers qui n’offrent pas de garanties équivalentes d’accès à leurs propres marchés publics. Une telle mesure permettrait d’instaurer un rapport de force plus équilibré et de protéger durablement les acteurs industriels européens contre les distorsions de concurrence liées à l’ouverture asymétrique des marchés, en dépassant les contraintes de l’outil actuel et en dotant l’Union européenne d’un mécanisme plus efficace et systématique.
Recommandation n° 14 : Introduire un principe général d’exclusion des marchés publics de l’Union européenne pour les opérateurs économiques et les productions issus de pays tiers n’ayant pas conclu avec l’Union un accord assurant une réciprocité effective d’accès à leurs marchés publics.
ii. Vers une mise en œuvre effective du principe de préférence européenne dans la commande publique pour soutenir l’IA et les technologies stratégiques
Comme il a été rappelé précédemment, l’Union européenne a récemment approuvé le principe d’une préférence européenne dans la commande publique. Ce principe, qui vise à renforcer l’autonomie stratégique et industrielle de l’Union, reste à préciser et à décliner concrètement pour garantir son effectivité. Vos rapporteurs estiment que sa mise en œuvre doit constituer une priorité, en particulier dans des domaines stratégiques comme l’intelligence artificielle, le cloud et, plus largement, les technologies numériques critiques.
Recommandation n° 15 (proposition de votre rapporteure) : Accompagner et soutenir la mise en œuvre de la préférence européenne pour les technologies stratégiques (IA, cloud, robotique), en s’assurant qu’elle soit pleinement mobilisée par la France dans ses politiques d’achat public.
Si votre rapporteur partage pleinement l’objectif d’une préférence européenne dans la commande publique, il considère que celle-ci demeure insuffisante pour garantir la souveraineté technologique de la France et la protection de ses intérêts stratégiques, notamment en matière d’IA. En effet, l’Union européenne peine encore à déployer des instruments réellement contraignants et la révision des directives n’interviendra pas avant 2026. Dans cet intervalle, de nombreux marchés publics stratégiques pourraient continuer à bénéficier à des entreprises extra-européennes, voire extra-nationales, alors même que des acteurs français disposent de compétences solides.
Aussi, le rapporteur plaide pour l’instauration d’une préférence nationale assumée, complémentaire de la préférence européenne, dans les marchés publics concernant les technologies critiques (intelligence artificielle, cloud, cybersécurité, robotique). Une telle orientation permettrait de stimuler directement l’innovation locale, de valoriser prioritairement les savoir-faire nationaux et de créer un effet d’entraînement sur l’ensemble de l’économie française, en renforçant la compétitivité de ses filières industrielles et numériques.
Votre rapporteur est conscient que cette position excède le cadre juridique européen actuel, fondé sur le principe de non-discrimination et sur l’égalité de traitement entre opérateurs économiques de l’Union ([628]). Il souligne néanmoins que plusieurs États membres invoquent déjà des motifs impérieux d’intérêt général pour protéger certaines filières stratégiques (sécurité, défense, santé publique, protection des données sensibles). Il estime que la France doit, de même, revendiquer une marge de manœuvre nationale en matière de souveraineté numérique, quitte à provoquer un débat au sein de l’Union.
Recommandation n° 16 (proposition de votre rapporteur) : Accompagner et soutenir la mise en œuvre de la préférence européenne pour les technologies stratégiques (IA, cloud, robotique), en veillant à ce qu’elle soit pleinement mobilisée par la France dans ses politiques d’achat public et complétée par une préférence nationale assumée, valorisant prioritairement les solutions et acteurs français afin de stimuler l’innovation locale, de renforcer la souveraineté technologique et de créer un effet d’entraînement sur l’ensemble de l’économie.
Si l’instauration d’un principe de préférence européenne en matière de commande publique constitue un levier essentiel pour renforcer la souveraineté technologique de l’Union européenne et consolider des filières stratégiques, sa mise en œuvre concrète demeure progressive et dépendante des initiatives de la Commission européenne. Dans cette attente, vos rapporteurs estiment néanmoins possible pour la France d’agir en mobilisant les outils existants pour orienter ses achats publics vers des solutions européennes et nationales, en particulier dans des domaines sensibles tels que l’intelligence artificielle.
Le cadre juridique actuel, bien que contraint par le droit européen (notamment la directive 2014/24/UE sur les marchés publics ([629])), offre déjà des leviers pour favoriser les solutions européennes. La France a par exemple développé la doctrine du cloud de confiance ([630]), qui impose aux administrations d’héberger leurs données sensibles chez des prestataires européens, échappant aux législations extraterritoriales américaines (Cloud act). Ce précédent démontre qu’en s’appuyant sur des motifs légitimes tels que la sécurité des données, la souveraineté numérique ou le respect des standards environnementaux et sociaux, il est possible d’instaurer une préférence locale compatible avec le droit de l’Union européenne. Autrement dit, pour protéger la souveraineté des données, la commande publique impose ici un critère juridique qui écarte de fait les fournisseurs non-européens à moins qu’ils ne s’associent à une entité européenne, ce qui a conduit Microsoft et Google à nouer des partenariats avec Orange, Thales ou Capgemini ([631]) pour offrir des services cloud sous contrôle européen.
De même, les acheteurs peuvent intégrer des critères environnementaux ou sociaux exigeants (bilan carbone, circuit court, normes du travail) dans leurs marchés ([632]) : cela reste non discriminatoire sur le papier, mais favorise indirectement les entreprises produisant en Europe qui respectent déjà ces standards élevés. Vos rapporteurs appellent ainsi de leurs vœux un encouragement à une généralisation de critères « hors prix » dans les appels d’offres publics (bilan carbone, respect des normes sociales, circuit court, origine européenne de la propriété intellectuelle), qui permettent de favoriser indirectement les entreprises produisant en Europe, en attendant la révisions des directives en 2026 relatives aux marchés publics.
En outre, vos rapporteurs ne peuvent que recommander l’utilisation systématique des marges de flexibilité prévues par le droit de l’Union européenne, notamment pour exclure des marchés publics les opérateurs issus de pays tiers ([633]) n’offrant pas de réciprocité en matière d’accès à leurs propres marchés publics. Cela suppose une intervention de la Commission européenne (qui possède une compétence exclusive). Il convient donc d’encourager les États membres, dont la France, à signaler activement à la Commission européenne les situations de non‑réciprocité afin qu’elle engage, le cas échéant, les procédures prévues par l’Instrument international pour les marchés publics (IIP) et adopte des mesures appropriées.
En France, il est apparu au cours des auditions que la commande publique reste encore faiblement mobilisée au service des acteurs nationaux de l’intelligence artificielle : l’État et les administrations publiques ne représentent que 12 % des clients des start-up françaises de l’IA, selon France Digitale ([634]). Cette sous-utilisation constitue un frein majeur à l’émergence de champions européens et menace la viabilité de l’écosystème de startups.
Ce constat tient moins à une absence de volonté politique qu’à une fragmentation des interlocuteurs et des circuits administratifs, qui rend complexe la mise en relation entre offre technologique et besoins publics. À titre d’exemple, la start‑up Giskard a souligné la difficulté à identifier les bons contacts dans les ministères ou établissements publics pour promouvoir ses solutions. Cette multiplicité d’interlocuteurs entraîne des pertes de temps et des coûts d’opportunité significatifs pour des structures qui doivent par ailleurs concentrer leurs efforts sur leur développement technologique et commercial.
Dans ce contexte, vos rapporteurs proposent de créer un guichet unique dédié à l’IA au sein du ministère de l’Économie, permettant ainsi de fluidifier les relations entre start-up et administrations, d’orienter les acheteurs publics vers des solutions innovantes développées en France et en Europe et de simplifier l’accès aux marchés publics pour les start-up.
Recommandation n° 17 : Créer guichet unique dédié à l’intelligence artificielle au sein du ministère de l’Économie, pour faciliter l’accès des PME et start-up françaises à la commande publique et pour fluidifier le dialogue entre l’État et l’écosystème numérique.
Si les marges de manœuvre nationales doivent être pleinement exploitées dans le respect du droit de l’Union européenne, il apparaît néanmoins que seule une évolution ambitieuse du cadre européen permettra de garantir l’efficacité et la portée réelle du principe de préférence européenne. Une telle réforme constitue en effet un levier essentiel pour protéger l’industrie naissante de l’IA et pour favoriser l’émergence d’hyperscalers européens.
Dans cette perspective, et en cohérence avec les orientations portées par le Conseil national de l’industrie (CNI) ([635]), vos rapporteurs soulignent l’importance de programmer un calendrier précis et ambitieux de révision des directives européennes relatives à la commande publique. L’objectif serait d’aboutir à une réforme effective dès 2026, afin de doter l’Union européenne d’un cadre juridique renouvelé qui permette aux États membres d’orienter leurs achats publics vers des technologies et des productions européennes dans les secteurs stratégiques.
Recommandation n° 18 : Programmer un calendrier ambitieux de révision des directives européennes sur la commande publique pour préciser et rendre effectif le principe de préférence européenne d’ici 2026.
B. Des dépendances à surmonter s’agissant d’infrastructures critiques pour la maîtrise de l’intelligence artificielle
Alors que les États-Unis et la Chine déploient des politiques industrielles offensives pour prendre l’ascendant technologique mondial, l’Union européenne peine encore à structurer une stratégie industrielle à la hauteur des enjeux. Le rapport Draghi ([636]) estime à 750 à 800 milliards d’euros par an le déficit d’investissement de l’Union européenne par rapport à ces deux puissances, concernant à la fois les infrastructures physiques, la R&D industrielle et les technologies critiques, telles que l’intelligence artificielle, les semi-conducteurs, le cloud ou les supercalculateurs. Ce sous-investissement structurel limite la capacité de l’Europe à capter les bénéfices des révolutions technologiques en cours et à préserver sa souveraineté économique.
Loin d’être un concept abstrait, l’intelligence artificielle repose sur une pile technologique intégrée ([637]) : infrastructure (cloud, serveurs, puces), modèles fondamentaux (LLM, vision, voix) et applications. Or, les grandes plateformes extra-européennes ont su maîtriser cette intégration verticale, en combinant dans leurs offres cloud ces différentes couches technologiques, renforçant ainsi leur pouvoir de marché. Dans ce contexte, les acteurs européens peinent à s’insérer durablement dans cette chaîne de valeur sans soutien massif et coordonné.
La France peut jouer un rôle moteur dans la construction d’une véritable politique industrielle européenne de l’IA, à condition de dépasser la dispersion actuelle des initiatives et d’accélérer fortement les investissements. Ce second axe du rapport identifie les leviers permettant de renforcer la cohérence, la rapidité et l’impact de la stratégie industrielle européenne, dans une logique de souveraineté, de compétitivité et de résilience à long terme.
1. Une domination incontestée des États-Unis et de la Chine dans les infrastructures critiques
a. Domination du cloud : 63 % du marché mondial aux GAFAM
i. Un marché mondial dominé par les acteurs américains et chinois
Comme cela a été précédemment exposé, aujourd’hui, OVHcloud et l’allemand SAP, souvent présentés comme les champions européens, restent largement distancés par les hyperscalers américains et chinois. Selon les dernières données disponibles ([638]), Amazon Web Services (AWS) contrôle 32 %, Microsoft Azure 23 % et Google Cloud 12 % du marché mondial de l’Infrastructure-as-a-Service (IaaS) et de la Platform-as-a-Service (PaaS). Aucun autre acteur, y compris OVHcloud (environ 0,5 % de part de marché mondiale), ne dépasse les 4 %.
Répartition régionale des principaux fournisseurs de services cloud
Source : Synergy research group, Cloud is a Global Market - Apart from China, 21 août 2024.
À l’inverse, la Chine a construit un écosystème fermé qui favorise ses acteurs nationaux. La Chine a désigné le cloud computing (informatique en nuage) comme un secteur stratégique dès son 12ᵉ plan quinquennal (2011–2015) et poursuit cette ambition dans le 14ᵉ plan (2021–2025) ([639]). Elle cherche à renforcer sa souveraineté numérique, influencer les standards mondiaux et s’imposer sur les marchés émergents, notamment au Moyen-Orient. Dans le cadre des Nouvelles Routes de la Soie, la Chine y intensifie sa présence dans le secteur du cloud computing, bien que les États-Unis conservent une position dominante à l’échelle mondiale.
Les trois principaux fournisseurs américains ([640]) demeurent en tête pour le partage du marché : il s’agit d’abord d’Amazon Web Services (AWS), qui dispose à lui seul de 32 % de parts de marché, puis de Microsoft Azure, qui détient 22 % du marché, et enfin de Google Cloud, qui dispose de 11 % de celui-ci. À titre de comparaison, Alibaba Cloud, principal acteur chinois, reste encore marginal avec une part de marché de 4 %, mais connaît une progression rapide, portée par un fort soutien de l’État chinois et des coûts particulièrement compétitifs.
Présence comparative des États-Unis et de la Chine
dans les régions cloud du Moyen-Orient
Au Moyen-Orient, la répartition géographique illustre cette dynamique. En Égypte, Huawei Cloud a établi un data center à partir duquel il développe ses activités, tandis que les géants américains AWS et Google sont absents du pays. En revanche, en Arabie saoudite et aux Émirats arabes unis, les acteurs chinois et américains coexistent, bien que les entreprises américaines y conservent une nette prédominance.
Les fournisseurs occidentaux y sont fortement limités. Le marché chinois, suffisant par sa taille, est dominé par Alibaba Cloud, Tencent Cloud, Huawei Cloud et China Telecom, les dix principaux opérateurs étant tous chinois.
Au premier trimestre 2025, les dépenses en services d’infrastructure cloud en Chine ont atteint 11,6 milliards de dollars américains ([641]), marquant une progression de 16 % par rapport à l’année précédente. Cette croissance soutenue s’explique principalement par l’essor des activités liées à l’intelligence artificielle (IA) au sein des entreprises chinoises, qui accélèrent leur adoption des technologies cloud pour accompagner ces nouveaux usages.
Le marché reste dominé par Alibaba Group Holding, dont l’unité cloud conserve une position de leader avec une part de marché de 33 % ([642]) et une croissance annuelle de son chiffre d’affaires de 15 %. Huawei Technologies se place en deuxième position avec une part de 18 % et un bond de 18 % de ses revenus sur la même période. Tencent Holdings, troisième acteur du secteur, détient 10 % du marché, mais voit sa croissance bridée par des contraintes d’approvisionnement en unités de traitement graphique (GPU).
ii. Concentration du marché européen et déclin des parts de marché des acteurs locaux
Le marché européen des services cloud est fortement concentré : les géants américains Amazon, Microsoft et Google détiennent à eux seuls 72 % des parts de marché ([643]). Face à cette domination, les fournisseurs européens peinent à rivaliser et ne représentent aujourd’hui qu’environ 13 % du marché régional, là où ils représentaient 27 % en 2017 ([644]). À l’échelle européenne, les principaux fournisseurs locaux sont SAP, Deutsche Telekom et OVHcloud, chacun détenant environ 2 % de part de marché ([645]). Viennent ensuite Telecom Italia, Orange Business et une multitude de petits acteurs.
En Europe, les fournisseurs cloud chinois, tels qu’Alibaba Cloud, Huawei Cloud et Tencent Cloud, détenaient globalement moins de 1 % de part de marché régionale fin 2024 ([646]). Plusieurs facteurs expliquent cette absence relative. D’abord, des barrières réglementaires et de souveraineté freinent leur développement : les exigences du RGPD, les schémas de certification européens (comme l’EUCS – European Cybersecurity Certification Scheme for Cloud Services) et les inquiétudes liées à l’accès potentiel aux données par des États tiers limitent l’implantation de prestataires chinois ([647]). Ensuite, les géants américains tels qu’AWS, Microsoft Azure et Google Cloud ont bénéficié d’investissements colossaux et d’un effet d’échelle. S’ajoute une confiance limitée des clients européens : face aux enjeux de cybersécurité, de souveraineté numérique et de dépendance technologique, entreprises et administrations privilégient des fournisseurs perçus comme plus fiables, souvent américains ou locaux ([648]).
iii. Une domination aux conséquence délétères pour l’IA
La domination des acteurs américains sur le marché mondial du cloud computing soulève des enjeux stratégiques majeurs pour le développement et la souveraineté numérique ([649]) de l’intelligence artificielle. Comme le souligne le rapport de la Commission européenne dans le cadre de l’AI Continent ([650]) (2025), cette situation compromet la capacité des États membres à maîtriser les infrastructures qui soutiennent les technologies critiques, notamment l’intelligence artificielle (IA), laquelle repose fondamentalement sur l’accès massif à des ressources de calcul, de stockage et de traitement de données.
Sur le plan géostratégique, la dépendance aux fournisseurs extra-européens place l’UE dans une situation de vulnérabilité. L’ENISA ([651]) (Agence de l’Union européenne pour la cybersécurité) a identifié les risques associés à l’hébergement de données sensibles, stratégiques ou critiques sur des serveurs localisés hors du territoire européen ou contrôlés par des entités soumises à des juridictions tierces. En période de tension géopolitique, le cloud devient un levier potentiel de coercition économique et politique, un risque accru par le fait que l’UE ne dispose pas, à ce jour, d’acteurs capables de proposer une alternative compétitive à l’échelle mondiale.
Cette dépendance a également des conséquences juridiques et sécuritaires préoccupantes. Le CLOUD Act (Clarifying Lawful Overseas Use of Data Act), adopté par les États-Unis en 2018 ([652]), permet aux autorités américaines d’exiger l’accès à des données stockées en dehors du territoire américain dès lors qu’elles sont hébergées par une entreprise soumise à la juridiction des États-Unis. Cela crée une incompatibilité directe avec le RGPD et les principes européens de protection des données personnelles. En 2025, le CLOUD Act reste pleinement applicable et constitue une source continue de tension juridique et politique pour l’Europe. Plus globalement, la dépendance extérieure de l’europe en matière de cloud entraîne des risques d’accès non autorisé à des données européennes à des fins de surveillance ou d’espionnage industriel ([653]).
Au-delà des enjeux techniques et sécuritaires, cette situation limite la capacité de l’Europe à imposer ses propres standards. Un article scientifique récent ([654]) rappelle que les normes techniques se développent d’abord dans les écosystèmes dominants. En s’appuyant massivement sur des clouds américains, l’Europe s’expose à un effet d’alignement technologique par défaut, réduisant son pouvoir normatif dans la structuration de l’IA éthique, durable et conforme à ses valeurs. Cette asymétrie normative pourrait à terme fragiliser la portée concrète des régulations comme l’AI Act adopté en 2024.
Consciente de ces menaces, l’Union européenne a lancé des initiatives telles que le projet IPCEI Cloud Infrastructure and Services ([655]) ou Gaia-X, visant à favoriser une offre de cloud de confiance, interopérable, et conforme aux exigences européennes. Cependant, ces projets souffrent encore d’un manque de financement ([656]), de coordination et de massification, qui limite leur impact à court terme. L’absence de cloud souverain robuste compromet ainsi directement la capacité de l’Europe à développer une IA indépendante, compétitive et sécurisée.
iv. Reprendre la maîtrise stratégique du cloud par l’action normative
Face à la concentration du marché mondial du cloud autour d’acteurs américains et chinois, à l’affaiblissement des fournisseurs européens, ainsi qu’aux risques stratégiques que cela engendre pour la souveraineté numérique et le développement d’une intelligence artificielle conforme aux valeurs européennes, vos rapporteurs estiment nécessaire de proposer une réponse règlementaire ambitieuse et structurée.
Le cadre juridique actuel, bien que contraint par le droit européen (notamment la directive 2014/24/UE sur les marchés publics ([657])), offre déjà des leviers pour favoriser les solutions européennes. La France a par exemple développé la doctrine du cloud de confiance ([658]), qui impose aux administrations d’héberger leurs données sensibles chez des prestataires européens, échappant aux législations extraterritoriales américaines (Cloud Act). Ce précédent démontre qu’en s’appuyant sur des motifs légitimes tels que la sécurité des données, la souveraineté numérique ou le respect des standards environnementaux et sociaux, il est possible d’instaurer une préférence locale compatible avec le droit de l’Union. Autrement dit, pour protéger la souveraineté des données, la commande publique impose ici un critère juridique qui écarte de fait les fournisseurs non-européens à moins qu’ils ne s’associent à une entité européenne, ce qui a conduit Microsoft et Google à nouer des partenariats avec Orange, Thales ou Capgemini ([659]) pour offrir des services cloud sous contrôle européen.
Le « Cloud de confiance » et le référentiel SecNumCloud en France
Face à l’essor de l’informatique en nuage (cloud computing) et aux risques croissants pesant sur la souveraineté numérique, la France a promu une stratégie de « cloud de confiance » ([660]) visant à concilier performance technologique, sécurité des données et maîtrise juridique. Cette notion renvoie à un modèle de service cloud qui répond à des exigences élevées en matière de cybersécurité et de protection contre les lois extraterritoriales, notamment le Cloud Act américain de 2018. L’ambition est de permettre à des administrations, des entreprises stratégiques ou des opérateurs d’importance vitale (OIV) d’utiliser des services cloud sans exposer leurs données sensibles à des risques d’accès non contrôlés par des puissances étrangères.
Le référentiel SecNumCloud ([661]), élaboré par l’ANSSI ([662]) (Agence nationale de la sécurité des systèmes d'information), constitue le socle de cette approche. Il définit un ensemble de règles strictes auxquelles doivent se conformer les prestataires cloud souhaitant obtenir la qualification « SecNumCloud ». Ce référentiel impose notamment une localisation des données en France ou dans l’Union européenne, une gouvernance européenne, une indépendance vis-à-vis du droit non européen, et un haut niveau de sécurité certifié. À ce jour, seuls quelques acteurs comme Cloud Temple, OVHcloud, Outscale ou Whaller ont obtenu cette certification.
Source : Travaux de la mission.
Le label SecNumCloud est essentiel pour accéder à certains marchés publics ou à des données sensibles. Malgré le rôle central qu’il est appelé à jouer dans la sécurisation des données sensibles, le label SecNumCloud demeure encore trop peu déployé dans les faits ([663]). Le référentiel n’est pas encore suffisamment intégré dans les usages, tant dans la commande publique que dans les marchés privés ou les projets d’innovation.
Ce label (et la logique du cloud de confiance) est également critiqué pour sa lourdeur procédurale et sa lente adoption, notamment par les grands acteurs internationaux. Le think‑tank ITIF ([664]) considère que les restrictions de SecNumCloud aboutissent à un marché réservé aux acteurs européens, « verrouillant effectivement les fournisseurs américains hors de certains marchés publics ». Pour autant, les rapporteurs considèrent que la logique de souveraineté et de sécurité sur laquelle repose le label SecNumCloud est non seulement légitime, mais stratégique pour l’avenir numérique du pays. Elle constitue un outil déterminant pour assurer la maîtrise des infrastructures critiques, renforcer la confiance des utilisateurs et favoriser le développement d’un écosystème européen de cloud de haut niveau. Plutôt que d’en atténuer les exigences, il convient donc de lever les obstacles à sa diffusion en l’accompagnant mieux.
Recommandation n° 19 : Accélérer l’adoption opérationnelle du label SecNumCloud en facilitant les démarches de qualification et en incitant les acheteurs publics et privés à s’y référer.
La diffusion des technologies d’intelligence artificielle dans les administrations et les secteurs critiques appelle un encadrement clair de l’infrastructure sous-jacente, en particulier des services d’hébergement et de traitement de données en cloud. Or, les auditions menées dans le cadre de la mission d’information ont confirmé l’existence de vulnérabilités juridiques et techniques persistantes, liées à l’exposition potentielle des prestataires à des législations extraterritoriales étrangères, en particulier américaines (Cloud Act).
À ce titre, plusieurs rapports officiels, et notamment celui de la commission d’enquête sénatoriale sur les marchés publics (2025) ([665]) , ont insisté sur la nécessité d’introduire des clauses de non-exposition aux droits étrangers dans les contrats et les marchés publics portant sur des prestations cloud. Il y est établi que la simple localisation des serveurs sur le territoire européen ne saurait suffire à protéger les données sensibles si le prestataire ou ses sous-traitants demeurent soumis à des obligations juridiques étrangères. Dès lors, selon ce rapport, seule une clause explicite de non-soumission extraterritoriale, assortie de mécanismes de vérification, permet de garantir un niveau de protection conforme aux exigences de souveraineté.
Vos rapporteurs réaffirment leur attachement à la logique promue par ce label et à la doctrine du cloud de confiance, qui doivent être pleinement intégrés aux pratiques des acheteurs publics, en particulier pour l’hébergement de données sensibles. Néanmoins, ils soulignent qu’une telle stratégie ne saurait rester strictement nationale. Dans la mesure où les marchés publics relèvent d’un cadre juridique largement harmonisé au niveau de l’Union européenne, la construction d’un cloud de confiance à l’échelle européenne, fondé sur des exigences convergentes en matière de sécurité, de gouvernance et d’immunité juridique, constitue une perspective nécessaire pour garantir l’effectivité de la souveraineté numérique sans compromettre la libre concurrence intracommunautaire.
Dans cette logique, la Commission européenne travaille en parallèle à une initiative similaire appelée EUCS (European Cybersecurity Certification Scheme for Cloud Services ([666])). Ce schéma vise à établir un cadre commun de confiance au niveau de l’Union, potentiellement convergent avec les exigences du label français SecNumCloud.
Toutefois, la CNIL ([667]) note que le projet actuel du schéma EUCS, soutenu par l’ENISA (Agence européenne pour la cybersécurité), « ne permet plus aux fournisseurs de démontrer qu’ils protègent les données stockées contre tout accès par une puissance étrangère, contrairement à la qualification SecNumCloud en France », qui protège explicitement les données sensibles contre des accès potentiels par des puissances étrangères (comme les États-Unis via le Cloud Act). Le schéma EUCS actuel ne stimule pas la filière cloud européenne comme l’a fait le programme américain FedRAMP pour les fournisseurs locaux.
Face aux limites identifiées du projet actuel de certification européenne EUCS, vos rapporteurs recommandent que la conformité à des exigences juridiques d’immunité aux législations extracommunautaires ne soit pas simplement proposée à titre optionnel (comme le recommande la CNIL dans son rapport), mais intégrée de manière impérative pour les niveaux les plus élevés de certification au niveau européen. Cette garantie est indispensable pour les traitements de données particulièrement sensibles (santé, justice, mineurs), dont l’hébergement doit exclure tout risque d’accès par des autorités étrangères sur la base de législations extra-européennes, telles que le Cloud Act américain et pour stimuler l’industrie du cloud en Europe, largement dominée par les hyperscalers américains.
À cette fin, il apparaît nécessaire que l’Union européenne reconnaisse un niveau de certification équivalent au référentiel français SecNumCloud, en intégrant dans le schéma EUCS des critères de sécurité, de localisation des données, de contrôle capitalistique et de souveraineté juridique comparables. Une telle reconnaissance permettrait de sécuriser les données sensibles dans un cadre harmonisé à l’échelle européenne, de renforcer la confiance des acteurs publics et privés, et de soutenir la compétitivité de l’écosystème du cloud européen.
Recommandation n° 20 : Rendre impératifs, dans le schéma EUCS (European Cybersecurity Certification Scheme for Cloud Services), les critères d’immunité aux lois extracommunautaires pour les données sensibles, et reconnaître un niveau de certification européen équivalent au référentiel français SecNumCloud.
Afin de renforcer l’autonomie stratégique européenne en matière de données sensibles et de soutenir économiquement les fournisseurs cloud européens, il convient que la future certification EUCS (alignée sur les exigences SecNumCloud), une fois intégrée de manière crédible et exigeante, serve de référentiel pour l’accès à la commande publique au niveau européen. À l’image du programme FedRAMP aux États-Unis, une telle reconnaissance permettrait d’orienter les marchés publics vers des prestataires offrant des garanties élevées en matière de cybersécurité, de localisation et de conformité juridique, tout en stimulant l’écosystème du cloud européen.
Recommandation n° 21 : Faire de la certification EUCS, une fois adoptée avec des garanties de souveraineté effectives, un critère de référence dans les marchés publics européens, notamment pour l’hébergement des données sensibles.
b. La puissance de calcul : un enjeu stratégique dominé par les géants américains
L’IA moderne n’est pas née d’une simple innovation logicielle : elle est la conjonction dynamique de l’augmentation spectaculaire de la puissance de calcul, rendue possible par des architectures matérielles toujours plus efficaces, et de l’amélioration concomitante des algorithmes, qui optimisent l’usage de ces ressources.
L’intelligence artificielle est en passe de devenir une infrastructure critique de l’économie mondiale, comparable à l’électricité ou à Internet ([668]). D’ici 2030-2035, les modèles d’IA, en particulier les grands modèles de langage (LLM), seront omniprésents dans tous les secteurs (industrie, services, santé, finance, éducation notamment), transformant en profondeur nos modes de production et de travail. Dans cette potentielle nouvelle révolution industrielle, « l’accès à la puissance de calcul s’affirme comme un facteur de production aussi essentielle que le charbon au XIXème siècle » ([669]).
En effet, entraîner les modèles d’IA les plus avancés requiert d’énormes volumes de données et des processeurs spécialisés toujours plus puissants et nombreux, dont le coût double chaque année pour les meilleurs LLM à la frontière technologique. La baisse rapide du coût d’entraînement, qui est en moyenne divisé par quatre chaque année, résulte de gains conjoints en matériel (hardware) ([670]) et en algorithmique ([671]). Toutefois, la course à l’échelle toujours plus massive des modèles conduit à une hausse des coûts absolus, qui depuis 2016 aurait été en moyenne multipliée par 2,4 chaque année ([672]). L’entraînement de GPT‑4 coûterait environ 78 millions de dollars, celui de Gemini Ultra près de 191 millions de dollars ([673]), contre quelques centaines de dollars pour le Transformer pionnier de 2017. Des acteurs comme DeepSeek ont pu réduire ces coûts (baisse de 5,6 millions de dollars) grâce à des innovations dans l’architecture des modèles et dans les flux entre processeurs ([674]).
La course à l’IA se joue donc aussi, et peut-être avant tout, sur le terrain des infrastructures matérielles ([675]) : sans un accès suffisant aux centres de données et aux processeurs de pointe, aucune économie ne pourra récolter les gains de productivité promis par l’IA.
L’essor de l’intelligence artificielle contemporaine repose avant tout sur l’augmentation spectaculaire de la puissance de calcul disponible. Selon une étude récente ([676]), la quantité de calcul utilisée pour entraîner des modèles de machine learning a doublé environ tous les six mois depuis le début des années 2010, avant même l’ère des grands modèles d’IA. Ce bond exponentiel de capacité de calcul s’explique non seulement par l’évolution du hardware (matériel), par la loi de Moore ([677]) doublant la densité des transistors tous les 18 mois et par la loi de Huang ([678])applicable aux performances des GPU ([679]), mais aussi par l’utilisation accrue d’architectures massivement parallèles (GPU, TPU, supercalculateurs). L’émergence du « deep learning » dans les années 2010 reste intrinsèquement liée à cette explosion de puissance, doublant l’impact de ce qui avait été observé auparavant sur les CPU traditionnels.
Si les progrès du matériel utilisé est le catalyseur de l’essor effréné de l’IA, celui-ci tient également aux progrès algorithmiques. Hernandez et Brown (2020) ([680]) montrent que l’efficacité algorithmique a diminué de 44 fois le nombre d’opérations nécessaires pour atteindre le niveau de performance d’AlexNet entre 2012 et 2019, soit un doublement de l’efficience tous les 16 mois, sensiblement plus rapide que la seule loi de Moore. Cette combinaison de gains matériels et logiciels permet non seulement de former des modèles plus performants pour un investissement donné, mais aussi de démocratiser l’accès à ces capacités : un même budget de calcul produit aujourd’hui des modèles bien supérieurs à ce qu’il permettait il y a seulement cinq ans. Comme le résument les travaux de CSET ([681]), la continuation de ces deux dynamiques est essentielle pour maintenir la croissance de l’IA, même si leurs interactions deviennent de plus en plus complexes.
Cette transition vers une économie augmentée par l’IA représente une opportunité de productivité, mais révèle aussi un risque majeur pour l’Europe : celui d’une dépendance stratégique en matière de calcul. Depuis les années 2000, la productivité européenne ne progresse qu’à la moitié du rythme de celle des États-Unis ([682]), et sans infrastructure propre, l’Europe pourrait rester à l’écart des immenses gains apportés par l’IA : « En 2030, la liberté aura un prix concret : celui des processeurs. » ([683])
Aujourd’hui, la puissance de calcul mondiale consacrée à l’IA est largement dominée par les États-Unis. Environ 70 % de la capacité mondiale est détenue par les Américains, et parmi celle-ci, près de 80 % sont concentrés entre les mains de quelques géants du cloud (les hyperscalers tels que Google, Amazon, Microsoft…) ([684]).
L’Europe, en comparaison, ne représente qu’environ 4 % de la puissance de calcul mondiale pour l’IA ([685]) . L’entreprise française Mistral AI a ainsi alerté en juin 2024 sur le manque de capacité de calcul pour l’entraînement des modèles d’IA sur le sol européen ([686]). Concernant les centres de données, au total l’Europe héberge 18 % de la capacité mondiale des centres de données, dont moins de 5 % appartiennent à des entreprises européennes, contre 37 % pour les États-Unis ([687]).
Ce déséquilibre est vertigineux : il signifie que les acteurs européens disposent d’une infrastructure informatique sans commune mesure avec celle des leaders américains, et même inférieure à celle de la Chine. En effet, la Chine a fortement investi dans ses centres de données : fin 2023, elle disposait d’une capacité totale d’environ 230 exaflops en calcul ([688]), ce qui en faisait la deuxième nation en termes de puissance de calcul derrière les États-Unis. Néanmoins, la Chine demeure dépendante pour l’instant des puces américaines (voir infra) : avant les restrictions récentes, Nvidia accaparait plus de 90 % du marché chinois des processeurs d’IA, un quasi-monopole dans ce domaine vital selon IoT Analytics ([689]), tandis qu’elle ne dispose pas de la lithographie EUV (Extreme Ultraviolet), monopole industriel de l’entreprise néerlandais ASML, capables de graver des circuits à l’échelle nanométrique (moins de 5 nm), indispensables à la fabrication des processeurs avancés utilisés dans l’intelligence artificielle, notamment les GPU et NPUs.
Pour l’Europe, cette situation de retard critique se double d’un handicap structurel : le coût de l’électricité. Alimenter des fermes entières de GPU et des centres de données énergivores est cher, et les tarifs industriels européens (0,18 dollars par kWh en moyenne) sont jusqu’à trois fois supérieurs à ceux des États-Unis ([690]), rendant les infrastructures d’IA plus coûteuses : certaines estimations calculent un coût d’installation de centres de données de 1,5 à 2 fois plus élevé en Europe qu’aux États-Unis.
Ce différentiel affecte la compétitivité des infrastructures européennes : bâtir et opérer à grande échelle des centres de calcul pour l’IA sur le sol européen est financièrement plus difficile. Certaines estimations calculent un coût d’installation de centres de données de 1,5 à 2 fois plus élevé en Europe qu’aux États-Unis ([691]). Ajouter rapidement et massivement de la capacité de production électrique pour accompagner le développement de ces infrastructures représenterait un défi logistique et politique majeur sur le continent. À l’inverse, les États-Unis accueillent aujourd’hui la majorité des nouveaux centres de calcul dédiés à l’IA, profitant d’un environnement énergétique plus favorable et d’une capacité d’investissement beaucoup plus dynamique, creusant ainsi davantage l’écart ([692]).
c. Les microchips for AI : un monopole américain, une exception européenne, un splendide isolement chinois
i. Processeurs et accélérateurs : un quasi-monopole américain
Le cœur de la puissance de calcul, ce sont les puces électroniques (processeurs et accélérateurs) qui exécutent les calculs d’IA. Dans ce domaine, la domination américaine est écrasante, tant sur le plan technologique que boursier. Nvidia, concepteur de processeurs graphiques (GPU), s’est imposé comme le fournisseur quasi incontournable pour l’IA. Ses GPU haut de gamme (A100, H100, etc.) forment l’épine dorsale de la plupart des centres de calcul d’IA actuels ([693]). Nvidia est devenue en 2023-2025 l’une des entreprises les plus valorisées au monde.
Cette domination s’observe aussi en parts de marché : on estime que Nvidia contrôle entre 80 % et 90 % du marché des processeurs d’IA ([694]) (GPU et accélérateurs) actuellement utilisés pour l’apprentissage automatique.
Au premier trimestre 2025, Nvidia a consolidé sa position hégémonique sur le marché des GPU discrets (cartes graphiques AIB) avec une part de marché exceptionnelle de 92 %, soit environ 9,2 millions d’unités vendues, selon Jon Peddie Research ([695]). Ce quasi-monopole entraîne une chute historique pour AMD, dont la part s'effondre à 8 %, niveau le plus faible enregistré ([696]).
Évolution des parts de marché des GPU discrets (Nvidia, AMD, Intel) sur ordinateurs de bureau (2014-2025)
Source : Shilov, A. (6 juin 2025). AMD’s desktop GPU market share hits all-time low despite RX 9070 launch, Nvidia extends its lead [Updated]. Tom’s Hardware d’après des données du Jon Peddie Research.
Malgré leurs efforts pour développer des solutions de calcul propriétaires, les hyperscalers américains (Microsoft, Google, Amazon ou encore Meta) continuent de dépendre massivement des GPU de Nvidia pour leurs déploiements en intelligence artificielle. Cette dépendance est telle qu’elle confère à Nvidia un pouvoir de marché considérable : au cours de l’année 2024, l’entreprise a pu augmenter significativement les prix de ses puces haut de gamme sans pour autant craindre de voir ses clients se détourner de son offre. Les chiffres sont édifiants ([697]): à elle seule, Microsoft a acquis 485 000 puces de la génération Hopper, contre 224 000 pour Meta, 196 000 pour Amazon et 169 000 pour Google. Le prix unitaire d’un GPU H100 excède désormais les 25 000 dollars, avec certains exemplaires revendus sur le marché secondaire à plus de 40 000 dollars ([698]). Cette hausse spectaculaire s’explique par une tension extrême sur l’offre et par l’absence d’alternatives crédibles, tant en matière de performance brute que d’écosystème logiciel.
Ce contexte génère des pressions de plus en plus fortes sur les géants du cloud. La montée rapide des coûts liés aux déploiements IA commence à inquiéter les investisseurs, qui réclament un contrôle accru des dépenses. Face à cela, les hyperscalers cherchent à optimiser leurs infrastructures et à diversifier leurs approvisionnements ([699]). Plusieurs stratégies émergent. Google, par exemple, s’appuie depuis plusieurs années sur ses TPU (Tensor Processing Units), des accélérateurs maison spécialisés dans les tâches d’IA. La version la plus récente, le TPU v7 surnommé « Ironwood » ([700]), est utilisée à grande échelle pour entraîner le modèle Gemini. Elle affiche des performances brutes de 4 614 TFLOPS (Téra floating-point operations per second), ce qui la place à un niveau comparable aux dernières générations GPU de Nvidia (H100) mais ne reflète pas nécessairement les performances effectives (maturité, polyvalence d’intégration, mémoire, écosystème logiciel). Le recours à ces puces propriétaires permet à Google de réduire significativement ses coûts unitaires, ces accélérateurs étant estimés à quelques milliers de dollars, bien en deçà des tarifs imposés par Nvidia.
Cette dynamique n’est pas propre à Google. Plusieurs acteurs misent désormais sur les ASIC ([701]), ces puces personnalisées optimisées pour un type de calcul précis, qui permettent de s’affranchir des contraintes des GPU généralistes. Broadcom et Marvell ([702]) ont ainsi signé de nouveaux contrats avec les grands opérateurs de cloud afin de concevoir des solutions sur mesure, plus efficaces énergétiquement et bien plus abordables financièrement. Ces initiatives, encore marginales, pourraient, selon certaines estimations, représenter jusqu’à 15 % du marché des accélérateurs d’IA d’ici la fin de la décennie. Elles traduisent une volonté stratégique des acteurs du secteur : celle de réduire leur dépendance à l’égard de Nvidia.
Pour autant, Nvidia conserve pour l’heure une position hégémonique. Au-delà des performances matérielles, c’est surtout son écosystème logiciel, en particulier la plateforme CUDA ([703]), qui verrouille le marché. Les développeurs et les entreprises ont investi massivement dans cet environnement, qui bénéficie d’années d’optimisation, de compatibilité et de documentation. Changer d’infrastructure reviendrait à réécrire une partie des codes, former les ingénieurs à d’autres outils, et risquer une perte de performance ou de stabilité. Ce verrouillage technologique constitue une barrière à l’entrée redoutable pour les concurrents. Même AMD, qui propose désormais des alternatives intéressantes avec ses GPU Instinct MI325X ([704]) et sa plateforme logicielle ROCm, peine à convaincre au-delà de quelques niches scientifiques ou industrielles.
ii. Une lueur d’espoir européenne à relativiser
À ce jour, l’Europe reste largement dominée dans le domaine des accélérateurs pour l’intelligence artificielle, en particulier pour l’entraînement des grands modèles de langage (LLM) comme ceux développés par Mistral AI. Ces entreprises, même quand elles sont européennes, dépendent presque intégralement des GPU produits par Nvidia ([705]), qui restent aujourd’hui les seuls à combiner puissance de calcul, écosystème logiciel (CUDA), et fiabilité à l’échelle industrielle. Cette dépendance technologique est d’autant plus marquée que l’Europe ne conçoit ni ne produit localement de cartes graphiques compatibles avec ces standards, ni même de solutions alternatives à grande échelle.
En parallèle, EuroHPC (initiative européenne pour le calcul à haute performance) a déployé plusieurs supercalculateurs (Jupiter en Allemagne, Leonardo en Italie, LUMI en Finlande) qui utilisent principalement des GPU Nvidia. Cela renforce la dépendance structurelle des projets de calcul intensif européens à des technologies non européennes.
Pourtant, une lueur d’espoir européenne se dessine à l’horizon. La start-up française SiPearl ([706]), issue du consortium européen EuroHPC/European Processor Initiative, a récemment bouclé un tour de table de 130 M€ ([707]), avec la participation du fonds EIC, de l’État français (via French Tech Souveraineté) et de Cathay Venture (Taïwan), pour industrialiser son processeur Rhea1. Actuellement en production chez TSMC à Taïwan, Rhea1, sa première famille de microprocesseurs, sera disponible début 2026. Ce développement illustre la stratégie européenne de souveraineté technologique, centrée sur des processeurs ARM compatibles avec des accélérateurs tiers (GPU, IPU, quantique), mais sans offrir aujourd’hui une alternative GPU hautes performances équivalente à CUDA.
Aux Pays-Bas, Axelera AI travaille sur des AI Processing Units (AIPU) pour des robots et des drones. La société, fondée en 2021, vient d’obtenir une subvention de 61,6 M€ ([708]) du programme EuroHPC pour développer son prochain chipset « Titania », avec l’ambition d’offrir une alternative intermédiaire (optimisée inference) aux GPU classiques dans les centres de données européens.
Le Royaume-Uni a vu émerger l’un des rares challengers crédibles à Nvidia en Europe, avec Graphcore, concepteur d’IPU à haut parallélisme. Malgré des avancées techniques reconnues, l’entreprise a souffert d’un manque d’échelle commerciale. En juillet 2024, SoftBank l’a acquise pour environ 600 millions de dollars ([709]), cette acquisition s’étant accompagnée du maintien des fondateurs et d’une réorientation stratégique vers l’Europe et l’Amérique du Nord, après un retrait du marché chinois.
Face à ce constat d’absence d’autonomie stratégique sur cette filière, l’UE a adopté l’European Chips Act.
Présentation de l’initiative European Chips Act
L’European Chips Act, entré en vigueur le 21 septembre 2023, constitue un cadre législatif européen, structuré en trois piliers, visant à renforcer l’écosystème des semi‑conducteurs sur le continent, ainsi qu’à assurer la souveraineté technologique et la résilience des chaînes d’approvisionnement ([710]).
– Le pilier I, via l’Initiative « Chips for Europe » ([711]) ([712]), mobilise un budget public‑privé d’environ 43 milliards euros jusqu’en 2030, dont environ 3,3 milliards euros du budget de l’UE. Il finance des lignes pilotes, une plateforme de design cloud pour PME/start-up, des centres de compétences nationaux et des projets de puces quantiques.
– Le pilier II ([713]) établit un cadre incitatif pour le financement d’Installations intégrées de production (IPF) et de fonderies ouvertes de l’UE (OEF) pour les semi-conducteurs (développer une capacité de production avancée en Europe), permettant d’attirer investissements publics‑privés (déjà supérieurs à 80 milliards euros) et de soutenir des projets innovants, dits « first‑of‑a‑kind ».
– Le pilier III ([714]) met en place un mécanisme de gouvernance et de surveillance piloté par le Conseil européen des semi‑conducteurs, favorisant la cartographie des acteurs clés, la détection des risques et l’activation de mesures de crise si nécessaire.
Au 28 avril 2025 ([715]), la Commission européenne a annoncé que plus de 85 % des fonds du pilier I sont engagés, cinq lignes pilotes totalisant 3,7 milliards euros sont opérationnelles, et six projets en puces quantiques bénéficient d’un financement complémentaire de 200 millions euros.
Sur le pilier II, sept projets industriels « first‑of‑a‑kind » cumulant environ 31,5 milliards euros ont reçu une aide d’État approuvée par la Commission, et un IPCEI (Important Project of Common European Interest ) de 21 milliards euros est également validé pour soutenir la recherche, l’innovation et le déploiement industriel initial dans les domaines de la microélectronique et des technologies de communication.
Malgré ces avancées, la Cour des comptes européenne ([716]) met en garde contre l’objectif de porter la part de marché de l’UE à 20 % d’ici 2030 dans le domaine des puces électroniques, le jugeant peu susceptible d’être suffisant (« unlikely to be sufficient ») face aux retards, à la fragmentation des financements et aux lenteurs d’approbation des projets structurants.
Sous la pression des acteurs industriels (SEMI Europe, ESIA), plusieurs États membres, dont la France, préparent une version Chips Act 2.0 ([717]), avec des propositions à soumettre d’ici l’été 2025 pour renforcer l’exécution, accélérer les procédures et élargir le soutien aux PME et au secteur de l’équipement.
Source : Travaux de la mission.
Enfin, comme vos rapporteurs l’ont déjà souligné, il convient de rappeler que, dans un paysage mondial largement dominé par les États-Unis, l’Union européenne ne dispose que d’un seul atout technologique réellement stratégique dans le domaine des semi-conducteurs : l’entreprise néerlandaise ASML. ASML est aujourd’hui le seul fournisseur mondial de machines de lithographie à ultraviolet extrême (EUV), une technologie indispensable à la fabrication des puces les plus avancées (CPU, GPU, processeurs pour smartphones ou systèmes d’IA). Depuis 2017, aucun acteur autre qu’ASML ne maîtrise ni ne commercialise cette technologie, qui constitue dès lors un verrou technologique critique pour l’Europe.
Conscients de cette dépendance, les gouvernements occidentaux imposent des restrictions strictes à l’exportation de ces machines, notamment à destination de la Chine, ce qui limite fortement ses capacités à produire des puces de dernière génération. ASML représente ainsi un levier géostratégique de premier ordre pour l’Union européenne, dans un contexte de compétition internationale accrue autour de l’intelligence artificielle et des technologies sensibles.
iii. La Chine : vers une alternative émergente ?
Si l’Europe apparaît en retard, la Chine de son côté mène une stratégie agressive pour rattraper son retard technologique et réduire sa dépendance vis-à-vis des États-Unis. Consciente que la puissance de calcul est un pilier de la puissance, la Chine investit depuis des années dans ses propres supercalculateurs et, désormais, dans les puces d’IA domestiques. Elle a déjà démontré sa capacité à construire des supercalculateurs de classe mondiale (par exemple Sunway TaihuLight fut le numéro un mondial de 2016 à 2018 ([718])). Pour l’ère exaflopique, des sources indiquent que la Chine a atteint ce cap en 2021 sur des prototypes ; toutefois,par prudence stratégique, celle-ci n’a pas officialisé ces résultats ([719]).
Surtout, face aux sanctions américaines limitant l’accès aux meilleures puces, Pékin a accéléré le développement de solutions nationales. En 2022-2023, les États-Unis ont en effet banni l’exportation vers la Chine des GPU les plus avancés (Nvidia A100, H100...), forçant Nvidia à proposer à la Chine une version bridée (GPU H20 dit « version Chine »), environ 5 fois moins puissante que le modèle standard ([720]). Même ces versions dégradées se vendent bien en Chine, et un marché noir de la puce Nvidia s’est constitué ([721]) ; pour autant, la limitation des performances des GPU vendus à la Chine par NVidia a servi de catalyseur : de nombreuses entreprises chinoises se sont lancées dans la conception de GPU ou accélérateurs IA locaux([722]) ([723]) Lors du forum de l’IA de 2025 à Shanghai, toute une panoplie de GPU « made in China » a été présentée, couvrant des usages allant du cloud aux objets connectés ([724]). Les autorités et capitaux chinois soutiennent massivement cet effort : des financements de plusieurs milliards de yuans ont afflué vers ces acteurs ([725]).
Sur le papier, certaines puces chinoises commencent à approcher les performances des modèles occidentaux de précédente génération. Par exemple, la start-up Biren a annoncé que son GPU BR100 rivalisait avec le Nvidia A100 ([726]). Des centres de données pilotes en Chine intègrent déjà des GPU domestiques : la start-up Biren aurait équipé un centre de China Telecom et un centre de China Mobile avec des clusters de plusieurs centaines de ses GPU ([727]).
Cependant, Nvidia reste ultra-dominant en Chine, avec près de 17 milliards de dollars de ventes en 2024 (13 % de son CA mondial) ([728]), contre des concurrents chinois dont les revenus se comptent en dizaines de millions de yuans ([729]). Les causes sont multiples : retard technologique (les puces chinoises accusent sans doute cinq ans de décalage en termes de finesse de gravure et d’architecture), difficultés d’accès aux outils de pointe (pas d’ASML EUV pour la Chine en raison des restrictions, ce qui limite la gravure en dessous de 7 nm), et écosystème logiciel pas encore mûr (CUDA de Nvidia reste la plateforme dominante, et la convertir pour de nouveaux GPU est complexe).
Après avoir interdit en avril 2025 l’export des puces H20 de Nvidia pour freiner les capacités d’IA chinoises, Washington a levé ces sanctions en juillet 2025 ([730]) pour préserver les intérêts économiques de ses géants technologiques, Nvidia en tête.
Ce revirement illustre la tension entre contrôle stratégique et dépendance économique : les États-Unis veulent contenir la Chine, mais leurs champions industriels restent liés à ce marché. La Chine, malgré des investissements massifs, accuse encore un retard technologique majeur.
Néanmoins, la Chine réduit progressivement l’écart en matière de production de puces. Un rapport estime qu’elle accuse environ 5 ans de retard sur les États-Unis dans ce domaine ([731]). Si ce rythme de rattrapage se maintient, la Chine pourrait disposer d’ici la fin de la décennie d’alternatives crédibles aux GPU Nvidia/AMD pour nombre d’applications. L’enjeu pour elle est autant économique (capturer une part de ce marché stratégique) que géopolitique (ne pas rester à la merci des sanctions étrangères).
Pékin utilise aussi l’arme réglementaire pour soutenir cet objectif : en décembre 2024, les autorités chinoises ont lancé une enquête antimonopole contre Nvidia, officiellement pour abus de position dominante sur le marché des puces IA en Chine ([732]). Cette enquête peut être vue comme une mesure de représailles face aux contrôles américains sur les semi-conducteurs, mais aussi comme un moyen de favoriser les acteurs locaux en incitant Nvidia à des concessions (prix, partenariats) ou en retardant ses ventes.
En parallèle, la Chine investit dans toute la chaîne : son industrie des fabs (usines de gravure) essaie d’améliorer ses procédés (SMIC, principal fondeur chinois, aurait réussi en 2022 à produire des puces en 7 nm sur ses anciennes machines DUV, une prouesse même si le rendement reste faible ([733])). De plus, la Chine explore RISC-V ([734]), une architecture de processeur libre, pour développer des chips sans dépendre des IP américaines, là encore avec un soutien public important.
Si la Chine et d’autres acteurs parviennent à proposer des alternatives crédibles aux GPU Nvidia, le marché pourrait s’ouvrir et les prix baisser. L’histoire des technologies montre que même les monopoles les plus solides finissent par être remis en cause.
d. Supercalculateurs : les États-Unis en tête, l’Europe à la traîne, la Chine dans l’ombre
Un autre indicateur de la puissance de calcul d’une région est le nombre et la performance de ses supercalculateurs ([735]). Ces machines extrêmes, souvent financées par des États ou des consortiums publics-privés, sont essentielles pour la recherche scientifique et de plus en plus pour l’IA. Sur ce terrain, la compétition internationale est redoutable depuis des décennies, et là encore, l’Europe tient un rôle de second plan.
Actuellement, les deux supercalculateurs les plus puissants officiellement répertoriés sont américains (système El Capitan et Frontier ([736])). La Chine aurait quant à elle déjà déployé en interne deux (peut-être trois ([737])) supercalculateurs de classe exaflop (projets OceanLight et Tianhe-3 ([738])), mais n’a pas publié leurs résultats depuis 2021, sans doute en raison des tensions technologiques avec les États-Unis et au vu de l’importance géostratégique de la puissance de calcul.
L’Europe place ses meilleurs supercalculateurs aux 4e et 6e rangs mondiaux environ (le classement étant toutefois faussé en raison des réticences chinoises), avec Jupiter Booster (Allemagne) et HPCI6 (Italie) dans le classement Top500 de 2025 ([739]). La France, pour sa part, dispose de machines de très hautes performances mais qui se distinguent davantage par leur effience énergétique : Romeo-2025 (Champagne-Ardenne) et Adastar 2 (GENCI) figurent en deuxième et troisième places du classement Green500 ([740]).
Stratégie française en matière de puissance de calcul ([741])
La stratégie française en matière de calcul intensif repose sur trois supercalculateurs publics de référence : Jean Zay (CNRS/IDRIS), le plus puissant supercalculateur en France, Adastra (CINES) et Alice Recoque (CEA/TGCC, en cours d’acquisition), constituant l’ossature de la souveraineté numérique nationale dans le domaine de l’intelligence artificielle.
Depuis la publication du rapport Villani en 2018, la politique française en matière d’IA s’articule autour de trois axes : la recherche, l’innovation et la diffusion de l’IA dans l’industrie. Cette dynamique s’est traduite, dans le cadre du plan France 2030, par des investissements massifs dans les infrastructures de calcul, notamment l’extension du supercalculateur Jean Zay et la future mise en service d’Alice Recoque.
Par ailleurs, la France a été sélectionnée par l’entreprise commune européenne EuroHPC JU pour accueillir l’une des AI Factories du programme. Cette initiative, intitulée AI Factory France (AI2F), vise à fédérer les moyens matériels (Jean Zay, Adastra, Alice) et les acteurs publics et privés (startups, PME, universités, organismes de recherche, industriels) autour d’un écosystème souverain dédié au développement de l’IA.
Au niveau européen, la France participe activement à l’entreprise commune EuroHPC, dotée d’un budget de près de 7 milliards d’euros sur la période 2021–2027, destinée à financer l’acquisition, le déploiement et l’exploitation de supercalculateurs exascale, ainsi qu’à structurer un réseau de centres de calcul haute performance et d’AI Factories à l’échelle du continent.
Source : Travaux de la mission.
Cependant, il est notable que les supercalculateurs européens intègrent presque systématiquement des processeurs et GPU américains (par exemple CPU Intel/AMD et GPU Nvidia dans LUMI, Leonardo, etc.), faute d’alternatives locales, même si l’UE tente d’y remédier via l’European Chip Act. L’écosystème logiciel HPC/IA (CUDA, frameworks…) étant également dominé par les Américains, la dépendance s’étend au-delà du matériel lui-même.
Noton également la prise de conscience européenne en matière de supercalculteur. L’Union européenne s’appuie sur l’entreprise commune EuroHPC (JU) ([742]), créée en 2020, partenariat public-privé pour bâtir une infrastructure paneuropéenne de supercalculateurs. Dotée d’un budget de 7 milliards d’euros (2021–2027), elle vise à déployer au moins trois machines exascale dans le top 5 mondial ([743]), et à garantir l’accès au calcul intensif pour la recherche, l’industrie et les PME.
EuroHPC JU a déjà soutenu plusieurs supercalculateurs pré-exascale et exascale dans différents pays européens, dont LUMI (Finlande), Leonardo (Italie), MareNostrum 5 (Espagne) et Deucalion (Portugal). Le système JUPITER, en cours d’installation en Allemagne, sera le premier supercalculateur exascale européen ([744]).
En parallèle, EuroHPC développe un réseau d’AI Factories, incluant la France, pour soutenir l’IA via des plateformes de calcul mutualisées. À ce jour, 13 sites ([745]) ont été sélectionnés à travers l’Europe pour accueillir une AI Factory, infrastructure de calcul dédiée à l’IA. Lors d’une seconde sélection en février 2025, 6 nouveaux sites, dont la France ([746]), ont rejoint le programme. Ce réseau constitue la colonne vertébrale de la stratégie européenne en IA : pour 2026, les AI Factories combineront calcul intensif, données et expertise pour stimuler l’innovation du continent pour les start-up, PME et laboratoires. Sur le plan technologique, des projets comme EPI ([747]) et DARE ([748]) visent à créer des processeurs et accélérateurs européens, basés sur RISC-V, pour réduire la dépendance aux architectures étrangères. Enfin, des Centres d’excellence (CoEs) ([749]) et programmes logiciels renforcent la maîtrise de l’écosystème HPC/IA européen.
Par ailleurs, l’indicateur du Top500 ne dit pas tout : la puissance de calcul brute inclut aussi les fermes de serveurs des acteurs privés. En la matière, les « hyperscalers » américains ont construit des centres de données colossaux pour leurs besoins en cloud et en IA, souvent bien plus puissants que les supercalculateurs universitaires. Le projet « Stargate » ([750]) d’OpenAI et Oracle prévoit un centre de données de plus de 5 GW capable d’héberger plus de deux millions de puces IA, soit une capacité de calcul potentielle très largement supérieure à celle d’El Capitan, le supercalculateur académique le plus puissant au monde.
Google, Microsoft, Amazon ou Meta opèrent chacun des infrastructures comptant des dizaines de milliers de GPU pour entraîner des IA (souvent ces installations ne sont pas rendues publiques ni classées, car non soumis à des benchmarks officiels). En Europe, à l’inverse, il n’existe aucun opérateur de cloud de taille équivalente : les plus grands centres de données européens (ceux d’OVHcloud, de Deutsche Telekom, etc.) restent de dimension modeste face aux géants américains. L’étude citée précédemment ([751]) estimait que seulement 4 % de la capacité mondiale de calcul IA se trouvait en Europe, contre 70 % aux USA, un écart dû en grande partie à l’absence d’hyperscalers européens. En France et en Europe, l’usage des supercalculateurs pour l’IA reste surtout le fait de la recherche publique (par exemple le supercalculateur Jean Zay du CNRS a été utilisé pour entraîner le modèle multilingue BLOOM en 2022 ([752])). Cet effort est notable, mais il a mobilisé quelques centaines de GPU pendant quelques mois, là où les projets américains comme GPT-4 mobilisent dizaines de milliers de GPU sur des durées prolongées. La différence d’échelle est notable.
Face à ce constat, vos rapporteurs partagent et soutiennent la double inflexion en matière de politique publique relative portant sur les supercalculateurs par l’autorité de la concurrence dans son avis récent ([753]). Il s’agit à la fois d’investir dans des supercalculateurs publics et d’ouvrir leur accès à des acteurs privés pour réduire la dépendance aux infrastructures américaines.
Vos rapporteurs soutiennent le renforcement du parc de supercalculateurs publics, qui constitue une alternative stratégique aux fournisseurs de cloud privés et garantit un accès à la puissance de calcul pour les acteurs universitaires et scientifiques, au service de la recherche et de l’innovation.
Recommandation n° 22 : Poursuivre et intensifier les investissements dans le développement de supercalculateurs à l’échelle européenne, afin de garantir un accès élargi et souverain à la puissance de calcul pour l’ensemble des acteurs publics et privés de la recherche et de l’innovation.
Vos rapporteurs relèvent que l’ouverture des supercalculateurs publics à des acteurs privés, bien que déjà amorcée dans le cadre de certains programmes européens comme ceux de l’entreprise commune EuroHPC, reste encore limitée, peu lisible et inégalement mise en œuvre selon les infrastructures. Dans un contexte de besoin croissant en capacités de calcul, notamment pour les start-up et PME innovantes, ils estiment nécessaire de structurer plus clairement cette ouverture.
Recommandation n° 23 : Inviter le Gouvernement et les opérateurs de supercalculateurs publics à définir un cadre d’accès ouvert, transparent et non discriminatoire pour les acteurs privés, contre rémunération, en veillant à préserver la priorité d’usage réservée à la recherche académique, et à articuler cette démarche avec les initiatives européennes déjà existantes.
2. Des infrastructures nationales et européennes à promouvoir
a. Un atout industriel européen géostratégique à protéger : ASML
i. Un monopole technologique total, indispensable dans la chaîne de valeur de l’IA
ASML, société néerlandaise fondée en 1984 et dirigée pour la seconde fois par un Français, Christophe Fouquet ([754]), est aujourd’hui le seul fabricant mondial ([755]) ([756]) de systèmes de lithographie EUV (Extreme Ultraviolet), capables de graver des circuits à l’échelle nanométrique (moins de 5 nm), indispensables à la fabrication des processeurs avancés utilisés dans l’intelligence artificielle, notamment les GPU et NPUs. Ces machines, d’une complexité extrême et coûtant entre 150 et 380 millions de dollars pièce ([757]), représentent un goulot d’étranglement technologique, car aucun concurrent (Canon, Nikon) ne dispose d’une technologique comparable dans la lithographie EUV (les concurrents se situent sur le segment de la lithographie DUV).
Grâce à ce monopole total sur le segment de l’EUV et de position dominante sur le DUV ([758]), en novembre 2024, ASML était la quatrième entreprise la plus valorisée d’Europe et la deuxième société technologique européenne en termes de capitalisation boursière, avec une valeur d’environ 264 milliards de dollars américains ([759]).
Le marché de la lithographie EUV, estimé à environ 24 milliards USD en 2025 et en croissance annuelle moyenne de 10 % ([760]), représente un segment crucial de l’industrie des semi‑conducteurs ([761]) mondiale.
Croissance prévue du marché mondial de la lithographie EUV, 2025-2030
Source : Mordor intelligence, EUV Lithography Market Size & Share Analysis - Growth Trends & Forecasts (2025 - 2030) , 2025
Le leadership technologique d’ASML place cette entreprise au cœur des stratégies industrielles des États-Unis ([762]) et de l’Union européenne ([763]), notamment dans le cadre des programmes « Chips Act » visant à réinternaliser des capacités de production de semi-conducteurs, face au risque géostratégique que représente la position dominante de la société taïwanaise TSMC.
ASML est aujourd’hui l’unique fournisseur mondial de machines de lithographie extrême ultraviolet (EUV), technologie indispensable pour la production de puces avancées inférieures à 5 nm et la poursuite de la loi de Moore dans le domaine. Ses travaux sur la prochaine génération de systèmes dits « High-NA EUV » devraient permettre d’atteindre des nœuds technologiques inférieurs à 2 nm ([764]), essentiels pour le développement de l’intelligence artificielle et des applications de calcul intensif.
À ce titre, ASML constitue un pilier stratégique pour la compétitivité technologique européenne. Sans l’existence d’ASML, la chaîne d’approvisionnement mondiale des semi-conducteurs de pointe serait gravement compromise ([765]) :
– la fabrication de processeurs avancés (5–3–2 nm) deviendrait impossible à grande échelle, freinant la progression des modèles d’intelligence artificielle et retardant l’innovation numérique. Or, ces nœuds sont nécessaires pour entraîner et déployer des modèles de type LLM (large language models) comme GPT-4, dont les besoins en puissance de calcul et en efficacité énergétique sont massifs ;
– aucun concurrent n’est en mesure, à court terme, de proposer une alternative crédible aux systèmes EUV d’ASML, ce qui bloquerait l’ensemble du marché et pénaliserait les leaders amont de l’IA (Nvidia, TSMC, Samsung, Intel) dépendants de ces équipements critiques ([766]) ;
– enfin, depuis 2019, les exportations d’EUV vers la Chine sont soumises à des restrictions strictes sous pression américaine ([767]). Cette situation renforce la position d’ASML comme levier dans la guerre technologique USA–Chine et pousse Pékin à entreprendre des stratégies d’autonomie longues et coûteuses.
ii. ASML : un atout géopolitique unique pour l’Europe dans la guerre des semi-conducteurs
La chaîne de valeur mondiale des semi-conducteurs repose aujourd’hui sur une hyper‑concentration d’acteurs : les puces avancées sont conçues par un acteur quasi‑monopolistique américain (Nvidia), fabriquées par un autre (TSMC à Taïwan), et leur production repose sur des machines de lithographie EUV fournies exclusivement par une entreprise européenne, ASML. Cette position confère à l’Europe un levier stratégique unique, alors même qu’elle ne représente que 10 % de la production mondiale ([768]) de semi‑conducteurs, contre 80 % pour l’Asie ([769]) (Taïwan, Corée du Sud et, de plus en plus, Chine).
La lithographie EUV (Extreme Ultraviolet) constitue un goulot d’étranglement technologique sans équivalent : sans ces machines, la production de puces avancées (5–3–2 nm) devient impossible. Comme l’envisage Chris Miller ([770]), une crise logistique (par exemple un blocus chinois sur les exportations de puces qu’elle fabrique) ou des mesures de rétorsion américaines (restrictions de licences d’usage des processeurs qu’ils conçoivent) fragiliseraient gravement les chaînes d’approvisionnement mondiales. Dans un tel scénario, l’Europe pourrait à son tour peser géopolitiquement en empêchant tout nouveau projet d’usine en Chine ou aux États-Unis, tant ASML est indispensable.
Comme le relève Douglas C. Youvan ([771]) (Monopolizing Innovation : The Strategic Role of ASML, 2024), ASML est devenu le pivot de la domination mondiale sur les semi-conducteurs. Vos rapporteurs considèrent stratégique pour l’Europe de capitaliser sur cette position en négociant des accords technologiques et financiers avec les géants de l’intelligence artificielle (Nvidia, OpenAI, etc.), tout en conditionnant les exportations d’EUV à des retombées industrielles et en consolidant ses partenariats intra-européens.
Face à ce constat, la maîtrise de la lithographie extrême ultraviolet (EUV) est devenue un enjeu central de la rivalité technologique entre les États-Unis et la Chine. Du côté américain, la stratégie repose sur un double mouvement : sécuriser l’accès aux machines EUV d’ASML tout en développant une capacité nationale de production, malgré les récentes déclarations du président des États-Unis exprimant sa volonté d’abroger le Chip Act ([772]). Le Chips and Science Act, doté de 52 milliards de dollars, finance des centres de recherche et de production, dont le récent EUV Accelerator d’Albany ([773]) , afin de réduire la dépendance vis-à-vis des technologies européennes et de bâtir une chaîne d’approvisionnement intégrée. Parallèlement, des acteurs privés comme Intel investissent massivement pour être les premiers à exploiter la nouvelle génération de machines High-NA EUV d’ASML ([774]).
À l’inverse, la Chine, frappée par les restrictions d’exportation imposées par les États-Unis et leurs alliés, poursuit une stratégie d’autonomie technologique totale. Pékin a mobilisé des financements estimés à 41 milliards de dollars ([775]) pour développer des alternatives nationales, notamment par l’intermédiaire de sociétés comme SMIC (Semiconductor Manufacturing International Corporation) et des partenariats publics-privés. Bien que des avancées aient été annoncées, la Chine reste encore dépendante des générations antérieures de machines (DUV) et accuse un retard technique conséquent dans la maîtrise des sources EUV, ce qui pourrait toutefois se réduire d’ici la fin de la décennie ([776]).
L’Union européenne, consciente de l’importance stratégique de sa filière des semi‑conducteurs, dispose depuis septembre 2023 d’un Chips Act. Ce dispositif, doté d’un budget public‑privé de plus de 43 milliards d’euros, vise à renforcer la R&D, la production et la résilience des chaînes d’approvisionnement européennes. Toutefois, un rapport de la Cour des comptes européennes le considère comme trop fragmenté et probablement insuffisant pour garantir l’objectif de 20 % de parts de marché mondial d’ici 2030 ([777]). En réponse, les industriels du domaine ([778]) appellent à un Chips Act 2.0 pour accélérer les financements, simplifier les procédures et soutenir toutes les étapes de la chaîne, du design à l’outillage.
Dans cet écosystème, ASML constitue un pilier essentiel. Son avance technologique sur la lithographie EUV lui confère un monopole critique, ce qui en fait un véritable atout géopolitique pour l’Union européenne. La stratégie européenne doit donc s’appuyer sur une politique tripartite : promouvoir (financer la R&D et l’innovation), protéger (par des contrôles à l’exportation encadrés) et nouer des partenariats industriels solides. Ce cadre vise à préserver l’avantage compétitif d’ASML tout en développant un écosystème robuste capable de limiter la dépendance extérieure ([779]).
Enfin, l’Europe doit encourager les partenariats stratégiques d’ASML, tant avec des géants industriels comme Intel ([780]) qu’avec de jeunes pousses innovantes telles que xLight ([781]). Ces collaborations permettent de maintenir la course technologique et d’innover à la périphérie du système EUV. Intel, qui détient une participation dans ASML grâce à un investissement majeur, bénéficie déjà des premières machines High‑NA EUV, conférant à la fois à ASML et à l’Europe une avance industrielle. Par ailleurs, l’essor de xLight, start-up financée à hauteur de 40 millions de dollars dans le cadre d’un partenariat annoncé avec ASML, illustre comment des entreprises européennes de pointe, en développant des coopérations avec des acteurs spécialisés aux États-Unis, peuvent externaliser une partie du risque d’innovation. Elles sont ainsi en mesure de capter de nouvelles technologies, tout en consolidant leur leadership face aux ambitions chinoises et américaines dans l’EUV.
b. Gagner en puissance de calcul
Le constat est clair : la France et l’Europe accusent un retard stratégique dans le domaine des infrastructures de calcul intensif, essentielles au développement et au déploiement de l’intelligence artificielle. Ce retard s’exprime tant en matière de capacités installées que de maîtrise industrielle sur l’ensemble de la chaîne de valeur (puces, cloud, logiciels, etc.). Les États-Unis dominent largement, portés par des investissements massifs et un écosystème technologique intégré. La Chine mobilise ses ressources à grande échelle pour rattraper ce retard et tendre vers une autonomie complète. À l’inverse, l’Europe reste marginale, dépendante des importations de technologies critiques, en particulier américaines, pour couvrir ses besoins en puissance de calcul.
Cette dépendance compromet la souveraineté numérique et industrielle de l’Union européenne, à un moment où l’intelligence artificielle est appelée à devenir une infrastructure stratégique transversale. Le maintien d’une telle situation réduirait l’Europe au rang d’utilisatrice passive de technologies conçues et contrôlées par d’autres puissances, avec un risque de perte d’autonomie technologique, de maîtrise des normes et de sécurité d’accès, en particulier en contexte de crise géopolitique.
La France dispose de plusieurs atouts qu’il convient désormais de porter à l’échelle européenne : un mix électrique faiblement carboné, potentiellement compétitif, des acteurs industriels et universitaires reconnus dans le domaine du HPC et de l’IA, et une volonté politique affirmée de souveraineté numérique. Dans ce contexte, vos rapporteurs estiment que l’objectif de porter la capacité française à 10 % de celle des États-Unis d’ici 2028 est pertinent à titre d’étape intermédiaire structurante.
Dès lors, vos rapporteurs appellent de leurs vœux la conduite d’une politique industrielle européenne et française de la puissance de calcul, combinant un soutien financier massif à l’investissement dans des centres de calcul de très grande échelle et une simplification réglementaire pour accélérer leur déploiement, notamment en matière d’accès à l’énergie, de raccordement réseau et de procédures d’implantation.
Recommandation n° 24 : Promouvoir une politique industrielle européenne de la puissance de calcul, en articulation avec la stratégie française, fondée à la fois sur un soutien financier accru aux centres de calcul de très grande échelle et sur une simplification des règles pour faciliter leur déploiement, notamment en matière d’énergie, de raccordement électrique et d’implantation.
i. Renforcer l’investissement européen dans les capacités de calcul intensif
Ce déséquilibre expose l’Europe et la France à une dépendance dangereuse. Si l’entraînement et l’hébergement des modèles d’IA les plus avancés reposent sur des serveurs américains, l’Europe risque de perdre toute marge de manœuvre, devenant vulnérable à d’éventuels chantages géopolitiques. Pour préserver sa souveraineté technologique, il ne s’agit pas de viser l’autarcie absolue – aucun pays n’est autosuffisant sur toute la chaîne –, mais de garantir un socle minimal de puissance de calcul sur le sol européen et français, condition de la puissance économique de demain. Or, vos rapporteurs considèrent que le fossé actuel est tel que combler le retard demandera des investissements gigantesques, ambitieux et coordonnés.
Les besoins d’investissements à consentir sont considérables. Selon les estimations disponibles ([782]), la France devrait déployer entre 5 et 6 gigawatts (GW) de puissance de calcul dédiée à l’IA d’ici 2028, soit environ 10 % de la capacité américaine actuelle, afin de simplement refléter son poids dans le produit intérieur brut mondial. Un tel objectif supposerait un effort financier estimé entre 200 et 250 milliards d’euros. Cela représenterait plus de deux fois le montant de 109 milliards annoncé par le président de la République ([783]).
À l’échelle européenne ([784]), viser une part de 15 à 20 % de la puissance de calcul mondiale à l’horizon 2030 impliquerait d’atteindre environ 20 GW de capacité installée, pour un coût cumulé compris entre 600 et 850 milliards d’euros. Ces montants, rapportés à l’effort actuel, montrent l’ampleur du décalage. Par comparaison, le plan européen InvestAI ne prévoit aujourd’hui que 20 milliards d’euros ([785]) pour financer des « AI Factories », principalement destinées à la recherche publique, et le programme EuroHPC ([786]) rassemble péniblement 7 milliards d’euros sur l’ensemble de la période 2021-2027. Des initiatives européennes commencent à voir le jour : le plan EU Chips Act pour stimuler la production de semi-conducteurs ; le programme EuroHPC pour financer des supercalculateurs ; toutefois, leur ampleur reste modeste au regard des dépenses américaines et asiatiques dans ce domaine ([787]).
Le plan « AI Continent » ([788]) et l’initiative InvestAI
Lancé en avril 2025 par la Commission européenne, le plan « AI Continent » vise à faire de l’Union européenne un acteur majeur et autonome dans le domaine de l’intelligence artificielle. Il repose sur un constat d’urgence : l’UE est distancée par les États-Unis et la Chine, tant en matière de capacités de calcul que de maîtrise industrielle. Pour combler ce retard, le plan s’articule autour de plusieurs axes, dont le plus structurant est l’initiative InvestAI, conçue pour financer l’émergence d’un écosystème industriel souverain dans le domaine de l’IA.
L’objectif affiché d’InvestAI ([789]) est de mobiliser 200 milliards d’euros d’investissements publics et privés à l’échelle du continent. Les 200 milliards d’euros proviendront en grande partie de l’AI Champions Initiative ([790]), une initiative privée réunissant plus de 60 entreprises européennes ayant promis 150 milliards d’euros pour « porter une vision positive de l’Europe ». La contribution de la Commission européenne viendrait compléter ce montant à hauteur de 50 milliards d’euros, portant ainsi le total à 200 milliards d’euros. Ce montant comprend notamment 20 milliards d’euros de financements publics européens destinés à soutenir la construction de quatre à cinq « AI gigafactories ». Ces infrastructures sont des centres de calcul de très grande puissance, conçus pour accueillir jusqu’à 100 000 processeurs spécialisés dans l’IA chacun, et assurer l’entraînement des modèles de fondation à la pointe de la recherche. À ce jour, la localisation et le calendrier précis de ces installations restent à confirmer, mais elles visent à former un socle stratégique pour la compétitivité future de l’IA européenne.
Source : Travaux de la mission.
Le plan « AI Continent » constitue donc une première étape de structuration stratégique. Mais sans un changement d’échelle financier suffisant, le fossé avec les leaders mondiaux de l’IA pourrait se creuser durablement. À titre de comparaison, le plan InvestAI, qui vise à mobiliser 200 milliards d’euros à l’échelle européenne, reste d’une ampleur modeste face aux initiatives actuellement engagées aux États-Unis. Le projet américain Stargate, porté par Microsoft et OpenAI, représente à lui seul un investissement annoncé de 500 milliards de dollars ([791]), soit plus du double du plan européen.
Face à ce constat, vos rapporteurs estiment qu’un changement d’échelle est indispensable sur le plan financier. Cela implique d’une part une mobilisation massive de financements, publics et privés, à l’image des annonces récentes du Président de la République en France, mais aussi, et surtout, un pilotage stratégique de ces investissements à l’échelle européenne. Afin de réunir les montants nécessaires susvisés supra à la construction de ces infrastructures critiques, vos rapporteurs formulent deux recommandations principales.
Premièrement, vos rapporteurs proposent d’activer des leviers financiers comparables à ceux du plan NextGenerationEU, en recourant notamment à une logique d’obligations communes ciblées sur le soutien aux clusters de calcul et à l’approvisionnement énergétique associé.
Recommndation n° 25 : Émettre des obligations pan-européennes dédiées au financement des infrastructures critiques de calcul intensif, en particulier pour les besoins de l’IA et de l’énergie.
Deuxièmement, si la France et l’Europe souhaitent développer un socle minimal de puissance de calcul en vue d’une autonomie stratégique, un effort financier subséquent devra être atteint. Pour atteindre les objectifs raisonnables respectivemeent de 10 % de capacité de calcul américaine d’ici 2028 pour la France et de 15-20 % pour l’UE d’ici 2030, cela représentera un effort financier estimé entre 200 et 250 milliards d’euros au niveau national et entre 600 et 850 milliards d’euros au niveau européen.
Recommandation n° 26 : Accroître significativement les investissements européens dans la puissance de calcul, en portant l’effort cumulé à 250 milliards d’euros pour la France à l’horizon 2028, puis entre 600 et 850 milliards d’euros pour l’Union européenne d’ici 2030.
Ces recommandations visent à créer les conditions d’un véritable rattrapage européen, sans lequel le continent demeurera durablement dépendant des plateformes étrangères pour l’entraînement, l’hébergement et l’accès aux modèles d’IA les plus avancés. Elles constituent le premier pilier d’une stratégie industrielle de reconquête dans le domaine des capacités critiques du XXIème siècle. Le second pilier, selon vos rapporteurs, est la simplification règlementaire.
ii. Lever les freins règlementaires et structurels au déploiement des centres de calcul
Le retard européen en matière de puissance de calcul pour l’IA ne tient pas qu’à un déficit de financement : les obstacles réglementaires et structurels ralentissent significativement le déploiement des centres de données en France et en Europe. Aujourd’hui, les projets de grande envergure, dont l’installation peut excéder 5 ans ([792]) ([793]), sont freinés par des démarches administratives lourdes (permis, études d’impact, urbanisme) et des délais prolongés pour le raccordement électrique. Ce décalage compromet la montée en puissance rapide des infrastructures critiques nécessaires à la souveraineté numérique.
Des mesures de simplification règlementaire en la matière ont déjà été initiées au niveau national. Le projet de loi de simplification de la vie économique ([794]), en cours d’examen devant le Parlement, intègre un article visant à qualifier par décret certains centres de données de « projets d’intérêt national majeur (PINM) » et ainsi à accélérer leur construction : le texte comporte des dispositions qui adaptent les procédures d’autorisations d’urbanisme, réduisent les délais des procédures de consultation publique et apportent des dérogations encadrées à certaines normes environnementales. Vos rapporteurs ne peuvent qu’appeler de leurs vœux ce statut en vue d’accélérer le déploiement d’infrastructures critiques pour l’IA.
En matière de simplification règlementaire, vos rapporteurs estiment que des enseignements pourraient être tirés de la démarche volontariste du Royaume-Uni pour lever les freins à l’implantation des infrastructures critiques que sont les centres de données. Le Royaume-Uni, a récemment lancé les AI Growth Zones ([795]), des zones géographiques bénéficiant d’un accès prioritaire à l’énergie et d’une simplification substantielle des procédures administratives (urbanisme, raccordement, régulation). Ces zones visent à attirer des investissements massifs dans les centres de données de nouvelle génération, tout en soutenant la réindustrialisation de certains territoires. Vos rapporteurs estiment que la France devrait s’inspirer de cette approche intégrée et complète, en identifiant des zones stratégiques d’accélération de l’IA qui seraient dotées d’un statut spécifique et d’un accès garanti à une énergie bas-carbone compétitive. Afin de donner une visibilité claire aux investisseurs et de valoriser les territoires concernés, vos rapporteurs proposent que ces zones soient reconnues par un label « territoire IA souverain », garantissant un régime simplifié et stable pour l’implantation de centres de données stratégiques.
Recommandation n° 27 : S’inspirer des AI Growth Zones britanniques pour instituer en France des zones d’accélération de l’intelligence artificielle, associant un accès prioritaire à l’électricité décarbonée (notamment nucléaire) à un régime administratif allégé pour l’implantation des centres de données stratégiques, tel un label « territoire IA souverain »
L’essor de l’intelligence artificielle transforme profondément le secteur de l’énergie, tout en en accentuant certaines tensions. Les centres de données, en particulier ceux spécialisés dans l’IA (hyperscalers), sont très énergivores : ils représentaient en 2024 environ 3 % de la consommation d’électricité de l’UE, avec des pointes locales allant jusqu’à 20 % en Irlande ([796]). Leur demande devrait plus que doubler d’ici 2030 ([797]). Cette concentration géographique exerce une pression croissante sur les réseaux électriques locaux, allonge les files d’attente pour les raccordements et crée des arbitrages délicats entre compétitivité, transition énergétique et accessibilité des infrastructures.
En réponse, l’UE a lancé plusieurs initiatives : le futur Cloud and AI Development Act (attendu fin 2025) ([798]) vise à tripler la capacité de traitement des données, tout en renforçant les exigences de durabilité. L’Union européenne prépare un ensemble de mesures réglementaires sur la performance énergétique, l’usage de l’eau et l’intégration des centres dans les réseaux électriques, dans le cadre du plan règlementaire 2026 pour les centres de données européens (ou « data centre energy efficiency package » ([799]) ([800]). Le marché européen a aussi adopté le Climate Neutral Data Centre Pact, un pacte industriel visant une neutralité carbone d’ici 2030, avec des standards communs (efficacité énergétique, réutilisation de la chaleur, approvisionnement renouvelable) certifiés indépendamment.
Paradoxalement, l’IA peut aussi contribuer à améliorer l’efficacité énergétique du système : optimisation des réseaux via les smart grids, intégration des énergies renouvelables, maintenance prédictive, pilotage intelligent des usages, ou encore gestion fine de la demande. Le développement de l’autoconsommation, le recours aux énergies bas carbone (renouvelables, nucléaire, petits réacteurs modulaires), et la récupération de chaleur sont également des leviers mobilisés. Le Parlement européen ([801]) insiste sur la nécessité d’une meilleure intégration des centres de données au sein du système énergétique et appelle à renforcer la souveraineté technologique de l’UE, alors que la majorité des grands centres européens appartiennent à des acteurs non européens. Le défi des prochaines années sera d’articuler montée en puissance numérique et sobriété énergétique dans un cadre durable, sécurisé et souverain.
Dans ce contexte, garantir l’accès prioritaire à une électricité décarbonée et bon marché, notamment via l’énergie nucléaire, constitue un levier essentiel, à condition que les modalités d’attribution et de tarification soient sécurisées et encadrées.
En matière énergétique, la France a des atouts d’attractivité majeurs pour accueillir des infrastructures critiques en IA. La France bénéficie d’un mix électrique largement dominé par le nucléaire (plus de deux tiers de sa production), ce qui la rend attractive pour des entreprises électrointensives cherchant une électricité bas carbone, telles que les centres de données. Afin d’accélérer ces projets, EDF a identifié sur ses terrains quatre sites ([802])dotés de connexions réseau déjà actives (représentant environ 2 GW d’électricité disponible). EDF discute actuellement avec plusieurs opérateurs pour alimenter jusqu’à 3 projets de centres de données de 1 GW chacun ([803]), en s’appuyant sur l’électricité nucléaire bas carbone française.
Malgré sa puissance nucléaire et les promesses d’investissements massifs dans l’intelligence artificielle (plus de 100 milliards d’euros), la France risque de ne pas pouvoir concrétiser rapidement son ambition de devenir un hub mondial de l’IA, en raison de difficultés à connecter rapidement les nouveaux centres de données au réseau électrique. Les centres de données se construisent en moins d’un an, mais les lignes à haute tension prennent en moyenne cinq ans ([804]) à être déployées, notamment à cause des procédures d’autorisation, des consultations publiques et des coûts. Actuellement, EDF est en discussion avec des opérateurs pour alimenter des centres de données de près de 1 GW chacun via des contrats directs ([805]), mais le raccordement réseau demeure un goulot d’étranglement réel, pouvant retarder certains projets de plusieurs années.
Recommandation n° 28 : Assurer l’attractivité du territoire français pour l’implantation de data centers, en prévoyant des mécanismes transparents de tarification ou des contrats à long terme pour garantir des prix compétitifs pour l’électricité bas-carbone, et en mettant en place une procédure de raccordement électrique accélérée.
C. Un capital-risque structurellement en retard : un frein au passage à l’échelle
Si l’Europe a accompli des progrès notables dans le soutien aux jeunes pousses technologiques, notamment en phase d’amorçage, elle reste structurellement désavantagée dans les phases de croissance avancée. Ce déficit de financement, souvent désigné comme le « scale-up gap », limite la capacité des entreprises innovantes européennes à franchir un cap décisif vers la maturité industrielle ou technologique. Il en résulte une fragilité persistante de l’écosystème, marquée par des levées de fonds moins ambitieuses, un recours croissant aux investisseurs extra-européens et une multiplication des acquisitions étrangères.
Ce phénomène est particulièrement préoccupant dans les secteurs stratégiques comme l’intelligence artificielle, qui exigent des investissements massifs, récurrents et de long terme. Faute de capitaux domestiques suffisants, nombre de start-up européennes, même prometteuses, peinent à rivaliser avec leurs homologues d’Amérique du Nord ou d’Asie et sont souvent contraintes de se tourner vers l’extérieur pour poursuivre leur développement. Cette dépendance nuit à la souveraineté technologique du continent, freine l’émergence de champions européens et affaiblit l’ancrage territorial de l’innovation.
Dans ce contexte, il apparaît essentiel de remédier aux causes profondes du retard européen en matière de capital-risque, notamment par une mobilisation accrue de l’épargne privée et institutionnelle, une réforme des contraintes prudentielles et une structuration ambitieuse de l’investissement public-privé. Le cas de l’intelligence artificielle, à la fois révélateur et amplificateur de ces tensions, illustre la nécessité d’un changement d’échelle rapide et structurant.
1. L’ampleur du retard européen en capital-risque de croissance
a. Un écosystème capital-risque en retard vis-à-vis des États-Unis, en particulier en financement « growth »
Le capital-risque européen reste très en dessous de celui des États-Unis, tant en volume investi qu’en taille des « tours de table ». En 2019, les start-up de l’Union européenne ont levé quatre fois moins de fonds que leurs homologues américaines – 34 milliards de dollars (Md$) contre 126 Md$, avec bien moins d’opérations ([806]).
Ce retard se creuse aux stades avancés : les levées de « late stage » (séries C, D et au-delà) ([807]) sont nettement plus faibles en Europe. Au 3ᵉ trimestre 2020, la médiane d’un tour late stage en Europe (Royaume-Uni inclus) ne représentait que la moitié de celle des États-Unis ([808]). Selon la Banque européenne d’investissement, le capital-risque investi chaque année dans les entreprises américaines est 6 à 8 fois supérieur à celui en Europe ([809]). En 2024, les jeunes pousses européennes devraient lever environ 45 Md$ de capital ([810]), ce qui reste bien en deçà des environ 140 Md$ estimés pour les start-up américaines la même année. Autrement dit, les États-Unis mobilisent plusieurs fois plus de capital-risque que l’Europe pour financer la croissance des entreprises innovantes. Ce fossé se reflète dans le nombre de « licornes » : fin 2020, on en comptait 33 dans l’UE (27) contre 236 aux États-Unis ([811]).
L’insuffisance de financement « growth » en Europe freine le passage à l’échelle de nombreuses start-up. À dix ans d’existence, une jeune pousse européenne a typiquement levé 50 % de moins de capital qu’une entreprise comparable de San Francisco ([812]). Beaucoup peinent donc à réunir les montants nécessaires aux phases de forte expansion. Faute d’investisseurs européens capables de suivre, ces start-up se tournent souvent vers l’étranger pour trouver des fonds. Plus de quatre levées de scale-up sur cinq en Europe ont un investisseur principal étranger, contre seulement 14 % à San Francisco ([813]). Concrètement, cela signifie que de nombreuses entreprises européennes accueillent des investisseurs de référence (lead investors) américains ou asiatiques lors de leurs séries C/D et ultérieures. Par exemple, la start-up française Mistral AI, fondée en 2023 pour développer des modèles d’IA générative, a réussi un tour de table record de 105 Md€ dès son amorçage, mené par le fonds américain Lightspeed Venture Partners ([814]).
Cet apport étranger, s’il permet de financer la croissance à court terme, s’accompagne souvent d’une prise de contrôle progressive par des intérêts non européens. De fait, beaucoup de pépites européennes finissent par être rachetées par des groupes américains ou par s’introduire en Bourse aux États-Unis, où les marchés financiers sont plus profonds ([815]). On l’a vu par exemple avec des acteurs comme DeepMind (IA, Royaume-Uni) racheté par Google ou, plus récemment, la fintech suédoise Klarna, qui a entamé des démarches pour une cotation aux États-Unis faute d’écosystème européen équivalent ([816]).
Ce phénomène de fuite des scale-ups à l’étranger constitue un cercle vicieux : il prive l’Europe de futurs champions technologiques et de role models locaux, entraînant un manque à gagner en termes d’innovation, d’emplois et de « flywheel effect » ([817]) (les entreprises leaders qui réinvestissent localement).
i. Un retard européen en phase de rattrapage pour les premières phases du financement
Le paysage européen du financement des jeunes entreprises technologiques a connu une croissance soutenue au cours de la dernière décennie, en particulier lors des premières phases d’amorçage. Entre 2018 et 2023, l’Europe a fondé en moyenne 15 200 start-up technologiques par an, contre 13 700 aux États-Unis ([818]). Le nombre d’entreprises en phase d’amorçage a plus que quadruplé, passant de 7 800 en 2015 à 35 000 en 2024 ([819]). Ce dynamisme repose notamment sur le rôle clé des « business angels », qui apportent non seulement des financements mais aussi un accompagnement stratégique et sectoriel essentiel à la réussite des projets. Le marché européen des business angels a ainsi progressé de manière significative, doublant en dix ans pour atteindre 1,25 Md€ ([820]) en 2023. Toutefois, ce niveau reste très inférieur à celui observé aux États-Unis, où les investissements des business angels s’élevaient à 18,6 Md$ la même année ([821]).
Évolution du capital-risque en Europe selon le stade de financement,
2015-2024
Source : Crunchbase, Europe’s Startup Funding Stabilized In 2024, But Remains Far Off Market Peak, 13 janvier 2025.
Premièrement, le financement européen de start-up a doublé depuis 2015, confirmant une trajectoire de croissance robuste malgré les fluctuations des marchés. Plus précisément, en 2024, les investissements totaux en Europe dépassent 51 Md$ ([822]). Cette progression n’est pas seulement quantitative : les fonds européens se diversifient, attirant davantage de capitaux internationaux (jusqu’à 40 % dans les fonds d’Europe centrale et orientale ([823])).
Deuxièmement, l’Europe se positionne désormais comme un acteur crédible dès l’early stage : plus de 35 000 start-up actives selon la Commission ([824]). De plus, la confiance des investisseurs européens remonte, atteignant un niveau solide en 2024, après avoir touché un creux en 2022 ([825]). Enfin, la part de l’IA et des technologies vertes continue de croître, représentant une part significative du capital investi, ce qui illustre non seulement une captation de fonds élevés mais aussi une montée en compétence dans les domaines stratégiques ([826]).
Toutefois, les fonds de capital-risque (VC) en Europe demeurent significativement plus petits que leurs homologues américains, tant en nombre qu’en taille. Cet écart est visible pour toutes les tranches de montants levés, mais il s’accentue à mesure que la taille des « tickets » augmente. Ainsi, entre 2016 et 2024, seuls douze fonds européens ont levé plus d’un milliard de dollars, contre 157 aux États-Unis ([827]).
Comparaison des levées de fonds VC entre l’UE et les États-Unis
(2016-2024)
ii. Les causes profondes du manque persistant de financement des entreprises en phase de croissance avancée (ou late stage gap)
Plusieurs facteurs systémiques, évoqués lors de l’audition des fonds Frst, Serena Capital et Resonance expliquent la difficulté à financer la croissance des start-up en Europe :
– Taille insuffisante et fragmentation des fonds européens : l’Europe souffre d’une multitude de fonds de capital-risque de petite taille, souvent circonscrits à un pays. Malgré les progrès récents, le nombre de fonds spécialisés de grande envergure reste limité en Europe ([828]). Chaque pays a développé ses propres dispositifs, menant à un morcellement des ressources. Contrairement aux États-Unis, dotés de quelques hubs majeurs (Silicon Valley, NYC, Boston) alimentés par d’immenses fonds, l’UE compte de nombreux petits écosystèmes régionaux. Cette fragmentation géographique, culturelle et réglementaire entrave les investissements transfrontaliers et la constitution de « tours » vraiment massifs ([829]).
La fragmentation du marché européen du capital-risque limite aussi les opportunités de sortie en Europe (exit ([830]) et IPO ([831])) : les marchés boursiers y sont moins liquides et intégrés, offrant moins de possibilités d’IPO locales réussies – en 2015, seulement 2,6 % des IPO en Europe étaient celles de start-up financées par VC, contre 16,4 % aux États-Unis ([832]).
– Faible appétit pour le risque des investisseurs institutionnels européens. Contrairement aux États-Unis, le capital-risque européen souffre d’un manque de soutien structurel des grands investisseurs institutionnels ([833]). Aux États-Unis, fonds de pension, compagnies d’assurance, endowments universitaires, fonds de fonds et family offices alimentent massivement le capital-risque. Cela tient en partie à la structure même de l’épargne et de la protection sociale : les fonds de pension privés européens gèrent des encours bien moindres qu’aux États-Unis (les retraites étant largement publiques en Europe). En Europe, les fonds de pension n’investissent que 0,01 % de leurs 9 000 Md$ d’actifs dans le VC, contre 0,029 % pour leurs homologues américains ([834]).
De plus, les assureurs et gérants européens affichent historiquement une aversion au risque plus forte, se traduisant par une sous-exposition aux actifs technologiques et non cotés. En France, les actifs des assureurs-vie ne comptent que 7 % de valeurs technologiques, contre 19 % pour les assureurs américains ([835]). Malgré une progression récente, les fonds de pension européens investissent encore plus de trente fois moins dans le venture capital que dans le capital-investissement traditionnel ([836]) (LBO). Plusieurs raisons expliquent cette frilosité : le rendement du VC européen a longtemps été perçu comme trop faible pour le risque encouru, du fait de la petite taille des fonds et d’un manque d’expérience opérationnelle, ce qui a refroidi les grands investisseurs ([837]).
S’y ajoutent des contraintes réglementaires : dans le cadre prudentiel dressé par la directive dite « Solvabilité II », une assurance européenne doit provisionner un capital important (charges de 49 %) pour tout investissement en actions non cotées, un niveau de prudence bien plus strict que pour d’autres actifs ([838]). Cela désincite fortement les assureurs, pourtant pourvoyeurs naturels d’épargne longue, à investir dans ces secteurs.
La révision de la directive Solvabilité II ([839]), adoptée en 2024 et en cours de transposition (entrée en application en 2026), introduit un régime prudentiel allégé pour les investissements en actions de long terme (long-term equity investments – LTEI), avec une exigence en capital réduite à 22 % ([840]) (contre 49 % dans le régime standard). Cette évolution vise à encourager les assureurs à financer des projets stratégiques à horizon long.
Le texte de compromis permet désormais l’éligibilité des fonds d’investissement au régime LTEI, à condition qu’ils soient considérés comme « à faible risque ». Mais cette notion, non définie à ce stade, est renvoyée aux futurs actes délégués au niveau national ([841]). Il existe donc une fenêtre politique décisive pour en influencer les contours, notamment dans le sens d’une reconnaissance des fonds technologiques stratégiques comme véhicules éligibles.
Des latitudes d’interprétation sont laissées aux superviseurs. Les exigences de valorisation, de transparence et de suivi prudentiel (reporting) pourront varier d’un État membre à l’autre, pouvant créer une fragmentation du marché européen et décourager l’adoption du LTEI dans les secteurs émergents, plus volatils ou plus difficiles à évaluer (IA, deep techs, biotechs, etc.).
Les critères d’éligibilité restrictifs (durée minimale de détention, absence de revente anticipée, forte diversification) limitent pour l’heure la portée de cette réforme, en particulier pour des secteurs émergents comme l’intelligence artificielle.
Face à ce constat, vos rapporteurs appellent à assouplir les contraintes prudentielles pesant sur l’investissement dans le non-coté au niveau assurantiel. Vos rapporteurs constatent également que si certaines évolutions relèvent encore des actes délégués européens, la réforme de la directive Solvabilité II laisse toutefois une marge d’interprétation significative aux régulateurs nationaux, en particulier sur la qualification des véhicules « low risk » et les exigences de valorisation ou de reporting.
Dans ce cadre, le législateur français peut utilement intervenir pour favoriser l’éligibilité des fonds technologiques stratégiques au régime LTEI, notamment dans le domaine de l’intelligence artificielle, en définissant des critères d’appréciation proportionnés aux spécificités de ces actifs.
Recommandation n° 29 : Adapter les règles de Solvabilité II pour permettre aux assureurs d’investir plus facilement dans l’IA, en élargissant le régime des investissements de long terme (LTEI) aux fonds technologiques stratégiques, afin de mobiliser leur épargne au service de l’innovation tout en gardant des garanties de sécurité.
– Culture entrepreneuriale et demande de financement plus faibles : du côté des fondateurs eux-mêmes, l’Europe souffre d’un déficit d’entreprises cherchant l’hyper-croissance ([842]) financée par capital externe. De nombreuses jeunes pousses européennes préfèrent l’autofinancement ou la croissance modérée : 60 % des entrepreneurs high-tech interrogés ne recherchent pas d’investissement en capital, estimant ne pas en avoir besoin ([843]) ; 15 % ([844]) disent même le refuser par crainte d’une perte de contrôle de leur entreprise. Cette attitude, liée en partie à une culture du risque moins prononcée et à la peur de la dilution, limite mécaniquement le deal-flow de qualité pour les « capital-risqueurs » ([845]) européens. La mission observe toutefois une inflexion dans cet état d’esprit, portée par l’émergence d’une nouvelle génération de fondateurs plus audacieux. Néanmoins, la culture de l’ambition à grande échelle – comme en témoignent le positionnement stratégique du fonds Frst en capital-risque ou l’approche de Mistral AI dans le domaine des modèles de langage – demeure moins ancrée en France qu’aux États-Unis, où la volonté de devenir rapidement un acteur de rang mondial tend à primer sur la crainte de l’échec ou de la dilution par rachat.
L’écosystème financier européen est à la fois moins profond et moins tolérant au risque, ce qui crée un véritable « scale-up gap » ou, autrement dit, un déficit structurel en matière de passage à l’échelle. Les entreprises innovantes européennes se heurtent à un « mur de financement » au-delà des premiers tours, risquant une rupture de leur trajectoire de croissance.
L’ensemble de ces facteurs expliquent également la sous-performance européenne en matière de licornes. Début 2025, l’Union européenne comptait 110([846]) entreprises valorisées à plus d’un milliard de dollars, un chiffre nettement inférieur à celui des États-Unis (687) et également en deçà de celui observé en Chine (162).
Nombre de « licornes » selon les pays, janvier 2025.