N° 1862
______
ASSEMBLÉE NATIONALE
CONSTITUTION DU 4 OCTOBRE 1958
DIX-SEPTIÈME LÉGISLATURE
Enregistré à la Présidence de l’Assemblée nationale le 24 septembre 2025.
RAPPORT D’INFORMATION
DÉPOSÉ
en application de l’article 145 du Règlement
PAR LA COMMISSION DES AFFAIRES ÉCONOMIQUES
relatif aux effets de l’intelligence artificielle sur l’activité économique et la compétitivité des entreprises françaises
ET PRÉSENTÉ PAR
Mme Emmanuelle HOFFMAN et M. Antoine GOLLIOT
Députés
——
La mission d’information relative aux effets de l’intelligence artificielle sur l’activité économique et la compétitivité des entreprises françaises est composée de :
Mme Emmanuelle Hoffman et Antoine Golliot, rapporteurs ;
MM. Charles Alloncle, Pascal Lecamp, Laurent Lhardit, René Pilato et Mme Danielle Simonnet, membres.
SOMMAIRE
___
Pages
1. Une offre de solutions techniques à l’origine d’un nouveau secteur économique
b. Un écosystème dynamique de start-up développant des procédés et applications spécifiques
i. Un marché en expansion et une adoption croissante
ii. L’IA présente à toutes les étapes de soins
iii. IA et amélioration de la sécurité des patients
iv. IA générative et découverte de nouveaux médicaments
v. IA et santé mentale : suivi et prévention des troubles
vi. Obstacles et enjeux spécifiques de l’IA en santé
e. Automatiser, optimiser, sécuriser : l’IA à l’épreuve des réseaux télécoms
a. Des gains déjà tangibles d’amélioration de l’efficacité au travail
b. De nouvelles perspectives ouvertes par l’agentification
c. L’IA et la robotique : vers des assistants polyvalents ?
B. des effets encore restreints ou inÉgaux À l’Échelle de l’appareil productif français
a. Un manque de recul et des difficultés d’évaluation statistique
b. Des effets ambivalents sur le PIB, la productivité globale des facteurs (PGF)
i. Une nouvelle révolution industrielle
ii. Un effet globalement positif mais toujours incertain
c. Les limites structurelles et l’hypothèse d’un effet transitoire
i. Un effet transitoire et limité ?
2. Des disparités de développement au sein du tissu économique
a. Selon les secteurs d’activité
b. Selon la taille des entreprises
c. Des enjeux différenciés en matière de coûts
3. L’appropriation de l’IA : un enjeu diversement identifié
b. La nécessité de favoriser la porosité entre le monde de la recherche et celui des entreprises
1. Une inégalité des armes face à des géants de la tech
a. Un leadership français dans l’IA et le cloud, mais un rapport de force inégal
b. Un écosystème dynamique mais insuffisamment protégé
c. Miser sur des IA spécialisées en complément du développement de l’écosystème européen
a. Des barrières à l’entrée élevées et des positions dominantes consolidées
b. Les risques concurrentiels identifiés par l’Autorité de la concurrence
c. Un cadre réglementaire à adapter pour préserver des marchés contestables
3. Mobiliser les leviers de la commande publique pour rééquilibrer les rapports de force
a. Des politiques proactives via la commande publique aux États-Unis et en Chine
b. Un cadre européen longtemps ouvert qui limite l’émergence de champions locaux
c. Faire de la préférence européenne le principe directeur des achats publics
i. Vers une « préférence européenne » dans la commande publique ? Un principe déjà acté
1. Une domination incontestée des États-Unis et de la Chine dans les infrastructures critiques
a. Domination du cloud : 63 % du marché mondial aux GAFAM
i. Un marché mondial dominé par les acteurs américains et chinois
ii. Concentration du marché européen et déclin des parts de marché des acteurs locaux
iii. Une domination aux conséquence délétères pour l’IA
iv. Reprendre la maîtrise stratégique du cloud par l’action normative
b. La puissance de calcul : un enjeu stratégique dominé par les géants américains
i. Processeurs et accélérateurs : un quasi-monopole américain
ii. Une lueur d’espoir européenne à relativiser
iii. La Chine : vers une alternative émergente ?
d. Supercalculateurs : les États-Unis en tête, l’Europe à la traîne, la Chine dans l’ombre
2. Des infrastructures nationales et européennes à promouvoir
a. Un atout industriel européen géostratégique à protéger : ASML
i. Un monopole technologique total, indispensable dans la chaîne de valeur de l’IA
ii. ASML : un atout géopolitique unique pour l’Europe dans la guerre des semi-conducteurs
b. Gagner en puissance de calcul
i. Renforcer l’investissement européen dans les capacités de calcul intensif
ii. Lever les freins règlementaires et structurels au déploiement des centres de calcul
C. Un capital-risque structurellement en retard : un frein au passage à l’échelle
1. L’ampleur du retard européen en capital-risque de croissance
i. Un retard européen en phase de rattrapage pour les premières phases du financement
i. IA : une part croissante du capital-risque
ii. Des start-up IA européennes en mal d’échelle
iii. Des trajectoires freinées et des exits : le cas des start-up IA européennes
c. Quelques pistes pour combler le retard : initiatives publiques et leviers d’action
i. Mobiliser l’épargne institutionnelle et privée vers la tech en général et l’IA en particulier
ii. Créer des fonds publics-privés de « late stage »
iii. Remédier à l’absence de marché unique des capitaux
2. Des instruments de soutien public à conforter
b. Assurer l’efficacité des financements publics nationaux à l’innovation
1. Un enseignement supérieur disposant de savoirs théoriques et pratiques d’excellence
2. Un enseignement scolaire répondant aux besoins de l’IA ?
a. Des technologies dont le développement exige un nombre croissant et une diversité de profils
b. Une acculturation et des apprentissages nécessaires dans le cadre du cursus scolaire
c. Encourager l’orientation des jeunes filles vers les filières de l’IA
3. Un effort à maintenir dans le domaine scientifique
a. Un effort de recherche en matière d’IA demeurant du ressort de grands acteurs privés et publics
c. Une attractivité scientifique à conforter
E. FAVORISER L’appropriation de l’ia dans la marche des entreprises et sur le marche du travail
1. Des effets contrastés sur l’emploi et les conditions de travail
b. Une innovation source de chômage technologique ?
a. Un risque de déqualification ?
b. Une nécessaire adaptation des cadres et outils de la formation continue
3. Un approfondissement nécessaire du dialogue social face à des mutations d’ampleur
a. Des enjeux assez diversement appréhendés selon les entreprises
b. Des cadres de suivi et de négociation à formaliser ?
ii. Des procédures d’une portée incertaine suivant le contexte social et la conduite des projets
1. Une technologie ne rendant pas inopérantes les obligations régissant les secteurs d’activités
a. Des applications pouvant être déjà assez largement appréhendées par le droit général
b. Un droit de la responsabilité civile à consolider ?
ii. Des régimes de responsabilité extracontractuelle moins opérationnels ?
2. Un encadrement spécifique porteur d’un risque de surréglementation ?
a. Un « IA Act » fondé sur une approche par risques appropriée ?
b. Un instrument de droit spécifique source de conflits de normes ?
3. Un besoin de simplification dans l’application
a. Une nécessaire consolidation du classement et des conditions de conformité des SIA
c. L’utilité d’une pédagogie active sur le terrain
B. inscrire le dÉveloppement de l’ia Dans la consolidation d’une Économie de la donnÉe
i. Une maturité inégale de la gestion des données au sein des entreprises
i. Un déploiement de « communs numériques » à poursuivre à l’échelle nationale
ii. Des outils offrant de nouvelles opportunités à l’échelle européenne
b. Les données de santé : un patrimoine public à mieux valoriser
i. Un système national des données de santé conçu à des fins d’éclairage des politiques publiques
3. Une valorisation de la langue française nécessaire dans l’affirmation de l’écosystème national
Liste des personnes auditionnÉes
Gouvernance et structuration de l’écosystème
Le développement de l’intelligence artificielle en France et en Europe suppose une organisation claire de l’écosystème. Cela passe par des relais territoriaux, des guichets spécialisés, des réseaux européens et des dispositifs de mutualisation permettant de partager l’expertise et d’assurer la cohérence des initiatives.
Recommandation n° 1 : Renforcer le rôle des réseaux locaux (CCI, CMA, pôles de compétitivité) dans l’information et la sensibilisation des entreprises à l’IA, avec une attention particulière concernant les TPE-PME, en s’appuyant sur les dispositifs existants, tels que le programme des Ambassadeurs IA, afin de mieux les mobiliser et de les valoriser.
Recommandation n° 2 : Structurer un dispositif intégré de transfert technologique en mobilisant et en adaptant les outils nationaux (Centres techniques industriels – CTI – et Instituts Carnot) et les infrastructures européennes (AI Factories), afin d’accompagner les PME, start-up et filières stratégiques dans l’appropriation et l’intégration des technologies d’intelligence artificielle grâce à investissement capital exigeant l’accès de ressources stratégiques et un environnement propice.
Recommandation n° 17 : Créer guichet unique dédié à l’intelligence artificielle au sein du ministère de l’Économie, pour faciliter l’accès des PME et start-up françaises à la commande publique et fluidifier le dialogue entre l’État et l’écosystème numérique.
Recommandation n° 3 : Encourager la constitution d’écosystèmes locaux associant entreprises, collectivités territoriales, centres de recherche et opérateurs de data centers, afin de mutualiser les compétences et de favoriser le développement de projets collaboratifs en intelligence artificielle.
Stratégie industrielle et souveraineté technologique
La maîtrise des technologies clés, le contrôle des infrastructures critiques et une régulation adaptée sont indispensables pour garantir la souveraineté numérique et industrielle de l’Europe, et protéger ses acteurs face à la concurrence mondiale.
Recommandation n° 4 : Face aux fragilités structurelles de l’écosystème européen et à la domination des hyperscalers étrangers, compléter les initiatives en faveur de modèles généralistes par un effort public renforcé sur le développement d’intelligences artificielles spécialisées dans des secteurs critiques (santé, défense, renseignement), afin de garantir la souveraineté technologique de l’Union européenne dans ces domaines.
Recommandation n° 10 : Élargir la doctrine des infrastructures essentielles développée par la Commission européenne, afin de garantir à tous les acteurs un accès équitable aux ressources critiques du secteur (GPU de dernière génération, clouds souverains, API d’IA générative).
Recommandation n° 22 : Poursuivre et intensifier les investissements dans le développement de supercalculateurs à l’échelle européenne, afin de garantir un accès élargi et souverain à la puissance de calcul pour l’ensemble des acteurs publics et privés de la recherche et de l’innovation.
Recommandation n° 23 : Inviter le Gouvernement et les opérateurs de supercalculateurs publics à établir des règles d’accès transparentes et non discriminatoires pour les acteurs privés, contre rémunération, en veillant à préserver la priorité d’usage réservée à la recherche académique, et à articuler cette démarche avec les initiatives européennes déjà existantes.
Recommandation n° 24 : Promouvoir une politique industrielle européenne de la puissance de calcul, en articulation avec la stratégie française, fondée à la fois sur un soutien financier accru aux centres de calcul de très grande échelle et sur une simplification des règles pour faciliter leur déploiement, notamment en matière d’énergie, de raccordement électrique et d’implantation.
Recommndation n° 25 : Émettre des obligations pan-européennes dédiées au financement des infrastructures critiques de calcul intensif, en particulier pour les besoins de l’IA et de l’énergie.
Recommandation n° 26 : Accroître significativement les investissements européens dans la puissance de calcul, en portant l’effort cumulé à 250 milliards d’euros pour la France à l’horizon 2028, puis entre 600 et 850 milliards d’euros pour l’Union européenne d’ici 2030.
Recommandation n° 27 : S’inspirer des AI Growth Zones britanniques pour instituer en France des zones d’accélération de l’intelligence artificielle, associant un accès prioritaire à l’électricité décarbonée (notamment nucléaire) à un régime administratif allégé pour l’implantation des centres de données (data centers) stratégiques tel un label « territoire IA souverain ».
Recommandation n° 28 : Assurer l’attractivité du territoire français pour l’implantation de centres de données, en prévoyant des mécanismes transparents de tarification ou des contrats à long terme pour garantir des prix compétitifs pour l’électricité bas-carbone, et en mettant en place une procédure de raccordement électrique accélérée.
Régulation de la concurrence et acquisitions stratégiques
Les règles de concurrence et les outils de contrôle doivent évoluer afin de prévenir les risques de concentration, de monopole ou d’éviction des acteurs européens par des entreprises non européennes, notamment dans le domaine des marchés publics et des acquisitions stratégiques.
Recommandation n° 5 : Inviter la Commission européenne à surveiller le développement des services d’intelligence artificielle accessibles à distance (Model as a Service) et, si les critères du règlement sur les marchés numériques (DMA) sont réunis, envisager la désignation de certains fournisseurs comme contrôleurs d’accès afin de garantir un accès équitable au marché.
Recommandation n° 6 : Mettre en place, au niveau européen, ou à défaut au niveau national, une obligation de notification pour tout rachat ou prise de participation par un acteur non européen dans les secteurs de l’intelligence artificielle et du cloud, incluant les opérations de type acqui-hire, afin de mieux protéger l’écosystème européen.
Recommandation n° 7 : Instaurer un mécanisme d’inversion de la charge de la preuve pour les acquisitions précoces dans les secteurs de l’intelligence artificielle et du cloud par des acteurs non-européens, afin d’imposer à l’acquéreur de démontrer le caractère proconcurrentiel de l’opération.
Recommandation n° 8 : Étendre le contrôle des concentrations au niveau national et européen aux stratégies d’acqui-hire dans le secteur stratégique de l’intelligence artificielle.
Recommandation n° 9 : À l’occasion de l’obligation d’information des concentrations prévue à l’article 14 du DMA, prévoir que les contrôleurs d’accès (« gatekeepers ») transmettent également à la Commission européenne la liste de leurs participations minoritaires dans des entreprises du même secteur que la cible, afin de permettre une détection plus précoce des stratégies d’éviction. (Autorité de la concurrence ([1]))
Recommandation n° 11 : Créer une procédure accélérée de contrôle concurrentiel spécifique à l’intelligence artificielle et au numérique, intégrée à l’Autorité de la concurrence.
Recommandation n° 12 : Renforcer l’efficacité de l’arsenal concurrentiel en relevant le plafond des amendes à 20 % pour les récidivistes et en privilégiant les remèdes structurels dans les cas de pouvoir de marché durable.
Recommandation n° 13 : Mettre en place un régime de présomption de conformité au droit de la concurrence afin de sécuriser et d’encourager la constitution d’alliances pro-concurrentielles entre acteurs européens de l’intelligence artificielle et du cloud.
Recommandation n° 14 : Introduire un principe général d’exclusion des marchés publics de l’Union européenne pour les opérateurs économiques et les productions issus de pays tiers n’ayant pas conclu avec l’Union un accord assurant une réciprocité effective d’accès à leurs marchés publics.
Recommandation n° 15 (proposition de votre rapporteure Emmanuelle Hoffman) : Accompagner et soutenir la mise en œuvre de la préférence européenne pour les technologies stratégiques (intelligence artificielle, cloud, robotique), en s’assurant qu’elle soit pleinement mobilisée par la France dans ses politiques d’achat public.
Recommandation n° 16 (proposition de votre rapporteur Antoine Golliot) : Accompagner et soutenir la mise en œuvre de la préférence européenne pour les technologies stratégiques (IA, cloud, robotique), en veillant à ce qu’elle soit pleinement mobilisée par la France dans ses politiques d’achat public et complétée par une préférence nationale assumée, valorisant prioritairement les solutions et acteurs français afin de stimuler l’innovation locale, de renforcer la souveraineté technologique et de créer un effet d’entraînement sur l’ensemble de l’économie.
Recommandation n° 18 : Programmer un calendrier ambitieux de révision des directives européennes sur la commande publique pour préciser et rendre effectif le principe de préférence européenne d’ici 2026.
Financement et investissements
Le développement de l’IA nécessite une mobilisation accrue des financements publics et privés. Cela suppose un assouplissement des règles prudentielles et la création de fonds spécialisés couvrant toutes les étapes de croissance des entreprises du secteur.
Recommandation n° 29 : Adapter les règles de Solvabilité II pour permettre aux assureurs d’investir plus facilement dans l’IA, en élargissant le régime des investissements de long terme (LTEI) aux fonds technologiques stratégiques, afin de mobiliser leur épargne au service de l’innovation tout en gardant des garanties de sécurité.
Recommandation n° 30 : Créer un fonds public-privé dédié à l’intelligence artificielle, cofinancé par l’État, Bpifrance et des investisseurs privés, et ouvert à l’épargne des particuliers via un placement de long terme bénéficiant d’un cadre fiscal incitatif.
Recommandation n° 31 : Créer un fonds national de co-investissement dédié aux scale-ups technologiques, capitalisé par des fonds publics et privés, et géré par des investisseurs professionnels, afin de renforcer l’offre de financement late-stage en France, notamment pour l’intelligence artificielle, et de limiter la dépendance de nos entreprises stratégiques aux capitaux extra-européens.
Recommandation n° 32 : Accélérer la réalisation de l’Union des marchés de capitaux, en harmonisant les règles prudentielles applicables aux investisseurs institutionnels et en renforçant la supervision intégrée des marchés financiers européens, afin de favoriser l’émergence de fonds de capital-risque paneuropéens capables de soutenir les start-up d’intelligence artificielle sur l’ensemble du cycle de croissance.
Recommandation n° 33 : Privilégier le fléchage des fonds non utilisés de NextGenerationEU vers le développement d’infrastructures d’intelligence artificielle et le soutien ciblé à des champions nationaux, tels que Mistral.
Recommandation n° 34 : Réintroduire une éligibilité des dépenses de propriété intellectuelle et de veille technologique au crédit impôt-recherche (CIR), pour les start-up et PME opérant dans des secteurs stratégiques à forte intensité d’innovation, tels que l’intelligence artificielle. Favoriser la rapidité des versements aux entreprises.
Compétences, formation et recherche
Le renforcement des compétences numériques et en intelligence artificielle, la diffusion des connaissances et le soutien à la recherche sont indispensables pour bâtir une société compétente et un tissu économique attractif autour de l’IA.
Recommandation n° 35 : Intégrer la sensibilisation et l’initation à la connaissance et à l’usage des outils de l’intelligence artificielle au socle commun de connaissances, de compétences et de culture, défini par le ministère de l’Éducation nationale.
Recommandation n° 36 : Assurer la pertinence des programmes et volumes horaires dans l’enseignement des mathématiques et des compétences numériques dans l’enseignement scolaire et l’enseignement professionnels, afin de préserver les compétences nécessaires au développement des usages de l’intelligence artificielle.
Sensibiliser et former les apprentis aux usages de l’intelligence artificielle.
Recommandation n° 37 : Poursuivre et développer les actions tendant à favoriser l’orientation des filles vers les filières scientifiques et numériques et à se spécialiser dans les métiers de l’intelligence artificielle.
Recommandation n° 38 : Prévoir et financer la recherche sur l’intelligence artificielle dans le cadre de la programmation pluriannuelle de la recherche, en créant éventuellement une action budgétaire spécifiquement consacrée à l’IA au sein des programmes 172 et 150.
Recommandation n° 39 : Examiner les simplifications du cadre administratif, budgétaire et comptable applicable aux projets de recherche portant sur le développement des usages de l’intelligence artificielle.
Recommandation n° 40 : Évaluer l’efficacité des titres et procédures destinés à faciliter l’accueil des scientifiques étrangers, afin de favoriser le recrutement des chercheurs et ingénieurs susceptibles de concourir au renforcement des capacités d’innovation en matière d’intelligence artificielle.
Dialogue social et intégration de l’intelligence artificielle en entreprise
L’intégration de l’intelligence artificielle dans le monde du travail exige un dialogue social renouvelé, permettant de négocier des accords adaptés et d’impliquer pleinement les instances représentatives du personnel.
Recommandation n° 41 : Instituer un fonds de transition numérique subordonné à des obligations de formation. Renforcer l’aide aux formations apportées par FranceNum et BpiFrance et spécifiquement destinées aux TPE-PME.
Recommandation n°42 : Veiller à la pleine intégration des besoins de formation inhérents au développement des usages de l’intelligence artificielle dans les orientations et financement des opérateurs de compétence. Consacrer l’adaptation de la formation des salariés à la technologie au sein des conventions d’objectifs et de moyens des opérateurs.
Recommandation n° 43 : Assurer la possibilité pour les salariés et les actifs de recourir aux dispositifs de validation des acquis de l’expérience et du compte personnel de formation pour l’acquisition des compétences nécessaires aux usages de l’intelligence artificielle.
Recommandation n° 44 : Favoriser la conclusion d’un accord national interprofessionnel ou l’actualisation des accords de branche, afin de créer les conditions d’une intégration optimale de l’intelligence artificielle dans les entreprises.
Recommandation n° 45 : Expliciter dans la loi l’obligation d’engager les procédures d’information et, le cas échéant, de consultation des instances représentatives du personnel dès l’engagement des projets reposant sur l’introduction de procédés technologiques appuyés sur l’intelligence artificielle, y compris au stade expérimental.
Recommandation n° 46 : Inclure l’introduction des nouvelles technologies appuyée sur l’intelligence artificielle dans le champ des négociations annuelles obligatoires, ainsi que dans la consultation du comité social et économique sur les orientations stratégiques de l’entreprise.
Établir un cadre juridique conciliant développement de l’intelligence artificielle et protection de principes et d’intérêts publics
Le développement des usages de l’intelligence artificielle dans la sphère marchande suppose un cadre juridique ouvert à l’innovation et permettant une régulation pertinente.
Recommandation n° 47 : Mener une évaluation périodique des conditions d’application des branches du droit national applicables aux usages de l’intelligence artificielle.
Recommandation n° 48 : Garantir l’effectivité du droit à réparation dans la transposition de la directive (UE) 2024/2853 du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux. Veiller à l’adaptation si nécessaire des régimes de responsabilité sans faute en droit national au regard des spécificités de l’intelligence artificielle.
Recommandation n° 49 : Veiller à la cohérence des obligations découlant des instruments de droit susceptibles de régir le recours à l’intelligence artificielle et procéder à leur adaptation suivant la nouvelle approche réglementaire portée par la Commission européenne.
Recommandation n° 50 (Commission européenne): Établir et publier dès que possible les actes délégués et lignes directrices qu’implique le classement des systèmes d’intelligence artificielle.
Recommandation n° 51 (Commission européenne et États membres): Évaluer préalablement l’impact sur les charges administratives et financières des entreprises de l’adoption ou de la modification des actes délégués nécessaires à l’application du règlement (UE) 2024/1689 du 13 juin 2024.
Recommandation n° 52 : Favoriser la mise en place de bacs à sable réglementaires de l’intelligence artificielle autant que nécessaire dès la pleine entrée en vigueur du règlement (UE) 2024/1689 du 13 juin 2024.
Recommandation n° 53 : Procéder dans les meilleurs délais à la désignation d’une ou de plusieurs autorités nationales constituant le point de contact unique prévu par l’article 70 du règlement (UE) 2024/1689 du 13 juin 2024.
Recommandation n° 54 : Développer le réseau de l’initiative European Vision for AI et s’appuyer autant que nécessaire sur le réseau européen des entreprises afin d’assurer l’information des entreprises à propos de l’application du règlement (UE) 2024/1689 du 13 juin 2024. Y associer les chambres consulaires.
Recommandation n° 55 : Rendre opérationnel dès que possible un service assistance réglementaire aux entreprises au sein du Bureau de l’intelligence artificielle, afin d’accompagner les entreprises, en particulier les TPE/PME, dans la mise en œuvre du règlement (UE) 2024/1689 du 13 juin 2024.
Régulation, droit et protection des données
Le développement de l’intelligence artificielle doit s’appuyer sur une régulation adaptée, garantissant un accès sécurisé et mutualisé aux données, ainsi qu’une protection juridique efficace afin d’assurer confiance, sécurité et respect des droits.
Recommandation n° 19 : Accélérer l’adoption opérationnelle du label SecNumCloud, en facilitant les démarches de qualification et en incitant les acheteurs publics et privés à s’y référer.
Recommandation n° 20 : Rendre impératifs, dans le schéma EUCS (European Cybersecurity Certification Scheme for Cloud Services), les critères d’immunité aux lois extracommunautaires pour les données sensibles, et reconnaître un niveau de certification européen équivalent au référentiel français SecNumCloud.
Recommandation n° 21 : Faire de la certification EUCS, une fois adoptée avec des garanties de souveraineté effectives, un critère de référence dans les marchés publics européens, notamment pour l’hébergement des données sensibles.
Recommandation n° 56 : Renforcer l’acquisition par les entreprises d’une culture relative à la consolidation, à la valorisation et à la protection de leurs données, notamment en encourageant la poursuite et l’approfondissement des initiatives et actions de sensibilisation menées par les organisations représentatives et les réseaux professionnels.
Recommandation n° 57 : Renforcer le rôle des métiers spécialisés dans la gestion et la gouvernance des données au sein des entreprises, en développant la formation des professionnels et en élargissant les missions du délégué à la protection des données.
Recommandation n° 58 : Évaluer des conditions juridiques de la réutilisation des données et la nécessité d’un dispositif spécifique en rapport avec les exigences de la transformation numérique de l’économie et du développement des usages de l’intelligence artificielle.
Recommandation n° 59 : Encourager les dispositifs européens d’accès à des données dans un cadre mutualisé et sécurisé pour les entreprises susceptibles de contribuer au développement des usages de l’intelligence artificielle, telles que les usines et giga-usines d’intelligence artificielle et les installations sectorielles d’essai et d’expérimentation (TEF) de l’intelligence artificielle.
Recommandation n° 60 : Recourir autant que nécessaire aux bacs à sable réglementaires afin d’assurer la conciliation des exigences de la protection des données à caractère personnel avec l’encadrement juridique du développement des usages de l’intelligence artificielle.
Recommandation n° 61 : Assurer la pertinence des ressources humaines et moyens matériels de la Commission nationale au regard des effets du développement des usages de l’intelligence artificielle et de la pleine entrée en vigueur du règlement (UE) 2024/1689 du 13 juin 2024 sur l’exercice de ses missions de régulation et d’accompagnement.
Recommandation n° 62 : Prévenir la demande d’informations et de pièces redondantes pour la mise sur le marché de systèmes IA soumis au RGPD et au règlement (UE) 2024/1689 du 13 juin 2024. Examiner les conditions nécessaires à l’application du principe « Dites-le nous une fois » aux procédures de mise en conformité des systèmes d’IA relevant des deux règlements.
Recommandation n° 63 : Élargir et alléger les procédures simplifiées applicables aux demandes d’accès ou de constitution de bases de données de santé à caractère personnel ; rénover la procédure d’examen éthique et scientifique pour les études et recherches n’impliquant pas la personne humaine, dans une logique de subsidiarité vis-à-vis des comités éthiques et scientifiques locaux.
Recommandation n° 64 : Reconnaître en droit français la formation, les essais et l’évaluation d’algorithmes et de systèmes d’intelligence artificielle comme des finalités justifiant un traitement automatisé des données de santé à caractère personnel ou l’accès à des bases de données publiques existantes. Veiller à la cohérence des lois et règlements applicables au regard des dispositions du règlement (UE) 2025/327 du 11 février 2025.
Recommandation n° 65 : Établir une cartographie actualisée des bases de données de santé, en s’appuyant sur les outils développés par la CNIL et par des hubs sectoriels. En assurer la publicité auprès des porteurs de projets tendant au développement des usages de l’intelligence artificielle.
Recommandation n° 66 : Soutenir les initiatives visant à promouvoir une standardisation du format, de la présentation et des conditions d’accessibilité des données de santé.
Recommandation n° 67 : Développer le volume et l’accessibilité des données en langue française par la poursuite des projets et de nouvelles initiatives tendant à la valorisation des collections et données détenues par des administrations et institutions culturelles. Travailler à l’établissement d’un modèle de valorisation des œuvres respectueux du droit de la propriété intellectuelle et des intérêts afférants aux droits d’auteurs et droits voisins.
Recommandation n° 68 : Poursuivre le développement des dispositifs de l’Union européenne en faveur de la préservation de la diversité linguistique dans les données nécessaires au développement des usages de l’intelligence artificielle.
Dès 1950, Alan Turing soulignait, dans son article fondateur Computing Machinery and Intelligence, que les machines le suprenaient régulièrement par leurs résultats ([2]). Cette observation, formulée à une époque où l’informatique en était à ses balbutiements, contenait déjà une intuition essentielle : l’intelligence artificielle ne se résume pas à l’exécution mécanique d’instructions ; elle possède des capacités d’analyse et d’adaptation qui vont bien au-delà des programmes informatiques. Et de fait, ainsi que ChatGPT et Deepseek en apportent la preuve de manière spectaculaire au plan technique, elle ouvre la voie à l’émergence de technologies fondées sur une exploitation inédite des données et susceptibles de doter des programmes et des machines de capacités analogues aux fonctions cognitives humaines sur le plan de l’apprentissage, du raisonnement, de la résolution de problèmes, de la perception, voire de la prise de décision.
Au sens juridique, un système d’IA correspond à « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels » ([3]). Cette définition, à la fois technique et juridique, traduit la spécificité d’une technologie qui n’est pas un simple outil, mais un ensemble de procédés appelés à transformer en profondeur les sociétés et les économies. Du fait d’un passage accéléré du concept à la preuve, l’IA doit être envisagée à la fois comme une réalité scientifique et industrielle, un levier de compétitivité et d’innovation et un objet de régulation politique et juridique.
De fait, l’intelligence artificielle transforme d’ores et déjà les pratiques professionnelles, bien au-delà des fonctions d’automatisation auxquelles on la cantonnait initialement. Dans les entreprises, elle parait en mesure de modifier les processus de production, influe sur la prise de décision et réorganise le travail dans son ensemble. Surtout, les résultats obtenus dans ses différentes applications ne se réduisent pas à une amélioration de l’existant : la technologie fait émerger de nouveaux modèles économiques et recompose les équilibres dans des secteurs entiers de l’industrie aux services financiers, de la santé aux transports en passant pas la défense. Certaines entreprises y trouvent déjà un levier décisif de compétitivité, tandis que d’autres accusent un retard préoccupant. Cette diffusion inégale de l’IA contribue à dessiner une nouvelle géographie économique, dont les effets méritent une attention particulière.
Les définitions de l’intelligence artificielle
Selon la Commission nationale de l’informatique et des libertés ([4]), l’intelligence artificielle est un « procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies ». Selon le Parlement européen ([5]), relève de l’IA tout système permettant à une machine de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification ou la créativité ».
La Commission européenne ([6]) précise pour sa part que cette notion recouvre principalement trois familles d’approches :
– l’apprentissage automatique (machine learning) ;
– les méthodes fondées sur la logique et la représentation des connaissances ;
– les techniques statistiques, incluant l’estimation bayésienne ainsi que les procédés de recherche et d’optimisation.
Source : Travaux de la mission.
C’est la volonté d’examiner les moyens susceptibles de permettre aux entreprises françaises de s’illustrer et, à tout le moins, d’appréhender au mieux les exigences et les opportunités de cette mutation technologique qui a conduit la commission des Affaires économiques à créer, le 5 mars 2025, une mission d’information relative aux effets de l’intelligence artificielle sur l’activité et la compétitivité des entreprises françaises. Réunissant 7 députés, la mission a pour co-rapporteurs Mme Emmanuelle Hoffman et M. Antoine Golliot.
La mission d’information a entendu dresser un état des lieux précis des technologies existantes et de leurs usages et à mesurer leurs effets économiques. Elle s’est également attachée à évaluer le degré d’appropriation des outils par les différents secteurs d’activité de la sphère marchande, et à identifier les leviers publics susceptibles de renforcer l’innovation et de consolider la souveraineté nationale et européenne. Ces travaux mettent en lumière des tendances contrastées qui appellent une analyse nuancée : l’IA a déjà des effets tangibles sur l’organisation du travail et la productivité, mais son impact macroéconomique reste encore difficile à mesurer ; certains secteurs affichent un dynamisme remarquable, quand d’autres accusent un retard préoccupant ; l’écosystème français bénéficie de réels atouts scientifiques et entrepreneuriaux, mais demeure fragile face aux géants mondiaux.
Notre démarche ne vise pas à ignorer les travaux déjà réalisés sur l’intelligence artificielle, ni à sous-estimer les investissements importants menés par les acteurs économiques ou les initiatives publiques.
Depuis 2018, la France dispose d’une stratégie nationale en matière d’intelligence artificielle, inscrite dans le cadre du plan France 2030. Cette stratégie prévoit notamment un soutien à la recherche, au développement d’infrastructures de calcul, à la formation de compétences spécialisées, ainsi qu’à l’accompagnement des entreprises innovantes. Une coordination interministérielle a été mise en place, complétée en 2023 par la création de la Commission de l’intelligence artificielle, qui a formulé 25 recommandations stratégiques. Ces démarches s’inscrivent également dans le cadre plus large de l’action de l’Union européenne.
En 2025, Paris a accueilli le Sommet pour l’action sur l’intelligence artificielle, réunissant plus de cent délégations internationales et plaçant la France parmi les acteurs centraux des discussions mondiales sur la gouvernance de l’IA. Cette rencontre a mis en évidence la volonté de l’Europe de se positionner comme une alternative au duopole technologique américain et chinois, en mettant en avant les principes d’innovation responsable et de souveraineté numérique. Parallèlement, la France porte une dynamique politique forte pour accélérer les négociations européennes sur la régulation, le cloud et les standards technologiques, contribuant directement à l’élaboration d’un cadre d’excellence européen. La France confirme son leadership technologique avec l’inauguration en 2025 du supercalculateur Asgard, consacré au développement de l’intelligence artificielle dans le domaine militaire, classé en ce domaine comme le supercalculateur le plus puissant d’Europe et, en tant que tel, pilier de notre souveraineté nationale.
Ces initiatives ont accompagné et soutenu l’émergence d’un écosystème français dynamique, porté par des acteurs de rang mondial comme OVH ou Mistral, et nourri par un tissu foisonnant de start-up spécialisées qui bénéficient désormais d’un accès privilégié aux infrastructures nationales et européennes de pointe : supercalculateurs ouverts, AI Factories, programmes d’expertise et d’accompagnement technique qui démultiplient leur capacité d’innovation.
Pour autant, la France doit encore affronter une concurrence internationale d’une intensité considérable, en particulier celle des États-Unis et de la Chine, dont les moyens financiers et technologiques demeurent sans commune mesure avec ceux de l’Europe.
C’est précisément cette réalité géopolitique qui justifie l’urgence de nos travaux parlementaires. Face à cette compétition technologique mondiale, voulons-nous rester les consommateurs de la technologie, ou bien en devenir les producteurs et les régulateurs ? Notre mission d’information s’est attachée à apporter des réponses concrètes à cette question fondamentale, en évaluant les forces et les faiblesses de notre écosystème entrepreneurial, en analysant les besoins spécifiques des entreprises françaises, et en identifiant les leviers d’action publique les plus efficaces.
Car en dehors de l’accompagnement des entreprises françaises dans cette transition et la promotion de nos champions nationaux, c’est à une échelle européenne que doivent être appréhendés et traités par essence les enjeux que recèle le développement des usages de l’IA.
L’Union européenne a pris des mesures décisives, avec le règlement IA Act ([7]), qui propose une approche pionnière fondée sur le niveau de risque des usages, et avec des programmes de recherche et d’investissement destinés à renforcer la base industrielle et scientifique commune. Au-delà des initiatives juridiques et économiques, se dessine une conviction : l’IA est consubstantielle à l’avenir du continent et de ses entreprises. Elle conditionne la capacité de l’Union européenne et de chacun des États membres à demeurer souverains, dans un monde où les données, les infrastructures numériques et les capacités de calcul sont devenues des armes de puissance. Il s’agit d’une technologie dont la maîtrise engage notre indépendance industrielle, notre sécurité et, plus largement, notre aptitude à faire entendre une voix européenne dans la définition des normes mondiales.
Il nous faut en effet assumer que le développement de l’IA doit être encadré : par le droit, par la régulation, mais aussi par un dialogue permanent entre la recherche, les acteurs économiques, les citoyens et les pouvoirs publics. Dans cette optique, vos rapporteurs considèrent que le Parlement a un rôle éminent à jouer : il lui revient non seulement de fixer les règles encadrant l’usage de l’IA pour en prévenir les dérives, mais aussi de donner une orientation stratégique et d’impulser un effort public à la hauteur des enjeux.
La maitrise des concepts et procédés de l’IA, son appropriation et la capacité des entreprises à innover ne constituent pas un « luxe technologique » ou la manifestation d’un attrait pour le techno-solutionnisme : c’est un besoin fondamental pour l’avenir de nos sociétés. La technologie peut contribuer à relever des défis décisifs en matière de transition écologique, de compétitivité industrielle, de santé publique et de sécurité nationale, mais elle peut aussi fragiliser l’emploi, amplifier des dépendances et creuser de nouvelles fractures. C’est pourquoi la responsabilité des pouvoirs publics est double : protéger, tout en permettant d’innover ; encadrer, tout en favorisant la prise de risque ; réguler, tout en investissant.
Le présent rapport s’inscrit dans cette perspective. Il propose au Parlement une analyse précise des potentialités et des limites de l’IA du point de vue des entreprises françaises, dans leur diversité. Toutefois, notre mission a conscience des limites inhérentes à l’ampleur du sujet : si nous avons cherché à être le plus exhaustifs possible, certains secteurs d’activité — comme l’hôtellerie-restauration, l’artisanat ou encore l’économie sociale et solidaire — mériteraient des approfondissements spécifiques qui pourraient faire l’objet de travaux parlementaires complémentaires. Le rapport formule des orientations concrètes pour que la France et l’Europe prennent toute leur part dans une révolution technologique qui ne fait que commencer.
I. une technologie d’intÉrêt Économique majeur pour les entreprises BIEN QU’AUX PRÉMICES DE SA DIFFUSION
L’intelligence artificielle apparaît désormais comme une technologie stratégique, capable de modifier en profondeur l’organisation des entreprises, leurs produits et leurs modes de fonctionnement. Elle permet d’automatiser certaines tâches répétitives, d’appuyer le travail humain dans les fonctions les plus qualifiées et d’ouvrir de nouvelles perspectives d’innovation. À ce titre, elle constitue un levier important de compétitivité, dont l’impact pourrait être comparable à celui des grandes révolutions industrielles, invitant à repenser les bases mêmes de la croissance et de la productivité.
Toutefois, l’ampleur de cette transformation dépend encore largement des conditions concrètes de diffusion de l’IA. Dans les faits, malgré des avancées visibles dans certains secteurs et au sein de grandes entreprises, son adoption reste inégale et difficile à mesurer à l’échelle macroéconomique. Les bénéfices identifiés demeurent pour l’instant circonscrits à des périmètres limités, sans effet massif sur l’ensemble du tissu productif.
Cette période de transition souligne un double enjeu : tirer parti des opportunités économiques que représente l’IA, tout en créant les conditions d’une appropriation plus large, inclusive et effective dans l’ensemble du système productif.
A. une source d’innovations porteuses d’un profond renouvellement de l’activitÉ et des produits des entreprises
L’essor de l’intelligence artificielle (IA) ne constitue pas uniquement une avancée technologique : il marque une rupture systémique dans les modes de production, d’organisation et d’innovation des entreprises. Longtemps cantonnée à des usages expérimentaux, l’IA s’impose désormais comme un facteur clé de transformation économique, en révolutionnant les chaînes de valeur, en accélérant les cycles d’innovation, et en ouvrant la voie à de nouveaux modèles d’affaires. Son intégration progressive dans l’économie réelle préfigure un changement d’époque, comparable aux grandes révolutions industrielles du passé.
Ce basculement ne résulte pas uniquement de l’apparition de solutions logicielles plus puissantes. Il s’appuie sur l’émergence de véritables écosystèmes technologiques, portés par des entreprises innovantes, des infrastructures de calcul de nouvelle génération, et des dynamiques de financement massives. En France, cette dynamique est incarnée notamment par des acteurs tels que Mistral AI ou OVHcloud, qui ambitionnent de jouer un rôle moteur dans la redéfinition des équilibres technologiques mondiaux. L’émergence de start-up spécialisées dans les modèles de langage, les agents autonomes ou les applications sectorielles illustre la capacité du tissu économique national à innover et à se structurer autour de ces technologies de rupture.
Au-delà de l’offre technologique elle-même, l’IA bouleverse l’ensemble des secteurs d’activité, en permettant la création de nouveaux produits et services, en redéfinissant les métiers, et en induisant des gains d’efficacité souvent spectaculaires. De la santé à la défense, de la finance à l’agriculture, les cas d’usage se multiplient à un rythme soutenu, accélérant la transition vers une économie augmentée. Cette dynamique transforme non seulement les modes de production, mais ouvre aussi des perspectives inédites d’optimisation organisationnelle, avec l’apparition d’agents logiciels capables d’agir, de planifier et d’interagir de manière autonome. À travers l’IA, c’est donc une redéfinition profonde de l’activité économique qui s’amorce.
1. Une offre de solutions techniques à l’origine d’un nouveau secteur économique
a. Des concepteurs de logiciels et infrastructures français pouvant prétendre à une envergure mondiale : Mistral, OVH
Bien que l’Europe abrite des start-up prometteuses dans le domaine de l’IA, telles que Wayve au Royaume-Uni, DeepL et Black Forest Labs en Allemagne, et Poolside en France, aucune d’entre elles ne développe actuellement des modèles de langage de grande taille, c’est-à-dire des modèles d’usage général, hormis Mistral AI. La France se trouve donc dans une situation d’hégémonie sur le marché européen avec son champion national, Mistral AI.
Mistral, start-up fondée par un trio d’anciens chercheurs, Guillaume Lample, Timothée Lacroix et Arthur Mensch, s’est rapidement imposée comme le leader de l’IA en Europe. Valorisée à deux milliards d’euros en 2024 ([8]), Mistral incarne l’ambition d’une IA européenne souveraine et ouverte, indépendante des géants américains.
Depuis le recentrage stratégique de l’allemand Aleph Alpha ([9]), qui ne considère plus le développement d’un LLM européen comme un modèle économique suffisant et tenable à lui seul ([10]), Mistral s’impose comme la seule et unique start-up européenne développant un modèle de langage de grande ampleur avec une ambition de rang mondial.
Dans ce contexte, Mistral se distingue désormais nettement de ses concurrents européens selon les principaux indicateurs sectoriels : valorisation, levées de fonds, puissance de calcul et performances sur benchmarks publics. Mistral a effectué plusieurs levées de fonds, dont une de 600 millions d’euros (M€) en 2024 ([11]) et une à hauteur de 1 milliard d’euros (Md€) en 2025 ([12]) , là où son principal rival européen levait supposément ([13]) 467 M€ ([14]). Pour Thomas Knüwer ([15]) , qui a longuement enquêté et sollicité un à un les investisseurs cités dans les médias, « la taille réelle du cycle de financement de série B d’Aleph Alpha est d’environ 100 millions de dollars, peut-être 125 millions de dollars. En échange, les investisseurs ont reçu environ 20 % des actions. Cela m’a été rapporté par une source qui a vu la feuille de conditions. La société serait donc valorisée entre 500 et 625 millions de dollars ». Bien loin de la start-up française Mistral AI, avec les 640 millions de dollars de financement de série B qui valorisent l’entreprise 6 milliards de dollars en juin 2024. Cette dernière est désormais valorisée à 11,7 Md€ après avoir levé 1,7 Md€ ([16]).
Mistral AI dispose également de la flotte de GPU la plus importante en Europe. À l’occasion de VivaTech 2025, Mistral a annoncé un partenariat stratégique avec Nvidia concernant le déploiement de dix-huit mille GPU Grace Blackwell B200 dans un nouveau centre de données situé en Essonne et destinée à devenir la plus grande infrastructure dédiée à l’IA en Europe ([17]). Ce volume de ressources excède largement les capacités recensées chez les autres acteurs privés européens.
Bien qu’elle demeure un « petit poucet » face aux géants américains (OpenAI, Anthropic, Gemini) et chinois (DeepSeek, Ernie 4.5) en termes d’échelle, de financement et d’écosystème, Mistral AI progresse rapidement et s’affirme comme un acteur crédible à l’échelle internationale.
Sur le plan technique, les études récentes montrent que, bien qu’innovant, le modèle Mistral reste nettement en retrait par rapport aux modèles propriétaires comme GPT-4 ou Gemini, tant en matière de lisibilité, de raisonnement multimodal que de compréhension multilingue. Toutefois, les études universitaires publiées portent rarement sur les derniers modèles de Mistral (Mistral Large, Medium 3, Magistral), de sorte qu’il ne faut pas tirer de conclusions trop hâtives sur ses performances techniques.
Le modèle Mistral se distingue par des performances globalement inférieures à celles des leaders du marché de l’IA, comme GPT‑4, Gemini ou DeepSeek, avec un score de 1 252 dans le classement LMSYS Chatbot Arena publié dans le rapport AI Index 2025 ([18]). Il y occupe la dernière position parmi les modèles de référence évalués, avec un écart de plus de 130 points le séparant du modèle en tête (Gemini, 1 385).
Toutefois, sa présence même dans ce classement, aux côtés des géants de l’IA tels que Google, OpenAI, Meta ou Anthropic, témoigne de sa légitimité croissante sur la scène internationale.
Ce classement illustre par ailleurs une concurrence de plus en plus serrée entre les acteurs : l’écart entre les dix premiers modèles s’est réduit à moins de 6 points de pourcentage en un an, et les deux premiers ne sont désormais séparés que de 0,7 %. Le secteur devient ainsi de plus en plus compétitif, rendant chaque avancée technologique déterminante.
Évolution des performances des principaux modèles d’IA sur la plateforme LMSYS Chatbot Arena
Évolution des performances des principaux modèles sur LMSYS Chatbot Arena selon les fournisseur
Source : Standford University, The AI Index 2025 annual report, 2025.
Sur le plan des performances générales ([19]), Mistral se montre légèrement en retrait par rapport à ChatGPT et LLaMA sur l’ensemble des critères évalués. Il affiche une efficacité computationnelle de 78,4 %, inférieure à celle de ChatGPT (85,6 %) et de LLaMA (82,9 %), ce qui suggère un coût de calcul plus élevé à performance égale. Sa précision linguistique atteint 89,7 %, un score correct mais inférieur à ChatGPT (91,2 %) et LLaMA (90,5 %). Enfin, en matière d’alignement éthique, Mistral obtient 85 %, en retrait par rapport à LLaMA (87,1 %) et ChatGPT (88,3 %). Ces résultats soulignent que Mistral reste compétitif, mais moins optimisé sur les plans de l’efficience, de la rigueur linguistique et de la conformité éthique.
Résultats comparés des modèles d’IA en matière d’efficacité, de précision linguistique et d’alignement éthique
Source : Hou, G., & Lian, Q. (2024). Benchmarking of commercial large language models: ChatGPT, Mistral, and Llama, Shanghai Quangong AI Lab.
Plus précisément, plusieurs études récentes positionnent Mistral derrière les modèles propriétaires comme GPT-4o, Gemini 1.5 ou DeepSeek V3 en matière de performance sur les tâches complexes d’écriture, de raisonnement ou de compréhension multimodale.
Les résultats du tableau 7 d’une étude comparative des performances des LLM en matière académique ([20]) montrent que le modèle Mistral 7B présente une bonne capacité de reformulation sémantiquement fidèle, avec des scores de similarité atteignant 96,12 % avec ChatGPT, 94 % avec Qwen 2.5 Max, et 90 % avec Qwen 3 235B. Toutefois, il obtient un score nettement plus bas (85 %) lorsqu’il est évalué par DeepSeek v3, soit la performance la plus faible du corpus étudié. Cette variabilité suggère que Mistral reste moins constant que certains concurrents, dont les scores demeurent systématiquement au-dessus de 90 %.
Le modèle Mistral 7B affiche des performances modestes en matière de lisibilité et d’équilibre rédactionnel ([21]) particulièrement sur les tâches de paraphrase académique par rapport à ses concurrents internationaux. Il génère un nombre élevé de phrases jugées « très dures à lire » (152/179 selon Hemingway Editor), et obtient un score WebFX de 19,4 %, inférieur à ceux de Gemini 1.5 (22,2 %) ou de ChatGPT 4o mini (20 %), mais légèrement supérieur à DeepSeek v3 (14,6 %). Sa syntaxe est longue (23,4 mots par phrase en moyenne) et son score de lisibilité Grammarly reste moyen (16).
Enfin, sur des tâches de raisonnement visuel complexes, Mistral est également en retrait. Jegham, N., Abdelatti, M., & Hendawi, A. ([22]) concluent ainsi : « Comme l’illustre la figure 6, ChatGPT-o1 conserve la performance la plus équilibrée et la plus élevée à travers les différentes tâches, en affichant une précision constamment solide sans faiblesses notables dans une catégorie particulière. En revanche, des modèles tels que Pixtral 12B et Grok 3 présentent des performances plus inégales, excellant dans certaines tâches tout en rencontrant des difficultés dans d’autres. Pixtral 12B obtient des résultats relativement bons dans des tâches comme la compréhension de dessins animés et l’interprétation de diagrammes, mais sous-performe dans la détection de différences et l’appariement texte-image. ».
Comparaison de la précision de modèles d’IA sur diverses tâches (compréhension, repérage de différences, appariement texte-image…)
Source : Jegham, N., Abdelatti, M., & Hendawi, A. (2024). Visual reasoning evaluation of Grok, DeepSeek’s Janus, Gemini, Qwen, Mistral, and ChatGPT.
On pourrait objecter que les études disponibles présentent un biais d’évaluation, en ce qu’elles se concentrent majoritairement sur les performances des modèles en langue anglaise. C’est précisément pour pallier cette limite que l’étude Megaverse ([23]), l’une des plus complètes à ce jour, a été conduite, en proposant une évaluation systématique des capacités multilingues des modèles d’IA les plus avancés (GPT-3.5-Turbo, GPT-4, PaLM2, Gemini-Pro, Mistral, LLaMA2 et Gemma), à partir d’un ensemble homogène de jeux de données couvrant de nombreuses langues non anglophones.
L’étude précitée conclut que Mistral 7B reste significativement en retrait face aux leaders du marché comme GPT-4, Gemini-Pro ou PaLM2, notamment sur des tâches complexes de dialogue et de compréhension multilingue. Les auteurs concluent ainsi : « Nos expériences montrent que GPT-4 et PaLM2 surpassent les modèles Llama et Mistral sur diverses tâches, notamment pour les langues faiblement dotées, GPT-4 obtenant de meilleurs résultats que PaLM2 sur un plus grand nombre de jeux de données. » ([24]). Les performances de Mistral 7B (score moyen de 29,1) et de Mistral 7B Instruct (28,3) sur la tâche IndicXNLI montrent un net décrochage par rapport aux modèles propriétaires tels que GPT-4 (66,8) ou PaLM2 (44,5), confirmant ainsi leur relative faiblesse en compréhension multilingue, notamment sur des langues à faibles ressources.
Comparaison des performances de différents modèles
Source : Ahuja, S., Aggarwal, D., Gumma, V., Watts, I., Sathe, A., Ochieng, M., Hada, R., Jain, P., Ahmed, M., Bali, K., & Sitaram, S. (2024, March). Benchmarking large language models across languages, modalities, models and tasks. North American Chapter of the Association for Computational Linguistics (NAACL 2024).
Malgré des performances moindres selon les études récentes par rapport aux modèles propriétaires, la présence de Mistral dans ces méta-analyses universitaires constitue en soi un signe encourageant. L’entreprise est régulièrement comparée aux modèles les plus avancés d’IA à l’échelle mondiale, étant désormais perçu comme un acteur crédible sur la scène internationale. Le rapport 2025 de l’AI Index ([25]) publié par le Stanford HAI en témoigne : Mistral y figure aux côtés de GPT-4, Gemini, Claude ou DeepSeek.
Dans un domaine où l’argent reste le nerf de la guerre, le moindre financement dont bénéficie Mistral face à ses rivaux explique en partie son retard technique. Mais cela rend d’autant plus méritoire sa présence dans les classements internationaux, tant ces derniers sont dominés par des acteurs soutenus par des capitaux colossaux.
Les investisseurs technologiques européens, dont l’inquiétude croît, craignent que son financement de 1,2 milliard ([26]) de dollars depuis son lancement, une somme considérable pour une entreprise française de sa taille et de son âge, reste insuffisant au regard des normes de la Silicon Valley. Ses plus grands rivaux américains disposent aujourd’hui de moyens dix fois plus importants.
Fonds levés par les principaux américains fournisseurs de LLM comparés à ceux de Mistral
Source : Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025.
Financièrement, les entreprises américaines et chinoises bénéficient d’un avantage écrasant : OpenAI a levé 6,6 milliards ([27]) de dollars, Anthropic 4 milliards ([28]), tandis que les acteurs chinois sont bien positionnés en raison d’un fort soutien public constant depuis 2017, que la DGTrésor ([29]) estime entre dix et quinze milliards de dollars par an.
La sortie du modèle de DeepSeek, début 2025, a provoqué une onde de choc dans l’écosystème mondial de l’intelligence artificielle. Présentée par la presse internationale comme un tournant stratégique, elle a suscité de vives interrogations sur la capacité des acteurs européens, en réalité Mistral, à se maintenir dans la course technologique. Le Financial Times ([30]) soulignait alors « Puis, cette semaine, un coup de froid est venu de l’est. La société chinoise DeepSeek a stupéfié la Silicon Valley en publiant un modèle open-source de pointe avec ce qu’elle affirme être une infime fraction des ressources et de la puissance de calcul d’OpenAI ou de Meta - battant ainsi Mistral à son propre jeu. ». Le journal résumait ainsi la situation “With DeepSeek, China innovates and the US imitates” ([31]).
L’effet de surprise provoqué par l’initiative chinoise, un acteur jusque-là méconnu qui propose un modèle open source à la pointe, prétendant l’avoir pré-entraîné pour le coût dérisoire de 5,6 millions de dollars ([32]), là où les géants américains consacrent des centaines de millions, voire des milliards de dollars à leurs technologies.
Pour Mistral, l’impact est d’autant plus marqué que l’entreprise française s’est construite sur un positionnement original : démontrer qu’il est possible de concevoir des modèles performants et open source tout en mobilisant des moyens financiers et matériels bien inférieurs à ceux de ses concurrents. Comme le relève le Financial Times ([33]), Mistral se distingue par une efficacité technique qui constitue un avantage comparatif dans un environnement dominé par des acteurs largement capitalisés. L’arrivée de DeepSeek tend toutefois à fragiliser cette stratégie, en laissant apparaître qu’un acteur chinois, revendiquant lui aussi des ressources contraintes, serait parvenu à s’imposer face à des concurrents européens et américains, entraînant au passage une correction boursière significative des valeurs liées à l’intelligence artificielle.
Cependant, à mesure que les analyses se sont approfondies, l’image d’une IA chinoise frugale commence à se fissurer. Le cabinet SemiAnalysis ([34]), démontre que derrière la communication initiale de DeepSeek révélait une réalité bien plus contrastée : l’entreprise aurait en réalité investi 1,6 milliard de dollars en matériel, incluant un parc estimé à cinquante mille GPUs Nvidia Hopper, bien loin des 2 048 GPUs et des quelques millions de dollars annoncés au départ. Ces chiffres suggèrent que DeepSeek avait délibérément mis en avant une vision simplifiée de ses coûts pour servir une stratégie d’influence plus que pour refléter une véritable rupture technologique.
Cette évolution de la perception redonne un éclairage plus nuancé sur la position de Mistral dans l’écosystème mondial. Si l’entreprise ne dispose pas encore des moyens financiers de ses rivaux américains ou chinois, elle conserve un modèle fondé sur l’efficacité, l’efficience et l’agilité. Comme le rappelait son co‑fondateur ([35]), cette contrainte peut même constituer un atout : « Si vous avez une puissance de calcul illimitée, vous finissez par faire beaucoup de choses inutiles. La nécessité est mère de l’innovation. ». Ce pragmatisme, allié à une volonté d’affirmer une souveraineté technologique européenne, confère à Mistral un rôle singulier dans un paysage dominé par des colosses financiers.
En juin 2025, Mistral a franchi une nouvelle étape stratégique en lançant Mistral Compute ([36]), sa propre plateforme de cloud dédiée à l’intelligence artificielle en vue de rattraper le retard européen la matière. Développée en partenariat avec NVIDIA, cette infrastructure repose sur des serveurs équipés de 18 000 GPU Blackwell de dernière génération et propose un écosystème complet de services IA (API, stockage et puissance de calcul) ([37]). Ce projet s’inscrit dans une dynamique plus large soulignée par Jensen Huang ([38]), PDG de NVIDIA, selon laquelle l’Europe connaît une accélération massive de ses capacités IA, avec la construction prévue d’au moins 20 data centers sur le continent dans les prochaines années.
L’ambition affichée par Mistral est double : réduire la dépendance européenne aux hyperscalers ([39]) américains et chinois, et offrir aux acteurs publics et privés européens un environnement conforme aux exigences de souveraineté des données. Intégrer verticalement l’infrastructure permettra à Mistral de mieux maîtriser la chaîne de valeur de l’IA.
Si le lancement de Mistral Compute peut sembler audacieux, il s’inscrit pourtant dans une dynamique stratégique déjà largement éprouvée par les géants du numérique. Amazon (avec AWS), Microsoft (Azure) et Google (Google Cloud) combinent depuis plusieurs années le développement de modèles d’intelligence artificielle et la maîtrise de l’infrastructure cloud, créant ainsi des synergies fortes entre leurs services. Pour Mistral, ce mouvement vers l’aval permettrait de mieux contrôler les coûts d’entraînement de ses modèles et de proposer un écosystème intégré et européens aux entreprises, renforçant ainsi son attractivité.
Toutefois, la manœuvre comporte des risques stratégiques et financiers pour l’entreprise : la construction et l’exploitation d’un cloud à grande échelle exigent des investissements colossaux et une expertise industrielle qui pourraient détourner des ressources de son cœur d’activité. Dans un marché où les hyperscalers bénéficient d’effets d’échelle inégalés, la capacité de Mistral à atteindre une masse critique sera déterminante pour que cette stratégie devienne un levier de compétitivité plutôt qu’un facteur de fragilisation.
En réalité, le lancement de Mistral Compute répond également à une demande croissante des entreprises et des acteurs publics européens en matière d’autonomie stratégique. Comme l’a récemment souligné Arthur Mensch, directeur général de Mistral, de nombreux groupes souhaitent réduire leur dépendance vis-à-vis des fournisseurs américains ([40]), et il existe des tensions autour de la souveraineté numérique. L’entreprise noue des partenariats stratégiques avec des acteurs clés en Europe. Par exemple, Mistral a conclu en avril 2025 un contrat de 100 millions d’euros avec le groupe CMA-CGM pour développer des systèmes d’intelligence artificielle sur mesure. D’autres clients prestigieux, tels que BNP Paribas, AXA, Stellantis et Veolia, ont également choisi de faire confiance à la start-up française. Ces engagements témoignent d’un intérêt réel pour des solutions européennes, en particulier dans des secteurs sensibles comme la finance, la logistique et l’industrie de défense, où Mistral coopère notamment avec la société Helsing, spécialisée dans les technologies de défense.
Toutefois, ce projet ambitieux reste circonscrit à un segment spécialisé (le cloud IA) et ne saurait masquer le retard structurel plus général de l’Europe dans le domaine du cloud. En effet, si la France peut encore espérer jouer un rôle significatif dans le domaine des modèles de langage avec des entreprises comme Mistral, la situation apparaît nettement plus défavorable dans le secteur du cloud computing (informatique en nuage) ([41]).
OVHcloud, souvent présenté comme le champion national et européen, est aujourd’hui très retrait face aux hyperscalers américains. Amazon détient 32 %, Microsoft 23 %, Google 12 % du marché mondial de l’IaaS ([42]) /PaaS ([43]) ; aucun autre acteur (y compris OVHcloud qui n’en représente qu’environ 0,5 %) ne dépasse 4 %([44]). La Chine, en revanche, ne joue pas le jeu de la concurrence mondial en matière de cloud. Les fournisseurs de cloud occidentaux y sont fortement limités et ne peuvent y concurrencer librement. Le marché chinois, suffisamment vaste, permet l’existence de plusieurs acteurs locaux de premier plan. Il est aujourd’hui dominé par Alibaba, Tencent, China Telecom et Huawei, et les dix premiers fournisseurs de services cloud sont tous des entreprises chinoises.
Classement des principaux fournisseurs de services cloud par région
Source : consultancy.eu, European IaaS and PaaS cloud market to double by 2028, 11 septembre 2024.
Le marché européen des services cloud est fortement concentré : les géants américains Amazon, Microsoft et Google détiennent à eux seuls 72 % des parts de marché ([45]). Face à cette domination, les fournisseurs européens peinent à rivaliser et ne représentent aujourd’hui qu’environ 13 % du marché régional, là où ils représentaient 27 % en 2017. À l’échelle européenne, les principaux fournisseurs locaux sont SAP, Deutsche Telekom et OVHcloud, chacun détenant environ 2 % de part de marché ([46]). Viennent ensuite Telecom Italia, Orange Business et une multitude de petits acteurs.
Parts de marché des fournisseurs européens cloud au sein de l’UE
Source : consultancy.eu, European IaaS and PaaS cloud market to double by 2028, 11 septembre 2024.
OVHCloud
Fondé en 1999 et établi à Roubaix, OVHcloud est aujourd’hui le principal fournisseur européen de services cloud. L’entreprise exploite 44 datacenters dans le monde, avec un parc de plus de 450 000 serveurs ([47]), et propose une gamme complète de services : infrastructures en tant que service (IaaS), plateformes en tant que service (PaaS), solutions de stockage et hébergement web. OVHcloud se distingue par une approche orientée vers l’open source ([48]) et une forte attention portée à la souveraineté numérique, matérialisée par des certifications telles que SecNumCloud et ISO 27001.
Cette domination américaine s’explique par plusieurs facteurs structurels : une avance historique en matière de datacenters hyperscale, une maîtrise technologique des couches logicielles, des capacités d’investissement annuelles de plusieurs dizaines de milliards de dollars, et un écosystème client intégré qui renforce leur effet d’échelle.
La dépendance massive des entreprises et institutions européennes vis‑à‑vis des géants du cloud américain constitue une vulnérabilité stratégique majeure. C’est d’ailleurs ce constat qui a conduit M. Mario Draghi, dans son discours devant la Chambre et le Sénat italiens le 18 mars 2025 ([49]), à plaider pour que les dépenses liées au cloud et à la cybersécurité soient intégrées dans le cadre des dépenses de défense européenne.
Selon les analyses développées par Gilles Babinet et Milena Harito ([50]), plusieurs facteurs structurels expliquent cet écart de compétitivité avec les États-Unis. D’une part, l’écosystème américain présente des caractéristiques culturelles et financières particulièrement propices à l’innovation : le capital-risque ([51]) y occupe une position centrale, alimentant massivement le financement des start-up spécialisées dans les applications cloud, tandis que les entreprises établies font preuve d’une agilité remarquable dans l’adoption des nouvelles technologies, contrastant avec la prudence généralement observée chez leurs homologues européennes.
D’autre part, l’intégration du marché intérieur américain confère un avantage d’échelle déterminant. Une entreprise technologique peut ainsi accéder directement à 350 millions de consommateurs, sans avoir à surmonter d’obstacles linguistiques, culturels ou réglementaires caractéristiques du marché intérieur européen. Cet effet de masse se révèle particulièrement stratégique dans le secteur des services numériques, où les coûts sont en grande partie fixes et où chaque client supplémentaire n’occasionne qu’un coût marginal quasi nul.
À l’inverse, la fragmentation du marché européen limite structurellement la capacité d’investissement et de mutualisation à l’échelle continentale. C’est précisément pour répondre à cette difficulté qu’est née l’initiative GAIA‑X ([52]), un projet européen lancé en 2020 pour structurer un écosystème de cloud fédéré, ouvert et souverain. Si cette initiative témoigne d’une prise de conscience stratégique, elle reste encore peu opérationnelle et n’a pas permis, à ce stade, d’enrayer la domination américaine.
b. Un écosystème dynamique de start-up développant des procédés et applications spécifiques
La France a vu son écosystème de start-up en intelligence artificielle (IA) croître très rapidement ces dernières années, au point de s’affirmer comme l’un des plus dynamiques en Europe. Selon le mapping 2025 de France Digitale ([53]), le pays compte près de 781 ([54]) start-up spécialisées dans l’IA (produits, services ou infrastructures), soit une augmentation d’environ 27 % par rapport à l’année précédente.
À titre de comparaison, l’Allemagne en recense 687 ([55]), ce qui confirme la place de leader européen (au sein de l’UE) de la France en nombre de start-up en IA. Ce dynamisme se vérifie également via la montée en puissance de champions technologiques : depuis le lancement de la stratégie nationale pour l’IA en 2018 ([56]), le nombre total de licornes ([57]) françaises a fortement augmenté pour atteindre 28 ([58]) en 2024, dont 16 ([59]) concentrées sur des offres valorisant l’IA, à l’instar de Dataiku, Mirakl, Owkin, etc. Malgré un contexte économique incertain, les start-up françaises spécialisées dans l’IA ont su attirer des investissements prépondérants, traduisant l’attractivité croissante de l’écosystème national.
Rapporté à la taille de l’économie française (environ 2,2 % ([60]) du PIB mondial en parité de pouvoir d’achat), le volume de financements captés par les start-up françaises d’IA représente environ 2,5 % des financements mondiaux ([61]) dans l’IA générative pour la période récente. Cette part, légèrement supérieure au poids économique du pays, témoigne d’une surperformance relative et d’une position stratégique de la France dans la course mondiale à l’intelligence artificielle. Depuis leur création, elles ont levé près de 13 Md€ ([62]), dont 1,4 Md€ en 2024 ([63]), contre seulement 556 M€ en 2018. Pas moins de 24 tours de table supérieurs à 100 M€ ont été réalisés cette année, soit 2,5 fois plus qu’en 2023 ([64]), un indicateur clair de leur maturité croissante. Ce dynamisme s’inscrit dans une vague mondiale : selon la Commission pour l’intelligence artificielle ([65]), les start-up d’IA générative ont levé 22 milliards de dollars en 2023 à l’échelle internationale, un montant qui souligne l’ampleur du phénomène.
Cette surperformance française s’explique par les atouts, en matière scientifique et technologique, qui renforcent son écosystème de start-up. De 2017 à 2024, la France a maintenu son septième rang mondial et son deuxième rang européen ([66]) en matière de publications dans le cadre des conférences scientifiques sur l’IA (derrière la Chine, les États-Unis, l’Inde, l’Allemagne et le Royaume-Uni). Au cours des auditions, cette excellence académique et en ingénierie a été confirmée à plusieurs reprises ; elle constitue un facteur d’attractivité pour les investissements étrangers et un puissant levier d’innovation. Depuis 2018, de nombreux grands groupes mondiaux ont choisi d’implanter ou d’étendre en France leurs centres de R&D en IA, comme le rappelait Yann Le Cun, auditionné par la mission, citant l’exemple de Microsoft et de Meta. Ce cercle vertueux (talents locaux de haut niveau, recherche de pointe et start-up innovantes) confère à l’écosystème français une visibilité internationale et un leadership européen. Paris s’impose d’ailleurs comme le hub principal avec environ 63 % ([67]) des start-up IA du pays localisées en Île-de-France.
En Europe (hors UE), le Royaume-Uni reste aujourd’hui le principal pôle de financement de l’AI (près de 6 milliards de dollars ([68]) levés en 2024, soit plus que la France et l’Allemagne réunies).
Financements en capital-risque pour l’IA et hors IA
par pays en Europe (2024)
Cependant, la France se hisse en seconde position européenne pour de nombreux indicateurs et comble rapidement son retard. Comme explicité précédemment ([69]), le français Mistral AI est devenu en 2023-2024 l’un des premiers développeurs de modèles de langage européens, en levant plus d’1,6 milliard de dollars en un an pour rivaliser avec OpenAI. L’écosystème français connaît une dynamique de financement ascendante : en 2024, les start-up françaises d’IA ont pris la tête en Europe en levant plus de 1,3 milliard d’euros, soit près de 50 % ([70]) du total des investissements européens dans ce secteur.
Néanmoins, l’écosystème français demeure de taille encore modeste face aux superpuissances américaines et chinoises. Les entreprises d’IA établies aux États-Unis ont attiré près de 100 milliards de dollars de capitaux cumulés ([71]), soit davantage que le reste du monde combiné. La Chine investit aussi massivement ([72]) et fait émerger ses propres géants de l’IA. Ce rapport de force mondial impose à la France et à l’Europe de soutenir l’échelle de leurs start-up (scale-up ([73]) comme MistralAI) pour demeurer compétitives.
Malgré un écart de moyens financiers avec les leaders mondiaux, la France parvient à exceller dans certaines niches technologiques stratégiques, où ses start-up occupent parfois une place de leader mondial, voire de quasi-monopole technologique. C’est le cas dans le secteur de la défense, notamment pour les applications d’IA au renseignement et à la surveillance sous-marine. Par exemple, la société Safran.AI ([74]) (ex-Preligens), auditionnée par la mission et fondée en 2016, fournit des algorithmes d’IA capables d’analyser automatiquement d’immenses flux d’images satellite et de détection acoustique pour repérer des menaces ou des activités anormales est rapidement devenu comme l’un des leaders mondiaux de l’IA appliquée au renseignement géospatial. Faute de financements privés suffisants pour assurer sa croissance, Preligens a finalement été rachetée en 2024 par le groupe Safran ([75]) afin de préserver cette avance stratégique française. Ce rachat illustre à la fois l’excellence technologique locale et les difficultés à faire émerger un champion autonome ([76]) dans un secteur aussi sensible que celui du renseignement.
Toujours dans le domaine de la défense, Helsing AI, start-up allemande fondée en 2021 et active en France, en Allemagne et au Royaume‑Uni, s’est spécialisée dans les systèmes d’armes autonomes et l’analyse tactique par IA. Elle développe notamment des drones sous‑marins intelligents capables de patrouiller durant des semaines pour détecter navires et sous‑marins ennemis, dans une logique de « constellations mobiles de capteurs » offrant aux armées européennes une surveillance maritime inédite. En trois ans, Helsing est devenue l’une des start‑up d’IA de défense les plus valorisées en Europe (5,3 milliards de dollars fin 2024), après avoir levé 484 millions de dollars auprès d’investisseurs de premier plan. La France se positionne ainsi sur un créneau technologique de pointe, conférant un avantage stratégique aux industriels et forces armées qui maîtrisent ces solutions.
Au-delà du secteur militaire, l’écosystème français compte de nombreux champions technologiques de pointe dans des domaines civils variés. Par exemple, la start-up PhotoRoom, auditionnée par la mission, fondée en 2019, s’est imposée comme le leader mondial ([77]) de la génération d’images par IA pour l’édition photo. Son applicationpermet aux e-commerçants, aux photographes et aux particuliers d’améliorer automatiquement des photos de produits. Dans le domaine de l’imagerie médicale, Gleamer, auditionné par la mission, s’impose comme l’un des principaux acteurs européens de l’IA du secteur visant à faciliter et à fiabiliser le diagnostic des professionnels médicaux.
2. Cas d’usage de l’intelligence artificielle : vers une transformation différenciée des secteurs économiques
a. Dans le champ de la consommation : entre personnalisation, optimisation et recomposition des chaînes de valeur
Dans le domaine de la consommation, l’intelligence artificielle (IA) prédictive est aujourd’hui un levier essentiel pour les entreprises souhaitant optimiser leur chaîne logistique et leurs stocks ([78]). Ces systèmes reposent sur des algorithmes de machine learning capables d’analyser de vastes historiques de ventes, de données saisonnières, comportementales ou environnementales afin de générer des prévisions de demande très précises. Des revues universitaires récentes soulignent que ces technologies permettent de réduire les erreurs de prévision et d’améliorer la disponibilité produit, tout en diminuant les coûts d’inventaire ([79]).
Impact de l’IA sur les performances analytiques des magasins et l’optimisation des références produits
Source : Bharti, M. (2025). AI-driven retail optimization: A technical analysis of modern inventory management. International Journal of Advances in Engineering and Management (IJAEM), 7(2), 31–38.
Dans ce contexte technologique, des entreprises telles que Carrefour, auditionné par la mission, ou Cdiscount utilisent des modèles d’IA prédictive pour anticiper efficacement la demande. Carrefour déploie des algorithmes prédictifs, notamment via la plateforme SAP S/4HANA ([80]), pour optimiser ses prévisions de demande, réduire les ruptures et les pertes, ou encore optimiser ses stocks de manière proactive. L’optimisation des itinéraires de livraison, rendue possible par ces systèmes, contribue également à réduire les délais de livraison et les émissions de CO₂, tout en augmentant la satisfaction des clients.
Exotec, spécialisé dans les solutions logistiques automatisées avec ses robots Skypod, illustre une application concrète de l’IA dans la chaîne d’approvisionnement : combinant robotique avancée et algorithmes d’optimisation, l’entreprise permet aux entrepôts de gérer de manière fluide les flux ([81]), d’améliorer la précision des prélèvements et de réduire les délais de préparation. LOKAD, également auditionné par la mission, propose une approche disruptive de la supply chain (chaîne d’approvisionnement), en se spécialisant sur l’optimisation prédictive des chaînes d’approvisionnement. L’entreprise combine intelligence artificielle, statistiques avancées et cloud computing pour automatiser la prise de décision et maximiser la performance économique des supply chains.
Par ailleurs, l’IA s’applique aussi à l’analyse du comportement des consommateurs. En exploitant les historiques d’achat des clients, des enseignes comme Zalando ([82]) segmentent leurs audiences et génèrent des recommandations personnalisées. Ces systèmes accroissent à la fois le panier moyen et la fidélisation client, tout en améliorant l’expérience de navigation. Des publications universitaires ([83]) récentes montrent que l’intégration de l’IA et de la réalité augmentée dans la beauté permet d’améliorer l’intention d’achat et la fidélité des clients.
L’Oréal, acteur majeur du secteur, auditionné par la mission, met en œuvre des dispositifs de réalité augmentée couplés à l’IA (notamment via SkinConsult AI issu de ModiFace ([84])) pour proposer un diagnostic cutané personnalisé et un essayage virtuel de produits. Ces outils améliorent le taux de conversion en ligne, réduisent les retours produits et contribuent à une réduction des déchets, consolidant ainsi leur impact environnemental positif ([85]).
Des travaux universitaires spécifiques ([86]) (entre autres, celui de Malalur Rajegowda et al., 2024) présentent des systèmes immersifs combinant IA (réseau de neurones convolutionnel ([87]) ) et réalité étendue (XR) pour analyser les types de peau et recommander des produits avec une précision de classification de l’ordre de 93 %. D’autres études ([88]) mettent en évidence que les applications de réalité augmentée dans le maquillage et le soin (Virtual Try-On) favorisent une meilleure évaluation du produit et influencent positivement la décision d’achat des consommateurs.
Enfin, l’introduction de l’IA dans la R&D permet de traiter d’énormes volumes de données issues des avis clients et des tendances sociales. Cela soutient l’identification de nouvelles formulations, simule virtuellement l’efficacité des ingrédients, accélère le prototypage et réduit les erreurs expérimentales. Cette dynamique d’innovation s’accompagne également de nouveaux modèles d’expérimentation, intégrant à la fois l’IA, la modélisation 3D et les biomatériaux. La collaboration récente ([89]) de L’Oréal avec l’université de l’Oregon sur une peau bioprintée permettant un retour sensoriel est un exemple marquant de convergence entre innovation scientifique et technologie beauté, ouvrant la voie à des tests éthiques, personnalisés et plus efficaces.
b. IA et finance : une transformation en cours, entre promesses d’efficacité et défis de mise à l’échelle
Le secteur financier, en particulier la banque et l’assurance, se place à l’avant-garde de l’adoption de l’intelligence artificielle (IA). Alors que les entreprises de services financiers ont dépensé environ 35 milliards de dollars dans la mise en œuvre de l’intelligence artificielle en 2023, cet investissement devrait plus que doubler pour atteindre 97 milliards de dollars d’ici 2027, soit le taux de croissance le plus rapide parmi toutes les grandes industries, selon le Fonds monétaire international ([90]) ([91]). D’après une étude du BCG, la banque figure d’ailleurs aux côtés des fintech et du logiciel parmi les secteurs comptant la plus forte concentration d’entreprises « leaders » dans l’usage de l’IA ([92]) . Les acteurs français s’inscrivent dans cette dynamique, comme l’illustrent les initiatives de groupes auditionnés par la mission d’information, tels que BNP Paribas, Société Générale ou AXA, qui voient dans l’IA un levier stratégique de compétitivité et de transformation de leurs activités.
Dans le secteur bancaire, les cas d’usage de l’IA se multiplient à grande échelle. BNP Paribas ([93]), par exemple, intègre l’IA dans ses processus depuis 2016 et revendique déjà plus de 750 cas d’usage en production à travers ses métiers. La banque anticipe ainsi 500 millions d’euros de revenus additionnels d’ici fin 2025 grâce à l’intégration de ces solutions d’IA. De son côté, Société Générale ([94]) a également industrialisé l’IA dans ses opérations quotidiennes avec 300 cas d’usage en production, dont un quart vise directement à améliorer l’expérience client. Concrètement, ces applications couvrent toute la chaîne de valeur bancaire ([95]) : agents virtuels pour assister la clientèle, automatisation de la notation de crédit et de la conformité, recommandation personnalisée de produits financiers, optimisation des risques et détection de fraudes, etc. Par exemple, la banque de détail de Société Générale s’appuie sur des chatbots comme SOBOT (assistant en ligne) et ELLIOT (outil de sa filiale Boursorama automatisant plus de 70 % des demandes clients de bout-en-bout) afin d’offrir un service plus réactif tout en soulageant les centres d’appels ([96]).
De même, des algorithmes d’IA renforcent en arrière-plan la lutte anti-fraude ([97]) et le contrôle des transactions suspectes, protégeant ainsi les clients. Par exemple, Mastercard utilise un système d’IA appelé Decision Intelligence ([98]), qui analyse en temps réel jusqu’à 160 milliards de transactions par an. Ce système attribue à chaque transaction un score de risque en moins de 50 millisecondes, détectant les comportements inhabituels tout en réduisant de plus de 85 % les faux positifs ([99]), c’est-à-dire les blocages injustifiés de paiements légitimes.
L’essor récent de l’IA générative accélère encore ces usages : BNP Paribas a déployé en 2025 une plateforme interne de « LLM-as-a-Service » ([100]) pour donner à l’ensemble de ses entités un accès unifié et sécurisé aux modèles de langage avancés. Cette mutualisation technologique facilite le développement rapide de nouveaux cas d’usage (assistants virtuels internes, génération automatisée de documents, recherche intelligente d’informations, aide à la programmation, etc.), tout en assurant un cadre contrôlé et conforme aux exigences de sécurité bancaire.
À l’instar des banques, le secteur de l’assurance connaît lui aussi une adoption rapide de l’IA, avec des acteurs français de premier plan. Le groupe AXA, par exemple, a intégré l’IA dans l’ensemble de ses activités : plus de 400 cas d’usage ([101]) de la donnée et de l’IA ont été identifiés et déployés au sein de ses différentes entités, couvrant toute la chaîne de valeur assurantielle. Ces applications variées visent autant à améliorer la détection des fraudes qu’à affiner la tarification des primes, à fluidifier les parcours clients (par exemple, via des chatbots pour déclarer un sinistre) ou encore à anticiper les risques climatiques émergents (AXA Wildfire). Cette transformation repose sur d’importants investissements techniques et humains : AXA s’est dotée d’une équipe mondiale de 2 000 experts en data (données) et IA (dont 900 scientifiques dits data scientists), et a mis en place dès 2022 une académie interne pour former ses collaborateurs aux compétences data/IA. L’IA générative trouve également des cas d’usage concrets : AXA a développé « Secure GPT » ([102]), un assistant fondé sur Azure OpenAI, aujourd’hui accessible à 154 000 employés du groupe et déjà intégré dans 79 applications métier pour accélérer le traitement des réclamations, améliorer la souscription automatisée ou assister les interactions clients. Grâce à cette stratégie volontariste, AXA s’impose comme un leader international : le cabinet britannique Evident ([103]) a classé l’assureur au premier rang mondial en 2025 pour la maturité de son déploiement de l’IA. Plus largement, les grands assureurs européens comme Allianz ([104]) ou Generali ([105]) rivalisent d’initiatives en IA (prévention prédictive, indemnisation automatisée, etc.), tandis qu’aux États-Unis et en Asie, les groupes d’assurance investissent également massivement pour ne pas être distancés dans cette mutation numérique du métier.
Sur la scène internationale, les cas d’usage de l’IA en banque-assurance se multiplient de façon tout aussi spectaculaire, confirmant que les initiatives françaises s’inscrivent dans une tendance globale. Aux États-Unis, par exemple, la banque Bank of America a annoncé que son assistant virtuel Erica (l’un des premiers chatbots bancaires à large échelle) a franchi le cap d’un milliard d’interactions client ([106]) en à peine quatre ans, signe de l’engouement du public pour ces nouveaux outils numériques. D’autres grands groupes bancaires mondiaux, comme JPMorgan Chase ([107]) ou HSBC ([108]), ont investi dans des plateformes d’IA propriétaires couvrant des usages allant du conseil financier personnalisé à l’optimisation automatisée des portefeuilles et à la surveillance avancée des risques. Dans l’assurance, des groupes internationaux majeurs comme Zurich Insurance ([109]) opèrent aujourd’hui plus de 500 applications et outils d’IA en production ou en développement, couvrant des usages stratégiques (souscription intelligente, gestion proactive des sinistres, interface client augmentée, etc.).
Si le potentiel de l’IA est considérable pour la banque et l’assurance, ces secteurs doivent néanmoins relever plusieurs défis majeurs pour concrétiser pleinement ces gains. Un premier enjeu est la conformité réglementaire et éthique ([110]) : la finance est un domaine strictement régulé, et l’intégration d’algorithmes intelligents doit respecter des normes de transparence, d’équité et de protection des données. Les établissements français en sont conscients : BNP Paribas ([111]), par exemple, intègre la confidentialité dès la conception et s’est engagée à ne pas commercialiser les données personnelles de ses clients. L’IA Act encadre en partie les usages à risque (notation de crédit par exemple) ([112]).
Un deuxième défi est d’ordre organisationnel et humain : exploiter l’IA à grande échelle nécessite une transformation culturelle et un renforcement massif des compétences des collaborateurs. Au Royaume-Uni, un rapport récent de la Financial Services Skills Commission ([113]) souligne qu’environ 160 000 professionnels du secteur financier dans ce pays doivent être formellement requalifiés ou formés pour combler un écart de compétences estimé à 35 points de pourcentage entre l’offre et la demande de compétences liées à l’IA.
Enfin, bien que les projets pilotes en IA se multiplient, le retour financier réel reste rare : selon une étude du BCG ([114]), le ROI médian se situe autour de 10 %, et un tiers des dirigeants déclarent un impact limité ou aucun gain. La conclusion est que le retour sur investissement a lieu grâce à l’exécution pilote de ces cas d’usage.
c. Soigner mieux, soigner autrement ? Les promesses et les limites de l’IA dans le domaine de la santé
i. Un marché en expansion et une adoption croissante
L’intelligence artificielle (IA) en santé connaît une croissance exponentielle à l’échelle mondiale. Selon les projections, le marché global de l’IA médicale devrait passer d’environ 21,7 milliards de dollars en 2025 à plus de 110 milliards en 2030, soit un taux annuel de croissance proche de 38 % ([115]) ([116]). Au niveau international, l’AMA (American Medical Association) ([117]) rapporte que 66 % des médecins aux États‑Unis utilisent désormais l’IA dans leur pratique en 2024–2025 (contre 38 % en 2023) et que 68 % considèrent que l’IA apporte un avantage au soin. En France, cette dynamique s’accompagne d’une adoption de plus en plus large par les professionnels de santé. Plus d’un soignant français sur deux (53 %) déclare intégrer l’IA dans sa pratique quotidienne, signe que ces outils ne sont plus cantonnés aux laboratoires mais entrent dans la routine clinique ([118]).
Par ailleurs, les médecins se montrent très favorables à ces technologies selon Sanofi : 75 % d’entre eux soutiennent le développement de l’IA dans le secteur médical (contre 67 % de l’ensemble de la population) ([119]). Près de 70 % des médecins français se déclarent favorables à une collaboration avec l’IA dans la prise en charge, contre seulement 45 % des patients ayant confiance à son usage pour soigner ([120]). Une étude de Philip’s Future Health Index ([121]) indique que 63 % des professionnels de santé américains estiment que l’IA peut améliorer les soins, contre 48 % des patients, ce qui reflète une confiance plus marquée du corps médical dans cette technologie par rapport au grand public.
ii. L’IA présente à toutes les étapes de soins
Considérée comme un levier de transformation du système de santé, les cas d’usages de l’IA existent aujourd’hui à toutes les étapes du parcours de soins ([122]) : de la prévention et du dépistage précoce jusqu’au diagnostic, au traitement et au suivi des patients. Les médecins utilisent par exemple des algorithmes pour détecter plus en amont des pathologies difficiles à diagnostiquer (maladies rares, lésions peu visibles...), ou pour anticiper des risques ([123]) avant même l’apparition des symptômes. Dans le domaine du diagnostic, l’IA peut apporter une rapidité et une précision inédites : certaines applications d’analyse d’images médicales surpassent désormais l’humain en vitesse et en exactitude, par exemple pour interpréter des radiographies ou des scanners ([124]).
Concrètement, de nombreux champs médicaux bénéficient déjà de ces avancées, de l’oncologie (détection automatisée de tumeurs en imagerie) à l’ophtalmologie (dépistage de la rétinopathie diabétique), en passant par la cardiologie, la dermatologie ou la génomique. Des jeunes pousses françaises illustrent bien ces usages. Par exemple, Gleamer, auditionné par la mission, propose un copilote intelligent pour les radiologues : sa suite d’IA d’aide à l’interprétation des images médicales est déployée dans plus de 2 000 établissements à travers 45 pays, avec à ce jour 35 millions d’examens analysés et des certifications CE et FDA pour son module de détection des fractures osseuses ([125]). Dans le domaine de la prescription, la start-up Synapse Medicine ([126]), également auditionnée par la mission a, elle, développé une plateforme d’intelligence médicamenteuse qui aide les professionnels à sécuriser leurs prescriptions. En utilisant le traitement automatique du langage naturel, cet outil fournit des informations fiables sur les médicaments et permet de prévenir les erreurs de prescription (interactions, contre-indications, posologies inappropriées, etc.).
iii. IA et amélioration de la sécurité des patients
Les cas d’usage de l’IA s’étendent désormais jusqu’à l’acte de soin lui-même, contribuant notamment à la sécurité des patients. Dans les blocs opératoires, des systèmes prédictifs assistés par IA aident par exemple les anesthésistes et chirurgiens à prévenir des complications aiguës en cours d’intervention ([127]). Plusieurs hôpitaux, dont l’AP-HP et le CHU de Strasbourg, ont déployé un système d’IA capable d’anticiper les épisodes d’hypotension artérielle peropératoire ([128]), difficiles à détecter avec les moniteurs classiques. Au CHU de Strasbourg, un supercalculateur analyse en temps réel les données physiologiques du patient, les compare à une vaste base de cas et identifie les signaux faibles annonciateurs d’une chute de tension, permettant à l’équipe médicale d’intervenir avant qu’elle ne survienne et d’éviter ainsi un risque d’hypoxie des organes. Ce genre d’assistant intelligent agit comme un coéquipier supplémentaire qui renforce la vigilance humaine et réduit le risque de complications post-opératoires.
En dehors du bloc opératoire, l’IA peut assurer le suivi à distance et la télémédecine, au bénéfice des patients chroniques. La start-up française BioSerenity, par exemple, déploie des dispositifs médicaux connectés (électroencéphalographes mobiles et capteurs de paramètres vitaux) couplés à de l’IA pour aider au diagnostic et au monitoring en temps réel de diverses maladies chroniques, en particulier dans le domaine neurologique et les troubles du sommeil ([129]) ([130]). Grâce à ces solutions, un volume massif de données de santé peut être analysé de manière continue et fine, permettant de détecter plus tôt une dégradation de l’état d’un patient à domicile et d’intervenir préventivement. L’IA devient ainsi un outil transversal, présent de la planification de la prise en charge jusqu’à sa mise en œuvre, avec à la clé des soins plus sûrs et personnalisés.
iv. IA générative et découverte de nouveaux médicaments
L’IA de nouvelle génération joue également un rôle crucial en recherche pharmaceutique, où elle accélère la découverte de médicaments et la conception de molécules innovantes ([131]). Le développement d’un médicament est un processus long (plusieurs années) et coûteux, jalonné d’un fort taux d’échecs. Les modèles d’IA générative apportent ici un levier d’efficacité : ils peuvent tester virtuellement d’innombrables configurations moléculaires, prédire leurs propriétés pharmacologiques et aider à identifier de nouvelles cibles thérapeutiques, le tout bien plus rapidement que les approches traditionnelles.
En conséquence, laboratoires pharmaceutiques et start-up « TechBio » nouent des partenariats pour tirer parti de ces avancées. Un exemple emblématique est le partenariat signé fin 2023 entre la pharmaceutique Sanofi et la start-up française Aqemia ([132]) : Sanofi a signé un contrat de 140 millions de dollars avec Aqemia pour exploiter ses algorithmes inspirés de la physique quantique et son IA générative dans un objectif de découverte de molécules thérapeutiques et d’accélération de la recherche de nouveaux candidats-médicaments.
De son côté, Owkin est une start-up française fondée en 2016, spécialisée dans l’intelligence artificielle appliquée à la médecine, notamment via l’apprentissage fédéré, pour accélérer la recherche de traitements contre des maladies graves comme le cancer, en collaboration avec des hôpitaux et institutions de recherche. Ces alliances incarnent une tendance de fond : l’IA permet aux industriels de la santé d’innover plus vite et à moindre coût, tout en réduisant le risque d’échec, ce qui pourrait à terme raccourcir le temps d’accès des patients à de nouveaux traitements ([133]).
v. IA et santé mentale : suivi et prévention des troubles
Les professionnels de santé exploitent également l’IA pour améliorer la prise en charge de la santé mentale et le suivi des populations fragiles. Des start-up françaises émergent sur ce créneau. Par exemple, Emobot ([134]) est une start‑up MedTech française fondée en 2022, qui propose un dispositif reposant sur l’analyse continue des expressions faciales et de la voix via l’IA, afin de surveiller les troubles de l’humeur, notamment la dépression, et d’offrir des indicateurs objectifs utilisés par les médecins et industries pharmaceutiques.
L’IA, dans le domaine de la recherche, peut également aider à mieux comprendre et prévenir les troubles psychiques. Une étude française ([135]) menée par laboratoire Trajectoires développementales et psychiatrie (Inserm/ENS Paris-Saclay) et le Centre Borelli (CNRS/Université Paris-Saclay) a utilisé le machine learning sur un large ensemble de données cliniques, génétiques et d’imagerie afin d’identifier les signes avant-coureurs de troubles anxieux à l’adolescence. Ce travail pionnier a mis en évidence trois signes avant-coureurs les plus prédictifs dont la présence à 14 ans augmente significativement le risque de développer un trouble anxieux à l’entrée dans l’âge adulte. Ces résultats publiés dans Nature ([136]) ouvrent la voie à des dépistages plus précoces et ciblés des troubles mentaux grâce à l’IA.
vi. Obstacles et enjeux spécifiques de l’IA en santé
Malgré ses promesses, l’IA en santé fait face à des défis importants qu’il convient de relever pour une adoption pérenne et responsable. D’abord, la question des biais algorithmiques suscite une grande vigilance dans le milieu médical.
Des données d’entraînement inappropriées ou non représentatives peuvent conduire à des recommandations fausses ou inéquitables ([137]), ayant un impact disproportionné ou inapproprié sur certaines populations (personnes issues de minorités ethniques, femmes, personnes âgées, etc.). En particulier, une revue systématique récente sur les grands modèles de langage appliqués à la clinique montre que les biais y sont omniprésents ([138]) : disparités de performance selon l’ethnie, le genre, l’âge ou le handicap, pouvant conduire à de mauvaises recommandations thérapeutiques ou des diagnostics erronés.
Ensuite, l’explicabilité et la transparence des décisions de l’IA sont cruciales en médecine. L’opacité des décisions algorithmiques suscite une méfiance notable parmi les professionnels de santé. Selon un rapport du Parlement européen ([139]), le manque de transparence des systèmes d’IA est identifié comme un risque majeur, freinant leur adoption et compromettant la confiance des soignants et des patients. Une étude récente ([140]) en Europe a interrogé 115 professionnels de santé et révélé que la transparence réglementaire offerte par la réglementation européenne (AI Act 2024/1689) ne correspond souvent pas aux besoins réels des utilisateurs, rendant les dispositifs perçus comme des « boîtes noires » difficiles à accepter cliniquement. En outre, l’intégration de l’IA dans la pratique soulève des enjeux de protection des données de santé, qui sont parmi les plus sensibles ([141]).
Une étude récente ([142]) montre que les réponses générées par l’IA sont souvent perçues comme plus empathiques que celles de médecins humains, notamment dans des contextes de communication écrite. Ces résultats invitent à repenser la relation soignant‑patient, en envisageant l’IA comme un outil d’assistance qui renforcerait la qualité du dialogue médical tout en recentrant le médecin sur les dimensions humaines du soin.
d. Dominer, protéger, encadrer : l’IA au cœur des rapports de force dans la défense et l’aéronautique
L’intelligence artificielle (IA) est en passe de transformer en profondeur l’art de la guerre. Le conflit en Ukraine a illustré le rôle critique de l’IA dans le renseignement, l’emploi de drones autonomes et la cyberguerre ([143]). Face à cela, une véritable course aux armements en IA s’est engagée entre les puissances : les États-Unis, la Chine et, dans une moindre mesure, la Russie, investissent massivement dans le développement de systèmes militaires autonomes, de capacités de surveillance renforcées, et d’outils d’aide à la décision.
Les stratégies de défense américaines de 2018 et 2022 placent l’IA au cœur de la modernisation des armées, avec une intégration croissante dans des domaines tels que le renseignement, la logistique ou les opérations cyber ([144]) ([145]). Le Pentagone a créé le Chief Digital and Artificial Intelligence Office (CDAO) pour piloter cette transformation, et des projets concrets comme le drone MQ-9 Reaper ([146]) ou le programme Project Maven ([147]) illustrent l’intégration opérationnelle de ces technologies.
Une analyse révèle que le financement de l’innovation en matière de défense, dont une partie est consacrée à des projets d’intelligence artificielle, représentait 34 milliards de dollars du budget de sécurité nationale des États-Unis en 2022, soit environ 4 % du total ([148]). Les investissements non classifiés du Département de la Défense dans l’IA sont passés de légèrement plus de 600 millions de dollars en 2016 à environ 1,8 milliard de dollars en 2024 ([149]), avec plus de 685 projets d’IA actifs actuellement en cours.
La Chine, principal concurrent des États-Unis dans ce domaine, mise elle aussi sur l’IA pour atteindre son objectif de constitution d’une armée « de classe mondiale » ([150]) d’ici 2050. Son plan de développement de l’IA de 2017 ([151]) et l’importance croissante accordée à l’autonomie des systèmes militaires montrent une volonté claire de rivaliser avec les capacités américaines. Le manque de transparence budgétaire ([152]) rend les comparaisons difficiles, mais des analyses ([153]) suggèrent que l’Armée populaire de libération (APL) investit massivement dans l’intelligence artificielle, avec des montants qui pourraient égaler voire dépasser les dépenses du Département de la Défense des États-Unis. Par ailleurs, l’examen du budget de la défense chinoise indique que les dépenses réelles seraient supérieures de 40 % à 90 % aux chiffres officiellement annoncés, portant les dépenses totales estimées pour 2024 à environ 330 à 450 milliards de dollars ([154]), dont une part serait consacrée à la recherche et technologie (R&T).
La Russie, quant à elle, accuse un retard technologique ([155]) mais cherche à le combler via une stratégie nationale de l’IA et un plan militaire décennal ([156]). Elle mise sur l’autonomisation partielle de son matériel militaire (à hauteur de 30 %) d’ici fin 2025 ([157]), notamment dans le contexte de la guerre en Ukraine qui accélère l’intégration de technologies d’IA sur le champ de bataille. À l’instar de la Chine, les dépenses du budget militaire russe sont difficiles à évaluer ([158]).
L’Union européenne reconnaît de plus en plus l’intelligence artificielle comme un levier stratégique de puissance, tant sur les plans économiques que militaire, dans un contexte de montée en puissance des rivalités géopolitiques. Cette prise de conscience s’inscrit dans la volonté affirmée de renforcer l’autonomie stratégique et la souveraineté technologique de l’Europe, comme l’illustrent la Boussole stratégique adoptée en 2022 ([159]) et la stratégie industrielle de défense de mars 2024 ([160]). L’UE développe une approche intégrée fondée sur le renforcement de la base industrielle et technologique de défense européenne (BITDE), en créant des synergies entre innovation civile et militaire, notamment dans les technologies duales ([161]). Des instruments comme le Fonds européen de défense (EDF) ([162]) et le plan ReArm Europe ([163]) mobilisent d’importants moyens, jusqu’à 800 milliards d’euros ([164]), pour accélérer le développement de technologies critiques, dont l’IA, en privilégiant des projets communs et l’innovation de rupture.
Toutefois, malgré des avancées notables, les moyens alloués restent inférieurs à ceux de ses concurrents : l’ensemble des États membres consacre 14,4 milliards d’euros ([165]) par an à la R&D militaire, contre 130 milliards aux États-Unis ([166]). Les efforts européens souffrent encore de fragmentation, d’une faible coordination et d’une concentration excessive des dépenses sur quelques États. Des initiatives récentes, comme la plateforme STEP ([167]) ou l’allocation croissante de fonds aux technologies émergentes, témoignent néanmoins d’une dynamique ascendante. Les projets financés incluent des applications concrètes de l’IA en cybersécurité, systèmes autonomes, automatisation intelligente ou traitement linguistique, dans le respect du principe de contrôle humain significatif imposé par la réglementation du Fonds européen de défense.
Enfin, plusieurs voix ([168]) alertent sur les dangers de cette course à l’armement algorithmique, soulignant l’urgence d’un encadrement éthique et international afin de prévenir les dérives, de favoriser les usages civils de l’IA et d’éviter des scénarios de confrontation incontrôlée. L’article du MIT ([169]) estime qu’une course à l’IA entre les États-Unis et la Chine est dangereuse et inefficace, appelant à une coopération internationale pour encadrer les usages de l’IA, prévenir les dérives, et concentrer les efforts sur les grands défis globaux comme la santé, l’éducation ou le climat. Il insiste sur le fait que l’affrontement technologique affaiblit la stabilité mondiale et retarde les bénéfices que l’IA pourrait apporter à l’humanité.
L’essor de l’IA de défense s’accompagne de défis éthiques et géopolitiques majeurs. L’utilisation d’algorithmes dans des systèmes d’armes pose la question de la responsabilité, de la conformité au droit international humanitaire et du risque d’escalade incontrôlée si l’on réduit la supervision humaine. Les approches divergent : les États-Unis privilégient des lignes directrices souples favorables à l’innovation, tandis que l’Europe promeut une approche plus centrée sur l’humain, misant sur la fiabilité et la gestion des risques ([170]). Le Parlement européen, par exemple, reconnaît l’importance stratégique de l’IA militaire, mais appelle à interdire les armes létales autonomes échappant à tout contrôle humain.
Consciente de ces enjeux, la France s’est engagée depuis plusieurs années dans le développement de l’IA de défense. L’État a encouragé la recherche et les écosystèmes d’innovation (création d’instituts spécialisés 3IA en 2018, programmes d’accélération France 2030, etc.) et inscrit l’IA au cœur de sa stratégie de défense. Néanmoins, comparée aux puissances de feu américaines et chinoises disposant des géants du numérique, l’Europe ne bénéficie pas du même niveau de ressources technologiques et financières ([171]) . Pour compenser ce handicap, la France et ses partenaires misent sur des niches technologiques où ils peuvent exceller de manière souveraine, ainsi que sur une approche fondée sur la confiance et la transparence de l’IA ([172]). L’élaboration de solutions d’IA dignes de confiance (fiables, explicables, traçables) est perçue comme un moyen de se démarquer face à des compétiteurs parfois moins regardants, tout en évitant une dépendance stratégique à des technologies boîte noire ([173]) .
Cette stratégie porte ses fruits dans certains domaines pointus de la défense et de l’aéronautique où des start-up françaises occupent des positions mondiales de premier plan, voire de quasi-monopole technologique, malgré des moyens plus limités que leurs concurrents étrangers. C’est le cas, notamment pour les applications d’IA au renseignement et à la surveillance sous-marine. Par exemple, la société Safran.AI ([174]) (ex-Preligens), auditionnée par la mission et fondée en 2016, fournit des algorithmes d’IA capables d’analyser automatiquement d’immenses flux d’images satellite et de détection acoustique pour repérer des menaces ou des activités anormales ; elle est rapidement devenue l’un des leaders mondiaux de l’IA appliquée au renseignement géospatial. Faute de financements privés suffisants pour assurer sa croissance, Preligens a finalement été rachetée en 2024 par le groupe Safran ([175]) afin de préserver cette avance stratégique française. Ce rachat illustre à la fois l’excellence technologique locale et les difficultés à faire émerger un champion autonome ([176]) dans un secteur aussi sensible que celui du renseignement.
Toujours dans le domaine de la défense, Helsing AI, start-up allemande fondée en 2021 et active en France, en Allemagne et au Royaume‑Uni, s’est spécialisée dans les systèmes d’armes autonomes et l’analyse tactique par IA. Elle développe notamment des drones sous‑marins intelligents capables de patrouiller durant des semaines pour détecter des navires et sous‑marins ennemis, dans une logique de « constellations mobiles de capteurs » offrant aux armées européennes une surveillance maritime inédite. En trois ans, Helsing est devenue l’une des start‑up d’IA de défense les plus valorisées en Europe (5,3 milliards de dollars fin 2024 ([177])), après avoir levé 484 millions de dollars auprès d’investisseurs de premier plan.
Parallèlement, on distingue plusieurs catégories d’IA en contexte militaire : l’IA dite « faible » appliquée aux capteurs (images, sonars, etc.) pour fournir aux analystes des informations exploitables plutôt que des données brutes, l’IA générative qui, entraînée sur des masses de données textuelles, peut assister les états-majors en accélérant la rédaction de rapports ou l’analyse de renseignement, et l’IA d’aide à la décision stratégique qui agrège des données hétérogènes afin de suggérer des anticipations du comportement adverse ([178]).
Les armées ont intensément intégré ces technologies, tant pour optimiser les décisions en opérations que pour moderniser leurs processus internes. Par exemple, les systèmes équipés d’IA intégrés au véhicule blindé « Griffon » ([179]) permettent désormais à l’équipage d’identifier des cibles jusqu’à trois kilomètres, y compris en sous-bois, là où l’œil humain ne suffit plus. Dans le domaine de la guerre acoustique, l’IA trie efficacement les signaux pertinents, réduisant la charge cognitive des analystes de 98 %. Par ailleurs, l’application souveraine Rora ([180]), utilisée par la SIMMT, permet d’identifier instantanément des pièces détachées via une simple photo (même hors connexion), évitant erreurs logistiques et retards de maintenance. Dans la formation aéronautique, l’IA analyse les données de vol ou de simulation pour aider les instructeurs à repérer précocement les difficultés des élèves pilotes et à augmenter ainsi leur taux de réussite ([181]).
Elle contribue également à la lutte contre la désinformation, en détectant rapidement deepfakes vidéo ou audio qui visent les forces armées, facilitant ainsi l’alerte opérationnelle. Dans un contexte militaire américain, l’Army Research Laboratory (DEVCOM-ARL) a développé DefakeHop ([182]), une méthode légère de détection de fake vidéo/audio utilisable sur des dispositifs tactiques en opérations, capable d’identifier les contenus manipulés malgré les attaques adverses.
Pour surmonter les défis liés à la diversité et au volume croissant des données militaires ([183]), Safran (via Safran.AI) a développé des solutions d’IA optroniques (ACE), de consolidation multi‑capteurs (AI.STAR) et de surveillance satellite (GeoAI). Ces outils traitent des flux massifs : détection, classification, géolocalisation immédiate, réduisant des heures d’analyse humaine à quelques minutes.
L’intelligence artificielle transforme les systèmes d’armement, notamment à travers des programmes comme Project Maven ([184]) du Pentagone, qui utilise le machine learning pour analyser des images et accélérer le ciblage en opérations. Lors d’exercices récents, cette IA a permis de réduire de 90 % les effectifs nécessaires à une frappe d’artillerie, tout en doublant la cadence de ciblage. Si ces avancées augmentent l’efficacité opérationnelle, elles soulèvent aussi des enjeux éthiques majeurs : la perte de contrôle humain significatif, les biais algorithmiques et la difficulté à déterminer les responsabilités en cas de faute. Des chercheurs comme Feldman et al. ([185]) appellent à une régulation internationale encadrant les systèmes d’armes autonomes.
Enfin, au-delà de ces cas emblématiques, l’IA irrigue de plus en plus largement le secteur aéronautique français. Dans l’aviation civile par exemple, l’IA sert à l’optimisation des trajectoires de vol pour économiser le carburant, comme l’a démontré le modèle Constellation de Qantas ([186]), aboutissant à des gains de l’ordre de 2 %, soit environ 92 millions de dollars économisés en 2023. En parallèle, les compagnies utilisent la maintenance prédictive, combinant l’IoT, l’analyse de données et le machine learning afin de surveiller en temps réel l’état des moteurs et prévenir les pannes éventuelles. Des études universitaires et industrielles ([187]) ([188]) montrent que cette approche permet de réduire les coûts de maintenance et le temps d’immobilisation, tout en améliorant la disponibilité des avions. Enfin, des modèles de deep learning appliqués à la prévision de la consommation de carburant, comme celui évoqué par Jarry et al. ([189]), peuvent estimer celle-ci avec une erreur comprise entre 2 % et 10 % selon l’appareil, ouvrant la voie à une planification plus précise et économiquement efficiente.
L’intelligence artificielle irrigue désormais largement les activités d’Airbus et de Safran, tant dans l’aviation civile que dans le domaine militaire. En juin 2024, Safran a finalisé l’acquisition de Preligens ([190]), renommée Safran AI, afin de renforcer son expertise dans l’analyse d’images satellites et vidéo à usage civil, spatial et de défense. Cette acquisition vise à déployer des outils d’inspection numérique automatisée permettant d’augmenter la fiabilité, la sécurité et la rapidité des contrôles qualité en production aéronautique.
Chez Airbus, auditionné par la mission, l’IA s’est déployée selon plusieurs axes stratégiques. Sa plateforme Skywise ([191]), fondée sur le traitement automatique du langage naturel (NLP) ([192]) et le machine learning, est utilisée pour la maintenance prédictive dans l’aviation civile, réduisant les pannes et améliorant la disponibilité des avions. Dans le spatial, Airbus explore des systèmes d’IA intégrée capables de traiter directement à bord des images satellites. En outre, le groupe expérimente l’IA générative en interne ([193]) pour accélérer la conception de composants et améliorer l’efficacité administrative, notamment pour l’analyse automatisée de contrats ou la génération de documentation.
Dans le domaine militaire, Airbus développe le concept de « Wingman », un drone de combat autonome destiné à accompagner des avions pilotés sous commandement humain, en partenariat avec la start‑up européenne Helsing ([194]). Ce démonstrateur, présenté en 2024, illustre l’essor de l’IA coopérative dans les systèmes d’armes de nouvelle génération au sein du système de combat aérien du futur (SCAF).
e. Automatiser, optimiser, sécuriser : l’IA à l’épreuve des réseaux télécoms
Historiquement prudennts sur l’IA, les opérateurs télécoms français (Orange, SFR, Free, Bouygues) ont accéléré son adoption depuis 2020 sous l’effet de plusieurs facteurs. Dès 2020 ([195]), l’Arcep identifiait les interrogations des opérateurs télécoms concernant le recours à l’intelligence artificielle dans la gestion des réseaux, notamment en matière de fiabilité, de transparence des décisions automatisées et de rôle des techniciens. Depuis, plusieurs dynamiques ont levé les hésitations initiales : la 5G a considérablement accru la complexité des réseaux et la nécessité de les automatiser ; la crise énergétique de 2022 a renforcé la recherche d’efficacité énergétique, pour laquelle l’IA constitue un outil précieux ; enfin, la diffusion rapide des modèles d’IA générative à partir de 2023 a ouvert de nouveaux cas d’usage dans la relation client et l’assistance technique.
Ces facteurs combinés ont conduit les opérateurs à structurer davantage leur stratégie IA. En 2024, 65 % des opérateurs télécoms mondiaux avaient déjà une stratégie IA dédiée ([196]). Les réseaux produisant des volumes massifs de données, l’apprentissage automatique s’y est imposé pour détecter des tendances et anomalies impossibles à repérer manuellement ([197]). Aujourd’hui, l’IA est intégrée dans de nombreuses composantes des infrastructures télécoms, même si le secteur s’appuie surtout sur des modèles classiques de machine learning : d’après le World Economic Forum ([198]) (2025), les opérateurs télécoms disposent d’une expérience étendue en matière d’intelligence artificielle traditionnelle, tandis que l’IA générative fait encore l’objet de phases d’expérimentation, avec pour priorité en 2025 d’étendre les cas d’usage à l’échelle de l’organisation.
L’IA améliore la fiabilité et la performance des réseaux de télécommunication tout en réduisant les coûts d’exploitation.
Les opérateurs utilisent l’IA comme outil d’aide à la décision pour optimiser leurs investissements et améliorer l’efficacité de leurs réseaux mobiles ([199]). Des algorithmes de machine learning surveillent en continu l’état des équipements : ils détectent les comportements anormaux de composants critiques (batteries, systèmes de climatisation...) afin de prévenir des pannes avant qu’elles ne surviennent. Ces modèles analysent aussi le flot d’alertes techniques du réseau d’accès radio pour mieux anticiper les défaillances ([200]).
En parallèle, l’IA contribue à la maintenance prédictive ([201]) : en identifiant des signaux faibles dans le comportement des équipements, elle déclenche des interventions préventives, réduisant les incidents et les astreintes d’urgence. L’intelligence artificielle traditionnelle contribue depuis longtemps à la réduction des coûts et à l’amélioration de l’efficacité opérationnelle, notamment grâce à la maintenance prédictive. Selon Nvidia ([202]), près des deux tiers des professionnels de l’IA, issus des opérateurs de télécommunications et des fournisseurs de matériel ou de logiciels, déclarent avoir observé des économies liées à ces cas d’usage.
L’efficacité énergétique est un autre enjeu clé : grâce à l’IA, les opérateurs mettent en place des fonctionnalités green innovantes ([203]). Par exemple, des modèles prédisent le trafic sur chaque antenne mobile et peuvent désactiver dynamiquement des bandes de fréquences en heures creuses ([204]), sans dégrader le service. Ericsson rapporte qu’un opérateur (Far EasTone) a réduit de 25 % sa consommation énergétique quotidienne sur le RAN ([205]) grâce à une solution AI intégrée, prenant en compte la prédiction du trafic et la mise en sommeil dynamique des ressources peu occupées. Orange ([206]) a déployé une solution d’intelligence artificielle permettant d’optimiser la consommation énergétique de ses antennes mobiles en ajustant dynamiquement leur puissance selon le trafic observé, ce qui a permis, sur certains sites, de diviser par trois la consommation électrique sans dégrader la qualité de service.
Enfin, l’IA aide à la planification des capacités réseau ([207]) : Orange a déployé sa solution Smart Capex ([208]), qui exploite des algorithmes de machine learning pour analyser en temps réel le trafic utilisateur, la consommation énergétique et les données environnementales, afin d’orienter les investissements réseau vers les zones présentant le plus fort besoin en capacité.
Au-delà des infrastructures, l’IA assiste les équipes terrain et améliore l’expérience client. Les techniciens profitent de la vision par ordinateur ([209]) pour contrôler la qualité des installations. Par exemple, SFR analyse chaque mois plus de 5 millions de photos ([210]) de ses déploiements fibre via un outil d’IA visuelle (Deepomatic), ce qui garantit la conformité des raccordements et la qualité du réseau fixe pour les abonnés. Des expérimentations combinent même réalité augmentée et reconnaissance d’images pour guider les techniciens en temps réel, rendant les interventions plus sûres et efficaces ([211]). En outre, certaines défaillances réseau peuvent désormais être diagnostiquées à distance grâce à l’IA, évitant l’envoi de techniciens en situations dangereuses (par exemple l’inspection de pylônes) ([212]).
Côté utilisateurs, les opérateurs intègrent l’IA générative dans la relation client. Des modèles de langage (LLM) assistent les conseillers clients en analysant instantanément les conversations et en suggérant des réponses pertinentes. SFR a déployé en 2024 l’IA générative Gemini de Google via la plateforme Vertex AI ([213]) pour épauler ses centres d’appels : l’outil comprend les demandes des clients et fournit aux agents un support en temps réel, ce qui accélère la résolution des requêtes et améliore la précision des réponses. L’opérateur estime pouvoir ainsi traiter plus de deux millions de dossiers supplémentaires par an via les canaux digitaux, en réduisant drastiquement les délais de traitement. De même, Orange et SFR explorent l’usage de LLM internes pour aider les ingénieurs à interroger les bases de connaissances techniques ([214]) (procédures d’installation, protocoles de résolution d’incident), ce qui facilite et fiabilise la résolution des pannes complexes. Ces apports de l’IA permettent aux opérateurs d’améliorer la satisfaction client (par la réduction des temps d’attente et d’indisponibilité), tout en libérant les employés des tâches routinières pour se concentrer sur des activités à plus forte valeur ajoutée.
Conscients de l’enjeu, les opérateurs télécoms s’allient avec les pépites technologiques pour rester à la pointe de l’innovation. Orange a ainsi annoncé en 2025 un partenariat stratégique avec la start-up française Mistral AI, afin de développer des algorithmes avancés et de préparer les réseaux de demain, notamment via une collaboration en recherche et développement (R&D) sur l’effet du déploiement massif de l’IA et l’adaptation des infrastructures (GPU en périphérie, gestion intelligente du trafic) ([215]). Bouygues Telecom ([216]), de son côté, a noué un accord avec Perplexity AI, offrant un accès gratuit à son assistant de recherche pendant un an. Free propose quant à lui 12 mois offerts au chatbot Le Chat Pro de Mistral AI dans ses forfaits mobiles. À l’international, Vodafone s’est associé à Microsoft ([217]) pour intégrer l’IA générative à ses services numériques. Cette effervescence partenariale témoigne d’un secteur en mutation, où opérateurs de télécommunication et entreprises d’IA conjuguent leurs atouts (la puissance des réseaux d’un côté, les avancées algorithmiques de l’autre) pour innover plus vite.
L’impact de l’IA sur la qualité et la résilience des infrastructures numériques est stratégique. À l’avenir, la convergence de l’IA et des réseaux pourrait ouvrir de nouveaux services différenciants ([218]) : par exemple, allouer à la volée une qualité de service premium sur le réseau 5G pour un usager le demandant. Selon Ericsson ([219]), lors d’un essai réalisé avec le groupe taïwanais Far EasTone dans le cadre de la 5G‑Advanced, il a été démontré qu’un système d’allocation dynamique de ressources QoS piloté par l’IA permettait de proposer une voie rapide sur demande à certains utilisateurs, notamment dans des contextes de forte affluence comme un concert.
Enfin, selon GSMA Intelligence ([220]), plusieurs freins structurels ralentissent l’adoption à grande échelle de l’intelligence artificielle dans le secteur des télécommunications. Le principal obstacle identifié concerne les enjeux de cybersécurité, cités par 49 % des répondants, ce qui reflète une inquiétude croissante face aux risques liés à l’intégration d’outils algorithmiques dans des infrastructures critiques. Viennent ensuite les préoccupations liées à la confidentialité des données et aux considérations éthiques (41 %), qui renvoient à la difficulté de concilier innovation et respect des principes de souveraineté numérique. Les limites des infrastructures informatiques (38 %) freinent également le déploiement de solutions avancées, notamment en matière d’IA embarquée ou de traitements en périphérie de réseau. La pénurie de talents spécialisés (34 %), la qualité et la complexité des données disponibles (30 %), ainsi que les contraintes réglementaires (28 %) complètent ce panorama.
Principaux freins à l’adoption de l’intelligence artificielle Dans le secteur des télécommunications
Source : GSMA intelligence, Telco AI : State of the Market, Q4 2024, Janvier 2025.
L’intelligence artificielle (IA) s’est imposée ces dernières années dans le secteur juridique, particulièrement depuis l’essor des modèles de langage et agents conversationnels comme ChatGPT en 2022. De nombreuses legaltech ([221]) , comme DAstra, Legalvision, Doctrine ou Avocalc, ont émergé et des outils juridiques propulsés par l’IA (générative ou prédictive) se multiplient, automatisant des tâches jusqu’alors chronophages ([222]) : gestion documentaire (classement, vérification de conformité de documents), rédaction et relecture de contrats à partir de modèles prédéfinis, recherche d’informations dans les textes de loi et la jurisprudence, détection d’anomalies dans des dossiers ([223]), etc. Ces usages, déjà expérimentés par certains professionnels, témoignent du fort potentiel de l’IA pour augmenter la productivité des juristes en les déchargeant de tâches répétitives.
L’automatisation permise par l’IA offre en effet aux avocats, notaires, juristes d’entreprise ou conseils en propriété industrielle des gains de temps significatifs, leur permettant de se recentrer sur des missions à plus forte valeur ajoutée telles que la stratégie, le conseil personnalisé ou le contentieux. Selon le rapport du Sénat ([224]), l’utilisation de l’IA générative pourrait faire gagner jusqu’à 90 minutes par dossier aux notaires. LexisNexis ([225]) notait que près de 4 professionnels du droit sur 5 estiment que les outils d’IA générative renforceront leur efficacité. De même, le Conseil national des barreaux (CNB), comme il le rapportait à la mission, anticipe une hausse de la productivité dans les cabinets d’avocats grâce à ces outils, et plusieurs cabinets témoignent ([226]) déjà d’un avantage compétitif à recourir quotidiennement à des IA comme support à la recherche juridique. Les legaltech françaises l’ont bien compris : l’éditeur LexisNexis a investi 20 millions d’euros en 2022 ([227]) pour intégrer l’IA dans ses services, et des solutions telles que GenIA-L (Lefebvre Dalloz), Doctrine ou Predictice proposent respectivement de la recherche jurisprudentielle assistée par IA, des résumés de références juridiques mis à jour, ou encore de l’analyse prédictive des décisions de justice.
Des études récentes confirment que l’intelligence artificielle génère un gain de productivité réel sans pour autant menacer massivement l’emploi juridique. Une enquête de Thomson Reuters ([228]) indique que l’IA pourrait libérer 4 heures de travail par semaine par professionnel, soit l’équivalent de 100 000 dollars de recettes facturables supplémentaires par avocat aux États-Unis. Une étude empirique publiée en avril 2025 ([229]) compare les modèles de langage aux réviseurs humains dans le domaine de la facturation juridique : les LLM atteignent jusqu’à 92 % de précision, contre 72 % pour les professionnels expérimentés, avec des temps de traitement de moins de 4 secondes par facture au lieu de plusieurs minutes, et des coûts moindres de 99,97 %.
g. L’IA au champ : une révolution en germe entre promesse technologique et réalités agricoles contrastées
À l’échelle mondiale, l’adoption de l’intelligence artificielle en agriculture reste majoritairement embryonnaire malgré une croissance rapide du marché. En 2024, le marché global de l’IA appliquée à l’agriculture était estimé entre 1,8 et 4,7 milliards de dollars, avec des projections jusqu’à 12,5 milliards de dollars d’ici 2034–2035, selon le Market Resarch report ([230]), soit un taux anticipé de croissance de 18,95 % par an.
En 2024, les États-Unis détenaient la plus grande part du marché de l’IA générative appliquée à l’agriculture ([231]). Un rapport publié en 2023 par le Département de l’Agriculture des États-Unis (USDA) ([232]) indique que plus de 50 % du maïs, du coton, du riz, du sorgho, du soja et du blé d’hiver sont semés à l’aide de systèmes de guidage automatisés. Cette position dominante s’explique par une infrastructure numérique avancée et une adoption précoce de l’intelligence artificielle. Les principales entreprises d’agritech y investissent massivement dans la recherche et le déploiement de solutions basées sur l’IA. L’agriculture de précision y est largement mise en œuvre, notamment sur de vastes exploitations commerciales. Par ailleurs, les financements publics et les partenariats privés continuent de stimuler l’innovation dans ce domaine.
La Chine mène une transition planifiée : un plan quinquennal (2024‑2028) ambitionne de digitaliser massivement l’agriculture via big data, GPS et IA pour améliorer la productivité et la sécurité alimentaire déficitaire malgré une production de plus de 700 millions de tonnes ([233]). Malgré cela, le modèle chinois d’exploitations agricoles très fragmentées (fermes de petite taille) freine encore l’adoption à grande échelle, même si des progrès sont confirmés en développement de l’agriculture de précision ([234]).
Marché de l’IA générative dans l’agriculture : tendances régionales
2025-2033
Source : Grand View Research, Generative AI In Agriculture Market Size, Share & Trends Analysis Report By Technology, By Application (Precision Farming, Livestock Management, Agricultural Robotics & Automation, Weather Forecasting), By Region, And Segment Forecasts, 2025 – 2033, 2025.
Toutefois, les données fiables sur l’adoption des technologies sont rares : les rapports disponibles signalent d’amples disparités entre pays selon la taille des exploitations, l’accès au matériel et la politique publique ([235]). Ainsi, une exploitation chinoise ou française située peut être précoce, alors que l’adoption réelle demeure limitée auprès des exploitations de petite taille à l’échelle mondiale.
Marché de l’IA générative dans l’agriculture : répartition par application en 2024
Source : Grand View Research, Generative AI In Agriculture Market Size, Share & Trends Analysis Report By Technology, By Application (Precision Farming, Livestock Management, Agricultural Robotics & Automation, Weather Forecasting), By Region, And Segment Forecasts, 2025 – 2033, 2025.
L’Australie, un véritable laboratoire mondial pour l’agriculture du futur ([236])
L’Australie est en train de devenir un véritable laboratoire mondial pour l’agriculture du futur, portée par une culture de l’innovation pragmatique et une faible dépendance aux subventions publiques. Face aux défis climatiques et à la nécessité de renforcer la sécurité alimentaire, les agriculteurs australiens adoptent massivement des technologies de pointe : capteurs de données, intelligence artificielle, biotechnologies fongiques pour régénérer les sols, ou encore pollinisateurs robotiques comme ceux testés par la start-up israélienne Arugga. Des entreprises comme Loam Bio, spécialisée dans les champignons capturant le carbone, ou Cauldron, axée sur la fermentation de précision, illustrent la vitalité de l’écosystème ag-tech centré autour de la ville d’Orange. Si les investissements mondiaux dans ce secteur ont chuté récemment, l’Australie tire son épingle du jeu en misant sur des solutions concrètes et rentables, attirant à la fois des fonds publics et privés, locaux et internationaux. Les autorités fédérales et régionales soutiennent activement cette dynamique à travers des programmes de financement, d’infrastructure et de formation. Enfin, les perspectives d’exportation vers l’Asie du Sud-Est, où les besoins en productivité agricole explosent, pourraient faire de l’agriculture technologique australienne un levier d’influence stratégique à l’échelle mondiale.
En Europe ([237]), le marché de l’intelligence artificielle générative appliquée à l’agriculture progresse de manière constante , porté par une volonté affirmée de promouvoir des pratiques agricoles durables et respectueuses de l’environnement, mais moins rapidement que pour l’Asie et que les États-Unis. Les réglementations européennes favorisent l’adoption de méthodes fondées sur l’analyse de données et l’optimisation des intrants. Des pays tels que l’Allemagne, la France ou les Pays-Bas figurent parmi les leaders en matière d’agriculture intelligente. Le taux d’adoption de l’IA dans le secteur agricole et agroalimentaire européen reste globalement modeste et inégal, comme le constate la Commission européenne ([238]).
Le rapport du Parlement européen ([239]) sur l’usage de l’intelligence artificielle dans le secteur agroalimentaire, qui décline tous les cas d’usage potentiels de cette technologie en agriculture, souligne que le taux d’adoption de ces technologies reste globalement limité à l’échelle européenne. Bien que les potentialités offertes par l’IA soient reconnues, notamment en matière d’agriculture de précision, de gestion des ressources ou de traçabilité, leur intégration demeure freinée par plusieurs obstacles. Parmi ceux-ci, le rapport mentionne notamment la faible numérisation de nombreuses exploitations agricoles, le manque de compétences techniques dans les zones rurales, des coûts d’investissement initiaux élevés, ainsi qu’une faible interopérabilité des systèmes numériques existants. Face à ce constat, le Fraunhofer institute ([240]) recommande un plan d’action structuré en trois volets (immédiat, intermédiaire et structurel), allant du soutien à l’annotation des données et à l’interopérabilité des outils jusqu’à la création de modèles d’IA ouverts, l’intégration des outils certifiés dans la PAC et, à plus long terme, le développement d’infrastructures numériques souveraines garantissant un accès inclusif à l’IA dans les territoires.
En Asie-Pacifique ([241]), la dynamique est plus marquée : cette région connaît la plus forte croissance mondiale en matière d’IA générative appliquée à l’agriculture. La pression exercée par la croissance démographique pousse les États à investir massivement dans des infrastructures numériques agricoles. Des pays comme la Chine, l’Inde ou le Japon misent sur l’IA pour accroître l’efficacité des productions agricoles et limiter les pertes de récolte. L’essor de l’équipement mobile et une sensibilisation croissante des agriculteurs accélèrent l’adoption de ces outils technologiques dans l’ensemble de la région.
L’agriculture connaît donc à son tour sa révolution numérique portée par l’IA. Désormais considérée comme un levier d’innovation et de durabilité, l’intelligence artificielle s’intègre au sein de l’agriculture connectée (drones, capteurs IoT, plateformes de données) dont l’essor est manifeste ([242]) avec divers cas d’usage (voir tableau ci-après).
Principaux cas d’usage de l’IA en agriculture
Source : Commission européenne, Libérer le potentiel de l'intelligence artificielle pour une agriculture durable, 7 juillet 2025
En France, près d’une exploitation sur cinq (18 %) utilise déjà des solutions fondées sur l’IA, un taux qui pourrait doubler d’ici 2030 sous l’effet des politiques de soutien public et de la généralisation des outils numériques et robotiques dans les champs ([243]). La demande croissante des consommateurs pour des produits de haute qualité, incitant à des méthodes de production plus précises et traçables, constitue également un facteur d’accélération de cette transition.
La promesse de l’IA se manifeste d’abord par l’optimisation des cultures et des rendements. Des outils d’analyse prédictive exploitant des images satellites et des données climatiques aident à planifier les semis, à surveiller la météo et à anticiper les récoltes, comme le soulignait Jérome Le Roy, fondateur start-up Weenat et président de la Ferme Digitale, auditionné par la mission. En fournissant des recommandations précises sur l’irrigation, la fertilisation et les traitements phytosanitaires, ces technologies d’agriculture de précision permettent aux agriculteurs d’ajuster de manière ciblée et en temps réel les intrants aux besoins des plantes ([244]). Les exploitants bénéficient ainsi d’une meilleure visibilité sur l’état de leurs cultures et parviennent à réduire les pertes de récolte imputables aux aléas climatiques, jusqu’à 20 % de pertes ([245]) en moins grâce à ces systèmes d’aide à la décision. Par ailleurs, une gestion agronomique plus fine, fondée sur l’analyse des données de sol et de végétation, se traduit par une augmentation notable des rendements, pouvant atteindre 25 % ([246]).
En améliorant la gestion des intrants, l’IA contribue également à une agriculture plus durable. Les systèmes intelligents optimisent l’usage des engrais, des produits phytosanitaires et de l’eau, évitant les excès tout en maintenant la productivité des cultures. À la clé, les exploitations peuvent diminuer d’environ 30 % leurs dépenses en intrants grâce à ces ajustements pilotés par algorithme ([247]), ce qui réduit d’autant leurs coûts de production. Limiter l’emploi d’engrais et de pesticides permet en outre d’atténuer l’empreinte écologique des fermes : l’adoption de solutions d’IA pourrait réduire jusqu’à 40 % l’impact environnemental de l’agriculture en optimisant les ressources utilisées. La gestion de l’eau illustre ces gains : Weenat, fondée à Nantes en 2014, développe des capteurs connectés permettant aux exploitants de mieux gérer l’irrigation et les ressources en fonction des variations du climat ; forte d’une levée de 8,5 M€ en 2024 ([248]), la start‑up affirme avoir permis en 2023 une économie de 32 millions de m³ d’eau (soit environ 12 000 piscines olympiques) grâce à l’utilisation de ses données pour optimiser l’irrigation ([249]).
Par ailleurs, l’IA accélère l’automatisation des tâches agricoles. On estime qu’environ 50 % des travaux mécanisables sur une exploitation sont désormais réalisables par des solutions robotisées pilotées par l’IA. De fait, de plus en plus de robots et de machines autonomes interviennent sur le terrain, prenant en charge des opérations pénibles ou répétitives (récolte, désherbage, etc.), ce qui accroît la productivité tout en réduisant la pénibilité du travail agricole. La société toulousaine Naïo Technologies ([250]) a développé plusieurs robots agricoles autonomes, conçus pour assister les exploitants dans les tâches agricoles répétitives et pénibles, notamment le binage. Ces machines permettent de limiter le recours aux produits phytosanitaires, en particulier les herbicides, en assurant un désherbage mécanique de précision. Parmi les modèles proposés figurent TED, enjambeur viticole réellement autonome et polyvalent ; JO, chenillard autonome adapté aux vignes étroites, pépinières et petits fruits ; OZ, assistant robotisé dédié au semis et au désherbage en maraîchage ; et ORIO, porte-outils autonome destiné aux cultures légumières et aux pépinières.
Enfin, l’IA ne se cantonne pas aux cultures : elle trouve aussi des applications majeures en élevage. Des systèmes de vision par ordinateur peuvent surveiller en continu le bétail afin d’améliorer le suivi sanitaire et la productivité des troupeaux. Par exemple, la start-up irlandaise Cainthus ([251]) a développé un dispositif de caméras intelligentes observant 24h/24 le comportement des vaches laitières en stabulation. En analysant automatiquement des paramètres comme le temps de repos des animaux et leur accès à l’alimentation, cet outil aide les éleveurs à optimiser la production de lait tout en veillant au bien-être du troupeau. La start‑up française AIHerd, établie à Nantes et fondée en 2020 par des vétérinaires en collaboration avec le CEA‑List et Thales ([252]), développe un système de surveillance des troupeaux sans port d’équipement invasif. Grâce à une combinaison de vision par ordinateur et d’algorithmes d’intelligence artificielle, la solution capte en continu des comportements individuels des vaches (alimentation, repos, déplacements, interactions sociales) et détecte automatiquement les signaux caractéristiques d’événements importants tels que la chaleur, un vêlage imminent ou l’apparition d’une maladie. Cette approche contribue à améliorer le bien‑être animal tout en permettant un gain économique estimé à 30 % ([253]) de productivité supplémentaire par tête chaque année.
h. L’intelligence artificielle dans l’automobile : un potentiel industriel immense, freiné par une adoption encore fragmentée
L’industrie automobile est aujourd’hui un secteur potentiellement majeur dans l’adoption de l’automatisation intelligente. Selon l’International Federation of Robotics (IFR), elle représente environ 30 % des installations mondiales de robots industriels dans le monde en 2019 ([254]), 33 % des installations de robots industriels aux Etats-unis en 2024 ([255]). Ces évolutions traduisent une volonté croissante des constructeurs, tels que Renault ou Stellantis, auditionnés par la mission, de moderniser l’ensemble de la chaîne de valeur, du processus industriel à la relation client, en passant par l’usage même des véhicules.
Toutefois, selon une étude de Capgemini publiée en 2019 ([256]), seuls 10 % des constructeurs automobiles avaient alors déployé l’intelligence artificielle (IA) à l’échelle de l’entreprise, tandis que 24 % l’avaient mise en œuvre de manière plus sélective. Depuis, si les initiatives se sont multipliées, le secteur reste globalement dans la norme d’adoption de l’IA par rapport à d'autres secteurs, alors que les potentielles retombées de productivité y sont bien supérieures. En 2025, une enquête mondiale de McKinsey ([257]) indique que 78 % des entreprises (tous secteurs confondus) utilisent désormais l’IA dans au moins une fonction de leur organisation. À titre de comparaison, les réseaux de concessions automobiles en Amérique du Nord affichent des taux d’adoption de l’ordre de 80 % ([258]).
L’adoption de l’intelligence artificielle dans le secteur automobile progresse rapidement, mais elle demeure très inégale selon les cas d’usage (voir infra). De nombreuses entreprises du secteur, y compris les plus grandes, ont lancé des projets pilotes intégrant de l’IA, mais très peu d’entre elles sont parvenues à une mise à l’échelle complète. Selon une étude ([259]) sur les entreprises du Fortune 2000 du secteur automobile, 85 à 90 % ont lancé au moins un projet IA, mais seules 15 à 20 % ont déployé ces solutions à l’échelle de toute l’entreprise. Les freins cités sont les silos de données (44 % des cas), la pénurie de talents (37 %), les préoccupations autour des biais (28 %) et l’incertitude réglementaire.
Cette fragmentation se retrouve également dans les chaînes de recherche et développement (R&D) automobile. D’après McKinsey ([260]), 75 % des entreprises automobiles expérimentent au moins un cas d’usage de l’IA générative, mais aucune ne l’intègre de manière systématique sur l’ensemble de la chaîne de R&D. La majorité concentre leurs efforts sur une ou deux phases, telles que l’ingénierie des exigences, le design, ou encore les tests de performance. Cette approche cloisonnée limite fortement le potentiel d’optimisation globale permis par l’IA.
Les écarts sont encore plus nets lorsqu’on examine les différents cas d’usage. Ainsi, les systèmes avancés d’aide à la conduite (ADAS) ([261]), la maintenance prédictive ou l’optimisation de la chaîne de production ([262]) font partie des domaines les plus avancés en matière d’IA. Ces technologies sont déjà mises en œuvre dans plusieurs grands groupes automobiles, souvent dans des usines spécifiques ou des pôles d’excellence. En revanche, les usages plus ambitieux tels que la conduite autonome de niveau 4 (autonomie géo-ciblée) ou 5 (autonomie totale en toutes conditions), ou les communications V2X (vehicle-to-everything), demeurent largement expérimentaux ([263]). La complexité technique, les contraintes de fiabilité et les incertitudes réglementaires freinent encore leur adoption à grande échelle.
Un exemple particulièrement éclairant est celui de General Motors concernant l’adoption de l’IA par le secteur automobile. Dans son usine Factory Zero ([264]), l’entreprise a recours à l’IA pour diverses fonctions : maintenance prédictive, détection de défauts par vision industrielle, gestion logistique automatisée, ou encore segmentation marketing. Toutefois, ces applications ne sont pas encore généralisées à l’ensemble de ses sites ou lignes de produits. L’IA reste ainsi cantonnée à certaines zones géographiques ou à des fonctions spécifiques, ce qui témoigne d’un déploiement encore parcellaire.
Si l’adoption de l’intelligence artificielle dans le secteur automobile demeure globalement fragmentée, elle s’organise néanmoins autour de plusieurs cas d’usage récurrents, qui révèlent à la fois les priorités industrielles et les limites techniques ou économiques du moment. L’analyse de ces usages permet de mieux comprendre les domaines dans lesquels l’IA offre déjà des gains concrets, en matière de productivité, de sécurité ou d’efficacité énergétique, ainsi que ceux où son intégration reste balbutiante, voire hypothétique.
Dans un premier temps, l’IA est mobilisée au cœur des chaînes de production, notamment à travers le déploiement de robots dits « collaboratifs » ou cobots. Ils remplacent les tâches manuelles répétitives par des opérations automatisées plus précises. Par exemple, Renault utilise des cobots dans ses usines pour automatiser des opérations de montage (pose de composants) et de soudage de châssis ([265]). Conçus pour interagir en toute sécurité avec les opérateurs, ces robots exécutent des tâches répétitives et précises, tout en réduisant les risques d’erreur humaine. Grâce à des systèmes de vision par ordinateur, ils permettent une détection automatisée et fine des défauts de fabrication (défauts de surface, soudures incomplètes, erreurs d’assemblage), avec une précision qui peut dépasser de 30 à 40 % ([266]) ([267]) celle d’un contrôle manuel selon les études disponibles.
Certaines études ([268]) soulignent que la collaboration avec un cobot améliore la robustesse et la qualité de la performance humaine face à des tâches complexes, mais au prix d’un allongement du temps d’exécution et d’une gestuelle plus importante.
En parallèle, l’IA est devenue un levier stratégique de maintenance prédictive, tant pour les équipements industriels que pour les véhicules eux-mêmes. Sur les lignes de production, l’installation de capteurs intelligents couplés à des modèles d’analyse permet de surveiller l’état des machines en temps réel et d’anticiper les pannes, réduisant ainsi les coûts d’arrêt non planifié et augmentant la disponibilité opérationnelle des outils industriels ([269]). Appliquée aux véhicules, cette approche prédictive se fonde sur l’analyse des données issues des capteurs embarqués, permettant de détecter l’usure des pièces, de recommander des interventions ciblées, et de limiter les temps d’immobilisation des véhicules ([270]).
Par ailleurs, les fonctionnalités intégrées (navigation, reconnaissance vocale, services connectés, notamment) dans les véhicules sont également pilotées par l’IA. Les constructeurs automobiles recourent ainsi à l’IA pour concevoir des fonctionnalités qui permettent des interactions entre le conducteur et le véhicule, ce qui offre une expérience personnalisée aux conducteurs ([271]). À titre d’illustration, le système i-Cockpit® 3D de Peugeot ou le modèle Ë-C4 de Citroën proposent des systèmes dits « d’infodivertissement » avancés intégrant un assistant vocal, offrant ainsi différents services connectés (actualités, prévisions météo, entre autres).
L’IA transforme par ailleurs profondément la relation client. En matière de services après-vente, les constructeurs recourent à des assistants virtuels ou à des chatbots disponibles en continu, capables de répondre instantanément à des demandes fréquentes. Ces outils contribuent à fluidifier l’interaction et à réduire les délais d’attente. Surtout, les données issues de l’usage réel du véhicule, analysées par des modèles prédictifs, permettent d’anticiper les besoins de maintenance, voire d’adresser des rappels personnalisés pour des révisions ciblées, renforçant ainsi l’efficience du suivi client tout en optimisant les coûts de maintenance à long terme.
Les technologies d’IA s’imposent enfin comme des outils de premier plan en matière de sécurité routière. Les systèmes d’aide à la conduite (ADAS, pour Advanced Driver Assistance Systems) ([272]), déployés sur une part croissante du parc automobile, reposent sur des dispositifs de perception avancée (radars, caméras, capteurs) alimentés par des algorithmes d’apprentissage profond. Ces dispositifs permettent la détection de piétons, de cyclistes ou d’obstacles et peuvent déclencher automatiquement un freinage d’urgence ou une alerte de franchissement de ligne. À titre d’exemple, l’équipementier français Valeo, auditionné par la mission, figure parmi les leaders mondiaux des technologies de perception embarquée. Il a développé des solutions de détection à 360°, combinant radar, lidar et vision numérique, aujourd’hui intégrées dans environ un tiers des véhicules neufs produits dans le monde.
En revanche, dans l’industrie automobile, les usages les plus ambitieux tels que la conduite autonome de niveau 4 ou 5 ([273]) et les communications V2X (vehicle‑to‑everything) ([274]) restent encore largement au stade expérimental, en raison de contraintes techniques majeures, de difficultés réglementaires persistantes et d’une acceptation publique limitée.
Si les systèmes d’aide à la conduite de niveau 2 ou 2+ ([275]) se sont largement diffusés sur les véhicules neufs, le déploiement des véhicules autonomes de niveau 4 et 5 ([276]) reste freiné par des contraintes techniques majeures ([277]), tenant à la puissance de calcul nécessaire pour traiter en temps réel les données issues des capteurs, à une latence encore trop élevée dans les environnements complexes, et à l’exigence de redondance des composants critiques, qui renchérit et complexifie leur intégration ([278]).
En parallèle, de nombreuses études scientifiques insistent sur l’inadéquation des infrastructures actuelles ([279]) avec les exigences de la conduite autonome (marquages au sol dégradés, signalisation incohérente, manque de connectivité...) ainsi que sur l’absence de standards industriels consolidés ([280]), notamment pour l’interopérabilité entre systèmes de perception et de logiciel embarqué.
Concernant le V2X ([281]), malgré des projets pilotes dans plusieurs pays, son adoption reste freinée par des problèmes liés à l’interopérabilité ([282]), au partage du spectre radio, et à des doutes quant à son efficacité si seuls quelques véhicules sont équipés. En effet, V2X ([283]) ne devient réellement pertinent que lorsque la quasi-totalité des véhicules et infrastructures sont compatibles, ce qui rend son intégration progressive peu efficace
Du point de vue réglementaire, la régulation des véhicules autonomes (niveau 3 à 5) reste largement incomplète ou fragmentée selon les juridictions ([284]), ce qui ralentit leur mise en circulation à grande échelle. En outre, dans certains pays comme la Chine ou aux États‑Unis ([285]) , l’absence de cadre juridique uniforme empêche tout déploiement commercial rapide, faute de clarifier les responsabilités ou les normes de sécurité exigées.
a. Des gains déjà tangibles d’amélioration de l’efficacité au travail
La diffusion des technologies d’intelligence artificielle, qu’il s’agisse des systèmes dits « faibles » ou des modèles de langage, s’accompagne déjà de premiers effets perceptibles sur l’efficacité du travail et la productivité globale. Si ces impacts demeurent à ce stade hétérogènes selon les secteurs et les usages, les études empiriques les plus récentes tendent à confirmer des gains tangibles, tant à l’échelle microéconomique (entreprises, métiers, tâches) qu’au niveau macroéconomique (productivité nationale, croissance des facteurs) ([286]).
De nombreuses études ont été menées sur les effets des robots industriels sur la productivité ([287]) ([288]), grâce à la disponibilité des données de la Fédération internationale de la robotique (IFR) sur l’utilisation des robots par pays et par secteur. En revanche, l’impact quantitatif de l’intelligence artificielle sur la productivité reste encore mal connu, principalement en raison d’un manque de données statistiques sur l’usage de l’IA.
Sur un plan macroéconomique, les effets de l’IA sur l’efficacité du travail commencent donc à être perceptibles et mesurés, dans les données agrégées, bien qu’encore modestes et parcellaires. Au Japon, une large enquête en 2023-2024 ([289]) estime que l’usage de l’IA par les travailleurs se traduit déjà par un surcroît d’environ 0,5 à 0,6 % de productivité du travail à l’échelle de l’économie. En convertissant cette hausse en productivité globale des facteurs, cela correspond à un gain de l’ordre de 0,3 % de TFP (productivité totale des facteurs).
Effets de l’intelligence artificielle sur la productivité selon le niveau d’éducation et de revenus
Source : Morikawa, M.. The impact of artificial intelligence on macroeconomic productivity. 13 janvier 2025.
Dans cette perspective, aux États-Unis, plusieurs récentes études tentent d’estimer l’impact de l’intégration de l’IA sur la productivité à moyen terme. Acemoglu ([290]) estime l’effet à moyen terme de l’IA sur la productivité aux États-Unis en multipliant le pourcentage de tâches affectées par l’IA par les économies réalisées au niveau des tâches, sur la base de ces études existantes au niveau des tâches. Selon ses estimations, l’impact macroéconomique de l’IA serait non négligeable mais modeste à l’heure actuelle, avec une augmentation cumulative de la productivité globale des facteurs (PGF) inférieure à 0,7 %. Il souligne toutefois la difficuté à déterminer l’impact réel de cette technologie sur le travail en raison d’une incertitude considérable quant aux types de tâches qui seront effectivement automatisées et aux économies de coûts réellement obtenues.
Dans la continuité de ces travaux, Filippucci et al. (2024) ([291]) estiment que, en supposant des économies de coûts de l’ordre de 30 %, l’IA pourrait contribuer à hauteur de 0,25 à 0,6 point de pourcentage à la croissance annuelle de la PGF aux États-Unis au cours de la prochaine décennie. Ces estimations convergent vers l’idée que l’IA pourrait devenir un vecteur significatif de gains de productivité, sans pour autant transformer instantanément l’économie.
À l’avenir, les gains de productivité au travail devraient croître, mais les gains marginaux semblent décroissants. Selon Morikawa ([292]), l’utilisation de l’IA au travail devrait logiquement continuer de croître, près de 28 % des répondants à son étude déclarant envisager de l’adopter à l’avenir dans leur travail. En extrapolant les gains actuels, l’économiste trouve que l’effet macroéconomique de l’IA sur la productivité du travail pourrait être quatre fois supérieur, atteignant une hausse d’environ 2 % (soit une augmentation de 1,1 % pour la PTF).
Toutefois, les gains marginaux semblent décroissants : les nouveaux utilisateurs d’IA enregistrent des améliorations de productivité moindres (4,4 %) que les utilisateurs plus expérimentés (7,8 %)([293]), ce qui suggère que les premiers usages concernaient des tâches à fort potentiel d’automatisation. Autrement dit, ce résultat conduit à penser que la diffusion de l’IA a commencé par les emplois pour lesquels l’effet de la mise en œuvre de l’IA est important et s’est progressivement étendue aux emplois pour lesquels son effet est plus faible. Si ces tendances se poursuivent, la contribution supplémentaire de l’IA à la productivité macroéconomique pourrait diminuer progressivement, à mesure que le nombre d’utilisateurs de l’IA augmente.
Si les effets macroéconomiques de l’IA demeurent globalement incertains et difficiles à mesurer, ses effets sur des tâches définies sont mieux renseignés. Différentes études portant sur des tâches ou des métiers circonscrits confirment, de manière certaine, le lien de causalité entre IA et productivité. Ce lien est, par exemple, avéré pour le métier de conducteur de taxis ([294]) ou pour le savoir-faire de développeur informatique ([295]). Ces résultats, bien que circonscrits à certaines catégories de fonctions ou de secteurs, permettent de mieux cerner les apports concrets de l’IA sur l’organisation et la performance du travail.
Concernant les tâches rédactionnelles bureautiques, les modèles de langage ont déjà démontré des gains substantiels de productivité. Par exemple, une expérience randomisée ([296]) menée en 2023 auprès de 453 professionnels tous domaines confondus dans les secteurs des services (marketing, ressources humaines, consultants, etc.) a montré qu’un accès à l’assistant ChatGPT permettait de réduire le temps d’accomplissement des tâches rédactionnelles de 40 %, tout en améliorant la qualité du résultat d’environ 18 %. L’étude montre également que les gains de productivité générés par l’IA profitent à l’ensemble des collaborateurs, avec un effet de nivellement par le haut particulièrement notable. L’outil contribue à réduire les disparités de performance en apportant un accompagnement renforcé aux employés moins expérimentés, permettant ainsi d’élever le niveau général de compétences, tout en optimisant l’efficacité opérationnelle de l’organisation.
Dans le secteur du service client, les gains d’efficacité par l’IA sont déjà mesurables sur le terrain. Une étude ([297]) conduite en 2023 dans un grand centre d’appels (plus de 5 000 agents support) a introduit un assistant conversationnel basé sur un modèle génératif. Le résultat est une hausse moyenne de 14 % du nombre de tickets résolus par heure. Rejoignant les conclusions sur les métiers requérant des compétences rédactionnelles, l’effet a été particulièrement marqué pour les employés juniors : les agents les moins expérimentés ont résolu 34 % de tickets en plus grâce à l’IA, tandis que les employés chevronnés n’ont que peu bénéficié de l’outil. En plus d’accélérer le traitement des demandes, l’IA a contribué à améliorer la satisfaction des clients et l’intrégration par les employés de l’entreprise des bénéfices qualitatifs liés à cette technologie, ces bénéfices s’ajoutant aux gains de productivité.
En développement informatique, les assistants de codage pilotés par l’IA (tels que GitHub Copilot) offrent déjà des améliorations notables d’efficacité. Plusieurs expériences contrôlées montrent des accélérations spectaculaires : dans l’une d’elles, des programmeurs réalisant une tâche de code avec l’aide de Copilot ont mis 56 % de temps en moins ([298]) que ceux codant sans assistance. Dans la même lignée, une autre étude randomisée à grande échelle ([299]) estime quant à elle un gain de temps de l’ordre de 26 % pour le développement informatique. Ici aussi, les développeurs les moins expérimentés affichent les plus forts gains relatifs de productivité.
Dans les métiers du conseil, de l’analyse et de la stratégie, l’IA entraîne des gains de temps et de qualité. Une étude de la Harvard Business School ([300]) trouve que « Pour chacune des 18 tâches de conseil (rédaction de rapport, analyse, brainstorming ect…) réalistes situées à la frontière des capacités de l’IA, les consultants utilisant l’IA ont été nettement plus productifs (ils ont accompli 12,2 % de tâches en plus en moyenne et 25,1 % de tâches en moins) et ont produit des résultats d’une qualité nettement supérieure (plus de 40 % de qualité en plus par rapport à un groupe de contrôle). ». En revanche, l’étude note que pour des tâches sortant du domaine de compétence actuel de l’IA, son usage peut devenir contre-productif (les consultants tendant alors à fournir moins de solutions correctes).
Les tâches non intellectuelles bénéficient elles aussi de l’apport de l’IA, notamment via l’optimisation et la robotique. Dans les transports, une étude ([301]) sur les chauffeurs de taxi a montré qu’un système d’IA prédictif (suggérant des itinéraires à forte demande) permet d’augmenter la productivité des conducteurs en réduisant le temps passé à circuler à vide. De même, dans la production industrielle, l’adoption accrue de l’automatisation et des robots a déjà entraîné des gains agrégés significatifs. Une analyse ([302]) couvrant 17 pays entre 1993 et 2007 a estimé que l’introduction des robots industriels a contribué à faire augmenter la croissance annuelle de la productivité du travail d’environ 0,36 point de pourcentage en moyenne – un effet comparable à celui qu’eut la machine à vapeur sur la productivité britannique au 19ème siècle, d’après les auteurs. Ces gains s’accompagnent d’une hausse de la productivité totale des facteurs et d’une baisse des coûts de production, sans réduction nette de l’emploi total observée sur la période.
b. De nouvelles perspectives ouvertes par l’agentification
L’agentification correspond à la transformation des IA conversationnelles (LLM) en agents autonomes capables d’interagir avec des applications tierces et des sources de données externes. L’agentique en IA désigne un champ en développement qui se décline aujourd’hui en deux niveaux ([303]) : d’une part, des AI agents capables d’exécuter des tâches spécifiques grâce à des modèles de langage reliés à des outils, et d’autre part, une Agentic AI plus ambitieuse, où plusieurs agents coopèrent, planifient et mémorisent pour agir de manière orchestrée dans des environnements complexes. Comme le soulignait Raja Chatila, professeur émérite de robotique à la Sorbonne Université auditionné dans le cadre de la mission, cette dernière relève toutefois, à ce stade, davantage d’une projection théorique que d’une réalité technologique établie.
Cinq niveaux d’autonomie pour agents IA fondés sur des LLM : évolution des capacités et expansion des risques
Figure 2 : Une taxonomie en cinq niveaux de l’autonomie des agents fondés sur des LLM, illustrant à la fois l’évolution des capacités et l’élargissement des risques. La classification s’étend des agents sans état, fondés sur des règles, jusqu’aux agents pleinement autonomes, alignés sur des valeurs et opérant en domaine ouvert. Chaque niveau introduit des caractéristiques architecturales qualitativement distinctes ainsi que des surfaces de menaces correspondantes.
Source : Su, H., Luo, J., Liu, C., Yang, X., Zhang, Y., Dong, Y., & Zhu, J. A survey on autonomy-induced security risks in large model-based agents. arXiv, 2025.
Concrètement et de manière technique, des protocoles unifiés comme le Model Context Protocol (MCP), introduit fin 2024 par Anthropic, servent de « port universel » entre un modèle d’IA et le monde logiciel. Grâce à ces connecteurs standardisés, un agent IA peut consulter des bases de données, appeler des API ou utiliser des outils variés via des requêtes structurées, sans intégrations sur-mesure pour chaque application.
Il s’agit d’un élargissement du champ d’action de l’IA qui ne se limite plus à générer du texte, l’agent peut percevoir, raisonner et agir de manière itérative en boucle fermée (perception → décision → action). Une étude([304]) récente, rejoignant les conclusions de nombreux acteurs auditionnés par la mission, résume ainsi les avancées : « Ces agents à grands modèles marquent un changement de paradigme, passant de systèmes d’inférence statiques à des entités interactives à mémoire augmentée. ». De premiers prototypes ([305]) ont montré qu’un LLM doté d’une mémoire persistante et pouvant exécuter des commandes est capable de mener des tâches en plusieurs étapes sans supervision humaine constante : on assiste donc à un passage d’une IA statique (répondant tour par tour) à une IA agentive active, « brouillant la frontière entre logiciel et robot dans le cyberespace » ([306]). Autrement dit, un agent conversationnel bien outillé peut devenir un assistant numérique proactif, apte à enchaîner des actions complexes pour atteindre un objectif fixé par l’utilisateur : la supervision humaine demeure.
Cependant, ces systèmes « agentiques » à large spectre restent essentiellement des prototypes expérimentaux, avec des limites techniques notables à leur développement et notamment, « la conservation de la mémoire à long terme, l’utilisation modulaire des outils, la planification récursive et le raisonnement réfléchi. » ([307]).
Malgré ces contraintes techniques, les principaux acteurs technologiques, OpenAI, Google DeepMind, Anthropic, entre autres, investissent massivement dans des architectures agentiques, intégrant notamment des protocoles inter‑agents (comme MCP), l’accès à des outils, et des mécanismes de mémoire avancée. S’ils investissent dans l’agentique afin de dépasser les capacités réactives des modèles actuels en développant des systèmes proactifs capables de planifier et d’agir de manière autonome ([308]), tout en expérimentant des architectures susceptibles de constituer une étape vers une intelligence artificielle plus générale ([309]) (AGI – artificial general intelligence).
En Europe, Mistral AI ([310]) s’est également alignée sur ces ambitions : le 28 mai 2025, elle a lancé officiellement son Agents API, reposant sur le standard ouvert Model Context Protocol (MCP), permettant à ses agents d’exécuter du code, effectuer des recherches web, générer des images et conserver un contexte mémoire persistant, demeurant à nouveau le seul concurrent européen sérieux aux acteurs IA chinois et américains.
Évolution historique des paradigmes des agents d’IA
Figure 1 : La trajectoire de développement se divise en une phase pré-LLM (années 1950–2020), englobant les agents symboliques, réactifs, fondés sur l’apprentissage par renforcement (RL) et sur le méta/apprentissage par transfert, puis en une phase des agents d’IA fondés sur les grands modèles (2022–aujourd’hui), marquée par l’émergence d’agents propulsés par de vastes modèles de fondation. Les principaux projets et institutions représentatifs sont associés à leurs paradigmes respectifs, mettant en évidence le passage de systèmes à base de règles vers des agents LLM capables d’utiliser des outils, dotés de mémoire et de capacités de planification.
Source : Su, H., Luo, J., Liu, C., Yang, X., Zhang, Y., Dong, Y., & Zhu, J. A survey on autonomy-induced security risks in large model-based agents. arXiv, 2025.
Du point de vue de l’économie et de la productivité, les retombées seraient considérables si l’IA agentique était pleinement déployée. Ces agents automatiques pourraient prendre en charge de multiples tâches intellectuelles routinières (recherche d’information, rédaction de rapports, gestion d’emails, support client...), avec à la clé un gain d’efficacité notable pour les entreprises. Deloitte ([311]) estime d’ailleurs que dès 2025, 25 % des entreprises utilisant l’IA générative lanceront des projets pilotes d’IA agentique, et cette proportion pourrait atteindre 50 % en 2027. Plus de 2 milliards de dollars ([312]) ont été investis dans des startups d’agents autonomes en 2025.
De nombreux acteurs technologiques développent parallèlement leurs propres offres d’agentification, convaincus que ces agents pourraient automatiser des processus multi-étapes dans presque toutes les fonctions de l’entreprise. Un exemple emblématique est Devin, un agent développé en 2024 par la start-up Cognition pour agir comme un ingénieur logiciel autonome capable de raisonner, planifier et écrire du code complet à partir de simples idées en langage naturel ([313]). Un tel cas d’usage illustre la promesse d’une automatisation massive d’activités non-physiques grâce à l’IA agentique, avec un impact subséquent sur la croissance et la productivité.
Toutefois, les perspectives offertes par le développement potentiel de cette technologie soulèvent des défis techniques et sécuritaires. À l’heure actuelle, les agents basés sur des LLM demeurent imparfaits et doivent souvent être surveillés. Ils commettent encore trop d’erreurs pour qu’on les laisse gérer intégralement des tâches complexes sans relecture humaine([314]). Dans le domaine de la programmation par exemple, l’agent Devin mentionné ci-dessus n’a pu résoudre de manière autonome qu’environ 14 % ([315]) des tickets GitHub qui lui étaient soumis, soit certes deux fois plus qu’un chatbot classique, mais ce résultat demeure insuffisant pour un usage 100 % automatisé. Ces modèles peuvent facilement halluciner, c’est-à-dire fournir des informations fausses ou préconiser des actions inappropriées, ce qui, couplé à leur pouvoir d’agir, peut avoir des conséquences dommageables et présentent un réel risque dans le domaine sécuritaire ([316]). Le risque de cyber-attaques est décuplé : chaque nouvelle faculté de ces agents ouvre une « surface d’attaque » supplémentaire (mémoire empoisonnée, détournement de l’API, prompt injection malveillant…). L’alignement des objectifs de l’agent avec le cadre éthique humain pose aussi question : un agent très autonome pourrait poursuivre aveuglément une instruction mal formulée d’une manière contraire aux intérêts de l’entreprise ou de la société, par manque de jugement ou de contexte éthique.
OpenAI vient également de lancer sa propre version d’agent conversationnel avancé, baptisé « ChatGPT agent » ([317]), disponible depuis le 17 juillet 2025. Ce système combine plusieurs outils antérieurs d’agentification d’OpenAI (Operator, Deep Research, connecteurs vers Gmail, GitHub, un terminal de code, etc.), intégrés dans un agent unique capable de planifier et d’exécuter des tâches complexes, comme naviguer sur le web via un navigateur virtuel, compiler des recherches ou générer des présentations, tout cela avec une boucle de réflexion-action complète.
Cependant, malgré ses avancées, OpenAI souligne que ce lancement constitue encore une étape expérimentale : l’agent peut produire des erreurs, ses actions sensibles exigent une autorisation explicite de l’utilisateur, et la mémoire est désactivée par défaut pour éviter les risques d’injection ou d’exfiltration de données. Open Ai recommande de ne pas l’utiliser pour des tâches critiques sans supervision humanisée ([318]) . En ce sens, ChatGPT agent se situe en deçà de l’« Agentic AI » ([319]) pleinement orchestrée : il reste un agent autonome, puissant certes, mais encore loin d’un système multi-agents doté de planification complexe, mémoire persistante sécurisée et alignement éthique complet.
c. L’IA et la robotique : vers des assistants polyvalents ?
L’intégration de l’IA dans la robotique ouvre également la voie à une nouvelle génération de robots assistants polyvalents, capables d’évoluer dans le monde physique pour effectuer des tâches variées. Contrairement aux robots industriels traditionnels, confinés à des opérations spécifiques en environnement structuré, ces nouveaux automates visent une plus grande souplesse d’utilisation. Beaucoup adoptent une forme humanoïde (bipède avec bras) en raison de sa polyvalence, de sa capacité à se mouvoir dans des espaces conçus pour les humains et à manipuler des objets du quotidien.
Les progrès récents dans ce domaine montrent que cette technologie ne relève plus de la pure spéculation. Par exemple, la société Agility Robotics, qui est sur le point de lever 400 millions de dollars ([320]), teste son robot bipède Digit pour déplacer des cartons dans des entrepôts logistiques, tandis que Boston Dynamics ([321]) a démontré avec Atlas qu’un androïde peut marcher, saisir des objets et même collaborer à des tâches de chantier expérimental. De son côté, Tesla a présenté en 2022 les premiers prototypes de son robot humanoïde Optimus ([322]) , destiné à terme à réaliser des travaux répétitifs.
Ces projets pilotes restent élémentaires et peu fiables en dehors des conditions très contrôlées d’un laboratoire. Les robots humanoïdes sont encore loin d’égaler la polyvalence humaine dans des situations réelles. Si, sur le plan fonctionnel, certains robots humanoïdes surpassent déjà l’être humain en termes de force, d’endurance et de résistance mécanique ([323]), ils demeurent incapables de reproduire la polyvalence et l’adaptabilité humaines dans des environnements complexes et imprévisibles. The Economist ([324]) résume bien la situation : « (ces exemples) mettent néanmoins en évidence les progrès impressionnants réalisés par les robots humanoïdes au cours des dernières décennies. Et les investisseurs sont optimistes. (…) Un fournisseur de données, estime que depuis 2020, 2,3 milliards de dollars ont été investis dans des start-up qui construisent des robots humanoïdes. »
Une tendance clé qui rend ces robots généralistes envisageables est la convergence avec les avancées de l’IA. Les grands modèles de langage et les modèles multimodaux fournissent désormais aux robots « une sorte de cerveau générique » leur permettant de comprendre des instructions complexes et d’y répondre de manière appropriée ([325]). Il s’agit des modèles VLAM (Vision-Langage-Action Model), qui combinent traitement du langage, vision par ordinateur et retours de capteurs physiques, afin qu’un robot comprenne son environnement et planifie ses mouvements en conséquence ([326]). Les start-up chinoises d’IA et de robotique accélèrent leur développement pour dominer le marché des humanoïdes. La société EngineAI a récemment démontré la capacité de son robot PM01 ([327]) à apprendre et reproduire des mouvements complexes grâce à la vision par ordinateur et à l’apprentissage automatique, illustrant ainsi le potentiel des robots à s’adapter sans programmation spécifique. Ces avancées s’inscrivent dans une stratégie industrielle nationale ambitieuse : la Chine prévoit d’investir 1 000 milliards ([328]) de yuans en robotique et hautes technologies au cours des 20 prochaines années. Avec plus de 10 000 ([329]) humanoïdes produits cette année, soit plus de la moitié du total mondial, le pays dépasse déjà les États-Unis et le Japon en densité robotique sur les lignes de production.
Progression du nombre de robots industriels en Chine comparée aux États-Unis, à l’Allemagne et au Japon (2019-2023)
Source : Bloomberg, China’s Startups Race to Dominate the Coming AI Robot Boom, 30 mai 2025.
La production de robots humanoïdes est désormais un levier majeur de compétitivité et fait l’objet d’une intense rivalité entre la Chine et les États-Unis. À l’instar du secteur de l’intelligence artificielle, l’Europe accuse un certain retard dans ce domaine.
Capacités de production prévues en robots humanoïdes des principales entreprises
Source : BainAndCompany, Humanoid Robots at Work: What Executives Need to Know, 2025.
Impact cumulé des robots et de l’IA sur les salaires
aux États-Unis (2028-2050)
Toutefois, à l’image de Mistral AI pour les modèles de langage, l’entreprise allemande Neura Robotics se distingue comme le seul acteur européen véritablement compétitif sur le marché des humanoïdes. Neura adopte une approche innovante qui associe intelligence artificielle, robotique cognitive et capacités sensorielles avancées. Son humanoïde 4NE‑1 (prononcé for anyone) a été conçu pour interagir de manière fluide et sécurisée avec les humains. Sa maîtrise des technologies d’interaction homme‑machine et sa stratégie de production localisée en Allemagne lui confèrent un rôle stratégique pour préserver une souveraineté technologique face à la montée en puissance des acteurs extra‑européens. Neura a également annoncé son ambition de livrer 5 millions de robots de différents types d’ici 2030 ([330]), soit un volume bien supérieur aux 100 000 unités prévues par Figure. Les premières livraisons de son humanoïde 4NE‑1 devraient intervenir dès cette année.
Malgré des avancées notables, de nombreux défis techniques empêchent encore les robots humanoïdes d’être véritablement polyvalents. Faire évoluer un robot dans le monde réel est bien plus complexe que générer du texte : comme pour les questions de fiabilité développées plus haut pour l’agentification, les algorithmes doivent gérer l’incertitude ainsi que la variabilité des environnements, et garantir la sécurité en temps réel. Le principal frein réside dans les limites matérielles ([331]) (le hardware) : capteurs, moteurs, batteries et articulations restent insuffisants pour assurer puissance, légèreté et robustesse.
L’interaction homme-machine pose aussi des défis en matière de sécurité : percevoir finement les signaux humains (gestes, voix, émotions) ([332]) et réagir de manière sûre et adaptée, sans mouvements brusques ni force excessive. Sur le plan logiciel, l’intégration de LLM dans les robots soulève des questions de fiabilité et de sûreté : éviter qu’un modèle interprète d’une mauvaise manière une commande ou agisse de manière dangereuse nécessite des architectures hybrides combinant IA et règles strictes de contrôle.
Enfin, des progrès sont nécessaires en perception 3D, reconnaissance d’objets, planification de trajectoires, dextérité des mains robotiques et autonomie énergétique ([333]), aujourd’hui limitée à quelques heures.
Quoiqu’il en soit, l’essor des robots humanoïdes pourrait, selon un rapport prospectif de Morgan Stanley ([334]), avoir un impact transformateur sur l’économie mondiale, en particulier sur le marché du travail. Leur diffusion massive, anticipée dès la fin de la décennie, entraînerait des gains de productivité considérables, tout en soulevant de profondes questions sociales et économiques.
Nombre cumulé d’emplois américains concernés par l’automatisation humanoïde (2028-2050)
D’ici 2050, l’effet cumulé sur les salaires aux États-Unis est estimé à près de 3 000 ([335]) milliards de dollars, avec un remplacement progressif de plus de 62 millions d’emplois humains par des robots humanoïdes (voir graphiques 1 et 2 ci-dessous). Ces remplacements concerneraient d’abord les tâches simples, pénibles ou répétitives (tiers 1), puis des fonctions plus complexes ou relationnelles (tiers 2 et 3), notamment dans les secteurs des services et de la logistique.
La production accrue de robots humanoïdes performants pourrait renforcer la compétitivité des économies qui investiront tôt dans cette technologie, en automatisant des domaines d’activité jusqu’ici peu mécanisables. Les robots humanoïdes permettraient ainsi d’atténuer les effets de la « loi de Baumol » ([336]), selon laquelle les secteurs où, en dépit de gains de productivité quasi inexistants (éducation, santé, services à la personne), les rémunérations et les coûts progressent sous l’effet de la dynamique salariale générale induite par les hausses de productivité observées dans les autres secteurs de l’économie (secteurs industriels). Or, entre 2022 et 2024, le coût unitaire des humanoïdes aurait chuté d’au moins 40 % ([337]), tandis que les salaires dans l’Union européenne augmentaient de 5 %. Le robot humanoïde de Unitree, vendu 16 000 dollars ([338]), correspond par exemple au coût annuel du salaire minimum aux États-Unis et reste bien inférieur au coût d’un travailleur qualifié.
Plus de seniors, moins d’actifs pour les soutenir
Source : Hanbury, P., Dutt, A. Veratti, E. (2025). Humanoid robots at work: What executives need to know. Bain & Company.
Les robots humanoïdes pourraient jouer un rôle crucial face au contexte démographique critique. En 2050, une personne sur six dans le monde aura plus de 65 ans, contre une sur dix en 2021. Le ratio de soutien (nombre d’actifs pour un retraité) passera de quatre à moins de deux en Europe et en Amérique du Nord. Dès lors, les humanoïdes pourraient jouer un rôle d’appoint crucial dans les pays confrontés à la contraction de leur population active. L’ONU prévoit désormais un pic de population mondiale plus précoce et plus bas qu’anticipé, à environ 10,3 milliards d’habitants vers 2084 ([339]) ([340]), suivi d’un déclin graduel d’ici la fin du siècle.
Les taux de fécondité sont passés sous le seuil de renouvellement dans la plupart des continents
Cette révision à la baisse des perspectives démographiques, due à la chute généralisée des taux de fécondité, soulève de lourds enjeux pour les économies confrontées au vieillissement et à la raréfaction de la main-d’œuvre. Dans ce contexte, plusieurs pays comme la Chine ([341]) et le Japon ([342]) envisagent explicitement d’intégrer des robots humanoïdes pour compenser ces pénuries et maintenir leur compétitivité, en particulier dans les secteurs des soins, de la logistique et de l’industrie.
La contrepartie de cette potentielle révolution technologique serait également l’émergence de nouveaux déséquilibres sociaux. Le risque principal est celui d’un chômage technologique, affectant les travailleurs les moins qualifiés. En outre, les écarts de revenus entre les travailleurs qualifiés et non qualifiés pourraient se creuser ([343]), à mesure que les premiers bénéficieraient des gains liés à l’IA et à la robotisation, tandis que les seconds subiraient le fait d’être remplacés. Enfin, l’acceptabilité sociale de ces machines sera un facteur déterminant.
B. des effets encore restreints ou inÉgaux À l’Échelle de l’appareil productif français
Si l’IA est largement perçue comme une technologie de rupture susceptible de transformer durablement les économies contemporaines, ses effets concrets demeurent encore limités, hétérogènes et difficilement mesurables à l’échelle macroéconomique. Loin de produire pour l’instant un « miracle statistique », elle s’inscrit dans une trajectoire d’innovation dont les retombées exigent des transformations organisationnelles profondes, un investissement massif en capital immatériel, et un temps d’adoption souvent sous-estimé. Le cas de l’électricité au début du XXᵉ siècle, ou celui des technologies numériques dans les années 1990, rappellent que les grandes vagues technologiques s’accompagnent généralement de décalages temporels significatifs entre l’innovation technique et la croissance observable de la productivité.
À ce stade, les effets de l’IA sur l’appareil productif français apparaissent marqués par de fortes disparités sectorielles et structurelles, tant en termes d’adoption que de gains économiques. Alors que certains secteurs et grandes entreprises ont d’ores et déjà intégré des applications concrètes permettant des gains mesurables de productivité ou de qualité, la diffusion reste très inégale selon la taille des entreprises, leur niveau de maturité technologique ou leur exposition aux cas d’usage pertinents. Cette fragmentation freine l’agrégation des effets positifs au niveau national, et pourrait accentuer les écarts de compétitivité si elle n’est pas compensée par des politiques publiques favorisant l’appropriation de ces technologies, notamment par les PME. L’IA ne saurait donc être considérée comme un levier automatique de croissance : son potentiel dépendra largement de la capacité de l’écosystème productif à se réorganiser, à innover et à mutualiser les ressources nécessaires à son intégration.
1. Des effets macro-économiques peu perceptibles en l’état malgré le potentiel d’une véritable révolution industrielle
a. Un manque de recul et des difficultés d’évaluation statistique
Si les premières études empiriques([344]) mettent en évidence des effets positifs et désormais mesurables de l’intelligence artificielle sur l’efficacité du travail et la productivité, ces résultats demeurent encore partiels et hétérogènes selon les secteurs, les tâches et les contextes d’usage. En particulier, l’impact agrégé de l’IA sur la croissance et la productivité globale reste difficile à appréhender avec précision, faute de données suffisamment consolidées et en raison des incertitudes entourant la diffusion et l’adoption de ces technologies. Toutefois, la mission s’évertue à rendre compte de l’ensemble des résultats récents en la matière, qu’ils concernent l’efficacité du travail, la productivité globale des facteurs ou la croissance, et un bilan globalement positif semble se profiler.
Au niveau macroéconomique, malgré des estimations agrégées qui se précisent, l’essor de l’IA ne s’est pas encore traduit par une accélération pleinement mesurable, de manière fiable, de la productivité ou de la croissance. Le rapport de l’OPESCT ([345]) constatait à cet égard que l’intelligence artificielle illustre pleinement le « paradoxe de Solow » ([346]), selon lequel « on voit des ordinateurs partout sauf dans les statistiques de productivité ». Formulé dans les années 1980 à propos de l’informatisation massive, ce paradoxe décrit le décalage entre l’adoption visible d’une technologie et ses effets mesurables sur la productivité.
Plus globalement, comme le souligne la Commission de l’intelligence artificielle ([347]), il est difficile de mesurer les effets de l’IA sur la productivité, car ses impacts pourraient s’apparenter à ceux d’innovations majeures du passé. Au XVIIᵉ siècle, l’invention du calcul infinitésimal a permis des progrès décisifs en physique, tandis que les techniques de polissage du verre ont conduit à la découverte du monde microscopique et des microbes, ouvrant la voie à des avancées médicales majeures. De la même manière, l’IA pourrait générer des effets à long terme sur la croissance de la productivité, mais leur ampleur reste impossible à quantifier à ce stade.
Dans cette même logique, l’histoire des grandes innovations suggère souvent un décalage temporel important avant d’en observer pleinement les gains, le temps que l’innovation trouve des applications et se diffuse concrètement au sein de l’appareil productif. Par exemple, l’électricité n’a réellement dopé la productivité industrielle que plusieurs décennies après son invention ([348]), une fois repensées en profondeur les organisations des usines (passage des systèmes d’arbre de transmission central aux moteurs électriques individuels). L’électrification n’a contribué de manière décisive à la croissance de la productivité manufacturière américaine qu’à partir des années 1920, où elle a compté pour près de la moitié de cette progression ([349]). De la même manière, les impacts de l’IA pourraient n’apparaître pleinement qu’avec la diffusion de vagues secondaires de technologies et d’usages complémentaires tels que les robots humanoïdes, les systèmes agentiques ou l’Internet des objets, qui permettraient une transformation plus profonde des processus productifs.
Ces retards d’adoption et de réorganisation pourraient expliquer qu’à ce jour, l’intelligence artificielle n’ait pas encore produit de « miracle statistique », en dépit des effets attendus. Plusieurs économistes estiment que nous traversons une phase de « paradoxe de la productivité de l’IA » ([350]), caractérisée par des progrès rapides des technologies d’IA, mais nécessitant encore des innovations complémentaires, des investissements immatériels et des transformations organisationnelles avant de produire des effets macroéconomiques significatifs. En outre, les gains induits par l’IA sont susceptibles d’être imparfaitement captés par les instruments statistiques classiques, notamment lorsqu’ils se traduisent par une amélioration de la qualité des services ou l’apparition de nouveaux produits numériques gratuits, ce qui accroît la difficulté d’évaluation.
Par ailleurs, l’hétérogénéité des effets de l’IA et de son application selon les secteurs complique l’établissement de conclusions agrégées. Les précédentes révolutions technologiques ont montré que seule une poignée de secteurs jouant un rôle moteur peuvent concentrer l’essentiel des gains de productivité. Par exemple, dans la seconde moitié des années 1990 aux États-Unis, six secteurs liés aux technologies de l’information (commerce de gros et de détail, télécoms, finance, fabrication de semi-conducteurs et d’ordinateurs) ont à eux seuls généré virtuellement la totalité de la croissance de productivité supplémentaire, grâce à l’adoption d’innovations numériques couplées à des évolutions des modèles d’affaires ([351]). À l’inverse, d’autres branches n’enregistraient pas de progrès notable, tirant vers le bas la moyenne nationale.
Les technologies de l’information n’expliquent qu’en partie l’accélération de la productivité américaine après 1995
Enfin, l’adoption de l’IA demeure limitée à une fraction d’entreprises, souvent les plus grandes. Au niveau européen en 2024, seuls 13,5 % des établissements d’au moins 10 salariés utilisent l’IA, et le taux d’adoption de l’IA était de 41 % parmi les grandes entreprises, contre seulement 11 % pour les petites ([352]). En France, les premières données ([353]) montrent que les entreprises adoptant l’IA sont en moyenne plus grosses, plus productives et plus intensives en main-d’œuvre qualifiée que les autres.
b. Des effets ambivalents sur le PIB, la productivité globale des facteurs (PGF)
Bien que le manque de recul lié à l’évolution rapide des outils d’IA générative limite encore notre capacité d’analyse, deux grandes catégories d’études peuvent néanmoins être distinguées. La première concerne des travaux empiriques portant sur des tâches ou des métiers précis ([354]) , telles que le conseil, le support client ou l’analyse juridique, généralement fondés sur des études de cas. La seconde regroupe des analyses visant à évaluer l’impact agrégé (macroéconomique) de l’IA générative sur la productivité et, par extension, sur l’emploi à partir de modèles théoriques.
i. Une nouvelle révolution industrielle
D’une part, une vision optimiste présente l’IA comme un moteur potentiel de nouvelle prospérité, susceptible de sortir nos économies de la « stagnation séculaire » ([355]) observée depuis les années 2010 et définie comme une situation économique durable où la croissance reste faible malgré des taux d’intérêt bas, en raison d’un déséquilibre structurel entre l’épargne et l’investissement. En automatisant de nombreuses tâches et en augmentant l’efficacité du travail, l’IA pourrait renouer avec des gains de productivité substantiels et relancer la croissance à long terme et de manière structurelle. Plusieurs études chiffrent ainsi une contribution macroéconomique significative de l’IA dans la décennie à venir. Par exemple, les travaux du McKinsey Global Institute ([356]) estiment que l’adoption généralisée de l’IA générative pourrait à elle seule ajouter de 0,1 à 0,6 point de pourcentage par an à la croissance de la productivité du travail d’ici 2040, et jusqu’à 0,5 à 3,4 points par an en combinant l’IA avec l’ensemble des autres technologies d’automatisation. De tels ordres de grandeur représentent un saut remarquable au regard du rythme tendanciel actuel (le consensus des projections officielles situe la croissance potentielle de la France entre 1,05 % et 1,35 %([357]) par an pour la période 2023–2027) et le potentiel de productivité à 0,5 % par an ([358]).
Ces résultats varient toutefois en fonction de la nature de la révolution technologique à venir. Selon Aghion et Bunel ([359]), si l’on considère que les gains de productivité liés à la vague d’intelligence artificielle au cours de la prochaine décennie seront comparables à ceux engendrés par l’électrification des années 1920 en Europe, la croissance de la productivité augmenterait de 1,3 point de pourcentage par an à partir de 2024 (voir figure 2 (a) dans le document ci-après). En revanche, si l’on prend pour référence la vague des technologies numériques à la fin des années 1990 et au début des années 2000 aux États‑Unis, l’accélération de la productivité serait plus modérée, de l’ordre de 0,8 point de pourcentage par an (voir figure 2 (b) du même document). Ces projections supposent toutefois que les progrès technologiques resteront comparables aux précédentes vagues d’innovation.
Effet des révolutions technologiques passées sur la croissance de la productivité
Source : Aghion P., Bunel S., AI and Growth: Where Do We Stand?, juin 2024.
Si, à l’inverse, l’intelligence artificielle devait évoluer vers des formes d’autonomie et d’auto‑amélioration radicales, certains auteurs, comme Nick Bostrom ([360]), estiment que l’impact sur la productivité pourrait dépasser de très loin les cadres d’estimation traditionnels. Des économistes ([361]) ont tenté de manière prospective de mesurer les effets économiques de l’avènement d’une singularité technologique ([362]). Les auteurs expliquent qu’une singularité économique causée par l’IA est théoriquement possible et pourrait entraîner une croissance explosive, mais que des frictions (tâches non automatisables, concentration des rentes ([363])) pourraient aussi fortement limiter cet effet.
ii. Un effet globalement positif mais toujours incertain
Au‑delà de ces considérations générales et prospectives, les études institutionnelles récentes convergent vers l’hypothèse d’un effet globalement positif de l’intelligence artificielle sur la productivité et la croissance potentielle, tout en soulignant que ces effets sont différents sur les plans macroéconomique et microéconomique, ainsi qu’entre pays et entre secteurs.
À court terme, les effets macroéconomiques de l’IA apparaissent encore incertains et difficiles à mesurer de manière fiable, en raison d’une adoption encore partielle et de la nécessité d’adaptations structurelles. Les effets microéconomiques sont quant eux plus fiables et indiquent des résultats positifs.
À moyen et long terme, l’IA pourrait en revanche constituer un levier majeur de compétitivité et permettre un redressement significatif de la productivité française, à condition qu’elle soit déployée à grande échelle et accompagnée des réformes nécessaires.
Comparaison des gains de productivité macroéconomique prévus grâce à l’IA selon différentes études
Source Filippucci, F., P. Gal and M. Schief (2024), “Miracle or Myth ? Assessing the macroeconomic productivity gains from Artificial Intelligence”, OECD Artificial Intelligence Papers, No. 29, OECD Publishing, Paris, https://doi.org/10.1787/b524a072-en.
Le rapport de l’OCDE ([364]) estime que l’IA pourrait contribuer à une croissance annuelle de la productivité globale des facteurs (PGF) comprise entre 0,25 et 0,6 point, soit un gain de l’ordre de + 0,4 à + 0,9 point pour la productivité du travail. Ces ordres de grandeur sont comparables à ceux observés lors de la diffusion de la micro-informatique dans les années 1990, mais leur réalisation dépend d’un ensemble de facteurs : degré d’exposition sectorielle, vitesse d’adoption et capacité d’absorption organisationnelle des entreprises.
Dans un rapport plus récent de l’OCDE ([365]), l’analyse est étendue aux pays du G7, montrant des disparités entre pays. Dans les trois scénarios envisagés pour cette étude, la fourchette estimée pour la croissance annuelle de la productivité globale du travail due à l’IA se situe entre 0,4 et 1,3 point de pourcentage jusqu’à 2034 dans les pays fortement exposés à l’IA, en raison d’une spécialisation plus forte dans les services à forte intensité de connaissances exposés à l’IA, tels que les services financiers et les TIC, et d’une adoption plus généralisée (par exemple, les États-Unis et le Royaume-Uni). À l’inverse, pour les pays où l’exposition à l’IA est moindre en raison d’un tissu économique moins spécialisé dans les services intensifs en connaissances, notamment la France, l’Italie et le Japon, la fourchette des gains attendus se situe entre 0,2 et 0,8 point par an.
Part des entreprises supposées adopter l’IA dans les dix prochaines années selon les pays
Source : Filippucci, F., P. Gal and M. Schief (2024), “Miracle or Myth ? Assessing the macroeconomic productivity gains from Artificial Intelligence”, OECD Artificial Intelligence Papers, No. 29, OECD Publishing, Paris, https://doi.org/10.1787/b524a072-en.
Ces chiffres contrastent toutefois nettement avec le rythme actuel : la productivité du travail en France a augmenté en moyenne de 0,2 % par an pendant la dernière décennie ([366]) ([367]), soit un niveau encore inférieur aux 0,5 % considérés comme potentiellement tendanciels.
Le rapport de l’OCDE ([368]) souligne par ailleurs l’hétérogénéité des effets de l’IA selon les secteurs. Les premières entreprises adoptant l’IA, généralement de grande taille et spécialisées dans les technologies, enregistrent des gains de productivité significatifs, tandis que les PME et les secteurs moins technologiques peinent à intégrer ces outils et à en retirer des bénéfices substantiels.
La demande de compétences en IA se concentre dans les services à forte intensité de connaissances et dans l’industrie manufacturière
Source : OCDE, The impact of artificial intelligence on productivity distribution and growth, Avril 2024.
Pour la France, le Conseil national de productivité ([369]) constate que, depuis 2019, la productivité du travail en France accuse un retard préoccupant par rapport à ses principaux partenaires. En 2023, la productivité apparente du travail par tête en France restait inférieure de 3,5 % à son niveau d’avant-crise sanitaire, tandis que la productivité horaire demeurait 2,4 % en deçà de celle de 2019. À l’inverse, les États-Unis ont enregistré une hausse de 7,6 % de leur productivité horaire pendant la même période, traduisant un différentiel croissant d’efficacité entre les deux économies. Ce décrochage s’explique en partie par une croissance française riche en emplois mais pauvre en gains de productivité, et par une adoption insuffisante des technologies numériques avancées. Le Conseil national de la productivité souligne en particulier le retard de la France et de l’Europe dans l’investissement en intelligence artificielle (IA) : entre 2013 et 2023, le secteur privé américain a investi 335 milliards de dollars (suivi par la Chine avec 103 milliards de dollars) dans l’IA, contre seulement 8 milliards pour la France. Or, les analyses du CNP confirment que l’IA générative constitue un levier essentiel de gains de productivité futurs ([370]), à condition surtout d’être couplée à d’autres technologies comme la robotique. Ce couplage se traduirait par une augmentation du taux de croissance de la PGF de 0,3 point de pourcentage en moyenne par an. Dans ce contexte, le Conseil appelle à un effort massif d’investissement dans la recherche, le développement et la diffusion de l’IA, afin d’éviter un décrochage structurel de la productivité française et européenne face aux États-Unis et à la Chine.
Au delà des estimations globales encore incertaines, les premières études empiriques confirment des gains de productivité notables au niveau micro-économique, alimentant l’optimisme quant à leur agrégation future. Une étude ([371]) portant sur plus de 5 000 agents de centre d’appels a montré que l’introduction d’un assistant conversationnel à base d’IA générative a accru le nombre de demandes client résolues par heure de 14 % en moyenne, la hausse atteignant même 34 % pour les employés débutants, peu expérimentés.
L’IA a agi comme un égaliseur de performances, en diffusant les bonnes pratiques des meilleurs employés et des plus expérimentés vers l’ensemble des opérateurs, tout en améliorant la satisfaction des clients et en réduisant le renouvellementdu personnel.
De même, des expérimentations contrôlées dans le secteur du conseil et du marketing ont mesuré des gains de productivité et de la qualité des livrables grâce à l’usage de ChatGPT. Une étude de terrain ([372]) menée auprès de 758 consultants de Boston Consulting Group a mis en lumière l’impact de GPT‑4 sur le travail intellectuel et les modes de collaboration homme‑machine. Les résultats montrent que, pour des tâches situées à l’intérieur de la frontière technologique (analyse, synthèse, rédaction ou créativité), l’usage de l’IA permet des gains substantiels : hausse de 25 % de la rapidité d’exécution, de 12 % du nombre de tâches accomplies, et de 40 %, soit une augmentation notable, de la qualité perçue des livrables. À l’inverse, lorsque l’IA est appliquée à des tâches hors de ce périmètre (impliquant une intégration fine de données hétérogènes ou un raisonnement contextuel complexe), elle tend à dégrader la qualité, avec une baisse de 19 points du taux de solutions correctes.
L’étude distingue deux archétypes de collaboration entre humain et IA : les « centaures », qui répartissent le travail entre eux et la machine en fonction des points forts de chacun, et les « cyborgs », qui opèrent dans une fusion symbiotique avec l’IA, l’intégrant dans chaque étape du processus. Ces derniers semblent mieux exploiter le potentiel créatif et productif de GPT‑4, mais exigent une maîtrise plus fine de ses limites (contrôle de données).
Fait notable, ces outils bénéficient souvent davantage aux travailleurs les moins expérimentés ou les moins qualifiés ([373]), en automatisant les tâches routinières de rédaction ou de codage et en leur permettant de se concentrer sur des missions à plus forte valeur ajoutée. L’IA pourrait ainsi agir comme catalyseur d’une réduction des inégalités de productivité.
En France, selon une étude France Travail ([374]), les employeurs ayant déjà intégré l’IA partagent globalement ce constat positif : 72 % d’entre eux estiment que ces technologies améliorent la performance de leurs salariés, notamment en réduisant les tâches fastidieuses (63 % citent cet effet) et le risque d’erreur (51 %). L’IA est donc perçue comme un levier majeur de compétitivité pour les entreprises.
c. Les limites structurelles et l’hypothèse d’un effet transitoire
i. Un effet transitoire et limité ?
D’autre part, une vision plus prudente tempère ces projections, en soulignant les obstacles et les incertitudes entourant l’impact réel de l’IA sur la croissance.
Certains avancent d’abord que les gains de l’IA pourraient n’être que transitoires. Une fois les technologies largement diffusées et intégrées, l’effet de rattrapage sur la productivité s’estomperait, tout comme l’apport des TIC à la croissance s’est affaibli aux États-Unis après 2005, une fois passé le boom d’adoption ([375]). Le scénario « effet transitoire » ([376]) implique un surcroît de croissance limité dans le temps, sans changement du taux de croissance de long terme une fois le nouveau générateur de productivité pleinement absorbé par l’économie.
Ensuite, la progression rapide des systèmes actuels d’IA générative pourrait buter sur des rendements décroissants. En effet, Ilya Sutskever, ancien directeur scientifique d’OpenAI et autrefois ardent défenseur du passage à l’échelle, affirme désormais que les gains de performance liés à l’augmentation de la taille des modèles ont atteint un plateau. Un article du Time magazine ([377]) analyse les débats actuels sur un possible ralentissement des progrès en intelligence artificielle (IA). Depuis des années, les entreprises ont misé sur la loi de l’« échelle » : plus de données et de puissance de calcul entraînent des améliorations prévisibles des modèles.
Cependant, des rapports récents ([378]) suggèrent des rendements décroissants avec les derniers systèmes. D’autres, comme Anthropic et Sam Altman (OpenAI), défendent la continuité de cette dynamique. Le ralentissement perçu pourrait être dû aux limites des techniques actuelles ou au manque de données de qualité, ce que des innovations pourraient compenser. Ce débat a des implications politiques et géopolitiques majeures, notamment pour la régulation et la rivalité technologique entre les États-Unis et la Chine. Il reste difficile de savoir s’il s’agit d’un plateau temporaire ou d’un vrai tournant dans l’évolution de l’IA.
Les potentiels de croissance et de productivité de l’IA varient enfin fortement en fonction du caractère général ou non des avancées actuelles de l’IA, un point qui demeure débattu. Les modèles d’IA générative comme les grands modèles de langage (LLM) affichent des performances impressionnantes, mais restent loin d’une « intelligence générale ». Auditionné par la mission, Yann LeCun, directeur scientifique de l’IA chez Meta, a souligné que ces modèles auto-régressifs ne font que prédire du texte de manière statistique, sans véritable compréhension du monde réel. Il estime que les modèles de langage (LLM) actuels parfois décrits par les sceptiques comme des « perroquets stochastiques » ([379]) parviennent à générer des réponses cohérentes sans comprendre les concepts qu’ils manipulent. Ils manquent de capacité de raisonnement critique, de planification, de mémoire de long terme et d’ancrage physique, autant de composantes essentielles de l’intelligence humaine.
Il critique ([380]) la philosophie dominante selon laquelle la simple augmentation de la taille des modèles, des jeux de données et de la puissance de calcul (les fameuses « lois d’échelle ») assurerait une progression vers l’intelligence humaine, ce qu’il juge illusoire face à la complexité réelle du monde.
Pour Le Cun, les IA doivent acquérir une mémoire persistante, un sens du monde physique, une capacité de raisonnement structuré et une planification hiérarchique, qualités absentes des LLM, et cela ne peut se faire que par une formation intégrant l’interaction sensorielle et l’observation, par le développement de world models ([381]), qui pourraient ne jamais advenir ou prendre des décennies à se développer.
ii. Limites structurelles spécifiques à l’Union européenne au développement de l’intelligence artificielle
Le développement de l’intelligence artificielle (IA) représente une promesse de transformation profonde des économies modernes. Cependant, en Europe, plusieurs facteurs structurels tendent à en freiner la pleine réalisation selon Luis Garicano ([382]). Ces contraintes tiennent à la fois aux caractéristiques sectorielles de l’économie européenne, aux rigidités institutionnelles et réglementaires qui y prévalent, ainsi qu’à une organisation des systèmes de production qui perpétue des goulets d’étranglement. Leur analyse met en lumière les défis spécifiques que l’Union devra relever pour tirer parti des potentialités de l’IA.
L’un des premiers freins tient à la composition sectorielle de l’économie européenne, qui concentre une part importante de ses activités dans des secteurs peu propices à l’automatisation ([383]). Comme l’a montré William Baumol ([384]), certains secteurs tels que les soins aux personnes, l’éducation, le tourisme ou encore l’artisanat affichent des gains de productivité très faibles comparés à ceux des industries fortement mécanisées ou numérisées. Ce phénomène, connu sous le nom de « paradoxe de Baumol », tend à s’amplifier avec l’avancée des technologies d’automatisation : plus certains secteurs gagnent en efficacité et voient les salaires progresser, plus les activités restant fortement dépendantes de la main-d’œuvre subissent une hausse relative de leurs coûts.
En Europe, cette dynamique est d’autant plus marquée que le vieillissement de la population accroît la demande pour ces services peu automatisables. À l’horizon 2030, un quart des citoyens de l’Union aura plus de 65 ans ([385]), ce qui accroîtra mécaniquement la demande pour des services humains, notamment dans les domaines des soins, de l’accompagnement social et des activités de proximité. Or, ces services sont difficilement remplaçables par des machines, ce qui en fait un frein endémique à la diffusion des effets de l’IA vers la croissance globale.
À cette contrainte structurelle s’ajoute une rigidité institutionnelle et réglementaire qui ralentit l’adoption des technologies d’automatisation, selon Luis Garicano ([386]). Dans de nombreux États membres, la législation du travail impose des obligations lourdes aux entreprises souhaitant réorganiser leurs activités. En Allemagne, le principe de codétermination oblige les grandes entreprises à obtenir l’accord des représentants des salariés avant tout investissement majeur en matière d’automatisation. En Espagne et en Italie, les coûts associés aux licenciements collectifs et aux plans de reclassement freinent également les projets de transformation numérique. Ces dispositifs, s’ils traduisent une volonté de protection sociale, compliquent néanmoins la réallocation de la main-d’œuvre vers les secteurs d’avenir et créent, selon cet économiste, un effet d’inertie dans les systèmes productifs.
Enfin, la structure même des systèmes européens de production et de régulation favorise l’apparition de « goulots d’étranglement humains » ([387]) qui limitent l’impact de l’automatisation. Comme le souligne la théorie de l’ « O-ring » développée par Michael Kremer ([388]), la performance globale d’un système complexe dépend de la qualité de son maillon le plus faible.
Ces limites structurelles combinées font peser sur l’Europe un risque majeur : celui de voir ses gains de productivité et son dynamisme économique freinés, à l’heure où d’autres régions du monde, moins contraintes par des rigidités comparables, pourraient capter l’essentiel des bénéfices liés à l’IA. Dans les services financiers, la directive européenne MiFID II impose une surveillance humaine constante ([389]) des systèmes d’IA, obligeant les opérateurs à pouvoir intervenir ou désactiver les programmes d’algorithmic trading en cas de défaillance. De même, le règlement européen sur l’IA ([390]) classe de nombreuses applications financières comme « à haut risque » ([391]), imposant des exigences de transparence et de contrôle humain qui freinent l’automatisation complète. En matière de sécurité alimentaire, le cadre réglementaire européen ([392]) ([393]) impose également la présence d’inspecteurs humains à chaque étape de la production, même avec des systèmes automatisés avancés.
Ce principe de « human in the loop », qui traduit des valeurs européennes de prudence et d’encadrement, a pour effet de ralentir les gains d’efficacité technologique, en modulant la performance des systèmes selon le rythme des capacités humaines.
2. Des disparités de développement au sein du tissu économique
a. Selon les secteurs d’activité
La diffusion de l’intelligence artificielle (IA) dans les entreprises françaises diffère fortement selon les secteurs d’activité, comme l’ont illustré les auditions conduites par la mission. Cette hétérogénéité sectorielle reflète des écarts de maturité technologique, mais également des choix stratégiques et des contraintes propres à chaque filière.
Les données récentes confirment l’ampleur de ces disparités. D’après Eurostat ([394]), en 2024, près de 48,7 % des entreprises du secteur Information et Communication dans l’Union européenne avaient recours à l’IA, contre seulement 6,1 % dans la construction et 6,09 % dans l’hébergement‑restauration. Ce constat révèle une fracture nette entre des secteurs fortement numérisés et d’autres peinant à franchir le seuil d’adoption, mais reflète également une moindre nécessité d’y recourir dans certaines activités où les cas d’usage de l’IA sont moins évidents ou moins prioritaires.
Répartition sectorielle des employeurs utilisant l’IA aux États-Unis (2022)
Source : Eurostat, Use of artificial intelligence in enterprises, Janvier 2025.
L’OCDE corrobore cette tendance en distinguant une « intensité IA » élevée dans les secteurs des technologies de l’information et de la communication (TIC) et les services financiers. Dans son rapport ([395]), l’organisation indique qu’en 2023, environ 28 % des entreprises du secteur TIC utilisaient l’IA, contre seulement 8 % en moyenne dans l’ensemble des secteurs. Le rapport A Sectoral Taxonomy of AI Intensity ([396]) précise que les services IT et la R&D scientifique présentent les plus fortes concentrations en brevets liés à l’IA, en postes spécialisés et en taux d’adoption, tandis que des secteurs comme la construction restent en retrait.
Ces chiffres sont confirmés également au niveau des pays du G7. Un rapport récent de l’OCDE ([397]), fondé sur un échantillon de 840 entreprises, montre que les filières finance, TIC et services professionnels sont largement en tête, tandis que la construction, l’hôtellerie et le transport affichent des taux d’adoption inférieurs à 10 %.
Niveau d’exposition des secteurs à l’IA selon leur intensité en connaissances (2019)
Source : Filippucci et al (2024) and OECD (2024) based on (Felten, Raj and Seamans, 2021).
En France, certains secteurs apparaissent comme des pionniers, ayant massivement investi dans ces technologies pour renforcer leur compétitivité. Le secteur bancaire, par exemple, figure parmi les plus avancés : les grandes banques françaises comme BNP Paribas et la Société Générale, auditionnées par la mission, ont développé de nombreux outils d’IA visant à améliorer l’efficacité opérationnelle et la gestion des risques (détection des fraudes, optimisation du crédit, relation client, etc.). L’industrie aéronautique et plusieurs groupes industriels emblématiques, Renault, Airbus ou Michelin, ont également intégré précocement l’IA dans leurs processus (maintenance prédictive, automatisation de la production, IA embarquée), s’affirmant ainsi à la pointe de l’innovation.
L’intelligence artificielle chez Renault
Renault déploie l’intelligence artificielle (IA) à plusieurs niveaux de ses activités. Le groupe utilise des technologies d’IA pour optimiser la maintenance prédictive des machines, simplifier la programmation robotique grâce au reinforcement learning, et améliorer l’efficacité globale de ses processus industriels. L’IA générative (IAG) est également mobilisée pour accélérer le cycle de développement logiciel dans le cadre du projet AI for SDV (Software Defined Vehicle). Ces applications visent à renforcer l’innovation, à automatiser le traitement des données et à améliorer l’expérience client, en positionnant la voiture comme un véritable « smartphone sur roues ».
À l’inverse, d’autres secteurs accusent un net retard : selon l’Insee ([398]), 42 % des entreprises de l’information-communication utilisent l’IA, contre 5 % ou moins pour les transports, l’hébergement et la restauration ou la construction. Ces écarts confirment que certains secteurs affichent un fort usage de l’IA, quand d’autres secteurs moins numérisés restent logiquement en retrait.
En revanche, certaines industries disposant d’un potentiel d’usage élevé demeurent notablement en retard. Dans le domaine de l’industrie manufacturière ([399]), seulement 18,4 % des entreprises européennes utilisent un logiciel d’IA dans au moins un domaine de leur production : 25 % des grandes entreprises, 18 % des entreprises moyennes et 15 % des petites entreprises en sont parties prenantes. Une étude de mai 2024 ([400]) confirme que l’adoption de l’IA par les entreprises allemandes est passée de 6 % à 13,3 % entre 2020 et 2023. Ces chiffres témoignent d’un retard d’adoption, en dépit de la maturité de cas d’usage tels que la maintenance prédictive, l’optimisation logistique et le contrôle qualité pour l’IA.
L’adoption de l’intelligence artificielle dans l’industrie se heurte à trois obstacles majeurs ([401]). La qualité des données est souvent insuffisante, avec des informations dispersées et peu fiables. Les compétences humaines manquent pour développer et piloter ces outils. Enfin, l’intégration aux systèmes existants est complexe, en raison de logiciels et machines souvent incompatibles. Ces freins exigent des efforts en formation, en modernisation et en gestion des données.
D’après Clinical Trials Arena ([402]), 49 % des entreprises pharmaceutiques et biotechnologiques européennes déclaraient utiliser l’IA ou le Big Data en 2024, principalement pour l’analyse de données, sans que cela ne représente encore un déploiement systématique dans la découverte ou le développement de médicaments. En parallèle, l’Europe ne compte que trois modèles d’IA biotech notables, là où les États-Unis en comptent 40, et la Chine 15. Ce retard est manifeste, alors que les États-Unis ont obtenu 223 dispositifs médicaux IA approuvés par la FDA en 2023. Or le développement de médicaments est par nature répétitif et structuré : IA générative, pipelines numériques, criblage virtuel, etc., sont des applications matures mais insuffisamment exploitées en Europe.
b. Selon la taille des entreprises
L’adoption de l’intelligence artificielle augmente proportionnellement à la taille des entreprises. En 2024, 41,2 % des grandes entreprises européennes (>250 salariés) utilisent l’IA, contre 21,0 % des entreprises de taille intermédiaire (50 à 249 salariés) et seulement 11,2 % des petites entreprises (10 à 49 salariés), selon Eurostat ([403]). Cette dynamique s’explique par la capacité des grands groupes à mobiliser des moyens financiers, des équipes spécialisées et des infrastructures numériques avancées, leur permettant d’intégrer l’IA dans des processus stratégiques comme la production, la logistique ou la relation client.
L’utilisation selon la taille des entreprises, 2023 et 2024
Source : Eurostat, Use of artificial intelligence in enterprises, Janvier 2025.
Aux États-Unis, cet écart est encore plus marqué. Une analyse du MIT Sloan ([404]) indique que plus de 50 % des entreprises de plus de 5 000 salariés et près de 60 % des entreprises de plus de 10 000 salariés recourent à des outils d’IA, tandis que le taux d’adoption chute à moins de 4 % ([405]) pour les petites entreprises. Les grandes entreprises américaines déploient des solutions propriétaires et disposent d’équipes internes capables de concevoir et d’optimiser ces technologies, ce qui leur confère un avantage compétitif notable.
Part des entreprises américaines utilisant l’IA selon leur taille (2016-2018)
En France, la même logique se vérifie. D’après l’Insee ([406]), en 2024, 33 % des entreprises de 250 salariés ou plus ont adopté l’IA, contre seulement 15 % des entreprises de 50 à 249 salariés et 9 % des entreprises de 10 à 49 salariés. Cet écart reflète une fracture entre, d’une part, les grandes organisations, qui concentrent près de 50 % du chiffre d’affaires cumulé et 40 % des emplois du secteur marchand, et, d’autre part, un tissu de PME/TPE souvent dépourvu des ressources nécessaires pour initier de tels projets.
En 2024, l’adoption des technologies d’intelligence artificielle par les entreprises françaises demeure inférieure à celle observée dans l’ensemble de l’Union européenne ([407]). Alors que 13 % des entreprises européennes déclarent recourir à au moins une technologie d’IA, ce taux n’est que de 10 % en France, un écart qui reste stable par rapport à 2023. Cette différence concerne l’ensemble des tailles et secteurs d’entreprises. Les grandes entreprises françaises de 250 salariés et plus présentent ainsi un taux d’usage inférieur de huit points à la moyenne européenne. Le secteur national de l’information et de la communication accuse également un retard de sept points, alors qu’il se situait légèrement au-dessus de la moyenne en 2023. En outre, la progression du recours à l’IA dans les activités spécialisées, scientifiques et techniques, deuxième secteur en termes d’adoption, s’avère moins dynamique en France que dans l’Union européenne.
Ces tendances s’inscrivent dans un contexte européen marqué par de fortes disparités : les pays du Nord (Allemagne, Danemark, Suède, Finlande, Pays-Bas, Belgique, Luxembourg) affichent des taux d’adoption deux fois supérieurs à celui de la France (20 à 28 %), tandis que les pays d’Europe orientale (Roumanie, Pologne, Bulgarie, Hongrie) enregistrent des niveaux bien plus faibles (3 à 7 %).
c. Des enjeux différenciés en matière de coûts
Au préalable, le développement des modèles d’IA comporte deux grandes phases : l’entraînement (la phase d’apprentissage à partir des données) et l’inférence (utilisation du modèle pour générer des réponses et accomplir des tâches).
L’IA constitue un investissement massif et croissant pour les fournisseurs de modèles d’IA. Les entreprises qui développent et fournissent des modèles d’IA de pointe doivent supporter des coûts d’investissement exponentiels. L’entraînement des modèles, en particulier des grands modèles de langage récents, est devenu un poste de dépense majeur mobilisant des infrastructures prépondérantes (centres de données, GPU...).
À capacité constante, le coût d’entraînement des modèles d’intelligence artificielle enregistre une baisse soutenue, évaluée à un facteur quatre par an ([408]), traduisant une efficience accrue. Cette dynamique s’explique par les progrès technologiques réalisés tant sur le plan matériel ou hardware, qui permettent d’accroître la puissance de calcul disponible pour un investissement donné, que sur le plan algorithmique, en réduisant le volume d’opérations nécessaires à l’apprentissage. Des acteurs tels que DeepSeek ou Mistral AI ont su capitaliser sur ces avancées en innovant à la fois dans l’architecture des modèles, les méthodes d’entraînement et l’optimisation des flux de données entre processeurs graphiques.
Cependant, l’efficience accrue n’implique pas une baisse des dépenses totales pour les fournisseurs d’IA. Au contraire, la course à des modèles toujours plus puissants et complexes fait exploser les coûts absolus : les dépenses nécessaires pour entraîner les modèles de pointe ont augmenté d’environ 2,4 fois par an depuis le milieu des années 2010 ([409]). Par exemple, l’entraînement du modèle GPT-4 d’OpenAI aurait coûté de l’ordre de 78 millions de dollars, et celui du modèle Gemini Ultra de Google près de 191 millions ([410]), à comparer aux quelques centaines de dollars nécessaires pour entraîner le premier Transformer en 2017, qui a introduit l’architecture qui sous-tend pratiquement tous les LLM modernes.
Coûts et puissance de calcul nécessaires à l’entraînement de différents modèles d’IA
Source : Stanford Institute for Human-Centered Artificial Intelligence. (15 avril 2024). AI Index: State of AI in 13 charts.
Les géants investissent donc massivement pour rester au niveau des innovations sur le plan technologique : les dépenses en capital (CapEx) liées aux centres de données et à la puissance de calcul des GAFA ont dépassé les 100 milliards de dollars en 2024 ([411]), en hausse de plus de 35 % par rapport à 2023. Si cette tendance se poursuit, seuls les acteurs les mieux financés pourront assumer les prochains cycles d’entraînement des modèles les plus avancés, dont le coût pourrait dépasser 1 milliard de dollars d’ici 2027 ([412]). Ce niveau d’investissement, inaccessible aux nouveaux entrants plus modestes, concentre le marché de l’IA autour de quelques fournisseurs dominants et pose la question d’une dépendance accrue des autres entreprises envers ces derniers.
Évolution des coûts matériels et énergétiques pour l’entraînement des modèles d’IA de pointe
Source : EpochAI, How Much Does It Cost to Train Frontier AI Models?, 13 janvier 2025.
Toutefois, certains observateurs, comme Gary Marcus ([413]), soulignent que : « D’autres pays, également en Europe, pourraient également rattraper leur retard, car les LLM sont devenus beaucoup moins chers et, par conséquent, la nécessité de disposer de vastes réseaux de matériel spécialisé s’est quelque peu estompée. Il n’y a pratiquement plus de fossé ; les nouvelles pistes techniques ont une durée de vie très courte, qui se mesure en mois, voire en semaines, et non en années. »
Même si l’apprentissage initial (capex) des modèles d’IA demeure principalement soutenu par les fournisseurs (OpenAI, Google, etc.), pour les entreprises utilisatrices, les coûts significatifs résident aujourd’hui dans l’inférence, c’est-à-dire l’utilisation opérationnelle des modèles. Parmi les études récentes, Stanford HAI ([414]) souligne que le coût d’inférence pour atteindre les performances de GPT‑3.5 a été divisé par 280 entre novembre 2022 et octobre 2024, tandis que le matériel a vu ses coûts diminuer de 30 % par an et son efficacité énergétique progresser de 40 % annuellement.
Évolution du coût de l’inférence des modèles d’IA selon différents benchmarks (2022-2024)
Source : HAI, The 2025 AI Index Report, 2025.
Par ailleurs, s’agissant de l’évaluation empiritique « Cost‑of‑Pass », défini comme le coût moyen nécessaire pour qu’un modèle d’IA produise une réponse correcte, en tenant compte à la fois de la complexité des tâches et de l’efficacité des modèles et infrastructures utilisées, une étude récente ([415]) montre que pour les tâches complexes, les progrès techniques (modèles allégés, quantification, optimisation) permettent de réduire drastiquement le coût par prédiction correcte, divisant ces coûts par deux tous les quelques mois. En conséquence, même si les GAFAM intensifient leurs investissements pour accroître les capacités globales, le coût unitaire d’inférence pour les entreprises utilisatrices décline fortement, rendant l’IA de plus en plus abordable.
Pour les entreprises utilisatrices, les coûts liés à l’intégration et à l’utilisation quotidienne de l’intelligence artificielle demeurent un enjeu majeur. Bien que le coût unitaire d’inférence ait fortement diminué ces dernières années grâce aux progrès des modèles et du matériel, l’inférence représente encore entre 80 % et 90 % des coûts opérationnels liés à l’IA ([416]). Ce poids financier est particulièrement sensible pour les PME et ETI, qui disposent rarement des capacités techniques et du volume d’activité nécessaires pour négocier des tarifs préférentiels avec les fournisseurs ou internaliser des infrastructures.
En l’absence de ces leviers, les entreprises utilisatrices, les plus petites en particulier, peuvent être confrontées à des charges d’exploitation croissantes dès lors que l’usage de l’IA est intensifié, ce qui freine leur adoption et creuse un écart de compétitivité avec les grandes entreprises. Toutefois, l’évaluation de ce coût reste délicate, car il convient de le mettre en regard des gains de productivité et d’efficacité que l’IA peut générer dans les organisations.
3. L’appropriation de l’IA : un enjeu diversement identifié
a. Une proximité inégale des entreprises avec l’innovation en général et l’intelligence artificielle en particulier
L’appropriation des technologies innovantes, et en particulier de l’intelligence artificielle (IA), par les entreprises françaises demeure très contrastée. Les grandes entreprises, dotées de services R&D structurés et de ressources humaines qualifiées, présentent généralement une capacité d’intégration technologique bien supérieure à celle des petites et moyennes entreprises (PME) et des très petites entreprises (TPE) ([417]). Ces dernières, qui représentent pourtant 99,9 % ([418]) du tissu économique national et génèrent en moyenne 50 % à 60 % de la valeur ajoutée, souffrent d’un accès limité à l’expertise technique et d’un déficit d’information sur les cas d’usages pertinents de l’IA, comme l’a rapporté la CPME à la mission.
Les pôles de compétitivité et clusters, mis en place depuis 2005, illustrent bien cet écart. Selon une étude de l’INSEE (2007‑2011) ([419]), les entreprises adhérentes à ces pôles ont vu leur investissement en R&D progresser en moyenne de 76 000 euros par an, tandis que celles situées en dehors de ces réseaux ne bénéficient pas des mêmes effets d’entraînement. Ces constats sont confirmés au niveau européen : une analyse ([420]) des projets collaboratifs du 5ᵉ programme-cadre de recherche (FP5) souligne que la proximité géographique et technologique est déterminante pour favoriser les collaborations R&D, lesquelles sont beaucoup plus fréquentes entre acteurs partageant des compétences techniques communes.
Cet écart de proximité à l’innovation se traduit, pour les entreprises les plus fragiles, par un retard potentiel dans l’adoption de l’IA, compromettant ainsi leur compétitivité face aux acteurs étrangers. Les études statistiques d’Eurostat ([421]) récentes confirment ce constat. L’adoption de l’intelligence artificielle augmente proportionnellement à la taille des entreprises. En 2024, 41,2 % des grandes entreprises européennes (de plus de 250 salariés) utilisent l’IA, contre 21,0 % des entreprises de taille intermédiaire (de 50 à 249 salariés) et seulement 11,2 % des petites entreprises (de 10 à 49 salariés), selon Eurostat.
Pour combler ces inégalités d’accès à l’innovation, il est indispensable de s’appuyer sur des relais locaux capables d’assurer l’acculturation des entreprises aux enjeux technologiques et de leur proposer des outils adaptés. Les chambres de commerce et d’industrie (CCI) et les chambres des métiers et de l’artisanat constituent des interfaces privilégiées entre le monde de la recherche et celui de l’entreprise. Leur rôle peut être renforcé pour offrir des diagnostics personnalisés, organiser des ateliers de sensibilisation et mettre en réseau les acteurs d’un territoire autour de projets d’innovation.
Le dispositif Ambassadeurs IA([422]), lancé par le Gouvernement dans le cadre du plan Osez l’IA ([423]) ([424]) illustre cette logique de relais de proximité. Le réseau des Ambassadeurs IA, lancé par la Direction générale des entreprises, vise à fédérer des acteurs publics et privés capables d’accompagner les TPE et PME dans l’appropriation concrète de l’intelligence artificielle, en diffusant une culture numérique commune, en orientant vers les dispositifs existants et en favorisant le partage d’expériences au niveau régional et sectoriel.
Recommandation n°1 : Renforcer le rôle des réseaux locaux (CCI, CMA, pôles de compétitivité) dans l’information et la sensibilisation des entreprises à l’IA, avec une attention particulière concernant les TPE-PME, en s’appuyant sur les dispositifs existants, tels que le programme des Ambassadeurs IA, afin de mieux les mobiliser et de les valoriser.
L’accompagnement par ces relais locaux est primordial pour maximiser l’effet de l’IA sur la compétitivité. Selon une étude de McKinsey ([425]), l’adoption de l’intelligence artificielle pourrait accroître de 3 % par an la croissance de la productivité en Europe d’ici 2030. Cette étude constate : « En matière d’adoption, les organisations européennes accusent un retard de 45 à 70 % par rapport à leurs homologues américaines. Pourtant, c’est en Europe que réside la majeure partie du potentiel économique de l’intelligence artificielle générative. La technologie étant encore à un stade précoce et une grande partie de ses gains de productivité restant à exploiter, la fenêtre d’opportunité pour l’Europe demeure largement ouverte. »
Ce constat fait écho à une analyse empirique française ([426]), qui montre que les technologies de type cloud ont exercé un impact particulièrement marqué sur la croissance des petites entreprises. Cela suggère qu’un effet de levier comparable pourrait être observé pour les PME adoptant des solutions d’IA si elles sont pleinement accompagnées dans cette transition.
b. La nécessité de favoriser la porosité entre le monde de la recherche et celui des entreprises
Aux États‑Unis, la dynamique public‑privé autour de l’IA est structurée et efficace. Des organismes comme la DARPA ont historiquement initié des programmes d’envergure (par exemple la Strategic Computing Initiative dans les années 1980‑1990), pour lesquels la collaboration avec des universités, le Carnegie Mellon et le MIT notamment, ou encore des acteurs industriels a permis de déboucher sur des avancées majeures, jusqu’à l’émergence des véhicules autonomes et d’outils logistiques d’intelligence avancée – sans atteindre, certes, son objectif initial d’intelligence artificielle de haut niveau. Plus récemment (2022‑2023), l’initiative AI Forward ([427]) de la DARPA, combinant ateliers, appels à projets et partenariats tripartites, rassemble plus de 200 experts issus du monde académique, industriel et gouvernemental pour explorer des pistes en IA de rupture. Ces dispositifs reposent sur un financement ciblé, des contrats structurants et une approche agile qui favorise la translation rapide de la recherche en applications concrètes.
À l’inverse, l’Europe se trouve en retard, comme le souligne clairement le rapport Draghi ([428]). Celui-ci dénonce la fragmentation des financements R&D, l’absence d’agences de transfert comparables à la DARPA et un manque de continuité entre la recherche fondamentale et les applications industrielles, qui conduit à un scepticisme généralisé face aux capacités de l’UE à capturer les bénéfices de l’IA. L’écart d’investissement est gigantesque : selon l’ECIPE ([429]), le déficit accumulé en matière d’ICT et cloud entre l’UE et les États-Unis s’élève à 1,36 trilliard de dollars, et rattraper ce retard d’ici 2030 nécessiterait des investissements annuels de 157 milliards à 1,2 trilliard de dollars, soit jusqu’à 6,4 % du PIB européen.
Alors que le rapport Draghi ([430]) souligne également la nécessité pour les États membres de l’Union européenne de renforcer leur soutien à l’innovation des entreprises afin de capter pleinement les bénéfices des prochaines vagues technologiques, au premier rang desquelles figure l’intelligence artificielle générative, il met également en évidence plusieurs obstacles récurrents à une action publique efficace dans ce domaine. Parmi ces écueils figurent :
– l’inefficience des dispositifs de soutien public à la R&D des entreprises, due à une fragmentation excessive des sources de financement et à un ciblage encore insuffisant sur les innovations de rupture ;
– le nombre limité d’institutions universitaires d’excellence, capables de rayonner au niveau européen et international ;
– un manque de continuité entre la recherche fondamentale conduite par les organismes scientifiques et la commercialisation effective des découvertes, en particulier en raison d’une intégration insuffisante des établissements de recherche au sein des clusters d’innovation.
Les recommandations du rapport mettent en avant la nécessité d’un soutien public‑privé structuré, via des agences fortes au service de l’innovation, à l’image du modèle américain.
Dans ce contexte, la France bénéficie déjà d’un réseau de Centres techniques industriels (CTI) ([431]) et d’Instituts Carnot ([432]), qui pourraient constituer des pivots stratégiques pour l’appropriation de l’IA par les PME. Les actions des CTI, entités d’utilité publique financées conjointement par les filières industrielles et l’État, portent principalement sur la mutualisation de moyens et de compétences au profit des TPE et PME industrielles, sur la transformation des entreprises et l’anticipation des évolutions du marché. Il serait à cet égard pertinent d’envisager la création d’un CTI spécifiquement dédié à l’intelligence artificielle, afin d’accompagner les entreprises dans l’intégration de ces technologies stratégiques.
Le label « Institut Carnot », instauré en 2006, vise à encourager la recherche partenariale entre les laboratoires publics et les entreprises. Ce dispositif, mis en œuvre par l’Agence nationale de la recherche (ANR) et placé sous la tutelle du ministère de l’Enseignement supérieur et de la Recherche ainsi que du ministère de l’Industrie, distingue des structures de recherche capables de développer des collaborations contractuelles avec des acteurs socio-économiques. Attribué à l’issue d’appels à candidatures périodiques, ce label s’accompagne d’un soutien financier : en 2024, 39 structures en bénéficient, pour un montant total de 116 M€, calculé en fonction du volume des contrats facturés à leurs partenaires socio-économiques l’année précédente (636 M€ en 2023). Ce dispositif a permis à la majorité des instituts labellisés d’accomplir des progrès en matière de professionnalisation de leurs activités contractuelles. Apprécié de ses bénéficiaires, le dispositif a renforcé la professionnalisation des instituts labellisés, mais souffre d’un pilotage insuffisant, d’objectifs flous et d’une faible notoriété auprès des entreprises.
S’agissant de ce label, l’inspection générale des finances ([433]) préconise d’alléger les conditions de labellisation, afin d’encourager un plus grand nombre de laboratoires à déposer leur candidature lors de la prochaine vague. La mission recommande, à cet effet, la suppression de 70 des 80 indicateurs actuellement requis, afin de concentrer le suivi sur un nombre restreint d’indicateurs véritablement pertinents pour la recherche contractuelle : le nombre de chercheurs impliqués, l’attraction de nouveaux partenaires, le taux de fidélisation des partenaires existants et les délais de contractualisation. Ce recentrage serait également l’occasion de mieux aligner le dispositif sur les priorités stratégiques nationales, en orientant une part de l’effort vers des secteurs à fort potentiel technologique et industriel, tels que le développement et l’intégration de l’intelligence artificielle.
Le renforcement de ces dispositifs est confirmé empiriquement. Plusieurs analyses ([434]) confirment que la proximité physique et les échanges informels amplifient les innovations, avec un effet quantifiable sur le nombre de projets menés. Pour les décideurs publics, ces éléments prouvent que le renforcement des écosystèmes locaux et des plateformes nationales permet de limiter le fossé entre grands groupes ou centres de recherche, d’une part, et PME, d’autre part, afin de renforcer la souveraineté technologique française et européenne.
Enfin, dans le cadre de son AI innovation Package ([435]), la Commission européenne a fait de la création des AI Factories ([436]) une priorité stratégique. Ces écosystèmes dynamiques visent à fédérer la puissance de calcul, les données et les compétences pour permettre le développement de modèles et d’applications d’IA de pointe. Ils reposent sur une logique de partenariat public-privé, rassemblant supercalculateurs, universités, start-up, PME, grands groupes industriels et acteurs financiers, afin de stimuler l’application de l’IA dans des secteurs stratégiques tels que la santé, le climat, la finance, la fabrication ou encore l’espace.
Le dispositif, annoncé dans le train de mesures sur l’innovation en IA de 2024 et renforcé par le Plan d’action pour le continent de l’IA ([437]), prévoit l’ouverture d’ici 2026 d’au moins 15 AI Factories et de plusieurs antennes associées à des supercalculateurs optimisés pour l’IA. Cette initiative s’appuie sur le programme EuroHPC Joint Undertaking ([438]), qui donne accès aux capacités de calcul et aux services de soutien nécessaires au développement d’un écosystème paneuropéen. L’objectif est double : stimuler la recherche et l’innovation, tout en assurant une priorité d’accès aux startups et PME, qui peinent souvent à mobiliser des ressources de calcul adaptées à leurs besoins. Dans ce cadre, au moins neuf nouveaux supercalculateurs optimisés pour l’IA seront déployés dans l’Union européenne, triplant la capacité de calcul actuelle.
Pour compléter cet effort, le mécanisme InvestAI ([439]), qui mobilise 200 milliards d’euros pour l’IA, sera doté d’un fonds européen de 20 milliards d’euros, soutiendra la création de jusqu’à cinq Gigausines ou gigafactories d’IA. Ces infrastructures de très grande échelle permettront de former les prochaines générations de modèles d’IA, comprenant des trillions de paramètres, tout en favorisant des partenariats public-privé pour garantir un environnement d’investissement sécurisé et un écosystème européen compétitif et innovant.
Implantation des AI factories au sein des pays membres de l’Union européenne
Dans ce cadre, la France a été sélectionnée en 2025 pour accueillir une AI Factory nationale, portée par le Grand Équipement National de Calcul Intensif (GENCI). Ce projet s’appuie sur un partenariat étroit entre des acteurs universitaires, des structures d’innovation et des industriels de premier plan tels que l’INRIA, le CNRS, le CEA, le CINES, la Mission French Tech, France Universités, Station-F et HubFranceIA.
AI Factory France ([440]) se donne pour ambition de répondre au triple défi de l’IA en matière de calcul, de données et de compétences. Elle propose une palette de services destinés à accompagner les utilisateurs, notamment les PME et startups, dans l’accès et l’exploitation de ces technologies complexes. Elle héberge également un centre d’expertise et de support technique qui constitue un atout unique en Europe, en appui au réseau européen des AI Factories pour le déploiement des infrastructures et des services.
La France met ainsi à disposition son savoir-faire et ses infrastructures de calcul, dont le supercalculateur Jean Zay, en service depuis 2019, et le futur supercalculateur exaflopique Alice Recoque, prévu pour 2026, capable de réaliser un milliard de milliards d’opérations par seconde. Ce dispositif illustre la volonté française de développer un écosystème d’intelligence artificielle souverain, au service de la recherche publique et des besoins industriels, tout en s’inscrivant dans la dynamique européenne.
Recommandation n° 2 : Structurer un dispositif intégré de transfert technologique en mobilisant et en adaptant les outils nationaux (Centres techniques industriels – CTI – et Instituts Carnot) et les infrastructures européennes (AI Factories), afin d’accompagner les PME, startups et filières stratégiques dans l’appropriation et l’intégration des technologies d’intelligence artificielle avec un investissement capital exigeant l’accès de ressources stratégiques et un environnement propice.
Au-delà des grandes infrastructures nationales, l’appropriation de l’intelligence artificielle passe par la capacité des acteurs à coopérer à l’échelle locale. En effet, les PME et startups rencontrent souvent des difficultés d’accès aux données de qualité, aux compétences spécialisées et aux capacités de calcul. La constitution de véritables écosystèmes territoriaux apparaît dès lors comme un levier essentiel pour réduire ces obstacles, selon vos rapporteurs. Ces écosystèmes, en associant entreprises, centres de recherche, collectivités territoriales, opérateurs de data centers et structures d’accompagnement, peuvent favoriser la mutualisation des expertises, l’émergence de plateformes de données sectorielles ou régionales, ainsi que le développement de projets collaboratifs concrets adaptés aux besoins d’un territoire ou d’une filière.
Recommandation n° 3 : Encourager la constitution d’écosystèmes locaux associant entreprises, collectivités territoriales, centres de recherche et opérateurs de data centers, afin de mutualiser les compétences et de favoriser le développement de projets collaboratifs en intelligence artificielle.
II. soutenIR LA VITALITÉ d’un Écosystème prometteur mais fragile, condition d’une offre compÉtitive et souveraine
Le développement de l’intelligence artificielle constitue un levier stratégique majeur pour l’avenir économique, technologique et géopolitique des nations. Si l’Europe, et en particulier la France, peuvent s’appuyer sur un tissu d’acteurs dynamiques et innovants, cet écosystème reste confronté à de profondes vulnérabilités. L’asymétrie des moyens face aux grandes puissances technologiques, la dépendance aux infrastructures critiques non européennes, la fragmentation du marché intérieur ou encore l’insuffisance du capital-risque pèsent sur la capacité du continent à faire émerger des champions durables.
Ce constat appelle une action résolue pour conforter les acteurs nationaux et européens, sécuriser leur environnement économique, technologique et financier, et construire une stratégie industrielle cohérente et ambitieuse. Ce deuxième axe du rapport vise ainsi à identifier les fragilités structurelles de l’écosystème européen de l’IA et à proposer des leviers efficaces pour renforcer concrètement sa compétitivité et sa souveraineté à long terme.
A. Des acteurs nationaux à conforter face à une concurrence mondiale et dans leur leadership européen
Face à l’accélération de la course mondiale à l’intelligence artificielle et aux technologies critiques, l’Europe se trouve confrontée à un double défi : maintenir sa souveraineté technologique, tout en défendant la compétitivité de ses propres acteurs, dans un environnement marqué par des asymétries massives en matière de financement, d’infrastructures et de ressources humaines. Dans ce contexte, la France dispose d’atouts réels, incarnés notamment par des champions émergents comme Mistral AI, qui démontrent la capacité du continent à faire émerger des leaders de rang mondial. Mais ces réussites, encore isolées, ne sauraient masquer les fragilités structurelles actuelles de l’écosystème européen.
En effet, les géants technologiques américains et chinois bénéficient d’un soutien public massif, d’un accès privilégié aux infrastructures critiques (GPU, cloud, données) et de marchés intérieurs largement captifs, qui renforcent leur avance stratégique. À l’inverse, les acteurs européens restent confrontés à un marché unique fragmenté, à une réglementation contraignante et à des investissements encore très en-deçà des besoins. Dans ce contexte de concurrence déséquilibrée, il devient urgent de conforter les acteurs nationaux et européens, non seulement en soutenant leur montée en puissance dans les technologies généralistes, mais aussi en protégeant les niches où ils excellent et en sécurisant leur ancrage territorial.
L’ambition européenne ne peut reposer uniquement sur l’espoir de faire émerger un ou deux hyperscalers concurrents des GAFAM : elle suppose une stratégie industrielle globale, articulant soutien à la croissance endogène des acteurs existants, protection contre les logiques de prédation extra-européennes, et consolidation de marchés réellement contestables. Ce volet entend ainsi analyser les fragilités actuelles de l’écosystème européen de l’IA et du cloud, identifier les obstacles à l’émergence de champions durables, et proposer des leviers d’action concrets pour préserver la souveraineté numérique du continent.
1. Une inégalité des armes face à des géants de la tech
a. Un leadership français dans l’IA et le cloud, mais un rapport de force inégal
Comme développé plus haut, bien que l’Europe accuse un retard manifeste face aux géants américains et chinois, la France peut s’enorgueillir de compter avec Mistral AI le seul acteur européen capable de rivaliser sur le terrain stratégique des modèles de langage de grande ampleur. Fondée en 2023, cette start‑up s’est rapidement imposée comme le leader incontesté de l’IA en Europe, devenant la seule entreprise du continent à développer des modèles d’usage général (LLM) avec une ambition de rang mondial.
En 2025, Mistral envisage de lever 1 milliard d’euros, après un tour de table précédent de 600 M€ ([441]), et atteint une valorisation de 6 milliards de dollars ([442]), reléguant son principal concurrent européen, Aleph Alpha, qui a depuis abandonné son modèle d’affaires initial de développement de modèle de langage de grande taille. Elle dispose désormais de la plus grande flotte de GPU en Europe grâce à un partenariat avec Nvidia, qui a permis l’installation de 18 000 GPU Grace Blackwell B200 dans un centre de données en Essonne ([443]), la plus vaste infrastructure IA du continent.
Évolution comparative des performances des modèles d’IA sur LMSYS Chatbot Arena (2023-2025)
Source : Standford University, The AI Index 2025 annual report, 2025.
Si ses modèles restent perfectibles par rapport à GPT‑4 ou Gemini en termes de performance, leur présence dans les classements mondiaux ([444]) aux côtés d’OpenAI, Google et Anthropic atteste de la crédibilité croissante de Mistral sur la scène internationale. Cette trajectoire confirme qu’un acteur européen peut émerger, même face à des rivaux disposant de moyens financiers dix fois supérieurs ([445]).
Fonds levés par les principaux groupes d’IA comparés à ceux de Mistral
Source : Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025.
Financièrement, les entreprises américaines et chinoises bénéficient d’un avantage écrasant : OpenAI a levé 6,6 milliards ([446]) de dollars, Anthropic 4 milliards ([447]), tandis que les acteurs chinois sont bien positionnés en raison d’un fort soutien public constant depuis 2017, que la DGTrésor ([448]) estime entre 10 et 15 milliards de dollars par an.
La percée de DeepSeek début 2025 a bousculé l’écosystème mondial de l’intelligence artificielle, en démontrant, du moins en apparence, qu’il est possible de concevoir un modèle performant en source ouverte, avec des moyens financiers et matériels bien moindres que ceux mobilisés par les géants américains. Comme le relevait Gary Marcus ([449]), cette approche frugale constitue un signal fort pour l’Europe, en confortant l’intuition de Mistral AI selon laquelle l’efficacité et l’agilité peuvent compenser des ressources limitées.
Toutefois, cette réussite chinoise mérite d’être relativisée : des analyses ultérieures, notamment celles de SemiAnalysis ([450]), ont révélé que DeepSeek disposait en réalité d’un parc de 50 000 GPUs Nvidia Hopper et aurait investi 1,6 milliard de dollars, bien au-delà des chiffres initialement annoncés. Ce décalage met en lumière une stratégie de communication habile plus qu’une véritable rupture technologique. Pour Mistral, l’épisode DeepSeek est doublement significatif : il valide son propre positionnement fondé sur l’efficience, tout en rappelant qu’un acteur capable de conjuguer discours frugal et ressources massives représente une menace directe pour son modèle dans une compétition technologique mondialisée.
Globalement, cet épisode en évidence le fossé croissant entre l’Europe et ses concurrents mondiaux en matière d’intelligence artificielle et de technologies critiques. En 2024, les institutions américaines ont produit 40 modèles d’IA notables, contre 15 pour la Chine et seulement trois pour l’Europe ([451]). Si les États-Unis conservent une avance quantitative, les modèles chinois ont réduit l’écart qualitatif : sur des analyses comparatives majeures comme MMLU et HumanEval, l’écart de performance est passé de plusieurs dizaines de points en 2023 à une quasi‑parité en 2024.
Ce mouvement s’accompagne d’une domination chinoise sur les publications scientifiques et les brevets en IA. Ce déséquilibre reflète un sous‑investissement structurel de l’Union européenne. Le rapport Draghi ([452]) estime à 750 à 800 milliards d’euros par an le déficit d’investissement global de l’UE par rapport aux États‑Unis et à la Chine, affectant des secteurs stratégiques comme l’IA, le cloud, les supercalculateurs et les semi‑conducteurs. Selon l’ECIPE ([453]), le retard accumulé sur les infrastructures numériques et le cloud s’élève déjà à 1 360 milliards de dollars, et le combler d’ici 2030 nécessiterait des efforts financiers annuels représentant jusqu’à 6,4 % du PIB européen. Ce décalage est amplifié par la dynamique du secteur privé ([454]) : en 2024, les investissements américains dans l’IA ont atteint 109 milliards de dollars, soit près de 12 fois ceux de la Chine (9,3 milliards de dollars) et 24 fois ceux du Royaume‑Uni (4,5 milliards de dollars). Les hyperscalers américains, quant à eux, engagent 10 à 15 milliards de dollars ([455]) chaque trimestre dans leurs infrastructures, consolidant une avance qui fragilise la capacité de l’Europe à capter les bénéfices des prochaines vagues technologiques et à préserver sa souveraineté économique.
Évolution des parts de marché des acteurs européens du cloud sur le marché européen (2017-2022)
Si l’Europe dispose d’un concurrent potentiel aux hyperscalers mondiaux en matière de LLM, force est de constater que, dans le domaine du cloud computing, la situation européenne est nettement moins favorable. Malgré les efforts d’OVHcloud, de SAP et Deutsche Telekom, présentés comme des champions nationaux et européens, la part de marché des fournisseurs européens a chuté de 27 % en 2017 à seulement 13 % aujourd’hui, tandis qu’Amazon, Microsoft et Google concentrent à eux seuls 72 % ([456]) du marché européen. OVHcloud, avec environ 2 % de part du marché européen ([457]), reste un acteur de taille modeste face aux hyperscalers américains, capables d’investir des dizaines de milliards de dollars par an.
Le projet GAIA‑X, censé structurer un écosystème de cloud souverain, peine à produire des effets tangibles. Cette domination américaine dans le cloud constitue une vulnérabilité stratégique majeure pour l’Europe, en particulier dans des secteurs sensibles où la maîtrise des infrastructures numériques est cruciale.
b. Un écosystème dynamique mais insuffisamment protégé
Répartition régionale des financements consacrés
à l’intelligence artificielle en 2024
Source : Silicon Valley Bank, The state of AI industry trends in Europe: Talent drives success, but U.S. funding still crucial, 15 avril 2025
Comme développé précédemment, la France dispose aujourd’hui d’un écosystème de start-up en intelligence artificielle (IA) particulièrement dynamique à l’échelle européenne. Avec 781([458]) ([459]) start-up IA en 2025 (soit une hausse de 27 % en un an), elle devance l’Allemagne (comptant 687 start-up) et capte près de 2,5 % ([460]) des financements mondiaux en IA générative, une part supérieure à son poids économique (2,2 % du PIB mondial). En 2024, les start-up françaises ont levé 1,4 milliard d’euros ([461]), soit près de 50 % des investissements européens dans le secteur. Cette surperformance relative traduit une véritable montée en puissance. Néanmoins, en valeur absolue, la France reste loin des États-Unis (près de 100 milliards de dollars levés ([462]) par leurs start-up IA) et de la Chine, qui font émerger leurs propres géants technologiques.
Malgré un écart de moyens financiers avec les leaders mondiaux, la France parvient à exceller dans certaines niches technologiques stratégiques, où ses start-up occupent parfois une place de leader mondial, qu’il convient de préserver.
Parmi les « champions » français, plusieurs réussites marquantes se distinguent, mais certaines ont été rachetées ou ont partiellement quitté le territoire national.
Ces réussites marquantes illustrent le dynamisme de l’écosystème national, tout en révélant une certaine fragilité face aux logiques de marché mondialisé. Synapse Medicine, fondée en 2016 par Clément Goehr, a su s’imposer dans le domaine de l’intelligence médicamenteuse grâce à une plateforme d’aide à la prescription, sécurisant les traitements pour des milliers de patients et suscitant l’intérêt international : après avoir levé près de 25 M€ ([463]) entre 2019 et 2022, elle a réalisé sa première acquisition aux États‑Unis, tout en conservant son ancrage à Bordeaux.
Dans un tout autre registre, Exotec, créée à Lille en 2015, a révolutionné la logistique grâce à son robot Skypod®, en fournissant des solutions d’automatisation d’entrepôts plus intelligentes, devenant la première licorne industrielle française et exportant ses solutions dans une quinzaine de pays, tout en maintenant sa R&D dans les Hauts‑de‑France. En janvier 2022, après une levée de fonds de 335 millions de dollars, elle est valorisée à 2 milliards de dollars et devient la 25e licorne française ([464]). Dans le secteur agricole, Weenat, fondée à Nantes en 2014, développe des capteurs connectés permettant aux exploitants de mieux gérer l’irrigation et les ressources en fonction des variations du climat ; forte d’une levée de 8,5 M€ en 2024 ([465]), la start‑up affirme avoir permis en 2023 une économie de 32 millions de mètres cubes d’eau (soit environ 12 000 piscines olympiques) grâce à l’utilisation de ses données pour optimiser l’irrigation ([466]).
Ces trajectoires traduisent la capacité de la France à faire émerger des acteurs de premier plan dans des niches stratégiques, mais elles rappellent aussi la nécessité de préserver cet élan face aux risques de rachats ou de délocalisations. Les rachats et relocalisations de start-up européennes révèlent des causes structurelles profondes, bien au‑delà de la simple recherche de profits à court terme.
Les États‑Unis exercent une force d’attraction sans équivalent sur les start-up européennes. En effet, une étude récente montre que 6 % des start-up en moyenne européenne ([467]) (soit 661 sur 11 066 dans 17 pays européens) relocalisent leur siège, générant 17 % de la valeur totale, principalement vers les États-Unis (85 % des relocalisations). La start‑up Pathway, créée à Paris pour proposer une IA adaptative en temps réel, a transféré son siège social en fin 2024 à Menlo Park, tout en maintenant une partie de ses équipes en France.
Face à un écosystème européen fragmenté et des financements publics ou privés encore insuffisants, de nombreux entrepreneurs optent également pour des cessions à l’étranger : le manque de capitaux de croissance en Europe, avec seulement 9 milliards d’euros investis dans l’IA en 2023 contre 62,5 milliards aux États‑Unis ([468]), alimente cette fuite des talents et des technologies. En décembre 2023, Apple a discrètement acquis ([469]) la société parisienne Datakalab, spécialisée en compression d’algorithmes et intelligence artificielle. En avril 2023, la legaltech Doctrine, fondée en 2016, a accepté un rachat majoritaire par le fonds américain Summit Partners (avec Peugeot Invest), pour un montant estimé à plus de 100 M€ ([470]).
Au-delà des délocalisations, selon la Commission européenne ([471]), l’Europe souffre d’un tissu industriel figé, sans création récente de géants technologiques capables de rivaliser à l’échelle mondiale : aucune entreprise européenne de plus de 100 milliards d’euros n’a été fondée ces cinquante dernières années, alors que les États‑Unis ont vu émerger six entreprises dépassant 1 trillion de dollars. Ce manque de dynamisme se traduit par des investissements en recherche et innovation inférieurs de 270 milliards d’euros à ceux des États‑Unis en 2021, ces investissements étant dominés en Europe par l’automobile et non les technologies de rupture.
Si le continent ne manque ni d’idées ni de talents, l’innovation y reste bloquée au stade de la commercialisation, freinée par des réglementations complexes. Cette situation pousse de nombreux entrepreneurs à se tourner vers le financement américain et à délocaliser leur siège : entre 2008 et 2021, près de 30 % ([472]) des licornes européennes ont transféré leur siège hors de l’UE, principalement aux États‑Unis, induisant un déséquilibre préoccupant pour la souveraineté européenne.
L’Europe peine à conserver ou à valoriser sur son sol les startups innovantes, en particulier dans le domaine de l’intelligence artificielle, en raison de plusieurs facteurs structurels qui affectent leur croissance et leur pérennité. Le premier d’entre eux réside dans un déficit massif d’investissements privés. Selon le rapport AI Index 2025 ([473]), les États‑Unis ont enregistré en 2024 un investissement privé en IA de 109,1 milliards de dollars, soit près de douze fois le montant investi par la Chine (9,3 milliards) et vingt‑quatre fois celui du Royaume‑Uni (4,5 milliards). L’écart est encore plus marqué dans le domaine stratégique de l’intelligence artificielle générative : les financements américains y dépassent de 25,4 milliards de dollars l’ensemble cumulé de ceux de la Chine, de l’Union européenne et du Royaume‑Uni, accentuant de 21,8 milliards le déséquilibre observé en 2023. Ce retard structurel en matière de capital-risque prive l’Europe de la masse critique nécessaire pour faire émerger des champions technologiques capables de rivaliser à l’échelle mondiale.
Financement privé dans l’IA par zone géographique en 2024
Source : Banque européenne d’investissement, The scale-up gap Financial market constraints holding back innovative firms in the European Union, Juin 2024.
En outre, l’écosystème européen souffre d’une absence de financements dans les cycles de développement avancés, en particulier les levées de fonds dites de « série D » ([474]) , qui sont décisives pour permettre à des entreprises technologiques de passer du stade de l’innovation à celui de la consolidation industrielle, comme le rapportait Pierre Entremont, CEO du fond Frst à la mission ([475]). Cette carence est aggravée par la faiblesse relative des marchés de capitaux européens. Alors que l’Union européenne ne représente que 11 % des introductions en Bourse (IPO) mondiales, la capitalisation boursière de ses marchés ne s’élève qu’à 55 % du PIB européen, contre 147 % pour les marchés américains ([476]).
Cette situation limite fortement les perspectives de sortie pour les investisseurs et incite de nombreuses start-up prometteuses à opter pour un rachat par des groupes étrangers ou à relocaliser leur siège social hors d’Europe. Ce constat rejoint les analyses du Conseil d’analyse économique (CAE) et du German Council of Economic Experts (GCEE) ([477]), qui ont récemment appelé à un renforcement des marchés de capitaux de l’Union européenne afin de permettre aux entreprises technologiques d’accéder à des financements à grande échelle. Ces travaux insistent notamment sur la nécessité de lever les obstacles structurels qui freinent la capacité des start-up européennes à se financer au stade de la montée en puissance et à concurrencer les acteurs américains ou asiatiques.
Par ailleurs, le cadre réglementaire et administratif européen constitue un frein majeur à l’investissement et au développement des entreprises innovantes. Selon la BEI ([478]), plus de 60 % des entreprises européennes estiment que la réglementation représente un obstacle important à l’investissement, tandis que 55 % ([479]) des petites et moyennes entreprises identifient la charge administrative et les contraintes réglementaires comme leur principale difficulté.
Enfin, ces faiblesses intrinsèques sont exacerbées par la fragmentation persistante du marché unique. La diversité des législations nationales, des langues et des régimes fiscaux complexifie la montée en échelle des start-up au sein de l’Union et freine leur capacité à accéder à un marché de taille critique au niveau mondial. Cette complexité favorise le recours à des stratégies d’acquisitions transfrontalières, où des entreprises étrangères (souvent américaines) rachètent des start-up européennes non pas pour exploiter immédiatement leurs produits ou technologies, mais pour capter leurs équipes et leurs compétences clés. Ces opérations, souvent qualifiées de « talent-hoarding » ou d’« acqui-hire », consistent à intégrer les talents d’une start-up dans une entreprise plus grande, parfois dans une logique défensive visant à empêcher les concurrents d’y accéder. Si ces acquisitions peuvent sembler inoffensives, des travaux récents ([480]) montrent qu’elles entraînent une allocation inefficace des compétences, fragilisent la souveraineté technologique de l’Europe, réduisent le bien-être des consommateurs et accroissent la précarité des emplois pour les salariés concernés.
c. Miser sur des IA spécialisées en complément du développement de l’écosystème européen
Vos rapporteurs soutiennent l’émergence d’acteurs européens compétitifs dans le domaine de l’intelligence artificielle généraliste, par l’intermédiaire du champion français en position de leadership monopolistique en Europe : Mistral AI. Ils reconnaissent également les limites structurelles qui pèsent sur cette ambition. L’écosystème européen des start-up, bien que très dynamique en France, reste insuffisamment développé et protégé à l’échelle de l’Union européenne. La fragmentation du marché unique, la faiblesse des financements de croissance et la prédominance des acteurs américains dans des secteurs connexes (notamment le cloud, où les fournisseurs européens comme OVH ne représentent que 2 % du marché continental) illustrent les obstacles persistants à la consolidation de véritables champions européens.
Dans ce contexte, l’essor rapide d’un acteur comme Mistral AI, qui se positionne comme le seul concurrent européen encore en lice sur le marché mondial des grands modèles de langage (LLM), nourrit un espoir légitime. Néanmoins, cet optimisme doit être tempéré par la réalité des rapports de force mondiaux. Les capacités d’investissement colossales des hyperscalers américains et chinois, conjuguées aux acquisitions régulières de start-up stratégiques européennes, laissent craindre un scénario d’échec ou de rachat compromettrait les perspectives d’autonomie technologique.
Face à cette situation, vos rapporteurs considèrent qu’il est impératif de compléter l’ambition portée par Mistral AI par une stratégie parallèle de développement d’intelligences artificielles spécialisées, afin de garantir la souveraineté numérique européenne dans des domaines d’importance critique. Cette approche consisterait à concentrer les efforts publics et privés sur des secteurs clés, tels que la santé et la défense, en appui au développement d’un modèle généraliste européen dont la trajectoire reste particulièrement exigeante face aux hyperscalers étrangers.
Vos rapporteurs ont longuement débattu de l’orientation stratégique à privilégier. Ils considèrent que la priorité doit rester le soutien à l’émergence de modèles généralistes européens de grande ampleur, en cohérence avec la stratégie nationale et le rôle de Mistral AI. En effet, c’est à ce niveau que se joue aujourd’hui la puissance économique et géopolitique mondiale. Toutefois, le développement d’IA spécialisées présente des atouts qu’il serait imprudent d’ignorer : une meilleure performance sur des cas d’usage précis (santé, défense, droit, énergie), une accessibilité accrue pour des PME, start-up et laboratoires incapables de rivaliser sur les LLM géants, ainsi qu’une forme de souveraineté sectorielle limitant la dépendance à un seul type de technologie.
Vos rapporteurs estiment en définitive que ces deux approches doivent être menées de front. Le soutien à un modèle généraliste européen demeure indispensable pour rester dans la course mondiale, mais le développement d’IA spécialisées constitue un complément stratégique : il permet d’assurer une souveraineté sectorielle, de diversifier les opportunités d’innovation, et de constituer un filet de sécurité face au risque d’échec ou de captation des acteurs émergents par des groupes extra-européens.
Recommandation n° 4 : Face aux fragilités structurelles de l’écosystème européen, à la domination des hyperscalers étrangers, et au risque que n’émerge pas un acteur européen capable de soutenir des modèles généralistes à grande échelle, prévoir une stratégie de repli consistant à concentrer les efforts publics sur le développement d’intelligences artificielles spécialisées dans des domaines critiques (santé, défense, renseignement), afin d’assurer la souveraineté technologique de l’Union européenne dans lesdits secteurs.
Cette option présente plusieurs avantages stratégiques qui méritent d’être soulignés :
– D’abord, elle permettrait de maîtriser les coûts de développement et de déploiement, les modèles de taille réduite nécessitant une puissance de calcul bien moindre que celle exigée par les grands modèles généralistes tels que GPT‑4. Une telle approche éviterait à l’Europe de s’engager dans une course aux infrastructures où les hyperscalers américains et chinois disposent d’une avance considérable ;
– Ensuite, le choix de concentrer les efforts sur des intelligences artificielles spécialisées renforcerait la souveraineté technologique de l’Union européenne là où elle est impérative (défense, santé, industrie, renseignement) en l’absence d’émergence d’un hyperscaler européen qui serait le plus protecteur. Ces IA, intégrées dans des chaînes industrielles, des systèmes de soins ou des dispositifs de sécurité, seraient en mesure d’apporter des réponses directes à des enjeux nationaux et européens majeurs tels que la cybersécurité, la surveillance des infrastructures critiques ou l’analyse géopolitique ;
– Enfin, cette stratégie offrirait l’opportunité de créer des synergies avec les politiques publiques existantes. Les instruments européens, à l’instar d’Horizon Europe, de l’AI Act ou encore de l’initiative GAIA‑X, pourraient être mobilisés afin de prioriser le développement de ces modèles sectoriels, d’accélérer leur adoption et de garantir leur ancrage dans l’écosystème européen.
Cette stratégie ne doit pas exclure l’ambition de soutenir des champions européens sur les LLM généralistes ou le cloud, mais elle constitue un filet de sécurité indispensable pour éviter un effondrement de la souveraineté numérique en cas d’échec ou de captation des acteurs émergents par des groupes extra-européens.
2. Une nécessaire préservation de marchés contestables de l’intelligence artificielle : un enjeu stratégique pour l’Europe
Les évolutions rapides de l’intelligence artificielle (IA), et notamment de l’IA générative, suscitent une vigilance accrue des autorités de concurrence face aux risques de concentration et d’abus de position dominante. Le président de l’Autorité de la concurrence, Benoît Cœuré, alertait dès 2023 sur le fait que l’IA générative « a le potentiel de devenir le musée des horreurs de l’antitrust si on ne fait rien » ([481]). Ce constat fait écho aux pratiques déloyales déjà déployées par le passé par les géants du numérique comme les ventes liées, l’auto‑préférence ([482]) et le verrouillage technologique ([483]), pratiques qui pourraient se renforcer à mesure que l’IA devient un levier central d’innovation et de compétitivité.
L’écosystème européen se trouve confronté à plusieurs défis structurels ([484]) : la domination des hyperscalers étrangers (Amazon, Microsoft, Google), la fragmentation du marché unique, et l’absence d’un acteur européen capable de soutenir durablement des modèles généralistes à grande échelle. Si des initiatives telles que Mistral AI nourrissent un espoir légitime, la bataille mondiale des infrastructures (cloud, processeurs, données) laisse entrevoir un risque de marginalisation technologique de l’Europe.
a. Des barrières à l’entrée élevées et des positions dominantes consolidées
L’avis rendu par l’Autorité de la concurrence le 28 juin 2024 met en lumière un ensemble de risques majeurs pour la dynamique concurrentielle, directement corrélés aux positions dominantes et aux barrières à l’entrée identifiées dans le secteur de l’intelligence artificielle. Ces risques, bien connus dans la littérature économique sur les marchés à effets de réseau et sur les industries numériques, présentent des enjeux importants pour l’innovation et la diversité des acteurs.
En premier lieu, l’Autorité de la concurrence alerte sur le risque d’abus liés aux composants essentiels à la filière, notamment les semi-conducteurs et les puces graphiques de dernière génération. Dans un contexte d’oligopole, où quelques fabricants concentrent l’essentiel des capacités de production, des pratiques telles que l’application de tarifs excessifs, la discrimination tarifaire ou encore l’instauration de restrictions d’accès peuvent émerger. Ces comportements relèvent des théories classiques de l’abus de position dominante ([485]) et risquent d’entraver l’entrée de nouveaux acteurs ou de marginaliser les concurrents existants.
Par ailleurs, le secteur du cloud computing, infrastructure indispensable au déploiement des technologies d’IA, est susceptible de connaître des stratégies de verrouillage (« lock-in »). Les principaux fournisseurs recourent à des crédits cloud massifs pour capter les jeunes entreprises et imposent des obstacles techniques à la migration de services vers des plateformes concurrentes. Ces pratiques rappellent les stratégies de « switching costs » analysées par Farrell et Klemperer (2007), selon lesquelles le coût de changement élevé d’un fournisseur à un autre crée un quasi-monopole une fois le client captif.
Un troisième risque réside dans la captation des données. L’IA dépend de l’accès à des volumes massifs de données variées. Or, certaines pratiques contractuelles – exclusivités ou restrictions anticoncurrentielles – peuvent limiter l’accès des concurrents à ces ressources essentielles, créant une asymétrie informationnelle majeure. La théorie des « marchés bifaces » ([486]) souligne combien le contrôle des données peut devenir un levier d’exclusion concurrentielle, renforçant la position dominante d’un acteur en alimentant un cercle vertueux à son seul bénéfice.
L’Autorité de la concurrence identifie également des pratiques affectant le marché des talents, telles que les accords de non-débauchage ou les stratégies d’acqui-hire (rachat d’entreprises dans le seul but de s’approprier leurs ressources humaines). Ces comportements soulèvent des enjeux de concentration et d’éviction, qui sont particulièrement préoccupants dans un secteur où l’expertise technique constitue une ressource rare.
Enfin, des effets congloméraux apparaissent par le biais de ventes liées et d’auto-préférence des écosystèmes intégrés. Les grands acteurs peuvent favoriser leurs propres produits ou services dans leurs plateformes, au détriment d’offres concurrentes. Ces effets sont analysés dans la littérature comme des formes de leveraging (extension abusive d’une position dominante d’un marché vers un autre) pouvant freiner l’innovation ([487]).
Ces différents éléments appellent une vigilance particulière des autorités de régulation afin d’éviter une concentration excessive du pouvoir économique et de préserver des conditions de concurrence équitables, seules garantes d’un écosystème d’innovation dynamique.
L’IA générative est caractérisée par des barrières à l’entrée particulièrement importantes selon l’Autorité de la concurrence ([488]) :
– La puissance de calcul : L’entraînement des grands modèles d’IA générative repose sur des processeurs spécialisés, principalement les GPU de Nvidia (séries A100, H100, Blackwell) et les TPU de Google, ainsi qu’une infrastructure cloud d’envergure. Selon IoT Analytics ([489]), Nvidia détenait 92 % du marché des GPU pour centres de données en 2024, un ratio similaire à celui de 2023.
Répartition de la part de marché des fournisseurs de l’IA générative par segment (matériel, modèles, services)
Source : IOTAnalytics, The leading generative AI companies, 4 mars 2025.
La pénurie mondiale de composants ([490]) , alimentée par la hausse de la demande entre 2021 et 2023 et associée à la dépendance vis‑à‑vis de solutions propriétaires comme CUDA (Nvidia), renforce la position dominante des acteurs intégrés verticalement.
Le rapport ([491]) de Bain & Company met en garde contre une nouvelle crise des semi-conducteurs alimentée par l’explosion de la demande en IA. L’adoption rapide de l’IA générative fait flamber les besoins en GPU (notamment ceux de Nvidia) et en composants en amont, dont la production devra croître de 30 % ou plus d’ici 2026 pour éviter des goulets d’étranglement. La prolifération d’appareils intégrant l’IA (ordinateurs et téléphones portables) pourrait amplifier la pénurie, rappelant la flambée de demande durant la pandémie.
Pour mesurer le risque de dépendance au sujet de la puissance de calcul, il faut rappeler qu’actuellement, 70 % de la puissance de calcul mondiale pour l’IA est détenue par les États-Unis, dont 80 % ([492]) par les hyperscalers américains. L’Europe ne représente que 4 % de la capacité mondiale et souffre de coûts énergétiques industriels 1,5 à 3 fois plus élevés que ceux des États-Unis.
– Les données : les modèles de fondation nécessitent des volumes massifs de données, souvent issues d’Internet. L’accès privilégié des GAFAM à des contenus stratégiques (YouTube ([493]) pour Google, Reddit ([494]) pour OpenAI via un accord exclusif, X pour xAI) crée un avantage concurrentiel difficilement réplicable.
– Les talents : les compétences en apprentissage profond et en machine learning sont rares et concentrées dans quelques centres d’excellence, ce qui facilite les pratiques d’« acqui‑hire » ([495]) et le recrutement massif par les hyperscalers de capital humain élevé, induisant un brain drain pour le reste du monde, et l’Europe en particulier.
– Les financements : Selon le rapport AI Index 2025 ([496]), les États‑Unis ont enregistré en 2024 un investissement privé en IA de 109,1 milliards de dollars, soit près de douze fois le montant investi par la Chine (9,3 milliards) et vingt‑quatre fois celui du Royaume‑Uni (4,5 milliards).
Chaîne de valeur de l’intelligence artificielle générative
Source : Autorité de la concurrence, Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur de l’intelligence artificielle générative, 28 juin 2024.
Ces facteurs, combinés à l’intégration verticale et conglomérale des grandes plateformes, leur confèrent des économies d’échelle et des effets de réseau qui alimentent un cercle vicieux : les données issues des utilisateurs enrichissent leurs modèles, renforçant leur attractivité et capturant toujours plus d’entreprises utilisatrices.
b. Les risques concurrentiels identifiés par l’Autorité de la concurrence
L’avis rendu par l’Autorité de la concurrence le 28 juin 2024 ([497]) met en lumière un ensemble de risques majeurs pour la dynamique concurrentielle, directement corrélés aux positions dominantes et aux barrières à l’entrée identifiées dans la partie précédente ([498]), dans le secteur de l’intelligence artificielle. Ces risques, bien connus dans la littérature économique sur les marchés à effets de réseau et sur les industries numériques, présentent des enjeux importants pour l’innovation et la diversité des acteurs.
En premier lieu, l’Autorité alerte sur le risque d’abus liés aux composants informatiques essentiels à la filière, notamment les semi-conducteurs et les puces graphiques de dernière génération. Le marché des GPU est aujourd’hui fortement concentré autour de NVIDIA, qui détient une position quasi-monopolistique à hauteur de 92 % ([499]) de parts de marché, niveau situé bien au-delà du seuil défini comme présomptif de dominance selon l’article 102 du traité sur le fonctionnement de l’Union européenne (TFUE) et la jurisprudence européenne ([500]).
Dans ce contexte quasi-monopolistique, des pratiques telles que l’application de tarifs excessifs, la discrimination tarifaire ou encore l’instauration de restrictions d’accès peuvent émerger. Ces comportements relèvent des théories classiques de l’abus de position dominante ([501]) et risquent d’entraver l’entrée de nouveaux acteurs ou de marginaliser les concurrents existants.
D’ailleurs, le Département de la Justice (DOJ) américain enquête ([502]) actuellement sur Nvidia pour d’éventuelles violations antitrust. Le DOJ, cherche à déterminer si Nvidia, devenu la première capitalisation boursière (plus de 3 000 milliards de dollars) ([503]), abuse de sa position dominante, notamment via des clauses contractuelles restrictives ou des pratiques qui faussent la concurrence (ex. pratiques qui empêcheraient des concurrents d’émerger ou permettraient de maintenir des prix élevés ([504])).
Dans le même temps, la Federal Trade Commission (FTC) ([505]) a pris en charge l’enquête sur Nvidia, Microsoft et OpenAI pour examiner leurs pratiques. Ces deux enquêtes s’inscrivaient dans une offensive plus large de l’administration Biden visant à réguler les géants technologiques tout en protégeant la position des États-Unis face à la Chine (interdiction d’exportation de certaines puces Nvidia vers ce pays).
Depuis janvier 2025, sous la présidence de Donald Trump, le DOJ ([506]) poursuit son enquête antitrust sur Nvidia, tandis que la FTC continue d’examiner les liens entre Microsoft et OpenAI. Ce renforcement de la surveillance s’inscrit dans une stratégie globale de contrôle des géants technologiques, désormais couplée à une politique d’exportations ajustée ([507]), permettant la reprise des exportations des puces H20 vers la Chine, sous des conditions liées aux terres rares. Des concurrents ([508]) comme AMD (Instinct MI300X) et Intel (Gaudi 3), ainsi que des startups comme Cerebras Systems, tentent de se faire une place, mais restent loin derrière.
Par ailleurs, le secteur du cloud computing, infrastructure indispensable au déploiement des technologies d’IA, est susceptible de connaître des stratégies de verrouillage (« lock-in »). L’Autorité de la concurrence ([509]) relève que plusieurs pratiques de verrouillage financier et technique, déjà mises en lumière dans l’avis n° 23-A-08 relatif au cloud ([510]), semblent non seulement persister mais également s’intensifier, dans le but d’attirer un nombre croissant de start-up actives dans le domaine de l’IA générative. Les principaux fournisseurs recourent à des crédits cloud massifs pour capter les jeunes entreprises et imposent des obstacles techniques à la migration de services vers des plateformes concurrentes. Ces pratiques ont été à plusieurs reprises dénoncées par les entreprises utilisatrices de ces services à l’occasion des auditions menées dans le cadre de la mission d’information. Ces pratiques rappellent les stratégies de « switching costs » ([511]), selon lesquelles le coût de changement élevé d’un fournisseur à un autre crée un quasi-monopole une fois le client captif.
L’Autorité de la concurrence rappelle à cet égard que ces comportements pourraient être qualifiés d’abus de position dominante. Certaines de ces pratiques font par ailleurs l’objet d’un encadrement spécifique en vertu de la loi n° 2024‑449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (loi SREN), sur laquelle l’Autorité s’était déjà prononcée, ainsi que du règlement européen sur les données (Data Act).
Aux États-Unis, la Federal Trade Commission a ouvert une enquête sous la section 6 (b) du FTC Act, visant à analyser les partenariats entre les principaux fournisseurs cloud (Alphabet, AWS, Microsoft) et les grands acteurs de l’IA (OpenAI, Anthropic). Un rapport ([512]) de la FTC de janvier 2025 conclut à l’existence d’un risque avéré de verrouillage (lock-in) et de concentration des avantages au bénéfice des grands fournisseurs de service cloud (Cloud service provider, CSP), proposant que ces éléments soient surveillés attentivement et informant de futures décisions de régulation.
Les services de type Model as a Service (MaaS), qui permettent d’accéder aux modèles d’IA générative via le cloud, constituent un levier stratégique majeur pour la diffusion de ces technologies. Leur développement s’appuie directement sur des infrastructures critiques telles que les capacités de calcul et les centres de données. Cette position leur confère un pouvoir de marché susceptible d’être utilisé pour verrouiller l’accès à l’innovation et évincer des concurrents émergents.
Dans cette perspective, la Commission européenne devrait accorder une attention particulière au développement des services permettant l’accès aux modèles d’IA générative dans le cloud (connus sous l’appellation anglaise Model as a Service ou MaaS).
Les rapporteurs s’inscrivent, à cet égard, dans le prolongement de l’avis rendu par l’Autorité de la concurrence ([513]), qui recommandait d’évaluer l’opportunité de qualifier certains acteurs du MaaS de contrôleurs d’accès (gatekeepers) au sens du règlement européen sur les marchés numériques (Digital Markets Act – DMA). Une telle désignation permettrait de soumettre ces acteurs à des obligations spécifiques, afin de prévenir de manière précoce des comportements problématiques identifiés précédemment, tels que les pratiques de verrouillage ou d’éviction.
Recommandation n° 5 : Inviter la Commission européenne à surveiller le développement des services d’intelligence artificielle accessibles à distance (Model as a Service) et, si les critères du règlement sur les marchés numériques (DMA) sont réunis, envisager la désignation de certains fournisseurs comme contrôleurs d’accès afin de garantir un accès équitable au marché.
Un troisième risque réside dans la captation des données. L’IA dépend de l’accès à des volumes massifs de données variées. Or, certaines pratiques contractuelles (exclusivités ([514]) ou restrictions anticoncurrentielles) peuvent limiter l’accès des concurrents à ces ressources essentielles, créant une asymétrie informationnelle majeure. La théorie des « marchés bifaces » ([515]) souligne combien le contrôle des données peut devenir un levier d’exclusion concurrentielle, renforçant la position dominante d’un acteur en alimentant un cercle vertueux à son seul bénéfice.
L’Autorité de la concurrence identifie également des pratiques affectant le marché des talents, telles que les accords de non-débauchage (« no-poach agreements ») ou les stratégies d’acqui-hire ([516]) (rachat d’entreprises dans le seul but de s’approprier leur capital humain).
Les accords de non‑débauchage, qui limitent la mobilité des salariés entre entreprises concurrentes, ont déjà fait l’objet d’importantes sanctions aux États‑Unis. Dans l’affaire High‑Tech Employee Antitrust Litigation ([517]) (2011‑2015), des géants tels qu’Apple, Google et Intel ont versé 415 millions de dollars pour solder les accusations de pactes secrets visant à geler les salaires et restreindre le recrutement mutuel de talents ([518]). Une étude empirique récente ([519]) estime qu’une telle pratique a entraîné une baisse moyenne de 6 % des rémunérations dans le secteur technologique.
Par ailleurs, les « acqui‑hires », acquisitions ciblées destinées essentiellement à absorber des équipes qualifiées, tendent à se multiplier dans l’écosystème de l’IA. Ainsi, le rachat partiel d’Inflection AI par Microsoft en 2024 a principalement consisté à recruter ses dirigeants et ingénieurs, plutôt qu’à intégrer ses technologies ([520]). Ces stratégies présentent un double risque : elles accentuent la concentration des talents au sein des leaders du marché et freinent l’émergence de nouveaux acteurs innovants. Une analyse récente ([521]) souligne que ces opérations peuvent provoquer un désinvestissement en innovation et limiter la concurrence sur des marchés en forte croissance.
Enfin, des effets congloméraux apparaissent par le biais de ventes liées et d’auto-préférence des écosystèmes intégrés. Les grands acteurs peuvent favoriser leurs propres produits ou services dans leurs plateformes, au détriment d’offres concurrentes. Ces effets sont analysés dans la littérature comme des formes de leveraging (extension abusive d’une position dominante d’un marché vers un autre) pouvant freiner l’innovation ([522]). Par exemple, selon une étude du NBER ([523]), Amazon favorise systématiquement ses propres produits, comme Amazon Basics, dans les résultats de recherche, les plaçant entre 30 % et 60 % plus haut que des produits similaires proposés par des vendeurs tiers. Dans le même esprit, l’Union européenne a condamné Google Shopping ([524]) pour avoir favorisé son propre service dans les résultats de recherche, estimant qu’il s’agissait d’un abus autonome de position dominante.
c. Un cadre réglementaire à adapter pour préserver des marchés contestables
Ces dynamiques décrites dans la partie précédente appellent une vigilance renforcée des autorités de régulation, car elles menacent l’équilibre et la vitalité de l’écosystème européen des start-up. Les stratégies de verrouillage (crédits cloud massifs, obstacles techniques à la migration, captation des talents par les hyperscalers) font peser un risque d’asphyxie sur le tissu entrepreneurial européen en quête de protection.
Alors que l’Europe dispose de start-up prometteuses et de talents reconnus, comme en témoigne l’émergence de Mistral AI, elle se trouve confrontée à une inégalité des armes face à des hyperscalers qui bénéficient de ressources financières illimitées, d’effets de réseau massifs et d’un pouvoir d’éviction croissant.
Si des instruments comme le règlement sur les marchés numériques (Digital Markets Act – DMA ([525]) ([526])) ont amorcé une régulation ex ante des gatekeepers (gardes-barrières), vos rapporteurs considèrent que leur mise en œuvre demeure longue et insuffisante pour contenir des pratiques d’éviction rapides et systémiques, typiques du domaine de l’intelligence artificielle. Dans ce contexte, l’Union européenne doit adapter son cadre concurrentiel avec une double exigence : renforcer la répression des comportements abusifs des acteurs dominants, tout en assouplissant certaines règles pour permettre l’émergence d’acteurs européens compétitifs. Ce double mouvement est indispensable pour favoriser l’émergence de champions locaux et préserver la souveraineté numérique de l’Europe.
i. Application stricte du droit de la concurrence aux acteurs en position dominante à l’échelle mondiale
La consolidation des hyperscalers américains s’appuie largement sur deux stratégies convergentes en Europe ([527]): les killer acquisitions, qui consistent à neutraliser des startups prometteuses avant qu’elles ne deviennent concurrentielles, et les acqui-hires, qui visent à absorber des équipes entières de développeurs ou de chercheurs pour priver l’écosystème local de ses talents. Ces deux dynamiques, bien que différentes, aboutissent au même résultat : l’étouffement progressif de l’innovation européenne et le renforcement des positions dominantes extra-européennes.
Pour contrer ces effets, l’Union européenne s’est dotée d’armes concurrentielles via les DMA.
Ce que prévoit le DMA en matière de concentrations (article 14 ([528]))
Toute entreprise désignée comme contrôleurs d’accès ou gatekeeper ([529]) (Alphabet, Amazon, ByteDance, Meta, Microsoft, Booking ([530])) a une obligation de notification préalable pour toute concentration, même si cette concentration ne franchit pas les seuils des concentrations prévus par le règlement européen sur les concentrations (Règlement européen n° 139/2004) dont le contrôle est de la compétence de la Commission européenne, ou ne relève pas des seuils nationaux de notification. Cela inclut l’acquisition d’une autre entreprise, qu’elle soit petite ou grande. Concrètement, le contrôleur d’accès doit informer la Commission européenne au plus tard lors de la conclusion de l’accord (ou du dépôt d’une offre publique d’achat) de toute concentration impliquant une autre entreprise fournissant des services dans le secteur numérique ou de collecte de données. Dans la définition des entreprises soumises à ce contrôle, le règlement DMA prend en considération les chiffres d’affaires réalisés dans l’Union européenne, mais aussi, de manière distincte, la fourniture d’un service de plateforme essentiel qui constitue un point d’accès majeur permettant aux entreprises utilisatrices d’atteindre leurs utilisateurs finaux.
Toutefois, vos rapporteurs saluent cette obligation de notification pour les contrôleurs d’accès, considérant qu’il s’agit d’une mesure protectrice contre les killers acquisitions dans le secteur du numérique. Toutefois, deux bémols doivent, à l’évidence, être apportés en ce qui concerne l’efficacité de cette législation : d’une part, elle ne vise que les entreprises considérées comme contrôleurs d’accès et, d’autre part, ne donne pas lieu à une autorisation ou interdiction automatique ; la Commission européenne peut seulement décider d’ouvrir une enquête. Or, beaucoup d’acteurs puissants n’ayant pas le statut de contrôleur d’accès peuvent aussi racheter des start-up dans des secteurs stratégiques comme l’IA ou le cloud (exemple : Nvidia ou OpenAI rachetant une entreprise d’IA européenne, ou des acteurs chinois entrant dans le cloud). Ces opérations échappent souvent au contrôle classique des concentrations, car les seuils financiers (chiffre d’affaires, parts de marché) ne sont pas atteints.
Pour aller plus loin, l’UE devrait instaurer un régime de notification obligatoire de toutes les acquisitions et prises de participation par des acteurs non européens, même en l’absence d’un contrôleur d’accès partie prenante et sans seuil minimal, dans les secteurs stratégiques de l’IA et du cloud. Une telle mesure viserait à prévenir la captation d’entreprises innovantes européennes par des groupes extra-européens, susceptibles de compromettre la contestabilité des marchés et l’autonomie technologique européenne. Ce régime s’inscrirait dans la continuité et dans une forme de généralisation des mécanismes de filtrage des investissements étrangers ([531]) ([532]) mis en place au niveau européen et dans plusieurs États membres, pour les domaines spécifiques du cloud et de l’IA, tout en complétant les dispositifs existants fondés sur la valeur des transactions déjà en vigueur en Allemagne et en Autriche ([533]).
Conscients qu’il s’agit d’une atteinte à la liberté d’établissement et à la circulation des capitaux, vos rapporteurs estiment que cette obligation ciblée sur les acteurs non-européens peut être justifiée par des motifs d’ordre public, de sécurité publique et de souveraineté numérique.
Les seuils actuels du contrôle des concentrations au niveau européen sont largement inadaptés aux killer acquisitions dans l’IA, le cloud ou les semi-conducteurs ([534]). Selon le règlement CE 139/2004 ([535]), une notification à la Commission européenne est obligatoire uniquement si le chiffre d’affaires mondial des parties dépasse 5 milliards d’euros et leur chiffre d’affaires dans l’UE atteint au moins 250 M€ chacun ([536]). Ces critères ne captent pas les acquisitions de start-up prometteuses dont le chiffre d’affaires est faible, mais dont le prix d’achat peut être élevé ([537]). Les opérations de type acqui‑hire ou rachat ciblant un petit développeur d’IA, a fortiori, souvent structuré autour d’un noyau d’ingénieurs ou d’une technologie prometteuse, ne génèrent pas de chiffre d’affaires significatif. Ces partenariats ou acquisitions d’équipes « ne sont pas structurés comme des opérations traditionnelles de M&A » ([538]) et échappent donc au contrôle européen.
Un examen ex post par le biais du mécanisme national de renvoi (article 22 du règlement précité) reste insuffisant : il requiert l’initiative des États membres et ne garantit ni couverture systématique, ni prise en compte proactive de l’autonomie stratégique européenne. En outre, la portée de cet article a été réduite par l’arrêt récent Illumina/ GRAIL. Avant Illumina/GRAIL ; ainsi, l’article 22 était vu comme un outil flexible pour contrôler les petites acquisitions stratégiques (comme dans l’IA) ([539]), mais l’arrêt a resserré les conditions d’utilisation : désormais, si aucun État membre n’a compétence nationale, il est impossible de demander à la Commission européenne de contrôler l’opération, même si elle présente des risques pour la concurrence.
En Allemagne et en Autriche, un seuil fondé sur la valeur de la transaction complète le critère du chiffre d’affaires. En Allemagne (§ 35 GWB ([540])), une opération est notifiable si le prix d’achat excède 400 millions d’euros, même si la cible réalise moins de 50 millions d’euros de chiffre d’affaires, à condition que cette cible ait des activités significatives dans le pays ; en Autriche (§9 KartG ([541])), ce seuil est fixé à 200 millions euros ([542]) ([543]). Ce dispositif a pour objectif de détecter les acquisitions prédatrices dirigées contre des entreprises innovantes.
Toutefois, l’application par les autorités a été récemment restreinte : la jurisprudence allemande considère désormais que ces seuils ne s’appliquent que lorsque le chiffre d’affaires ne reflète pas le potentiel du marché (par exemple, les produits dans des marchés « matures ») ([544]). Ces évolutions montrent à la fois la pertinence du concept, mais aussi ses limites pratiques, confirmant la nécessité d’un régime européen plus ambitieux et systématique, sans seuils exclusifs, afin de garantir la sauvegarde de l’autonomie technologique et la compétitivité du marché unique.
Le contrôle des concentrations en France
En France, l’'Autorité de la concurrence ne dispose pas aujourd’hui d’un mécanisme automatique pour contrôler les opérations « below-threshold », c’est-à-dire les acquisitions stratégiques de petites cibles à fort potentiel mais à faible chiffre d’affaires. Le régime français exige le respect de seuils cumulatifs (chiffre d’affaires mondial supérieur à 150 M€, chiffre d’affaires en France supérieur à 50 M€ pour au moins deux parties ([545])) pour déclencher une notification ; il n’existe aucun seuil basé sur la valeur de la transaction comme en Allemagne ou en Autriche.
En réaction à l’arrêt Illumina/GRAIL([546]), qui a restreint l’usage de l’article 22 du règlement européen sur les concentrations, l’Autorité de la concurrence a mené une consultation publique ([547]) début 2025 pour envisager l’introduction de pouvoirs de « call‑in » (capacité à saisir des marchés non notifiables sous certaines conditions) ou d’un mécanisme de notification basé sur l’existence d’un statut de contrôleur d’accès ou d’une forte position sur le marché ([548]). Aucune réforme n’a cependant été adoptée à ce jour.
En parallèle, la France envisage une hausse des seuils de notification ([549]) (chiffre d’affaires mondial à 250 M€, chiffre d’affaires en France à 80 M€), dont l’adoption est envisagée pour début 2026 (en cas de réussite de la commission mixte paritaire relative au projet de loi simplification de la vie ([550]) économique qui contient ces mesures).
Recommandation n° 6 : Mettre en place, au niveau européen, ou à défaut au niveau national, une obligation de notification pour tout rachat ou prise de participation par un acteur non européen dans les secteurs de l’intelligence artificielle et du cloud, incluant les opérations de type acqui-hire, afin de mieux protéger l’écosystème européen.
Une telle mesure viendrait combler les limites des dispositifs existants. En effet, le Digital Markets Act (DMA) prévoit déjà un régime de notification obligatoire pour les acquisitions opérées par les contrôleurs d’accès, mais ce dispositif reste circonscrit aux seules entreprises désignées comme telles et ne cible pas spécifiquement des secteurs stratégiques tels que l’intelligence artificielle et le cloud. Or, ces secteurs concentrent une part essentielle de l’innovation et des données, tout en demeurant particulièrement vulnérables à des stratégies d’acquisitions prédatrices par des acteurs extra-européens. Ces opérations, souvent de faible montant et réalisées à un stade précoce du développement des entreprises cibles, échappent fréquemment aux seuils du règlement européen sur les concentrations.
Par ailleurs, comme l’a souligné Jean Tirole ([551]), prix Nobel d’économie, l’efficacité des mécanismes de contrôle actuels est limitée par la charge de la preuve, qui repose quasi exclusivement sur l’autorité de concurrence. Cette situation incite les entreprises dominantes à procéder à des acquisitions préventives (killer acquisitions et acquire-hire), car il est extrêmement difficile d’établir, a posteriori, leur impact anticoncurrentiel. Pour y remédier, Jean Tirole suggère d’inverser la charge de la preuve lorsque l’opération intervient à un stade précoce de la vie de l’entreprise cible. L’acquéreur serait alors tenu de démontrer, à l’appui d’éléments tels que des tendances technologiques ou des données de marché, que l’opération présente un caractère proconcurrentiel.
Recommandation n° 7 : Instaurer un mécanisme d’inversion de la charge de la preuve pour les acquisitions précoces dans les secteurs de l’intelligence artificielle et du cloud par des acteurs non-européens, afin d’imposer à l’acquéreur de démontrer le caractère proconcurrentiel de l’opération.
En complément, vos rapporteurs considèrent nécessaires d’encadrer davantage les stratégies d’acqui-hire, qui se révèlent particulièrement répandues dans le domaine de l’IA.
L’affaire récente Microsoft/Inflection ([552]) a mis en lumière une pratique en plein essor dans le secteur technologique : les stratégies d’acqui-hire, consistant à recruter en bloc les équipes d’une entreprise concurrente, souvent dans le but de capter leur savoir-faire et leur expertise. Si ces opérations n’impliquent pas nécessairement l’acquisition d’actifs matériels ou de parts de marché, leur effet économique peut s’apparenter à une concentration, avec des conséquences significatives pour l’écosystème d’innovation.
L’affaire Microsoft/Inflection ([553]), dans laquelle Microsoft a engagé la quasi-totalité des équipes d’une start-up d’IA pour 650 millions de dollars, a révélé les limites du cadre actuel de contrôle des concentrations : malgré des effets assimilables à un transfert de position de marché, la Commission européenne n’a pu examiner l’opération, faute pour Inflection de franchir les seuils de chiffre d’affaires du règlement (CE) n° 139/2004. La tentative de recours à l’article 22 du même règlement a été bloquée par l’arrêt Illumina/Grail de la Cour de justice, obligeant les autorités nationales ayant sollicité une révision à retirer leurs demandes. Cette situation interroge sur l’opportunité de renforcer les outils existants, fondés principalement sur le chiffre d’affaires, en élargissant les règles de notification aux opérations impliquant une absorption massive de talents dans des secteurs stratégiques, afin de prévenir les risques de verrouillage concurrentiel et d’entrave à l’innovation.
Certains États membres (Danemark, Irlande, Italie, Suède ([554])) se sont dotés de pouvoirs d’évocation (« call-in ») pour examiner des opérations ne remplissant pas les critères habituels de notification. Toutefois, l’application de ces mécanismes demeure fragmentée et insuffisante face aux enjeux transnationaux.
Recommandation n° 8 : Étendre le contrôle des concentrations au niveau national et européen aux stratégies d’acqui-hire dans le secteur stratégique de l’intelligence artificielle.
Enfin, à droit constant, il apparaît nécessaire de renforcer la transparence concernant les prises de participations minoritaires par les grandes plateformes numériques. Ces opérations, bien qu’elles ne nécessitent pas de contrôle au sens du règlement européen sur les concentrations, peuvent néanmoins permettre à des acteurs dominants d’exercer une influence stratégique sur des entreprises innovantes ou concurrentes potentielles, voire d’entraver leur développement.
La Commission européenne dispose déjà, à l’article 14 ([555]) du règlement sur les marchés numériques (Digital Markets Act – DMA), d’un outil de notification ex ante concernant certaines acquisitions réalisées par des contrôleurs d’accès dans le secteur numérique. Toutefois, ce mécanisme ne couvre pas explicitement les prises de participations minoritaires, qui échappent ainsi à toute analyse concurrentielle préalable.
L’élargissement de ce dispositif permettrait de détecter plus en amont des stratégies d’éviction déguisées, consistant pour les géants du numérique à prendre des participations financières dans des entreprises émergentes afin de verrouiller l’accès à des technologies critiques ou de neutraliser des concurrents potentiels. Une telle mesure contribuerait à préserver la contestabilité des marchés numériques et à limiter les effets de verrouillage observés dans certains écosystèmes dominés par les GAFAM.
Recommandation n° 9 : À l’occasion de l’obligation d’information des concentrations prévue à l’article 14 du DMA, prévoir que les contrôleurs d’accès (« gatekeepers ») transmettent également à la Commission européenne la liste de leurs participations minoritaires dans des entreprises du même secteur que la cible, afin de permettre une détection plus précoce des stratégies d’éviction (Autorité de la concurrence([556])).
Les infrastructures technologiques (capacités de calcul, centres de données, ensembles de données d’entraînement) constituent des goulots d’étranglement stratégiques pour le développement des modèles d’IA ([557]). Or, la détention de ces ressources ([558]) par un nombre restreint d’acteurs crée un risque de verrouillage des marchés européens et de fragilisation de la souveraineté technologique de l’Union européenne.
Dans ce contexte, une évolution de la doctrine européenne des infrastructures essentielles (dite essential facilities doctrine ([559])) apparaît nécessaire. Cette doctrine permet, en droit de la concurrence, d’imposer à un acteur dominant de donner accès à une infrastructure lorsqu’elle est indispensable à l’activité de concurrents. La jurisprudence européenne a récemment ouvert la voie à un assouplissement ([560]) de cette doctrine : dans l’affaire Android Auto (CJUE, février 2025), la Cour de justice de l’UE ([561]) a jugé qu’il n’était plus nécessaire de démontrer que l’infrastructure était absolument irremplaçable, ni que le refus d’accès avait un effet d’élimination sur la concurrence. Désormais, il suffit que ce refus limite significativement la capacité d’un concurrent à se développer pour justifier une intervention au titre de l’article 102 du TFUE.
Cette évolution autorise de facto à considérer les ressources technologiques stratégiques (GPU de dernière génération, clouds souverains, API d’IA générative) comme des éléments critiques pouvant être soumis à une obligation d’accès pour prévenir les pratiques d’éviction.
Considérant ces récentes évolutions jurisprudentielles européennes, vos rapporteurs estiment nécessaire d’adapter la doctrine européenne des infrastructures essentielles afin d’imposer un accès ouvert et non discriminatoire à ces ressources pour les acteurs européens. Une évolution de l’article 102 du TFUE codifiant une telle doctrine serait également bienvenue.
Recommandation n° 10 : Élargir la doctrine des infrastructures essentielles développée par la Commission européenne, afin de garantir à tous les acteurs un accès équitable aux ressources critiques du secteur (GPU de dernière génération, clouds souverains, API d’IA générative).
L’efficacité du droit européen de la concurrence souffre d’une temporalité inadaptée aux cycles d’innovation numérique. Les procédures, qui s’étalent sur plusieurs années, aboutissent trop souvent à des sanctions tardives, sans effet correctif réel, constat formulé dès 2019 par l’inspection générale des finances ([562]). Une étude récente de la DG COMP ([563]) révèle également que les délais actuels (jusqu’à 45 mois pour les décisions d’interdiction) rendent la répression trop lente pour les marchés numériques, où les effets de verrouillage sont rapides et durables. Bien que la Commission européenne dispose d’un outil théorique, les mesures conservatoires prévues à l’article 8 du règlement 1/2003, celui-ci reste rarement mobilisé, sauf exception, notamment dans l’affaire Broadcom en 2019 ([564]). Or, comme le souligne Carla Farinhas ([565]), la dynamique nouvelle impulsée par le Digital Markets Act (DMA) et ses pouvoirs provisoires conférés à la Commission européenne (article 24) devrait également irriguer l’application du droit de la concurrence, afin de revitaliser ces mesures conservatoires dans le contexte numérique. La doctrine plaide ainsi pour un recours plus fréquent et adapté à ces outils, afin d’assurer une protection effective des objectifs concurrentiels dans des marchés caractérisés par des effets de réseau et une rapidité d’évolution accrue.
Face à l’inertie procédurale constatée dans l’application du droit de la concurrence aux marchés numériques, vos rapporteurs conviennent qu’il faudrait doter la DG COMP d’un mécanisme de « procédure accélérée IA » pour s’adapter pleinement à la temporalité de ce marché si spécifique. Là où les mesures conservatoires s’apparentent à un gel provisoire en attendant la décision finale dans une affaire d’abus de position dominante, cette nouvelle procédure accélérée permettrait à la Commission européenne de traiter rapidement une affaire et d’adopter une décision au fond. Vos rapporteurs ont conscience qu’il s’agit d’une réforme lourde car elle impliquerait de revoir les garanties procédurales des entreprises.
Recommandation n° 11 : Créer une procédure accélérée de contrôle concurrentiel spécifique à l’IA et au numérique, intégrée à l’Autorité de la concurrence
Parallèlement, au vu des risques concurrentiels et des enjeux d’indépendance technologique qui se posent, un durcissement du régime des sanctions en matière de droit de la concurrence serait également opportun. Les conclusions d’une étude récente de la DG COMP sur l’effectivité des recours antitrust ([566]) montrent que les remèdes financiers seuls sont souvent inefficaces pour corriger les déséquilibres du marché. Les sanctions comportementales, qui imposent à l’entreprise dominante de modifier certaines pratiques (par exemple, l’obligation de cesser des discriminations d’accès), demeurent la réponse privilégiée par les autorités. Pourtant, elles ne permettent pas de restaurer la concurrence dans plus de la moitié des cas. À l’inverse, les remèdes structurels (divestments), consistant à obliger une entreprise à céder des actifs ou des filiales afin de réorganiser le marché, sont certes plus rares mais se révèlent nettement plus efficaces.
Dans ce contexte, vos rapporteurs estiment nécessaire de renforcer également l’arsenal répressif afin d’assurer une dissuasion crédible, s’inscrivant ainsi pleinement dans la continuité des recommandations scientifiquement étayées de la DG COMP et de la doctrine ([567]), en combinant sanctions plus fortes et remèdes structurels, pour garantir une restauration rapide et durable de la contestabilité des écosystèmes numériques dominés.
Les travaux économiques et juridiques récents soulignent les limites de l’arsenal sanctionnateur actuel en matière de concurrence, notamment face aux entreprises numériques disposant d’un pouvoir de marché. En effet, le plafond des amendes, aujourd’hui fixé à 10 % du chiffre d’affaires mondial par le règlement 1/2003 ([568]), ne suffit pas toujours à dissuader les comportements anticoncurrentiels. Plusieurs études ([569]) ([570]) démontrent que ces entreprises tendent à internaliser le coût des amendes comme une charge d’exploitation ordinaire, poursuivant leurs stratégies illicites dès lors que les gains attendus excèdent le risque financier encouru. Dans ce contexte, vos rapporteurs portent l’idée d’un relèvement du plafond des amendes à 20 % pour les récidivistes, comme le recommande une partie de la doctrine souhaitant une augmentation de la pression financière ([571]) ([572]), afin de restaurer une véritable dissuasion et d’adapter le régime aux enjeux des marchés numériques.
Recommandation n° 12 : Renforcer l’efficacité de l’arsenal concurrentiel en relevant le plafond des amendes à 20 % pour les récidivistes et en privilégiant les remèdes structurels dans les cas de pouvoir de marché durable.
Parallèlement, les analyses empiriques sur l’efficacité des remèdes correctifs mettent en évidence les limites des sanctions comportementales, largement privilégiées mais inefficaces dans plus de la moitié des cas, et la supériorité des remèdes structurels ([573]) (tels que des cessions ciblées d’actifs ou l’ouverture d’accès à des API et données stratégiques). Ces derniers, plus intrusifs, permettent une remise à niveau effective de la structure du marché et favorisent une concurrence réelle et pérenne. Cette approche a d’ailleurs inspiré des textes récents comme le Digital Markets Act (DMA), qui consacre de tels outils face aux plateformes dominantes.
Les remèdes comportementaux et structurels dans le Digital Markets Act (DMA)
Le Digital Markets Act (DMA) ([574]), entré en vigueur le 6 mars 2024, consacre une approche proactive pour réguler les plateformes désignées comme contrôleurs d’accès (gatekeepers) ([575]). Il repose principalement sur :
- des obligations comportementales (behavioral remedies) prévues aux articles 5 et 6, qui imposent directement aux contrôleurs d’accès (gatekeepers) d’adopter ou d’abandonner certaines pratiques (par exemple, interdiction d’auto-préférence, obligation d’interopérabilité des services, interdiction de combiner les données d’utilisateurs sans consentement explicite). Ces mesures visent à corriger les déséquilibres concurrentiels tout en laissant intacte la structure de l’entreprise ;
- des remèdes structurels (structural remedies), plus intrusifs, prévus par l’article 18 (2). En cas de non‑respect systématique des obligations du règlement (violation d’au moins trois obligations distinctes en huit ans), la Commission européenne peut imposer des mesures structurelles, telles que la cession d’actifs ou la séparation d’activités, lorsque des solutions comportementales se sont révélées insuffisantes pour garantir une concurrence effective.
Cette articulation illustre un changement de paradigme par rapport au droit antitrust classique : le DMA ne se limite pas à sanctionner a posteriori, mais cherche à prévenir les pratiques anticoncurrentielles et, si nécessaire, à remodeler la structure des marchés numériques pour rétablir une dynamique concurrentielle pérenne.
Source : Travaux de la mission.
Enfin, de manière plus structurelle, des auteurs tels que Jasper van den Boom ([576]) soulignent que les outils actuels de sanction ex post sont inadaptés et appellent à un recalibrage du « design des remèdes », pour restaurer la concurrence de manière effective dans des marchés dominés par les grandes plateformes. Dans la même lignée, la commission pour l’intelligence artificielle ([577]) rappelle qu’« à moyen terme, il convient d’envisager un changement de doctrine de la politique de concurrence, en passant d’un système statique (quelles parts de marché détient aujourd’hui cette entreprise ?) à une vision dynamique (quelles parts de marché pourraient demain détenir cette entreprise et quelles entreprises pourraient demain entrer sur ce marché ?), permettant d’anticiper les concentrations plutôt que d’attendre de pouvoir les constater ».
Ces trois leviers – accélérer les procédures, renforcer le cadre répressif et repenser structurellement l’architecture globale du droit de la concurrence au niveau européen – apparaissent complémentaires pour répondre aux défis posés par les marchés numériques en matière de concurrence.
ii. Assouplissement du cadre réglementaire pour protéger l’écosystème européen d’intelligence artificielle
Dans une démarche convergente, en juillet 2024, les chefs des autorités antitrust de l’Union européenne, du Royaume-Uni et des États-Unis ont pris un engagement commun pour garantir des marchés de l’IA « ouverts et concurrentiels » ([578]). Ils reconnaissent qu’une concurrence loyale constitue le meilleur levier pour libérer le potentiel d’innovation de ces technologies, conformément à l’approche schumpétérienne qui voit dans la rivalité entre acteurs le moteur du progrès technique.
Toutefois, vos rapporteurs relèvent que cette concurrence est en réalité inéquitable sur le plan des moyens : les hyperscalers américains et chinois disposent de ressources financières, computationnelles et humaines sans commune mesure avec celles des acteurs européens. Cette asymétrie impose de concilier la protection de la souveraineté numérique avec la promotion d’une concurrence véritablement européenne, seule à même de garantir l’émergence de solutions crédibles face aux géants extracommunautaires, dans une logique de « protection des industries naissantes » (infant industries ([579])).
Cependant, face aux effets de réseau et aux économies d’échelle colossales des hyperscalers américains, l’Union européenne doit adapter son cadre juridique pour ne pas laisser ses acteurs fragmentés se faire marginaliser.
L’article 101 TFUE ([580]) prohibe certes les ententes qui entravent, restreignent ou faussent le jeu de la concurrence, l’article 102 du traité interdit les abus de positions dominante, mais une interprétation trop rigide de ces principes pourrait paradoxalement entraver la constitution d’écosystèmes européens capables de rivaliser en matière d’IA et de cloud. Michael G. Jacobides, Georgios Petropoulos et al. ([581]) observent que le cadre actuel du droit de la concurrence, centré sur les accords restrictifs et la logique bilatérale, n’est pas pleinement adapté aux échanges massifs au sein d’écosystèmes numériques. Selon eux, les régimes de type article 101, fondés sur une analyse classique, ne prennent pas suffisamment en compte les effets systémiques, les économies d’échelle et les externalités positives générées par ces alliances ([582]).
À cette fin, la Commission européenne pourrait instituer un régime de présomption du respect du droit de la concurrence permettant, sous conditions strictes, la formation d’alliances technologiques (mutualisation des ressources, interopérabilité des solutions, partage de modèles de fondation) entre start-up et entreprises européennes. Ces coopérations, conçues pour abaisser les barrières à l’entrée et favoriser des externalités positives, ne seraient pas qualifiées d’ententes anticoncurrentielles dès lors qu’elles renforcent la capacité de l’Europe à proposer des alternatives crédibles aux solutions dominantes.
Recommandation n° 13 : Mettre en place un régime de présomption de conformité au droit de la concurrence afin de sécuriser et d’encourager la constitution d’alliances pro-concurrentielles entre acteurs européens de l’intelligence artificielle et du cloud.
3. Mobiliser les leviers de la commande publique pour rééquilibrer les rapports de force
Le constat d’une inégalité des armes face aux hyperscalers américains et chinois est désormais largement partagé. Ces géants bénéficient de soutiens publics massifs dans leurs pays d’origine (comme en Chine, où l’investissement public alimente le développement de l’IA selon une note de la DG Trésor ([583])) et d’avantages structurels tels que le capital-risque (VC), les effets d’échelle, des infrastructures colossales et l’attraction des talents (brain drain). Dans ce contexte, l’Europe risque un triple déclassement technologique dans le secteur de l’IA qui menace sa souveraineté et sa compétitivité.
– sur les modèles de langage (LLM) : Mistral AI, le seul acteur européen positionné sur ce segment, fait face à des perspectives de rachat par Apple ([584]). Une telle opération priverait l’Europe d’un atout stratégique dans les technologies d’IA génératives. Vos rapporteurs considèrent urgent de soutenir cet acteur par la commande publique européenne, afin de consolider sa place sur le marché et de lui permettre de résister aux acquisitions extra-européennes. Faute de quoi, l’Europe ne pourra que se contenter de produire des « petits modèles IA souveraines » dans des domaines critiques mais insuffisants pour rester compétitive face aux hyperscalers ;
– sur le cloud : OVHcloud et l’allemand SAP, souvent présentés comme les champions nationaux et européens, restent marginaux face aux géants américains. Amazon détient 32 %, Microsoft 23 % et Google 12 % du marché mondial de l’IaaS/PaaS, tandis qu’aucun acteur européen ne dépasse 4 % ([585]), OVHcloud compris. Ce déséquilibre rend l’Europe dépendante de fournisseurs étrangers pour des services stratégiques ;
– sur la robotique humanoïde : l’entreprise allemande Neura Robotics constitue une exception notable. Avec son humanoïde 4NE1 (prononcé for anyone), qui combine intelligence artificielle, robotique cognitive et capacités sensorielles avancées, elle est le seul acteur européen réellement compétitif face à Tesla (Optimus) et aux robots chinois de nouvelle génération. Neura a annoncé des ambitions massives avec la livraison de 5 millions de robots d’ici 2030 ([586]), soit un volume bien supérieur aux 100 000 unités prévues par la start-up américaine Figure.
Ce panorama illustre la nécessité, pour l’Europe, de déployer une double stratégie publique :
– investir massivement dans les infrastructures critiques et la puissance de calcul (voir partie suivante) ;
– mobiliser les leviers de la commande publique pour rééquilibrer les rapports de force face aux hyperscalers, soutenir la position dominante et l’émergence d’acteurs européens.
a. Des politiques proactives via la commande publique aux États-Unis et en Chine
Les États-Unis et la Chine mobilisent activement la commande publique comme levier d’appui à leurs industries technologiques stratégiques – ce qui inclut explicitement les secteurs des modèles de langage (LLM), de la robotique humanoïde et du cloud computing. Aux États-Unis, un ensemble de dispositifs « Buy American » ancre la préférence domestique comme norme dans les marchés publics fédéraux ([587]).
En pratique, même si certains achats informatiques commerciaux échappent à ces règles, l’immense majorité des contrats publics technologiques bénéficient aux acteurs nationaux. Par exemple, le département de la Défense a attribué en 2022 un contrat cloud géant (Joint Warfighting Cloud Capability) d’un montant potentiel de 9 milliards de dollars ([588]) exclusivement à des fournisseurs américains (Amazon Web Services, Google, Microsoft, Oracle).
De même, dans la robotique avancée, le gouvernement américain a joué un rôle moteur : l’agence DARPA ([589]) a financé des projets pionniers chez Boston Dynamics (créateur de robots humanoïdes) à hauteur de plusieurs millions de dollars, catalysant le développement de ces technologies dans le giron national. Plus généralement, l’État fédéral investit massivement dans la R&D en IA et encourage l’adoption de l’IA par ses agences, soutenant indirectement un écosystème privé déjà très dynamique ([590]). Cette synergie entre innovation privée et soutien public a donné aux États-Unis un avantage décisif dans des domaines comme les LLM, le cloud et la robotique.
En Chine, le soutien public revêt un caractère encore plus explicite et protectionniste ([591]). Pékin utilise la puissance de son marché public pour favoriser systématiquement les fournisseurs locaux. La Chine n’a pas adhéré à l’Accord de l’Organisation mondiale du Commerce (OMC) sur les marchés publics, ce qui la libère de toute obligation d’ouvrir ses achats publics aux entreprises étrangères ([592]) ([593]).
En pratique, les entreprises étrangères sont souvent exclues ou désavantagées dans les appels d’offres chinois, sauf cas de besoin technologique impossible à satisfaire localement ([594]). Une réforme récente va plus loin : depuis fin 2024, la Chine propose d’accorder un avantage de 20 % sur le prix offert aux produits fabriqués sur son sol dans les marchés publics ([595]). Concrètement, un bien produit en Chine, quelle que soit la nationalité de l’entreprise, sera évalué avec une décote de 20 % sur son prix, ce qui garantit un net avantage aux fournisseurs domestiques.
Parallèlement, les autorités chinoises protègent leur marché intérieur des solutions étrangères : les services d’IA générative américains (tels que ChatGPT) sont bloqués par le Grand Firewall et par des restrictions réglementaires, forçant les utilisateurs chinois à se tourner vers les alternatives locales ([596]). Cette situation, conjuguée aux investissements publics massifs (fonds étatiques, subventions, commandes des administrations), a stimulé une prolifération de champions nationaux de l’IA. La Chine compte déjà plus de 130 LLM domestiques (soit 40 % du total mondial ([597])), proposés par des géants comme Baidu, Alibaba, SenseTime ou de nouveaux entrants soutenus par l’État.
L’État chinois accélère le développement des start-up chinoises d’IA et de robotique pour dominer le marché des robots humanoïdes. La société EngineAI a récemment démontré la capacité de son robot PM01([598]) à apprendre et reproduire des mouvements complexes grâce à la vision par ordinateur et à l’apprentissage automatique, illustrant ainsi le potentiel des robots à s’adapter sans programmation spécifique. Ces avancées s’inscrivent dans une stratégie industrielle nationale ambitieuse : la Chine prévoit d’investir 1 000 milliards ([599]) de yuans en robotique et hautes technologies au cours des 20 prochaines années. Avec plus de 10 000 ([600]) humanoïdes produits cette année, soit plus de la moitié du total mondial, le pays dépasse déjà les États-Unis et le Japon en densité robotique sur les lignes de production, grâce un soutien de la commande publique préférentielle de l’État chinois ([601]).
Dans le domaine du cloud, les fournisseurs étrangers (notamment AWS, Microsoft Azure) sont obligés de constituer des coentreprises avec des partenaires locaux pour opérer en Chine, et ne peuvent pas concurrencer directement dans les services IaaS, PaaS ou SaaS ; ils sont fortement désavantagés par des conditions réglementaires restrictives ([602]). La loi sur la cybersécurité (2017) impose que les données des utilisateurs chinois restent stockées en Chine et qu’elles puissent être accessibles aux autorités si besoin. Ce régime a stimulé la croissance des acteurs locaux comme Alibaba Cloud, Tencent Cloud, Baidu ou Huawei, qui bénéficient à la fois de commandes étatiques et d’un environnement protégé.
En somme, États-Unis et Chine utilisent la commande publique et des politiques commerciales volontaristes pour consolider leurs industries technologiques, garantissant des débouchés domestiques importants à leurs champions du cloud, de l’IA et de la robotique.
b. Un cadre européen longtemps ouvert qui limite l’émergence de champions locaux
À l’inverse, l’Union européenne applique une doctrine d’ouverture des marchés publics qui, si elle vise à favoriser la concurrence et l’efficience, peut freiner l’essor de ses propres acteurs technologiques. L’UE, en tant que membre de l’OMC et signataire de l’Accord sur les marchés publics, a ouvert la quasi-totalité de son marché public à la concurrence internationale ([603]), sans discrimination envers les offres étrangères, hormis pour certains marchés sensibles (défense par exemple). Par conséquent, les acheteurs publics européens n’ont pas le droit d’écarter un fournisseur au motif qu’il n’est pas européen ([604]), tant que son pays d’origine bénéficie d’un accord d’accès (par exemple un accord OMC ou bilatéral) ([605]). Ce principe ne fait toutefois pas l’objet d’une application et d’une interprétation uniforme au sein de l’UE ([606]).
Les règles internes (directive « marchés publics » et code de la commande publique en France) interdisent la préférence géographique explicite, sauf exceptions très ciblées. Par exemple, depuis 2018 il est possible d’exiger que l’exécution d’un marché se fasse sur le territoire de l’UE pour des raisons de sécurité, d’environnement ou de protection des approvisionnements ([607]), mais ce dispositif ne doit pas servir à instaurer une préférence européenne généralisée ni à discriminer des entreprises de pays avec lesquels l’UE a passé des accords de marché. En pratique, ces marges de manœuvre restent peu utilisées et n’équivalent pas à un véritable « Buy European Act ».
Cette ouverture unilatérale contraste fortement avec les pratiques de nos grands partenaires commerciaux. Aux États-Unis, la préférence nationale est la règle ([608]) dans l’ensemble des marchés publics, et la Chine ferme largement ses marchés aux fournisseurs étrangers. L’Europe, elle, est longtemps restée dans une forme de « naïveté » ([609]) selon les propres mots du ministre de l’Industrie et de l’Énergie, en espérant que la réciprocité serait respectée spontanément.
Il en résulte une asymétrie de concurrence dommageable ([610]) : les entreprises américaines ou chinoises profitent pleinement des marchés européens ouverts (gagnant par exemple des contrats de cloud public en Europe ([611]) ([612]) ([613])), tandis que les entreprises européennes n’ont pas les mêmes opportunités chez nos partenaires. En 2020, des sociétés chinoises ont remporté près de 2 milliards d’euros de marchés en Europe, profitant de la décennie où l’UE débattait sans agir, alors même que l’accès inverse leur était largement fermé ([614]).
Dans des secteurs de pointe comme l’IA et le cloud, cette situation a contribué au décalage compétitif : les hyperscalers américains dominent le cloud européen (beaucoup d’administrations et entreprises en Europe utilisent AWS, Azure ou Google Cloud faute d’alternative de même envergure), et les solutions d’IA américaines ou chinoises s’imposent souvent sur le marché, reléguant les initiatives locales au second plan.
Le constat d’un « triple déclassement » européen est particulièrement criant dans les LLM, la robotique humanoïde et le cloud : l’UE ne compte qu’une poignée d’acteurs émergents dans les grands modèles de langage (par exemple la start-up française Mistral AI) face aux géants américains et chinois, un seul acteur notable en robotique humanoïde (NEURA Robotics en Allemagne), et aucun fournisseur cloud capable de rivaliser en taille avec les géants américains.
Ce retard s’explique par de nombreux facteurs (fragmentation du marché, moins de financement privé, etc.), mais la faiblesse des soutiens publics orientés industrie et l’absence de préférence nationale et locale jouent un rôle important ([615]). Les industries européennes font face à une concurrence souvent jugée déloyale (soutien massif des États-Unis et de la Chine à leurs entreprises, non-respect de l’esprit de réciprocité de l’OMC) sans bénéficier de protection similaire pour des retombées économiques non négligeables. Selon la Banque des Territoires ([616]), les retombées économiques de la commande publique pour les entreprises produisant en France et en Europe représentent 170 milliards d’euros chaque année en France et près de 2 000 milliards au niveau européen.
c. Faire de la préférence européenne le principe directeur des achats publics
i. Vers une « préférence européenne » dans la commande publique ? Un principe déjà acté
Consciente de ces limites, l’Europe amorce un tournant en envisageant d’introduire une certaine préférence pour les produits et entreprises européens dans ses politiques d’achat public. Un consensus émerge progressivement sur la nécessité de rééquilibrer les règles du jeu afin de ne plus désavantager l’industrie européenne sur son sol ([617]).
Sur le plan juridique, plusieurs pistes se dessinent pour accroître la marge de manœuvre : l’Union a récemment adopté un Instrument international de marchés publics (IPI) ([618]) permettant de restreindre l’accès aux appels d’offres européens aux entreprises de pays qui ne nous accordent pas une ouverture comparable. Cet instrument, entré en vigueur en 2022, permet par exemple d’écarter (ou de pénaliser) les offres provenant de pays tiers fermés aux entreprises européennes, ciblant implicitement la Chine ou toute autre puissance pratiquant un protectionnisme asymétrique.
Parallèlement, un règlement sur les subventions étrangères faussant les marchés ([619]) permet désormais d’exclure d’un appel d’offres un soumissionnaire qui aurait profité de subventions publiques étrangères contraires aux règles de concurrence.
Surtout, la Commission européenne a approuvé, à la suite du rapport de Mario Draghi sur la compétitivité, le principe de faire de la préférence européenne un axe stratégique des achats publics au travers de deux communications récentes, la boussole pour la compétitivité de l’Union européenne, publiée en janvier 2025 ([620]), et le Pacte pour l’industrie propre ([621]), publié en février 2025.
Un calendrier ambitieux de révision des directives européennes sur la commande publique d’ici 2026 a été annoncé, afin d’y intégrer des critères favorisant l’origine UE des biens et services.
La Commission européenne envisage de permettre aux gouvernements de favoriser les entreprises européennes ([622]) dans l’attribution de certains marchés publics, en particulier dans des secteurs et technologies jugés critiques ([623]). Cela répond aussi à une demande de la France, qui milite depuis longtemps pour une « autonomie stratégique » de l’UE. Ce projet pourrait toutefois entrer en conflit avec les règles de l’Organisation mondiale du commerce (OMC) et les engagements internationaux de l’UE. Concrètement, cela pourrait se traduire par une obligation pour les acheteurs publics de privilégier, à performance équivalente, une offre contenant une proportion significative de contenu européen. Il est également envisagé d’interdire l’accès des marchés publics de l’UE, sauf exception, aux entreprises de pays n’ayant pas d’accord de réciprocité avec l’UE ([624]), sans avoir à recourir à l’instrument international de marchés publics peu utilisé jusqu’ici, ce qui établirait enfin une forme de conditionnalité inspirée du « Buy American ».
Toutefois, vos rapporteurs constatent que l’Instrument international pour les marchés publics (IIP), censé permettre une meilleure ouverture réciproque des marchés, demeure à ce jour peu utilisé ([625]) et peu agile ([626]), d’une portée trop limitée pour répondre aux enjeux géopolitiques et économiques actuels.
Dans cette perspective, avec le CNI ([627]), vos rapporteurs considèrent qu’il est indispensable d’introduire, à l’échelle européenne, un principe général d’exclusion des marchés publics de l’Union européenne pour les opérateurs économiques et les productions provenant de pays tiers qui n’offrent pas de garanties équivalentes d’accès à leurs propres marchés publics. Une telle mesure permettrait d’instaurer un rapport de force plus équilibré et de protéger durablement les acteurs industriels européens contre les distorsions de concurrence liées à l’ouverture asymétrique des marchés, en dépassant les contraintes de l’outil actuel et en dotant l’Union européenne d’un mécanisme plus efficace et systématique.
Recommandation n° 14 : Introduire un principe général d’exclusion des marchés publics de l’Union européenne pour les opérateurs économiques et les productions issus de pays tiers n’ayant pas conclu avec l’Union un accord assurant une réciprocité effective d’accès à leurs marchés publics.
ii. Vers une mise en œuvre effective du principe de préférence européenne dans la commande publique pour soutenir l’IA et les technologies stratégiques
Comme il a été rappelé précédemment, l’Union européenne a récemment approuvé le principe d’une préférence européenne dans la commande publique. Ce principe, qui vise à renforcer l’autonomie stratégique et industrielle de l’Union, reste à préciser et à décliner concrètement pour garantir son effectivité. Vos rapporteurs estiment que sa mise en œuvre doit constituer une priorité, en particulier dans des domaines stratégiques comme l’intelligence artificielle, le cloud et, plus largement, les technologies numériques critiques.
Recommandation n° 15 (proposition de votre rapporteure) : Accompagner et soutenir la mise en œuvre de la préférence européenne pour les technologies stratégiques (IA, cloud, robotique), en s’assurant qu’elle soit pleinement mobilisée par la France dans ses politiques d’achat public.
Si votre rapporteur partage pleinement l’objectif d’une préférence européenne dans la commande publique, il considère que celle-ci demeure insuffisante pour garantir la souveraineté technologique de la France et la protection de ses intérêts stratégiques, notamment en matière d’IA. En effet, l’Union européenne peine encore à déployer des instruments réellement contraignants et la révision des directives n’interviendra pas avant 2026. Dans cet intervalle, de nombreux marchés publics stratégiques pourraient continuer à bénéficier à des entreprises extra-européennes, voire extra-nationales, alors même que des acteurs français disposent de compétences solides.
Aussi, le rapporteur plaide pour l’instauration d’une préférence nationale assumée, complémentaire de la préférence européenne, dans les marchés publics concernant les technologies critiques (intelligence artificielle, cloud, cybersécurité, robotique). Une telle orientation permettrait de stimuler directement l’innovation locale, de valoriser prioritairement les savoir-faire nationaux et de créer un effet d’entraînement sur l’ensemble de l’économie française, en renforçant la compétitivité de ses filières industrielles et numériques.
Votre rapporteur est conscient que cette position excède le cadre juridique européen actuel, fondé sur le principe de non-discrimination et sur l’égalité de traitement entre opérateurs économiques de l’Union ([628]). Il souligne néanmoins que plusieurs États membres invoquent déjà des motifs impérieux d’intérêt général pour protéger certaines filières stratégiques (sécurité, défense, santé publique, protection des données sensibles). Il estime que la France doit, de même, revendiquer une marge de manœuvre nationale en matière de souveraineté numérique, quitte à provoquer un débat au sein de l’Union.
Recommandation n° 16 (proposition de votre rapporteur) : Accompagner et soutenir la mise en œuvre de la préférence européenne pour les technologies stratégiques (IA, cloud, robotique), en veillant à ce qu’elle soit pleinement mobilisée par la France dans ses politiques d’achat public et complétée par une préférence nationale assumée, valorisant prioritairement les solutions et acteurs français afin de stimuler l’innovation locale, de renforcer la souveraineté technologique et de créer un effet d’entraînement sur l’ensemble de l’économie.
Si l’instauration d’un principe de préférence européenne en matière de commande publique constitue un levier essentiel pour renforcer la souveraineté technologique de l’Union européenne et consolider des filières stratégiques, sa mise en œuvre concrète demeure progressive et dépendante des initiatives de la Commission européenne. Dans cette attente, vos rapporteurs estiment néanmoins possible pour la France d’agir en mobilisant les outils existants pour orienter ses achats publics vers des solutions européennes et nationales, en particulier dans des domaines sensibles tels que l’intelligence artificielle.
Le cadre juridique actuel, bien que contraint par le droit européen (notamment la directive 2014/24/UE sur les marchés publics ([629])), offre déjà des leviers pour favoriser les solutions européennes. La France a par exemple développé la doctrine du cloud de confiance ([630]), qui impose aux administrations d’héberger leurs données sensibles chez des prestataires européens, échappant aux législations extraterritoriales américaines (Cloud act). Ce précédent démontre qu’en s’appuyant sur des motifs légitimes tels que la sécurité des données, la souveraineté numérique ou le respect des standards environnementaux et sociaux, il est possible d’instaurer une préférence locale compatible avec le droit de l’Union européenne. Autrement dit, pour protéger la souveraineté des données, la commande publique impose ici un critère juridique qui écarte de fait les fournisseurs non-européens à moins qu’ils ne s’associent à une entité européenne, ce qui a conduit Microsoft et Google à nouer des partenariats avec Orange, Thales ou Capgemini ([631]) pour offrir des services cloud sous contrôle européen.
De même, les acheteurs peuvent intégrer des critères environnementaux ou sociaux exigeants (bilan carbone, circuit court, normes du travail) dans leurs marchés ([632]) : cela reste non discriminatoire sur le papier, mais favorise indirectement les entreprises produisant en Europe qui respectent déjà ces standards élevés. Vos rapporteurs appellent ainsi de leurs vœux un encouragement à une généralisation de critères « hors prix » dans les appels d’offres publics (bilan carbone, respect des normes sociales, circuit court, origine européenne de la propriété intellectuelle), qui permettent de favoriser indirectement les entreprises produisant en Europe, en attendant la révisions des directives en 2026 relatives aux marchés publics.
En outre, vos rapporteurs ne peuvent que recommander l’utilisation systématique des marges de flexibilité prévues par le droit de l’Union européenne, notamment pour exclure des marchés publics les opérateurs issus de pays tiers ([633]) n’offrant pas de réciprocité en matière d’accès à leurs propres marchés publics. Cela suppose une intervention de la Commission européenne (qui possède une compétence exclusive). Il convient donc d’encourager les États membres, dont la France, à signaler activement à la Commission européenne les situations de non‑réciprocité afin qu’elle engage, le cas échéant, les procédures prévues par l’Instrument international pour les marchés publics (IIP) et adopte des mesures appropriées.
En France, il est apparu au cours des auditions que la commande publique reste encore faiblement mobilisée au service des acteurs nationaux de l’intelligence artificielle : l’État et les administrations publiques ne représentent que 12 % des clients des start-up françaises de l’IA, selon France Digitale ([634]). Cette sous-utilisation constitue un frein majeur à l’émergence de champions européens et menace la viabilité de l’écosystème de startups.
Ce constat tient moins à une absence de volonté politique qu’à une fragmentation des interlocuteurs et des circuits administratifs, qui rend complexe la mise en relation entre offre technologique et besoins publics. À titre d’exemple, la start‑up Giskard a souligné la difficulté à identifier les bons contacts dans les ministères ou établissements publics pour promouvoir ses solutions. Cette multiplicité d’interlocuteurs entraîne des pertes de temps et des coûts d’opportunité significatifs pour des structures qui doivent par ailleurs concentrer leurs efforts sur leur développement technologique et commercial.
Dans ce contexte, vos rapporteurs proposent de créer un guichet unique dédié à l’IA au sein du ministère de l’Économie, permettant ainsi de fluidifier les relations entre start-up et administrations, d’orienter les acheteurs publics vers des solutions innovantes développées en France et en Europe et de simplifier l’accès aux marchés publics pour les start-up.
Recommandation n° 17 : Créer guichet unique dédié à l’intelligence artificielle au sein du ministère de l’Économie, pour faciliter l’accès des PME et start-up françaises à la commande publique et pour fluidifier le dialogue entre l’État et l’écosystème numérique.
Si les marges de manœuvre nationales doivent être pleinement exploitées dans le respect du droit de l’Union européenne, il apparaît néanmoins que seule une évolution ambitieuse du cadre européen permettra de garantir l’efficacité et la portée réelle du principe de préférence européenne. Une telle réforme constitue en effet un levier essentiel pour protéger l’industrie naissante de l’IA et pour favoriser l’émergence d’hyperscalers européens.
Dans cette perspective, et en cohérence avec les orientations portées par le Conseil national de l’industrie (CNI) ([635]), vos rapporteurs soulignent l’importance de programmer un calendrier précis et ambitieux de révision des directives européennes relatives à la commande publique. L’objectif serait d’aboutir à une réforme effective dès 2026, afin de doter l’Union européenne d’un cadre juridique renouvelé qui permette aux États membres d’orienter leurs achats publics vers des technologies et des productions européennes dans les secteurs stratégiques.
Recommandation n° 18 : Programmer un calendrier ambitieux de révision des directives européennes sur la commande publique pour préciser et rendre effectif le principe de préférence européenne d’ici 2026.
B. Des dépendances à surmonter s’agissant d’infrastructures critiques pour la maîtrise de l’intelligence artificielle
Alors que les États-Unis et la Chine déploient des politiques industrielles offensives pour prendre l’ascendant technologique mondial, l’Union européenne peine encore à structurer une stratégie industrielle à la hauteur des enjeux. Le rapport Draghi ([636]) estime à 750 à 800 milliards d’euros par an le déficit d’investissement de l’Union européenne par rapport à ces deux puissances, concernant à la fois les infrastructures physiques, la R&D industrielle et les technologies critiques, telles que l’intelligence artificielle, les semi-conducteurs, le cloud ou les supercalculateurs. Ce sous-investissement structurel limite la capacité de l’Europe à capter les bénéfices des révolutions technologiques en cours et à préserver sa souveraineté économique.
Loin d’être un concept abstrait, l’intelligence artificielle repose sur une pile technologique intégrée ([637]) : infrastructure (cloud, serveurs, puces), modèles fondamentaux (LLM, vision, voix) et applications. Or, les grandes plateformes extra-européennes ont su maîtriser cette intégration verticale, en combinant dans leurs offres cloud ces différentes couches technologiques, renforçant ainsi leur pouvoir de marché. Dans ce contexte, les acteurs européens peinent à s’insérer durablement dans cette chaîne de valeur sans soutien massif et coordonné.
La France peut jouer un rôle moteur dans la construction d’une véritable politique industrielle européenne de l’IA, à condition de dépasser la dispersion actuelle des initiatives et d’accélérer fortement les investissements. Ce second axe du rapport identifie les leviers permettant de renforcer la cohérence, la rapidité et l’impact de la stratégie industrielle européenne, dans une logique de souveraineté, de compétitivité et de résilience à long terme.
1. Une domination incontestée des États-Unis et de la Chine dans les infrastructures critiques
a. Domination du cloud : 63 % du marché mondial aux GAFAM
i. Un marché mondial dominé par les acteurs américains et chinois
Comme cela a été précédemment exposé, aujourd’hui, OVHcloud et l’allemand SAP, souvent présentés comme les champions européens, restent largement distancés par les hyperscalers américains et chinois. Selon les dernières données disponibles ([638]), Amazon Web Services (AWS) contrôle 32 %, Microsoft Azure 23 % et Google Cloud 12 % du marché mondial de l’Infrastructure-as-a-Service (IaaS) et de la Platform-as-a-Service (PaaS). Aucun autre acteur, y compris OVHcloud (environ 0,5 % de part de marché mondiale), ne dépasse les 4 %.
Répartition régionale des principaux fournisseurs de services cloud
Source : Synergy research group, Cloud is a Global Market - Apart from China, 21 août 2024.
À l’inverse, la Chine a construit un écosystème fermé qui favorise ses acteurs nationaux. La Chine a désigné le cloud computing (informatique en nuage) comme un secteur stratégique dès son 12ᵉ plan quinquennal (2011–2015) et poursuit cette ambition dans le 14ᵉ plan (2021–2025) ([639]). Elle cherche à renforcer sa souveraineté numérique, influencer les standards mondiaux et s’imposer sur les marchés émergents, notamment au Moyen-Orient. Dans le cadre des Nouvelles Routes de la Soie, la Chine y intensifie sa présence dans le secteur du cloud computing, bien que les États-Unis conservent une position dominante à l’échelle mondiale.
Les trois principaux fournisseurs américains ([640]) demeurent en tête pour le partage du marché : il s’agit d’abord d’Amazon Web Services (AWS), qui dispose à lui seul de 32 % de parts de marché, puis de Microsoft Azure, qui détient 22 % du marché, et enfin de Google Cloud, qui dispose de 11 % de celui-ci. À titre de comparaison, Alibaba Cloud, principal acteur chinois, reste encore marginal avec une part de marché de 4 %, mais connaît une progression rapide, portée par un fort soutien de l’État chinois et des coûts particulièrement compétitifs.
Présence comparative des États-Unis et de la Chine
dans les régions cloud du Moyen-Orient
Au Moyen-Orient, la répartition géographique illustre cette dynamique. En Égypte, Huawei Cloud a établi un data center à partir duquel il développe ses activités, tandis que les géants américains AWS et Google sont absents du pays. En revanche, en Arabie saoudite et aux Émirats arabes unis, les acteurs chinois et américains coexistent, bien que les entreprises américaines y conservent une nette prédominance.
Les fournisseurs occidentaux y sont fortement limités. Le marché chinois, suffisant par sa taille, est dominé par Alibaba Cloud, Tencent Cloud, Huawei Cloud et China Telecom, les dix principaux opérateurs étant tous chinois.
Au premier trimestre 2025, les dépenses en services d’infrastructure cloud en Chine ont atteint 11,6 milliards de dollars américains ([641]), marquant une progression de 16 % par rapport à l’année précédente. Cette croissance soutenue s’explique principalement par l’essor des activités liées à l’intelligence artificielle (IA) au sein des entreprises chinoises, qui accélèrent leur adoption des technologies cloud pour accompagner ces nouveaux usages.
Le marché reste dominé par Alibaba Group Holding, dont l’unité cloud conserve une position de leader avec une part de marché de 33 % ([642]) et une croissance annuelle de son chiffre d’affaires de 15 %. Huawei Technologies se place en deuxième position avec une part de 18 % et un bond de 18 % de ses revenus sur la même période. Tencent Holdings, troisième acteur du secteur, détient 10 % du marché, mais voit sa croissance bridée par des contraintes d’approvisionnement en unités de traitement graphique (GPU).
ii. Concentration du marché européen et déclin des parts de marché des acteurs locaux
Le marché européen des services cloud est fortement concentré : les géants américains Amazon, Microsoft et Google détiennent à eux seuls 72 % des parts de marché ([643]). Face à cette domination, les fournisseurs européens peinent à rivaliser et ne représentent aujourd’hui qu’environ 13 % du marché régional, là où ils représentaient 27 % en 2017 ([644]). À l’échelle européenne, les principaux fournisseurs locaux sont SAP, Deutsche Telekom et OVHcloud, chacun détenant environ 2 % de part de marché ([645]). Viennent ensuite Telecom Italia, Orange Business et une multitude de petits acteurs.
En Europe, les fournisseurs cloud chinois, tels qu’Alibaba Cloud, Huawei Cloud et Tencent Cloud, détenaient globalement moins de 1 % de part de marché régionale fin 2024 ([646]). Plusieurs facteurs expliquent cette absence relative. D’abord, des barrières réglementaires et de souveraineté freinent leur développement : les exigences du RGPD, les schémas de certification européens (comme l’EUCS – European Cybersecurity Certification Scheme for Cloud Services) et les inquiétudes liées à l’accès potentiel aux données par des États tiers limitent l’implantation de prestataires chinois ([647]). Ensuite, les géants américains tels qu’AWS, Microsoft Azure et Google Cloud ont bénéficié d’investissements colossaux et d’un effet d’échelle. S’ajoute une confiance limitée des clients européens : face aux enjeux de cybersécurité, de souveraineté numérique et de dépendance technologique, entreprises et administrations privilégient des fournisseurs perçus comme plus fiables, souvent américains ou locaux ([648]).
iii. Une domination aux conséquence délétères pour l’IA
La domination des acteurs américains sur le marché mondial du cloud computing soulève des enjeux stratégiques majeurs pour le développement et la souveraineté numérique ([649]) de l’intelligence artificielle. Comme le souligne le rapport de la Commission européenne dans le cadre de l’AI Continent ([650]) (2025), cette situation compromet la capacité des États membres à maîtriser les infrastructures qui soutiennent les technologies critiques, notamment l’intelligence artificielle (IA), laquelle repose fondamentalement sur l’accès massif à des ressources de calcul, de stockage et de traitement de données.
Sur le plan géostratégique, la dépendance aux fournisseurs extra-européens place l’UE dans une situation de vulnérabilité. L’ENISA ([651]) (Agence de l’Union européenne pour la cybersécurité) a identifié les risques associés à l’hébergement de données sensibles, stratégiques ou critiques sur des serveurs localisés hors du territoire européen ou contrôlés par des entités soumises à des juridictions tierces. En période de tension géopolitique, le cloud devient un levier potentiel de coercition économique et politique, un risque accru par le fait que l’UE ne dispose pas, à ce jour, d’acteurs capables de proposer une alternative compétitive à l’échelle mondiale.
Cette dépendance a également des conséquences juridiques et sécuritaires préoccupantes. Le CLOUD Act (Clarifying Lawful Overseas Use of Data Act), adopté par les États-Unis en 2018 ([652]), permet aux autorités américaines d’exiger l’accès à des données stockées en dehors du territoire américain dès lors qu’elles sont hébergées par une entreprise soumise à la juridiction des États-Unis. Cela crée une incompatibilité directe avec le RGPD et les principes européens de protection des données personnelles. En 2025, le CLOUD Act reste pleinement applicable et constitue une source continue de tension juridique et politique pour l’Europe. Plus globalement, la dépendance extérieure de l’europe en matière de cloud entraîne des risques d’accès non autorisé à des données européennes à des fins de surveillance ou d’espionnage industriel ([653]).
Au-delà des enjeux techniques et sécuritaires, cette situation limite la capacité de l’Europe à imposer ses propres standards. Un article scientifique récent ([654]) rappelle que les normes techniques se développent d’abord dans les écosystèmes dominants. En s’appuyant massivement sur des clouds américains, l’Europe s’expose à un effet d’alignement technologique par défaut, réduisant son pouvoir normatif dans la structuration de l’IA éthique, durable et conforme à ses valeurs. Cette asymétrie normative pourrait à terme fragiliser la portée concrète des régulations comme l’AI Act adopté en 2024.
Consciente de ces menaces, l’Union européenne a lancé des initiatives telles que le projet IPCEI Cloud Infrastructure and Services ([655]) ou Gaia-X, visant à favoriser une offre de cloud de confiance, interopérable, et conforme aux exigences européennes. Cependant, ces projets souffrent encore d’un manque de financement ([656]), de coordination et de massification, qui limite leur impact à court terme. L’absence de cloud souverain robuste compromet ainsi directement la capacité de l’Europe à développer une IA indépendante, compétitive et sécurisée.
iv. Reprendre la maîtrise stratégique du cloud par l’action normative
Face à la concentration du marché mondial du cloud autour d’acteurs américains et chinois, à l’affaiblissement des fournisseurs européens, ainsi qu’aux risques stratégiques que cela engendre pour la souveraineté numérique et le développement d’une intelligence artificielle conforme aux valeurs européennes, vos rapporteurs estiment nécessaire de proposer une réponse règlementaire ambitieuse et structurée.
Le cadre juridique actuel, bien que contraint par le droit européen (notamment la directive 2014/24/UE sur les marchés publics ([657])), offre déjà des leviers pour favoriser les solutions européennes. La France a par exemple développé la doctrine du cloud de confiance ([658]), qui impose aux administrations d’héberger leurs données sensibles chez des prestataires européens, échappant aux législations extraterritoriales américaines (Cloud Act). Ce précédent démontre qu’en s’appuyant sur des motifs légitimes tels que la sécurité des données, la souveraineté numérique ou le respect des standards environnementaux et sociaux, il est possible d’instaurer une préférence locale compatible avec le droit de l’Union. Autrement dit, pour protéger la souveraineté des données, la commande publique impose ici un critère juridique qui écarte de fait les fournisseurs non-européens à moins qu’ils ne s’associent à une entité européenne, ce qui a conduit Microsoft et Google à nouer des partenariats avec Orange, Thales ou Capgemini ([659]) pour offrir des services cloud sous contrôle européen.
Le « Cloud de confiance » et le référentiel SecNumCloud en France
Face à l’essor de l’informatique en nuage (cloud computing) et aux risques croissants pesant sur la souveraineté numérique, la France a promu une stratégie de « cloud de confiance » ([660]) visant à concilier performance technologique, sécurité des données et maîtrise juridique. Cette notion renvoie à un modèle de service cloud qui répond à des exigences élevées en matière de cybersécurité et de protection contre les lois extraterritoriales, notamment le Cloud Act américain de 2018. L’ambition est de permettre à des administrations, des entreprises stratégiques ou des opérateurs d’importance vitale (OIV) d’utiliser des services cloud sans exposer leurs données sensibles à des risques d’accès non contrôlés par des puissances étrangères.
Le référentiel SecNumCloud ([661]), élaboré par l’ANSSI ([662]) (Agence nationale de la sécurité des systèmes d'information), constitue le socle de cette approche. Il définit un ensemble de règles strictes auxquelles doivent se conformer les prestataires cloud souhaitant obtenir la qualification « SecNumCloud ». Ce référentiel impose notamment une localisation des données en France ou dans l’Union européenne, une gouvernance européenne, une indépendance vis-à-vis du droit non européen, et un haut niveau de sécurité certifié. À ce jour, seuls quelques acteurs comme Cloud Temple, OVHcloud, Outscale ou Whaller ont obtenu cette certification.
Source : Travaux de la mission.
Le label SecNumCloud est essentiel pour accéder à certains marchés publics ou à des données sensibles. Malgré le rôle central qu’il est appelé à jouer dans la sécurisation des données sensibles, le label SecNumCloud demeure encore trop peu déployé dans les faits ([663]). Le référentiel n’est pas encore suffisamment intégré dans les usages, tant dans la commande publique que dans les marchés privés ou les projets d’innovation.
Ce label (et la logique du cloud de confiance) est également critiqué pour sa lourdeur procédurale et sa lente adoption, notamment par les grands acteurs internationaux. Le think‑tank ITIF ([664]) considère que les restrictions de SecNumCloud aboutissent à un marché réservé aux acteurs européens, « verrouillant effectivement les fournisseurs américains hors de certains marchés publics ». Pour autant, les rapporteurs considèrent que la logique de souveraineté et de sécurité sur laquelle repose le label SecNumCloud est non seulement légitime, mais stratégique pour l’avenir numérique du pays. Elle constitue un outil déterminant pour assurer la maîtrise des infrastructures critiques, renforcer la confiance des utilisateurs et favoriser le développement d’un écosystème européen de cloud de haut niveau. Plutôt que d’en atténuer les exigences, il convient donc de lever les obstacles à sa diffusion en l’accompagnant mieux.
Recommandation n° 19 : Accélérer l’adoption opérationnelle du label SecNumCloud en facilitant les démarches de qualification et en incitant les acheteurs publics et privés à s’y référer.
La diffusion des technologies d’intelligence artificielle dans les administrations et les secteurs critiques appelle un encadrement clair de l’infrastructure sous-jacente, en particulier des services d’hébergement et de traitement de données en cloud. Or, les auditions menées dans le cadre de la mission d’information ont confirmé l’existence de vulnérabilités juridiques et techniques persistantes, liées à l’exposition potentielle des prestataires à des législations extraterritoriales étrangères, en particulier américaines (Cloud Act).
À ce titre, plusieurs rapports officiels, et notamment celui de la commission d’enquête sénatoriale sur les marchés publics (2025) ([665]) , ont insisté sur la nécessité d’introduire des clauses de non-exposition aux droits étrangers dans les contrats et les marchés publics portant sur des prestations cloud. Il y est établi que la simple localisation des serveurs sur le territoire européen ne saurait suffire à protéger les données sensibles si le prestataire ou ses sous-traitants demeurent soumis à des obligations juridiques étrangères. Dès lors, selon ce rapport, seule une clause explicite de non-soumission extraterritoriale, assortie de mécanismes de vérification, permet de garantir un niveau de protection conforme aux exigences de souveraineté.
Vos rapporteurs réaffirment leur attachement à la logique promue par ce label et à la doctrine du cloud de confiance, qui doivent être pleinement intégrés aux pratiques des acheteurs publics, en particulier pour l’hébergement de données sensibles. Néanmoins, ils soulignent qu’une telle stratégie ne saurait rester strictement nationale. Dans la mesure où les marchés publics relèvent d’un cadre juridique largement harmonisé au niveau de l’Union européenne, la construction d’un cloud de confiance à l’échelle européenne, fondé sur des exigences convergentes en matière de sécurité, de gouvernance et d’immunité juridique, constitue une perspective nécessaire pour garantir l’effectivité de la souveraineté numérique sans compromettre la libre concurrence intracommunautaire.
Dans cette logique, la Commission européenne travaille en parallèle à une initiative similaire appelée EUCS (European Cybersecurity Certification Scheme for Cloud Services ([666])). Ce schéma vise à établir un cadre commun de confiance au niveau de l’Union, potentiellement convergent avec les exigences du label français SecNumCloud.
Toutefois, la CNIL ([667]) note que le projet actuel du schéma EUCS, soutenu par l’ENISA (Agence européenne pour la cybersécurité), « ne permet plus aux fournisseurs de démontrer qu’ils protègent les données stockées contre tout accès par une puissance étrangère, contrairement à la qualification SecNumCloud en France », qui protège explicitement les données sensibles contre des accès potentiels par des puissances étrangères (comme les États-Unis via le Cloud Act). Le schéma EUCS actuel ne stimule pas la filière cloud européenne comme l’a fait le programme américain FedRAMP pour les fournisseurs locaux.
Face aux limites identifiées du projet actuel de certification européenne EUCS, vos rapporteurs recommandent que la conformité à des exigences juridiques d’immunité aux législations extracommunautaires ne soit pas simplement proposée à titre optionnel (comme le recommande la CNIL dans son rapport), mais intégrée de manière impérative pour les niveaux les plus élevés de certification au niveau européen. Cette garantie est indispensable pour les traitements de données particulièrement sensibles (santé, justice, mineurs), dont l’hébergement doit exclure tout risque d’accès par des autorités étrangères sur la base de législations extra-européennes, telles que le Cloud Act américain et pour stimuler l’industrie du cloud en Europe, largement dominée par les hyperscalers américains.
À cette fin, il apparaît nécessaire que l’Union européenne reconnaisse un niveau de certification équivalent au référentiel français SecNumCloud, en intégrant dans le schéma EUCS des critères de sécurité, de localisation des données, de contrôle capitalistique et de souveraineté juridique comparables. Une telle reconnaissance permettrait de sécuriser les données sensibles dans un cadre harmonisé à l’échelle européenne, de renforcer la confiance des acteurs publics et privés, et de soutenir la compétitivité de l’écosystème du cloud européen.
Recommandation n° 20 : Rendre impératifs, dans le schéma EUCS (European Cybersecurity Certification Scheme for Cloud Services), les critères d’immunité aux lois extracommunautaires pour les données sensibles, et reconnaître un niveau de certification européen équivalent au référentiel français SecNumCloud.
Afin de renforcer l’autonomie stratégique européenne en matière de données sensibles et de soutenir économiquement les fournisseurs cloud européens, il convient que la future certification EUCS (alignée sur les exigences SecNumCloud), une fois intégrée de manière crédible et exigeante, serve de référentiel pour l’accès à la commande publique au niveau européen. À l’image du programme FedRAMP aux États-Unis, une telle reconnaissance permettrait d’orienter les marchés publics vers des prestataires offrant des garanties élevées en matière de cybersécurité, de localisation et de conformité juridique, tout en stimulant l’écosystème du cloud européen.
Recommandation n° 21 : Faire de la certification EUCS, une fois adoptée avec des garanties de souveraineté effectives, un critère de référence dans les marchés publics européens, notamment pour l’hébergement des données sensibles.
b. La puissance de calcul : un enjeu stratégique dominé par les géants américains
L’IA moderne n’est pas née d’une simple innovation logicielle : elle est la conjonction dynamique de l’augmentation spectaculaire de la puissance de calcul, rendue possible par des architectures matérielles toujours plus efficaces, et de l’amélioration concomitante des algorithmes, qui optimisent l’usage de ces ressources.
L’intelligence artificielle est en passe de devenir une infrastructure critique de l’économie mondiale, comparable à l’électricité ou à Internet ([668]). D’ici 2030-2035, les modèles d’IA, en particulier les grands modèles de langage (LLM), seront omniprésents dans tous les secteurs (industrie, services, santé, finance, éducation notamment), transformant en profondeur nos modes de production et de travail. Dans cette potentielle nouvelle révolution industrielle, « l’accès à la puissance de calcul s’affirme comme un facteur de production aussi essentielle que le charbon au XIXème siècle » ([669]).
En effet, entraîner les modèles d’IA les plus avancés requiert d’énormes volumes de données et des processeurs spécialisés toujours plus puissants et nombreux, dont le coût double chaque année pour les meilleurs LLM à la frontière technologique. La baisse rapide du coût d’entraînement, qui est en moyenne divisé par quatre chaque année, résulte de gains conjoints en matériel (hardware) ([670]) et en algorithmique ([671]). Toutefois, la course à l’échelle toujours plus massive des modèles conduit à une hausse des coûts absolus, qui depuis 2016 aurait été en moyenne multipliée par 2,4 chaque année ([672]). L’entraînement de GPT‑4 coûterait environ 78 millions de dollars, celui de Gemini Ultra près de 191 millions de dollars ([673]), contre quelques centaines de dollars pour le Transformer pionnier de 2017. Des acteurs comme DeepSeek ont pu réduire ces coûts (baisse de 5,6 millions de dollars) grâce à des innovations dans l’architecture des modèles et dans les flux entre processeurs ([674]).
La course à l’IA se joue donc aussi, et peut-être avant tout, sur le terrain des infrastructures matérielles ([675]) : sans un accès suffisant aux centres de données et aux processeurs de pointe, aucune économie ne pourra récolter les gains de productivité promis par l’IA.
L’essor de l’intelligence artificielle contemporaine repose avant tout sur l’augmentation spectaculaire de la puissance de calcul disponible. Selon une étude récente ([676]), la quantité de calcul utilisée pour entraîner des modèles de machine learning a doublé environ tous les six mois depuis le début des années 2010, avant même l’ère des grands modèles d’IA. Ce bond exponentiel de capacité de calcul s’explique non seulement par l’évolution du hardware (matériel), par la loi de Moore ([677]) doublant la densité des transistors tous les 18 mois et par la loi de Huang ([678])applicable aux performances des GPU ([679]), mais aussi par l’utilisation accrue d’architectures massivement parallèles (GPU, TPU, supercalculateurs). L’émergence du « deep learning » dans les années 2010 reste intrinsèquement liée à cette explosion de puissance, doublant l’impact de ce qui avait été observé auparavant sur les CPU traditionnels.
Si les progrès du matériel utilisé est le catalyseur de l’essor effréné de l’IA, celui-ci tient également aux progrès algorithmiques. Hernandez et Brown (2020) ([680]) montrent que l’efficacité algorithmique a diminué de 44 fois le nombre d’opérations nécessaires pour atteindre le niveau de performance d’AlexNet entre 2012 et 2019, soit un doublement de l’efficience tous les 16 mois, sensiblement plus rapide que la seule loi de Moore. Cette combinaison de gains matériels et logiciels permet non seulement de former des modèles plus performants pour un investissement donné, mais aussi de démocratiser l’accès à ces capacités : un même budget de calcul produit aujourd’hui des modèles bien supérieurs à ce qu’il permettait il y a seulement cinq ans. Comme le résument les travaux de CSET ([681]), la continuation de ces deux dynamiques est essentielle pour maintenir la croissance de l’IA, même si leurs interactions deviennent de plus en plus complexes.
Cette transition vers une économie augmentée par l’IA représente une opportunité de productivité, mais révèle aussi un risque majeur pour l’Europe : celui d’une dépendance stratégique en matière de calcul. Depuis les années 2000, la productivité européenne ne progresse qu’à la moitié du rythme de celle des États-Unis ([682]), et sans infrastructure propre, l’Europe pourrait rester à l’écart des immenses gains apportés par l’IA : « En 2030, la liberté aura un prix concret : celui des processeurs. » ([683])
Aujourd’hui, la puissance de calcul mondiale consacrée à l’IA est largement dominée par les États-Unis. Environ 70 % de la capacité mondiale est détenue par les Américains, et parmi celle-ci, près de 80 % sont concentrés entre les mains de quelques géants du cloud (les hyperscalers tels que Google, Amazon, Microsoft…) ([684]).
L’Europe, en comparaison, ne représente qu’environ 4 % de la puissance de calcul mondiale pour l’IA ([685]) . L’entreprise française Mistral AI a ainsi alerté en juin 2024 sur le manque de capacité de calcul pour l’entraînement des modèles d’IA sur le sol européen ([686]). Concernant les centres de données, au total l’Europe héberge 18 % de la capacité mondiale des centres de données, dont moins de 5 % appartiennent à des entreprises européennes, contre 37 % pour les États-Unis ([687]).
Ce déséquilibre est vertigineux : il signifie que les acteurs européens disposent d’une infrastructure informatique sans commune mesure avec celle des leaders américains, et même inférieure à celle de la Chine. En effet, la Chine a fortement investi dans ses centres de données : fin 2023, elle disposait d’une capacité totale d’environ 230 exaflops en calcul ([688]), ce qui en faisait la deuxième nation en termes de puissance de calcul derrière les États-Unis. Néanmoins, la Chine demeure dépendante pour l’instant des puces américaines (voir infra) : avant les restrictions récentes, Nvidia accaparait plus de 90 % du marché chinois des processeurs d’IA, un quasi-monopole dans ce domaine vital selon IoT Analytics ([689]), tandis qu’elle ne dispose pas de la lithographie EUV (Extreme Ultraviolet), monopole industriel de l’entreprise néerlandais ASML, capables de graver des circuits à l’échelle nanométrique (moins de 5 nm), indispensables à la fabrication des processeurs avancés utilisés dans l’intelligence artificielle, notamment les GPU et NPUs.
Pour l’Europe, cette situation de retard critique se double d’un handicap structurel : le coût de l’électricité. Alimenter des fermes entières de GPU et des centres de données énergivores est cher, et les tarifs industriels européens (0,18 dollars par kWh en moyenne) sont jusqu’à trois fois supérieurs à ceux des États-Unis ([690]), rendant les infrastructures d’IA plus coûteuses : certaines estimations calculent un coût d’installation de centres de données de 1,5 à 2 fois plus élevé en Europe qu’aux États-Unis.
Ce différentiel affecte la compétitivité des infrastructures européennes : bâtir et opérer à grande échelle des centres de calcul pour l’IA sur le sol européen est financièrement plus difficile. Certaines estimations calculent un coût d’installation de centres de données de 1,5 à 2 fois plus élevé en Europe qu’aux États-Unis ([691]). Ajouter rapidement et massivement de la capacité de production électrique pour accompagner le développement de ces infrastructures représenterait un défi logistique et politique majeur sur le continent. À l’inverse, les États-Unis accueillent aujourd’hui la majorité des nouveaux centres de calcul dédiés à l’IA, profitant d’un environnement énergétique plus favorable et d’une capacité d’investissement beaucoup plus dynamique, creusant ainsi davantage l’écart ([692]).
c. Les microchips for AI : un monopole américain, une exception européenne, un splendide isolement chinois
i. Processeurs et accélérateurs : un quasi-monopole américain
Le cœur de la puissance de calcul, ce sont les puces électroniques (processeurs et accélérateurs) qui exécutent les calculs d’IA. Dans ce domaine, la domination américaine est écrasante, tant sur le plan technologique que boursier. Nvidia, concepteur de processeurs graphiques (GPU), s’est imposé comme le fournisseur quasi incontournable pour l’IA. Ses GPU haut de gamme (A100, H100, etc.) forment l’épine dorsale de la plupart des centres de calcul d’IA actuels ([693]). Nvidia est devenue en 2023-2025 l’une des entreprises les plus valorisées au monde.
Cette domination s’observe aussi en parts de marché : on estime que Nvidia contrôle entre 80 % et 90 % du marché des processeurs d’IA ([694]) (GPU et accélérateurs) actuellement utilisés pour l’apprentissage automatique.
Au premier trimestre 2025, Nvidia a consolidé sa position hégémonique sur le marché des GPU discrets (cartes graphiques AIB) avec une part de marché exceptionnelle de 92 %, soit environ 9,2 millions d’unités vendues, selon Jon Peddie Research ([695]). Ce quasi-monopole entraîne une chute historique pour AMD, dont la part s'effondre à 8 %, niveau le plus faible enregistré ([696]).
Évolution des parts de marché des GPU discrets (Nvidia, AMD, Intel) sur ordinateurs de bureau (2014-2025)
Source : Shilov, A. (6 juin 2025). AMD’s desktop GPU market share hits all-time low despite RX 9070 launch, Nvidia extends its lead [Updated]. Tom’s Hardware d’après des données du Jon Peddie Research.
Malgré leurs efforts pour développer des solutions de calcul propriétaires, les hyperscalers américains (Microsoft, Google, Amazon ou encore Meta) continuent de dépendre massivement des GPU de Nvidia pour leurs déploiements en intelligence artificielle. Cette dépendance est telle qu’elle confère à Nvidia un pouvoir de marché considérable : au cours de l’année 2024, l’entreprise a pu augmenter significativement les prix de ses puces haut de gamme sans pour autant craindre de voir ses clients se détourner de son offre. Les chiffres sont édifiants ([697]): à elle seule, Microsoft a acquis 485 000 puces de la génération Hopper, contre 224 000 pour Meta, 196 000 pour Amazon et 169 000 pour Google. Le prix unitaire d’un GPU H100 excède désormais les 25 000 dollars, avec certains exemplaires revendus sur le marché secondaire à plus de 40 000 dollars ([698]). Cette hausse spectaculaire s’explique par une tension extrême sur l’offre et par l’absence d’alternatives crédibles, tant en matière de performance brute que d’écosystème logiciel.
Ce contexte génère des pressions de plus en plus fortes sur les géants du cloud. La montée rapide des coûts liés aux déploiements IA commence à inquiéter les investisseurs, qui réclament un contrôle accru des dépenses. Face à cela, les hyperscalers cherchent à optimiser leurs infrastructures et à diversifier leurs approvisionnements ([699]). Plusieurs stratégies émergent. Google, par exemple, s’appuie depuis plusieurs années sur ses TPU (Tensor Processing Units), des accélérateurs maison spécialisés dans les tâches d’IA. La version la plus récente, le TPU v7 surnommé « Ironwood » ([700]), est utilisée à grande échelle pour entraîner le modèle Gemini. Elle affiche des performances brutes de 4 614 TFLOPS (Téra floating-point operations per second), ce qui la place à un niveau comparable aux dernières générations GPU de Nvidia (H100) mais ne reflète pas nécessairement les performances effectives (maturité, polyvalence d’intégration, mémoire, écosystème logiciel). Le recours à ces puces propriétaires permet à Google de réduire significativement ses coûts unitaires, ces accélérateurs étant estimés à quelques milliers de dollars, bien en deçà des tarifs imposés par Nvidia.
Cette dynamique n’est pas propre à Google. Plusieurs acteurs misent désormais sur les ASIC ([701]), ces puces personnalisées optimisées pour un type de calcul précis, qui permettent de s’affranchir des contraintes des GPU généralistes. Broadcom et Marvell ([702]) ont ainsi signé de nouveaux contrats avec les grands opérateurs de cloud afin de concevoir des solutions sur mesure, plus efficaces énergétiquement et bien plus abordables financièrement. Ces initiatives, encore marginales, pourraient, selon certaines estimations, représenter jusqu’à 15 % du marché des accélérateurs d’IA d’ici la fin de la décennie. Elles traduisent une volonté stratégique des acteurs du secteur : celle de réduire leur dépendance à l’égard de Nvidia.
Pour autant, Nvidia conserve pour l’heure une position hégémonique. Au-delà des performances matérielles, c’est surtout son écosystème logiciel, en particulier la plateforme CUDA ([703]), qui verrouille le marché. Les développeurs et les entreprises ont investi massivement dans cet environnement, qui bénéficie d’années d’optimisation, de compatibilité et de documentation. Changer d’infrastructure reviendrait à réécrire une partie des codes, former les ingénieurs à d’autres outils, et risquer une perte de performance ou de stabilité. Ce verrouillage technologique constitue une barrière à l’entrée redoutable pour les concurrents. Même AMD, qui propose désormais des alternatives intéressantes avec ses GPU Instinct MI325X ([704]) et sa plateforme logicielle ROCm, peine à convaincre au-delà de quelques niches scientifiques ou industrielles.
ii. Une lueur d’espoir européenne à relativiser
À ce jour, l’Europe reste largement dominée dans le domaine des accélérateurs pour l’intelligence artificielle, en particulier pour l’entraînement des grands modèles de langage (LLM) comme ceux développés par Mistral AI. Ces entreprises, même quand elles sont européennes, dépendent presque intégralement des GPU produits par Nvidia ([705]), qui restent aujourd’hui les seuls à combiner puissance de calcul, écosystème logiciel (CUDA), et fiabilité à l’échelle industrielle. Cette dépendance technologique est d’autant plus marquée que l’Europe ne conçoit ni ne produit localement de cartes graphiques compatibles avec ces standards, ni même de solutions alternatives à grande échelle.
En parallèle, EuroHPC (initiative européenne pour le calcul à haute performance) a déployé plusieurs supercalculateurs (Jupiter en Allemagne, Leonardo en Italie, LUMI en Finlande) qui utilisent principalement des GPU Nvidia. Cela renforce la dépendance structurelle des projets de calcul intensif européens à des technologies non européennes.
Pourtant, une lueur d’espoir européenne se dessine à l’horizon. La start-up française SiPearl ([706]), issue du consortium européen EuroHPC/European Processor Initiative, a récemment bouclé un tour de table de 130 M€ ([707]), avec la participation du fonds EIC, de l’État français (via French Tech Souveraineté) et de Cathay Venture (Taïwan), pour industrialiser son processeur Rhea1. Actuellement en production chez TSMC à Taïwan, Rhea1, sa première famille de microprocesseurs, sera disponible début 2026. Ce développement illustre la stratégie européenne de souveraineté technologique, centrée sur des processeurs ARM compatibles avec des accélérateurs tiers (GPU, IPU, quantique), mais sans offrir aujourd’hui une alternative GPU hautes performances équivalente à CUDA.
Aux Pays-Bas, Axelera AI travaille sur des AI Processing Units (AIPU) pour des robots et des drones. La société, fondée en 2021, vient d’obtenir une subvention de 61,6 M€ ([708]) du programme EuroHPC pour développer son prochain chipset « Titania », avec l’ambition d’offrir une alternative intermédiaire (optimisée inference) aux GPU classiques dans les centres de données européens.
Le Royaume-Uni a vu émerger l’un des rares challengers crédibles à Nvidia en Europe, avec Graphcore, concepteur d’IPU à haut parallélisme. Malgré des avancées techniques reconnues, l’entreprise a souffert d’un manque d’échelle commerciale. En juillet 2024, SoftBank l’a acquise pour environ 600 millions de dollars ([709]), cette acquisition s’étant accompagnée du maintien des fondateurs et d’une réorientation stratégique vers l’Europe et l’Amérique du Nord, après un retrait du marché chinois.
Face à ce constat d’absence d’autonomie stratégique sur cette filière, l’UE a adopté l’European Chips Act.
Présentation de l’initiative European Chips Act
L’European Chips Act, entré en vigueur le 21 septembre 2023, constitue un cadre législatif européen, structuré en trois piliers, visant à renforcer l’écosystème des semi‑conducteurs sur le continent, ainsi qu’à assurer la souveraineté technologique et la résilience des chaînes d’approvisionnement ([710]).
– Le pilier I, via l’Initiative « Chips for Europe » ([711]) ([712]), mobilise un budget public‑privé d’environ 43 milliards euros jusqu’en 2030, dont environ 3,3 milliards euros du budget de l’UE. Il finance des lignes pilotes, une plateforme de design cloud pour PME/start-up, des centres de compétences nationaux et des projets de puces quantiques.
– Le pilier II ([713]) établit un cadre incitatif pour le financement d’Installations intégrées de production (IPF) et de fonderies ouvertes de l’UE (OEF) pour les semi-conducteurs (développer une capacité de production avancée en Europe), permettant d’attirer investissements publics‑privés (déjà supérieurs à 80 milliards euros) et de soutenir des projets innovants, dits « first‑of‑a‑kind ».
– Le pilier III ([714]) met en place un mécanisme de gouvernance et de surveillance piloté par le Conseil européen des semi‑conducteurs, favorisant la cartographie des acteurs clés, la détection des risques et l’activation de mesures de crise si nécessaire.
Au 28 avril 2025 ([715]), la Commission européenne a annoncé que plus de 85 % des fonds du pilier I sont engagés, cinq lignes pilotes totalisant 3,7 milliards euros sont opérationnelles, et six projets en puces quantiques bénéficient d’un financement complémentaire de 200 millions euros.
Sur le pilier II, sept projets industriels « first‑of‑a‑kind » cumulant environ 31,5 milliards euros ont reçu une aide d’État approuvée par la Commission, et un IPCEI (Important Project of Common European Interest ) de 21 milliards euros est également validé pour soutenir la recherche, l’innovation et le déploiement industriel initial dans les domaines de la microélectronique et des technologies de communication.
Malgré ces avancées, la Cour des comptes européenne ([716]) met en garde contre l’objectif de porter la part de marché de l’UE à 20 % d’ici 2030 dans le domaine des puces électroniques, le jugeant peu susceptible d’être suffisant (« unlikely to be sufficient ») face aux retards, à la fragmentation des financements et aux lenteurs d’approbation des projets structurants.
Sous la pression des acteurs industriels (SEMI Europe, ESIA), plusieurs États membres, dont la France, préparent une version Chips Act 2.0 ([717]), avec des propositions à soumettre d’ici l’été 2025 pour renforcer l’exécution, accélérer les procédures et élargir le soutien aux PME et au secteur de l’équipement.
Source : Travaux de la mission.
Enfin, comme vos rapporteurs l’ont déjà souligné, il convient de rappeler que, dans un paysage mondial largement dominé par les États-Unis, l’Union européenne ne dispose que d’un seul atout technologique réellement stratégique dans le domaine des semi-conducteurs : l’entreprise néerlandaise ASML. ASML est aujourd’hui le seul fournisseur mondial de machines de lithographie à ultraviolet extrême (EUV), une technologie indispensable à la fabrication des puces les plus avancées (CPU, GPU, processeurs pour smartphones ou systèmes d’IA). Depuis 2017, aucun acteur autre qu’ASML ne maîtrise ni ne commercialise cette technologie, qui constitue dès lors un verrou technologique critique pour l’Europe.
Conscients de cette dépendance, les gouvernements occidentaux imposent des restrictions strictes à l’exportation de ces machines, notamment à destination de la Chine, ce qui limite fortement ses capacités à produire des puces de dernière génération. ASML représente ainsi un levier géostratégique de premier ordre pour l’Union européenne, dans un contexte de compétition internationale accrue autour de l’intelligence artificielle et des technologies sensibles.
iii. La Chine : vers une alternative émergente ?
Si l’Europe apparaît en retard, la Chine de son côté mène une stratégie agressive pour rattraper son retard technologique et réduire sa dépendance vis-à-vis des États-Unis. Consciente que la puissance de calcul est un pilier de la puissance, la Chine investit depuis des années dans ses propres supercalculateurs et, désormais, dans les puces d’IA domestiques. Elle a déjà démontré sa capacité à construire des supercalculateurs de classe mondiale (par exemple Sunway TaihuLight fut le numéro un mondial de 2016 à 2018 ([718])). Pour l’ère exaflopique, des sources indiquent que la Chine a atteint ce cap en 2021 sur des prototypes ; toutefois,par prudence stratégique, celle-ci n’a pas officialisé ces résultats ([719]).
Surtout, face aux sanctions américaines limitant l’accès aux meilleures puces, Pékin a accéléré le développement de solutions nationales. En 2022-2023, les États-Unis ont en effet banni l’exportation vers la Chine des GPU les plus avancés (Nvidia A100, H100...), forçant Nvidia à proposer à la Chine une version bridée (GPU H20 dit « version Chine »), environ 5 fois moins puissante que le modèle standard ([720]). Même ces versions dégradées se vendent bien en Chine, et un marché noir de la puce Nvidia s’est constitué ([721]) ; pour autant, la limitation des performances des GPU vendus à la Chine par NVidia a servi de catalyseur : de nombreuses entreprises chinoises se sont lancées dans la conception de GPU ou accélérateurs IA locaux([722]) ([723]) Lors du forum de l’IA de 2025 à Shanghai, toute une panoplie de GPU « made in China » a été présentée, couvrant des usages allant du cloud aux objets connectés ([724]). Les autorités et capitaux chinois soutiennent massivement cet effort : des financements de plusieurs milliards de yuans ont afflué vers ces acteurs ([725]).
Sur le papier, certaines puces chinoises commencent à approcher les performances des modèles occidentaux de précédente génération. Par exemple, la start-up Biren a annoncé que son GPU BR100 rivalisait avec le Nvidia A100 ([726]). Des centres de données pilotes en Chine intègrent déjà des GPU domestiques : la start-up Biren aurait équipé un centre de China Telecom et un centre de China Mobile avec des clusters de plusieurs centaines de ses GPU ([727]).
Cependant, Nvidia reste ultra-dominant en Chine, avec près de 17 milliards de dollars de ventes en 2024 (13 % de son CA mondial) ([728]), contre des concurrents chinois dont les revenus se comptent en dizaines de millions de yuans ([729]). Les causes sont multiples : retard technologique (les puces chinoises accusent sans doute cinq ans de décalage en termes de finesse de gravure et d’architecture), difficultés d’accès aux outils de pointe (pas d’ASML EUV pour la Chine en raison des restrictions, ce qui limite la gravure en dessous de 7 nm), et écosystème logiciel pas encore mûr (CUDA de Nvidia reste la plateforme dominante, et la convertir pour de nouveaux GPU est complexe).
Après avoir interdit en avril 2025 l’export des puces H20 de Nvidia pour freiner les capacités d’IA chinoises, Washington a levé ces sanctions en juillet 2025 ([730]) pour préserver les intérêts économiques de ses géants technologiques, Nvidia en tête.
Ce revirement illustre la tension entre contrôle stratégique et dépendance économique : les États-Unis veulent contenir la Chine, mais leurs champions industriels restent liés à ce marché. La Chine, malgré des investissements massifs, accuse encore un retard technologique majeur.
Néanmoins, la Chine réduit progressivement l’écart en matière de production de puces. Un rapport estime qu’elle accuse environ 5 ans de retard sur les États-Unis dans ce domaine ([731]). Si ce rythme de rattrapage se maintient, la Chine pourrait disposer d’ici la fin de la décennie d’alternatives crédibles aux GPU Nvidia/AMD pour nombre d’applications. L’enjeu pour elle est autant économique (capturer une part de ce marché stratégique) que géopolitique (ne pas rester à la merci des sanctions étrangères).
Pékin utilise aussi l’arme réglementaire pour soutenir cet objectif : en décembre 2024, les autorités chinoises ont lancé une enquête antimonopole contre Nvidia, officiellement pour abus de position dominante sur le marché des puces IA en Chine ([732]). Cette enquête peut être vue comme une mesure de représailles face aux contrôles américains sur les semi-conducteurs, mais aussi comme un moyen de favoriser les acteurs locaux en incitant Nvidia à des concessions (prix, partenariats) ou en retardant ses ventes.
En parallèle, la Chine investit dans toute la chaîne : son industrie des fabs (usines de gravure) essaie d’améliorer ses procédés (SMIC, principal fondeur chinois, aurait réussi en 2022 à produire des puces en 7 nm sur ses anciennes machines DUV, une prouesse même si le rendement reste faible ([733])). De plus, la Chine explore RISC-V ([734]), une architecture de processeur libre, pour développer des chips sans dépendre des IP américaines, là encore avec un soutien public important.
Si la Chine et d’autres acteurs parviennent à proposer des alternatives crédibles aux GPU Nvidia, le marché pourrait s’ouvrir et les prix baisser. L’histoire des technologies montre que même les monopoles les plus solides finissent par être remis en cause.
d. Supercalculateurs : les États-Unis en tête, l’Europe à la traîne, la Chine dans l’ombre
Un autre indicateur de la puissance de calcul d’une région est le nombre et la performance de ses supercalculateurs ([735]). Ces machines extrêmes, souvent financées par des États ou des consortiums publics-privés, sont essentielles pour la recherche scientifique et de plus en plus pour l’IA. Sur ce terrain, la compétition internationale est redoutable depuis des décennies, et là encore, l’Europe tient un rôle de second plan.
Actuellement, les deux supercalculateurs les plus puissants officiellement répertoriés sont américains (système El Capitan et Frontier ([736])). La Chine aurait quant à elle déjà déployé en interne deux (peut-être trois ([737])) supercalculateurs de classe exaflop (projets OceanLight et Tianhe-3 ([738])), mais n’a pas publié leurs résultats depuis 2021, sans doute en raison des tensions technologiques avec les États-Unis et au vu de l’importance géostratégique de la puissance de calcul.
L’Europe place ses meilleurs supercalculateurs aux 4e et 6e rangs mondiaux environ (le classement étant toutefois faussé en raison des réticences chinoises), avec Jupiter Booster (Allemagne) et HPCI6 (Italie) dans le classement Top500 de 2025 ([739]). La France, pour sa part, dispose de machines de très hautes performances mais qui se distinguent davantage par leur effience énergétique : Romeo-2025 (Champagne-Ardenne) et Adastar 2 (GENCI) figurent en deuxième et troisième places du classement Green500 ([740]).
Stratégie française en matière de puissance de calcul ([741])
La stratégie française en matière de calcul intensif repose sur trois supercalculateurs publics de référence : Jean Zay (CNRS/IDRIS), le plus puissant supercalculateur en France, Adastra (CINES) et Alice Recoque (CEA/TGCC, en cours d’acquisition), constituant l’ossature de la souveraineté numérique nationale dans le domaine de l’intelligence artificielle.
Depuis la publication du rapport Villani en 2018, la politique française en matière d’IA s’articule autour de trois axes : la recherche, l’innovation et la diffusion de l’IA dans l’industrie. Cette dynamique s’est traduite, dans le cadre du plan France 2030, par des investissements massifs dans les infrastructures de calcul, notamment l’extension du supercalculateur Jean Zay et la future mise en service d’Alice Recoque.
Par ailleurs, la France a été sélectionnée par l’entreprise commune européenne EuroHPC JU pour accueillir l’une des AI Factories du programme. Cette initiative, intitulée AI Factory France (AI2F), vise à fédérer les moyens matériels (Jean Zay, Adastra, Alice) et les acteurs publics et privés (startups, PME, universités, organismes de recherche, industriels) autour d’un écosystème souverain dédié au développement de l’IA.
Au niveau européen, la France participe activement à l’entreprise commune EuroHPC, dotée d’un budget de près de 7 milliards d’euros sur la période 2021–2027, destinée à financer l’acquisition, le déploiement et l’exploitation de supercalculateurs exascale, ainsi qu’à structurer un réseau de centres de calcul haute performance et d’AI Factories à l’échelle du continent.
Source : Travaux de la mission.
Cependant, il est notable que les supercalculateurs européens intègrent presque systématiquement des processeurs et GPU américains (par exemple CPU Intel/AMD et GPU Nvidia dans LUMI, Leonardo, etc.), faute d’alternatives locales, même si l’UE tente d’y remédier via l’European Chip Act. L’écosystème logiciel HPC/IA (CUDA, frameworks…) étant également dominé par les Américains, la dépendance s’étend au-delà du matériel lui-même.
Noton également la prise de conscience européenne en matière de supercalculteur. L’Union européenne s’appuie sur l’entreprise commune EuroHPC (JU) ([742]), créée en 2020, partenariat public-privé pour bâtir une infrastructure paneuropéenne de supercalculateurs. Dotée d’un budget de 7 milliards d’euros (2021–2027), elle vise à déployer au moins trois machines exascale dans le top 5 mondial ([743]), et à garantir l’accès au calcul intensif pour la recherche, l’industrie et les PME.
EuroHPC JU a déjà soutenu plusieurs supercalculateurs pré-exascale et exascale dans différents pays européens, dont LUMI (Finlande), Leonardo (Italie), MareNostrum 5 (Espagne) et Deucalion (Portugal). Le système JUPITER, en cours d’installation en Allemagne, sera le premier supercalculateur exascale européen ([744]).
En parallèle, EuroHPC développe un réseau d’AI Factories, incluant la France, pour soutenir l’IA via des plateformes de calcul mutualisées. À ce jour, 13 sites ([745]) ont été sélectionnés à travers l’Europe pour accueillir une AI Factory, infrastructure de calcul dédiée à l’IA. Lors d’une seconde sélection en février 2025, 6 nouveaux sites, dont la France ([746]), ont rejoint le programme. Ce réseau constitue la colonne vertébrale de la stratégie européenne en IA : pour 2026, les AI Factories combineront calcul intensif, données et expertise pour stimuler l’innovation du continent pour les start-up, PME et laboratoires. Sur le plan technologique, des projets comme EPI ([747]) et DARE ([748]) visent à créer des processeurs et accélérateurs européens, basés sur RISC-V, pour réduire la dépendance aux architectures étrangères. Enfin, des Centres d’excellence (CoEs) ([749]) et programmes logiciels renforcent la maîtrise de l’écosystème HPC/IA européen.
Par ailleurs, l’indicateur du Top500 ne dit pas tout : la puissance de calcul brute inclut aussi les fermes de serveurs des acteurs privés. En la matière, les « hyperscalers » américains ont construit des centres de données colossaux pour leurs besoins en cloud et en IA, souvent bien plus puissants que les supercalculateurs universitaires. Le projet « Stargate » ([750]) d’OpenAI et Oracle prévoit un centre de données de plus de 5 GW capable d’héberger plus de deux millions de puces IA, soit une capacité de calcul potentielle très largement supérieure à celle d’El Capitan, le supercalculateur académique le plus puissant au monde.
Google, Microsoft, Amazon ou Meta opèrent chacun des infrastructures comptant des dizaines de milliers de GPU pour entraîner des IA (souvent ces installations ne sont pas rendues publiques ni classées, car non soumis à des benchmarks officiels). En Europe, à l’inverse, il n’existe aucun opérateur de cloud de taille équivalente : les plus grands centres de données européens (ceux d’OVHcloud, de Deutsche Telekom, etc.) restent de dimension modeste face aux géants américains. L’étude citée précédemment ([751]) estimait que seulement 4 % de la capacité mondiale de calcul IA se trouvait en Europe, contre 70 % aux USA, un écart dû en grande partie à l’absence d’hyperscalers européens. En France et en Europe, l’usage des supercalculateurs pour l’IA reste surtout le fait de la recherche publique (par exemple le supercalculateur Jean Zay du CNRS a été utilisé pour entraîner le modèle multilingue BLOOM en 2022 ([752])). Cet effort est notable, mais il a mobilisé quelques centaines de GPU pendant quelques mois, là où les projets américains comme GPT-4 mobilisent dizaines de milliers de GPU sur des durées prolongées. La différence d’échelle est notable.
Face à ce constat, vos rapporteurs partagent et soutiennent la double inflexion en matière de politique publique relative portant sur les supercalculateurs par l’autorité de la concurrence dans son avis récent ([753]). Il s’agit à la fois d’investir dans des supercalculateurs publics et d’ouvrir leur accès à des acteurs privés pour réduire la dépendance aux infrastructures américaines.
Vos rapporteurs soutiennent le renforcement du parc de supercalculateurs publics, qui constitue une alternative stratégique aux fournisseurs de cloud privés et garantit un accès à la puissance de calcul pour les acteurs universitaires et scientifiques, au service de la recherche et de l’innovation.
Recommandation n° 22 : Poursuivre et intensifier les investissements dans le développement de supercalculateurs à l’échelle européenne, afin de garantir un accès élargi et souverain à la puissance de calcul pour l’ensemble des acteurs publics et privés de la recherche et de l’innovation.
Vos rapporteurs relèvent que l’ouverture des supercalculateurs publics à des acteurs privés, bien que déjà amorcée dans le cadre de certains programmes européens comme ceux de l’entreprise commune EuroHPC, reste encore limitée, peu lisible et inégalement mise en œuvre selon les infrastructures. Dans un contexte de besoin croissant en capacités de calcul, notamment pour les start-up et PME innovantes, ils estiment nécessaire de structurer plus clairement cette ouverture.
Recommandation n° 23 : Inviter le Gouvernement et les opérateurs de supercalculateurs publics à définir un cadre d’accès ouvert, transparent et non discriminatoire pour les acteurs privés, contre rémunération, en veillant à préserver la priorité d’usage réservée à la recherche académique, et à articuler cette démarche avec les initiatives européennes déjà existantes.
2. Des infrastructures nationales et européennes à promouvoir
a. Un atout industriel européen géostratégique à protéger : ASML
i. Un monopole technologique total, indispensable dans la chaîne de valeur de l’IA
ASML, société néerlandaise fondée en 1984 et dirigée pour la seconde fois par un Français, Christophe Fouquet ([754]), est aujourd’hui le seul fabricant mondial ([755]) ([756]) de systèmes de lithographie EUV (Extreme Ultraviolet), capables de graver des circuits à l’échelle nanométrique (moins de 5 nm), indispensables à la fabrication des processeurs avancés utilisés dans l’intelligence artificielle, notamment les GPU et NPUs. Ces machines, d’une complexité extrême et coûtant entre 150 et 380 millions de dollars pièce ([757]), représentent un goulot d’étranglement technologique, car aucun concurrent (Canon, Nikon) ne dispose d’une technologique comparable dans la lithographie EUV (les concurrents se situent sur le segment de la lithographie DUV).
Grâce à ce monopole total sur le segment de l’EUV et de position dominante sur le DUV ([758]), en novembre 2024, ASML était la quatrième entreprise la plus valorisée d’Europe et la deuxième société technologique européenne en termes de capitalisation boursière, avec une valeur d’environ 264 milliards de dollars américains ([759]).
Le marché de la lithographie EUV, estimé à environ 24 milliards USD en 2025 et en croissance annuelle moyenne de 10 % ([760]), représente un segment crucial de l’industrie des semi‑conducteurs ([761]) mondiale.
Croissance prévue du marché mondial de la lithographie EUV, 2025-2030
Source : Mordor intelligence, EUV Lithography Market Size & Share Analysis - Growth Trends & Forecasts (2025 - 2030) , 2025
Le leadership technologique d’ASML place cette entreprise au cœur des stratégies industrielles des États-Unis ([762]) et de l’Union européenne ([763]), notamment dans le cadre des programmes « Chips Act » visant à réinternaliser des capacités de production de semi-conducteurs, face au risque géostratégique que représente la position dominante de la société taïwanaise TSMC.
ASML est aujourd’hui l’unique fournisseur mondial de machines de lithographie extrême ultraviolet (EUV), technologie indispensable pour la production de puces avancées inférieures à 5 nm et la poursuite de la loi de Moore dans le domaine. Ses travaux sur la prochaine génération de systèmes dits « High-NA EUV » devraient permettre d’atteindre des nœuds technologiques inférieurs à 2 nm ([764]), essentiels pour le développement de l’intelligence artificielle et des applications de calcul intensif.
À ce titre, ASML constitue un pilier stratégique pour la compétitivité technologique européenne. Sans l’existence d’ASML, la chaîne d’approvisionnement mondiale des semi-conducteurs de pointe serait gravement compromise ([765]) :
– la fabrication de processeurs avancés (5–3–2 nm) deviendrait impossible à grande échelle, freinant la progression des modèles d’intelligence artificielle et retardant l’innovation numérique. Or, ces nœuds sont nécessaires pour entraîner et déployer des modèles de type LLM (large language models) comme GPT-4, dont les besoins en puissance de calcul et en efficacité énergétique sont massifs ;
– aucun concurrent n’est en mesure, à court terme, de proposer une alternative crédible aux systèmes EUV d’ASML, ce qui bloquerait l’ensemble du marché et pénaliserait les leaders amont de l’IA (Nvidia, TSMC, Samsung, Intel) dépendants de ces équipements critiques ([766]) ;
– enfin, depuis 2019, les exportations d’EUV vers la Chine sont soumises à des restrictions strictes sous pression américaine ([767]). Cette situation renforce la position d’ASML comme levier dans la guerre technologique USA–Chine et pousse Pékin à entreprendre des stratégies d’autonomie longues et coûteuses.
ii. ASML : un atout géopolitique unique pour l’Europe dans la guerre des semi-conducteurs
La chaîne de valeur mondiale des semi-conducteurs repose aujourd’hui sur une hyper‑concentration d’acteurs : les puces avancées sont conçues par un acteur quasi‑monopolistique américain (Nvidia), fabriquées par un autre (TSMC à Taïwan), et leur production repose sur des machines de lithographie EUV fournies exclusivement par une entreprise européenne, ASML. Cette position confère à l’Europe un levier stratégique unique, alors même qu’elle ne représente que 10 % de la production mondiale ([768]) de semi‑conducteurs, contre 80 % pour l’Asie ([769]) (Taïwan, Corée du Sud et, de plus en plus, Chine).
La lithographie EUV (Extreme Ultraviolet) constitue un goulot d’étranglement technologique sans équivalent : sans ces machines, la production de puces avancées (5–3–2 nm) devient impossible. Comme l’envisage Chris Miller ([770]), une crise logistique (par exemple un blocus chinois sur les exportations de puces qu’elle fabrique) ou des mesures de rétorsion américaines (restrictions de licences d’usage des processeurs qu’ils conçoivent) fragiliseraient gravement les chaînes d’approvisionnement mondiales. Dans un tel scénario, l’Europe pourrait à son tour peser géopolitiquement en empêchant tout nouveau projet d’usine en Chine ou aux États-Unis, tant ASML est indispensable.
Comme le relève Douglas C. Youvan ([771]) (Monopolizing Innovation : The Strategic Role of ASML, 2024), ASML est devenu le pivot de la domination mondiale sur les semi-conducteurs. Vos rapporteurs considèrent stratégique pour l’Europe de capitaliser sur cette position en négociant des accords technologiques et financiers avec les géants de l’intelligence artificielle (Nvidia, OpenAI, etc.), tout en conditionnant les exportations d’EUV à des retombées industrielles et en consolidant ses partenariats intra-européens.
Face à ce constat, la maîtrise de la lithographie extrême ultraviolet (EUV) est devenue un enjeu central de la rivalité technologique entre les États-Unis et la Chine. Du côté américain, la stratégie repose sur un double mouvement : sécuriser l’accès aux machines EUV d’ASML tout en développant une capacité nationale de production, malgré les récentes déclarations du président des États-Unis exprimant sa volonté d’abroger le Chip Act ([772]). Le Chips and Science Act, doté de 52 milliards de dollars, finance des centres de recherche et de production, dont le récent EUV Accelerator d’Albany ([773]) , afin de réduire la dépendance vis-à-vis des technologies européennes et de bâtir une chaîne d’approvisionnement intégrée. Parallèlement, des acteurs privés comme Intel investissent massivement pour être les premiers à exploiter la nouvelle génération de machines High-NA EUV d’ASML ([774]).
À l’inverse, la Chine, frappée par les restrictions d’exportation imposées par les États-Unis et leurs alliés, poursuit une stratégie d’autonomie technologique totale. Pékin a mobilisé des financements estimés à 41 milliards de dollars ([775]) pour développer des alternatives nationales, notamment par l’intermédiaire de sociétés comme SMIC (Semiconductor Manufacturing International Corporation) et des partenariats publics-privés. Bien que des avancées aient été annoncées, la Chine reste encore dépendante des générations antérieures de machines (DUV) et accuse un retard technique conséquent dans la maîtrise des sources EUV, ce qui pourrait toutefois se réduire d’ici la fin de la décennie ([776]).
L’Union européenne, consciente de l’importance stratégique de sa filière des semi‑conducteurs, dispose depuis septembre 2023 d’un Chips Act. Ce dispositif, doté d’un budget public‑privé de plus de 43 milliards d’euros, vise à renforcer la R&D, la production et la résilience des chaînes d’approvisionnement européennes. Toutefois, un rapport de la Cour des comptes européennes le considère comme trop fragmenté et probablement insuffisant pour garantir l’objectif de 20 % de parts de marché mondial d’ici 2030 ([777]). En réponse, les industriels du domaine ([778]) appellent à un Chips Act 2.0 pour accélérer les financements, simplifier les procédures et soutenir toutes les étapes de la chaîne, du design à l’outillage.
Dans cet écosystème, ASML constitue un pilier essentiel. Son avance technologique sur la lithographie EUV lui confère un monopole critique, ce qui en fait un véritable atout géopolitique pour l’Union européenne. La stratégie européenne doit donc s’appuyer sur une politique tripartite : promouvoir (financer la R&D et l’innovation), protéger (par des contrôles à l’exportation encadrés) et nouer des partenariats industriels solides. Ce cadre vise à préserver l’avantage compétitif d’ASML tout en développant un écosystème robuste capable de limiter la dépendance extérieure ([779]).
Enfin, l’Europe doit encourager les partenariats stratégiques d’ASML, tant avec des géants industriels comme Intel ([780]) qu’avec de jeunes pousses innovantes telles que xLight ([781]). Ces collaborations permettent de maintenir la course technologique et d’innover à la périphérie du système EUV. Intel, qui détient une participation dans ASML grâce à un investissement majeur, bénéficie déjà des premières machines High‑NA EUV, conférant à la fois à ASML et à l’Europe une avance industrielle. Par ailleurs, l’essor de xLight, start-up financée à hauteur de 40 millions de dollars dans le cadre d’un partenariat annoncé avec ASML, illustre comment des entreprises européennes de pointe, en développant des coopérations avec des acteurs spécialisés aux États-Unis, peuvent externaliser une partie du risque d’innovation. Elles sont ainsi en mesure de capter de nouvelles technologies, tout en consolidant leur leadership face aux ambitions chinoises et américaines dans l’EUV.
b. Gagner en puissance de calcul
Le constat est clair : la France et l’Europe accusent un retard stratégique dans le domaine des infrastructures de calcul intensif, essentielles au développement et au déploiement de l’intelligence artificielle. Ce retard s’exprime tant en matière de capacités installées que de maîtrise industrielle sur l’ensemble de la chaîne de valeur (puces, cloud, logiciels, etc.). Les États-Unis dominent largement, portés par des investissements massifs et un écosystème technologique intégré. La Chine mobilise ses ressources à grande échelle pour rattraper ce retard et tendre vers une autonomie complète. À l’inverse, l’Europe reste marginale, dépendante des importations de technologies critiques, en particulier américaines, pour couvrir ses besoins en puissance de calcul.
Cette dépendance compromet la souveraineté numérique et industrielle de l’Union européenne, à un moment où l’intelligence artificielle est appelée à devenir une infrastructure stratégique transversale. Le maintien d’une telle situation réduirait l’Europe au rang d’utilisatrice passive de technologies conçues et contrôlées par d’autres puissances, avec un risque de perte d’autonomie technologique, de maîtrise des normes et de sécurité d’accès, en particulier en contexte de crise géopolitique.
La France dispose de plusieurs atouts qu’il convient désormais de porter à l’échelle européenne : un mix électrique faiblement carboné, potentiellement compétitif, des acteurs industriels et universitaires reconnus dans le domaine du HPC et de l’IA, et une volonté politique affirmée de souveraineté numérique. Dans ce contexte, vos rapporteurs estiment que l’objectif de porter la capacité française à 10 % de celle des États-Unis d’ici 2028 est pertinent à titre d’étape intermédiaire structurante.
Dès lors, vos rapporteurs appellent de leurs vœux la conduite d’une politique industrielle européenne et française de la puissance de calcul, combinant un soutien financier massif à l’investissement dans des centres de calcul de très grande échelle et une simplification réglementaire pour accélérer leur déploiement, notamment en matière d’accès à l’énergie, de raccordement réseau et de procédures d’implantation.
Recommandation n° 24 : Promouvoir une politique industrielle européenne de la puissance de calcul, en articulation avec la stratégie française, fondée à la fois sur un soutien financier accru aux centres de calcul de très grande échelle et sur une simplification des règles pour faciliter leur déploiement, notamment en matière d’énergie, de raccordement électrique et d’implantation.
i. Renforcer l’investissement européen dans les capacités de calcul intensif
Ce déséquilibre expose l’Europe et la France à une dépendance dangereuse. Si l’entraînement et l’hébergement des modèles d’IA les plus avancés reposent sur des serveurs américains, l’Europe risque de perdre toute marge de manœuvre, devenant vulnérable à d’éventuels chantages géopolitiques. Pour préserver sa souveraineté technologique, il ne s’agit pas de viser l’autarcie absolue – aucun pays n’est autosuffisant sur toute la chaîne –, mais de garantir un socle minimal de puissance de calcul sur le sol européen et français, condition de la puissance économique de demain. Or, vos rapporteurs considèrent que le fossé actuel est tel que combler le retard demandera des investissements gigantesques, ambitieux et coordonnés.
Les besoins d’investissements à consentir sont considérables. Selon les estimations disponibles ([782]), la France devrait déployer entre 5 et 6 gigawatts (GW) de puissance de calcul dédiée à l’IA d’ici 2028, soit environ 10 % de la capacité américaine actuelle, afin de simplement refléter son poids dans le produit intérieur brut mondial. Un tel objectif supposerait un effort financier estimé entre 200 et 250 milliards d’euros. Cela représenterait plus de deux fois le montant de 109 milliards annoncé par le président de la République ([783]).
À l’échelle européenne ([784]), viser une part de 15 à 20 % de la puissance de calcul mondiale à l’horizon 2030 impliquerait d’atteindre environ 20 GW de capacité installée, pour un coût cumulé compris entre 600 et 850 milliards d’euros. Ces montants, rapportés à l’effort actuel, montrent l’ampleur du décalage. Par comparaison, le plan européen InvestAI ne prévoit aujourd’hui que 20 milliards d’euros ([785]) pour financer des « AI Factories », principalement destinées à la recherche publique, et le programme EuroHPC ([786]) rassemble péniblement 7 milliards d’euros sur l’ensemble de la période 2021-2027. Des initiatives européennes commencent à voir le jour : le plan EU Chips Act pour stimuler la production de semi-conducteurs ; le programme EuroHPC pour financer des supercalculateurs ; toutefois, leur ampleur reste modeste au regard des dépenses américaines et asiatiques dans ce domaine ([787]).
Le plan « AI Continent » ([788]) et l’initiative InvestAI
Lancé en avril 2025 par la Commission européenne, le plan « AI Continent » vise à faire de l’Union européenne un acteur majeur et autonome dans le domaine de l’intelligence artificielle. Il repose sur un constat d’urgence : l’UE est distancée par les États-Unis et la Chine, tant en matière de capacités de calcul que de maîtrise industrielle. Pour combler ce retard, le plan s’articule autour de plusieurs axes, dont le plus structurant est l’initiative InvestAI, conçue pour financer l’émergence d’un écosystème industriel souverain dans le domaine de l’IA.
L’objectif affiché d’InvestAI ([789]) est de mobiliser 200 milliards d’euros d’investissements publics et privés à l’échelle du continent. Les 200 milliards d’euros proviendront en grande partie de l’AI Champions Initiative ([790]), une initiative privée réunissant plus de 60 entreprises européennes ayant promis 150 milliards d’euros pour « porter une vision positive de l’Europe ». La contribution de la Commission européenne viendrait compléter ce montant à hauteur de 50 milliards d’euros, portant ainsi le total à 200 milliards d’euros. Ce montant comprend notamment 20 milliards d’euros de financements publics européens destinés à soutenir la construction de quatre à cinq « AI gigafactories ». Ces infrastructures sont des centres de calcul de très grande puissance, conçus pour accueillir jusqu’à 100 000 processeurs spécialisés dans l’IA chacun, et assurer l’entraînement des modèles de fondation à la pointe de la recherche. À ce jour, la localisation et le calendrier précis de ces installations restent à confirmer, mais elles visent à former un socle stratégique pour la compétitivité future de l’IA européenne.
Source : Travaux de la mission.
Le plan « AI Continent » constitue donc une première étape de structuration stratégique. Mais sans un changement d’échelle financier suffisant, le fossé avec les leaders mondiaux de l’IA pourrait se creuser durablement. À titre de comparaison, le plan InvestAI, qui vise à mobiliser 200 milliards d’euros à l’échelle européenne, reste d’une ampleur modeste face aux initiatives actuellement engagées aux États-Unis. Le projet américain Stargate, porté par Microsoft et OpenAI, représente à lui seul un investissement annoncé de 500 milliards de dollars ([791]), soit plus du double du plan européen.
Face à ce constat, vos rapporteurs estiment qu’un changement d’échelle est indispensable sur le plan financier. Cela implique d’une part une mobilisation massive de financements, publics et privés, à l’image des annonces récentes du Président de la République en France, mais aussi, et surtout, un pilotage stratégique de ces investissements à l’échelle européenne. Afin de réunir les montants nécessaires susvisés supra à la construction de ces infrastructures critiques, vos rapporteurs formulent deux recommandations principales.
Premièrement, vos rapporteurs proposent d’activer des leviers financiers comparables à ceux du plan NextGenerationEU, en recourant notamment à une logique d’obligations communes ciblées sur le soutien aux clusters de calcul et à l’approvisionnement énergétique associé.
Recommndation n° 25 : Émettre des obligations pan-européennes dédiées au financement des infrastructures critiques de calcul intensif, en particulier pour les besoins de l’IA et de l’énergie.
Deuxièmement, si la France et l’Europe souhaitent développer un socle minimal de puissance de calcul en vue d’une autonomie stratégique, un effort financier subséquent devra être atteint. Pour atteindre les objectifs raisonnables respectivemeent de 10 % de capacité de calcul américaine d’ici 2028 pour la France et de 15-20 % pour l’UE d’ici 2030, cela représentera un effort financier estimé entre 200 et 250 milliards d’euros au niveau national et entre 600 et 850 milliards d’euros au niveau européen.
Recommandation n° 26 : Accroître significativement les investissements européens dans la puissance de calcul, en portant l’effort cumulé à 250 milliards d’euros pour la France à l’horizon 2028, puis entre 600 et 850 milliards d’euros pour l’Union européenne d’ici 2030.
Ces recommandations visent à créer les conditions d’un véritable rattrapage européen, sans lequel le continent demeurera durablement dépendant des plateformes étrangères pour l’entraînement, l’hébergement et l’accès aux modèles d’IA les plus avancés. Elles constituent le premier pilier d’une stratégie industrielle de reconquête dans le domaine des capacités critiques du XXIème siècle. Le second pilier, selon vos rapporteurs, est la simplification règlementaire.
ii. Lever les freins règlementaires et structurels au déploiement des centres de calcul
Le retard européen en matière de puissance de calcul pour l’IA ne tient pas qu’à un déficit de financement : les obstacles réglementaires et structurels ralentissent significativement le déploiement des centres de données en France et en Europe. Aujourd’hui, les projets de grande envergure, dont l’installation peut excéder 5 ans ([792]) ([793]), sont freinés par des démarches administratives lourdes (permis, études d’impact, urbanisme) et des délais prolongés pour le raccordement électrique. Ce décalage compromet la montée en puissance rapide des infrastructures critiques nécessaires à la souveraineté numérique.
Des mesures de simplification règlementaire en la matière ont déjà été initiées au niveau national. Le projet de loi de simplification de la vie économique ([794]), en cours d’examen devant le Parlement, intègre un article visant à qualifier par décret certains centres de données de « projets d’intérêt national majeur (PINM) » et ainsi à accélérer leur construction : le texte comporte des dispositions qui adaptent les procédures d’autorisations d’urbanisme, réduisent les délais des procédures de consultation publique et apportent des dérogations encadrées à certaines normes environnementales. Vos rapporteurs ne peuvent qu’appeler de leurs vœux ce statut en vue d’accélérer le déploiement d’infrastructures critiques pour l’IA.
En matière de simplification règlementaire, vos rapporteurs estiment que des enseignements pourraient être tirés de la démarche volontariste du Royaume-Uni pour lever les freins à l’implantation des infrastructures critiques que sont les centres de données. Le Royaume-Uni, a récemment lancé les AI Growth Zones ([795]), des zones géographiques bénéficiant d’un accès prioritaire à l’énergie et d’une simplification substantielle des procédures administratives (urbanisme, raccordement, régulation). Ces zones visent à attirer des investissements massifs dans les centres de données de nouvelle génération, tout en soutenant la réindustrialisation de certains territoires. Vos rapporteurs estiment que la France devrait s’inspirer de cette approche intégrée et complète, en identifiant des zones stratégiques d’accélération de l’IA qui seraient dotées d’un statut spécifique et d’un accès garanti à une énergie bas-carbone compétitive. Afin de donner une visibilité claire aux investisseurs et de valoriser les territoires concernés, vos rapporteurs proposent que ces zones soient reconnues par un label « territoire IA souverain », garantissant un régime simplifié et stable pour l’implantation de centres de données stratégiques.
Recommandation n° 27 : S’inspirer des AI Growth Zones britanniques pour instituer en France des zones d’accélération de l’intelligence artificielle, associant un accès prioritaire à l’électricité décarbonée (notamment nucléaire) à un régime administratif allégé pour l’implantation des centres de données stratégiques, tel un label « territoire IA souverain »
L’essor de l’intelligence artificielle transforme profondément le secteur de l’énergie, tout en en accentuant certaines tensions. Les centres de données, en particulier ceux spécialisés dans l’IA (hyperscalers), sont très énergivores : ils représentaient en 2024 environ 3 % de la consommation d’électricité de l’UE, avec des pointes locales allant jusqu’à 20 % en Irlande ([796]). Leur demande devrait plus que doubler d’ici 2030 ([797]). Cette concentration géographique exerce une pression croissante sur les réseaux électriques locaux, allonge les files d’attente pour les raccordements et crée des arbitrages délicats entre compétitivité, transition énergétique et accessibilité des infrastructures.
En réponse, l’UE a lancé plusieurs initiatives : le futur Cloud and AI Development Act (attendu fin 2025) ([798]) vise à tripler la capacité de traitement des données, tout en renforçant les exigences de durabilité. L’Union européenne prépare un ensemble de mesures réglementaires sur la performance énergétique, l’usage de l’eau et l’intégration des centres dans les réseaux électriques, dans le cadre du plan règlementaire 2026 pour les centres de données européens (ou « data centre energy efficiency package » ([799]) ([800]). Le marché européen a aussi adopté le Climate Neutral Data Centre Pact, un pacte industriel visant une neutralité carbone d’ici 2030, avec des standards communs (efficacité énergétique, réutilisation de la chaleur, approvisionnement renouvelable) certifiés indépendamment.
Paradoxalement, l’IA peut aussi contribuer à améliorer l’efficacité énergétique du système : optimisation des réseaux via les smart grids, intégration des énergies renouvelables, maintenance prédictive, pilotage intelligent des usages, ou encore gestion fine de la demande. Le développement de l’autoconsommation, le recours aux énergies bas carbone (renouvelables, nucléaire, petits réacteurs modulaires), et la récupération de chaleur sont également des leviers mobilisés. Le Parlement européen ([801]) insiste sur la nécessité d’une meilleure intégration des centres de données au sein du système énergétique et appelle à renforcer la souveraineté technologique de l’UE, alors que la majorité des grands centres européens appartiennent à des acteurs non européens. Le défi des prochaines années sera d’articuler montée en puissance numérique et sobriété énergétique dans un cadre durable, sécurisé et souverain.
Dans ce contexte, garantir l’accès prioritaire à une électricité décarbonée et bon marché, notamment via l’énergie nucléaire, constitue un levier essentiel, à condition que les modalités d’attribution et de tarification soient sécurisées et encadrées.
En matière énergétique, la France a des atouts d’attractivité majeurs pour accueillir des infrastructures critiques en IA. La France bénéficie d’un mix électrique largement dominé par le nucléaire (plus de deux tiers de sa production), ce qui la rend attractive pour des entreprises électrointensives cherchant une électricité bas carbone, telles que les centres de données. Afin d’accélérer ces projets, EDF a identifié sur ses terrains quatre sites ([802])dotés de connexions réseau déjà actives (représentant environ 2 GW d’électricité disponible). EDF discute actuellement avec plusieurs opérateurs pour alimenter jusqu’à 3 projets de centres de données de 1 GW chacun ([803]), en s’appuyant sur l’électricité nucléaire bas carbone française.
Malgré sa puissance nucléaire et les promesses d’investissements massifs dans l’intelligence artificielle (plus de 100 milliards d’euros), la France risque de ne pas pouvoir concrétiser rapidement son ambition de devenir un hub mondial de l’IA, en raison de difficultés à connecter rapidement les nouveaux centres de données au réseau électrique. Les centres de données se construisent en moins d’un an, mais les lignes à haute tension prennent en moyenne cinq ans ([804]) à être déployées, notamment à cause des procédures d’autorisation, des consultations publiques et des coûts. Actuellement, EDF est en discussion avec des opérateurs pour alimenter des centres de données de près de 1 GW chacun via des contrats directs ([805]), mais le raccordement réseau demeure un goulot d’étranglement réel, pouvant retarder certains projets de plusieurs années.
Recommandation n° 28 : Assurer l’attractivité du territoire français pour l’implantation de data centers, en prévoyant des mécanismes transparents de tarification ou des contrats à long terme pour garantir des prix compétitifs pour l’électricité bas-carbone, et en mettant en place une procédure de raccordement électrique accélérée.
C. Un capital-risque structurellement en retard : un frein au passage à l’échelle
Si l’Europe a accompli des progrès notables dans le soutien aux jeunes pousses technologiques, notamment en phase d’amorçage, elle reste structurellement désavantagée dans les phases de croissance avancée. Ce déficit de financement, souvent désigné comme le « scale-up gap », limite la capacité des entreprises innovantes européennes à franchir un cap décisif vers la maturité industrielle ou technologique. Il en résulte une fragilité persistante de l’écosystème, marquée par des levées de fonds moins ambitieuses, un recours croissant aux investisseurs extra-européens et une multiplication des acquisitions étrangères.
Ce phénomène est particulièrement préoccupant dans les secteurs stratégiques comme l’intelligence artificielle, qui exigent des investissements massifs, récurrents et de long terme. Faute de capitaux domestiques suffisants, nombre de start-up européennes, même prometteuses, peinent à rivaliser avec leurs homologues d’Amérique du Nord ou d’Asie et sont souvent contraintes de se tourner vers l’extérieur pour poursuivre leur développement. Cette dépendance nuit à la souveraineté technologique du continent, freine l’émergence de champions européens et affaiblit l’ancrage territorial de l’innovation.
Dans ce contexte, il apparaît essentiel de remédier aux causes profondes du retard européen en matière de capital-risque, notamment par une mobilisation accrue de l’épargne privée et institutionnelle, une réforme des contraintes prudentielles et une structuration ambitieuse de l’investissement public-privé. Le cas de l’intelligence artificielle, à la fois révélateur et amplificateur de ces tensions, illustre la nécessité d’un changement d’échelle rapide et structurant.
1. L’ampleur du retard européen en capital-risque de croissance
a. Un écosystème capital-risque en retard vis-à-vis des États-Unis, en particulier en financement « growth »
Le capital-risque européen reste très en dessous de celui des États-Unis, tant en volume investi qu’en taille des « tours de table ». En 2019, les start-up de l’Union européenne ont levé quatre fois moins de fonds que leurs homologues américaines – 34 milliards de dollars (Md$) contre 126 Md$, avec bien moins d’opérations ([806]).
Ce retard se creuse aux stades avancés : les levées de « late stage » (séries C, D et au-delà) ([807]) sont nettement plus faibles en Europe. Au 3ᵉ trimestre 2020, la médiane d’un tour late stage en Europe (Royaume-Uni inclus) ne représentait que la moitié de celle des États-Unis ([808]). Selon la Banque européenne d’investissement, le capital-risque investi chaque année dans les entreprises américaines est 6 à 8 fois supérieur à celui en Europe ([809]). En 2024, les jeunes pousses européennes devraient lever environ 45 Md$ de capital ([810]), ce qui reste bien en deçà des environ 140 Md$ estimés pour les start-up américaines la même année. Autrement dit, les États-Unis mobilisent plusieurs fois plus de capital-risque que l’Europe pour financer la croissance des entreprises innovantes. Ce fossé se reflète dans le nombre de « licornes » : fin 2020, on en comptait 33 dans l’UE (27) contre 236 aux États-Unis ([811]).
L’insuffisance de financement « growth » en Europe freine le passage à l’échelle de nombreuses start-up. À dix ans d’existence, une jeune pousse européenne a typiquement levé 50 % de moins de capital qu’une entreprise comparable de San Francisco ([812]). Beaucoup peinent donc à réunir les montants nécessaires aux phases de forte expansion. Faute d’investisseurs européens capables de suivre, ces start-up se tournent souvent vers l’étranger pour trouver des fonds. Plus de quatre levées de scale-up sur cinq en Europe ont un investisseur principal étranger, contre seulement 14 % à San Francisco ([813]). Concrètement, cela signifie que de nombreuses entreprises européennes accueillent des investisseurs de référence (lead investors) américains ou asiatiques lors de leurs séries C/D et ultérieures. Par exemple, la start-up française Mistral AI, fondée en 2023 pour développer des modèles d’IA générative, a réussi un tour de table record de 105 Md€ dès son amorçage, mené par le fonds américain Lightspeed Venture Partners ([814]).
Cet apport étranger, s’il permet de financer la croissance à court terme, s’accompagne souvent d’une prise de contrôle progressive par des intérêts non européens. De fait, beaucoup de pépites européennes finissent par être rachetées par des groupes américains ou par s’introduire en Bourse aux États-Unis, où les marchés financiers sont plus profonds ([815]). On l’a vu par exemple avec des acteurs comme DeepMind (IA, Royaume-Uni) racheté par Google ou, plus récemment, la fintech suédoise Klarna, qui a entamé des démarches pour une cotation aux États-Unis faute d’écosystème européen équivalent ([816]).
Ce phénomène de fuite des scale-ups à l’étranger constitue un cercle vicieux : il prive l’Europe de futurs champions technologiques et de role models locaux, entraînant un manque à gagner en termes d’innovation, d’emplois et de « flywheel effect » ([817]) (les entreprises leaders qui réinvestissent localement).
i. Un retard européen en phase de rattrapage pour les premières phases du financement
Le paysage européen du financement des jeunes entreprises technologiques a connu une croissance soutenue au cours de la dernière décennie, en particulier lors des premières phases d’amorçage. Entre 2018 et 2023, l’Europe a fondé en moyenne 15 200 start-up technologiques par an, contre 13 700 aux États-Unis ([818]). Le nombre d’entreprises en phase d’amorçage a plus que quadruplé, passant de 7 800 en 2015 à 35 000 en 2024 ([819]). Ce dynamisme repose notamment sur le rôle clé des « business angels », qui apportent non seulement des financements mais aussi un accompagnement stratégique et sectoriel essentiel à la réussite des projets. Le marché européen des business angels a ainsi progressé de manière significative, doublant en dix ans pour atteindre 1,25 Md€ ([820]) en 2023. Toutefois, ce niveau reste très inférieur à celui observé aux États-Unis, où les investissements des business angels s’élevaient à 18,6 Md$ la même année ([821]).
Évolution du capital-risque en Europe selon le stade de financement,
2015-2024
Source : Crunchbase, Europe’s Startup Funding Stabilized In 2024, But Remains Far Off Market Peak, 13 janvier 2025.
Premièrement, le financement européen de start-up a doublé depuis 2015, confirmant une trajectoire de croissance robuste malgré les fluctuations des marchés. Plus précisément, en 2024, les investissements totaux en Europe dépassent 51 Md$ ([822]). Cette progression n’est pas seulement quantitative : les fonds européens se diversifient, attirant davantage de capitaux internationaux (jusqu’à 40 % dans les fonds d’Europe centrale et orientale ([823])).
Deuxièmement, l’Europe se positionne désormais comme un acteur crédible dès l’early stage : plus de 35 000 start-up actives selon la Commission ([824]). De plus, la confiance des investisseurs européens remonte, atteignant un niveau solide en 2024, après avoir touché un creux en 2022 ([825]). Enfin, la part de l’IA et des technologies vertes continue de croître, représentant une part significative du capital investi, ce qui illustre non seulement une captation de fonds élevés mais aussi une montée en compétence dans les domaines stratégiques ([826]).
Toutefois, les fonds de capital-risque (VC) en Europe demeurent significativement plus petits que leurs homologues américains, tant en nombre qu’en taille. Cet écart est visible pour toutes les tranches de montants levés, mais il s’accentue à mesure que la taille des « tickets » augmente. Ainsi, entre 2016 et 2024, seuls douze fonds européens ont levé plus d’un milliard de dollars, contre 157 aux États-Unis ([827]).
Comparaison des levées de fonds VC entre l’UE et les États-Unis
(2016-2024)
ii. Les causes profondes du manque persistant de financement des entreprises en phase de croissance avancée (ou late stage gap)
Plusieurs facteurs systémiques, évoqués lors de l’audition des fonds Frst, Serena Capital et Resonance expliquent la difficulté à financer la croissance des start-up en Europe :
– Taille insuffisante et fragmentation des fonds européens : l’Europe souffre d’une multitude de fonds de capital-risque de petite taille, souvent circonscrits à un pays. Malgré les progrès récents, le nombre de fonds spécialisés de grande envergure reste limité en Europe ([828]). Chaque pays a développé ses propres dispositifs, menant à un morcellement des ressources. Contrairement aux États-Unis, dotés de quelques hubs majeurs (Silicon Valley, NYC, Boston) alimentés par d’immenses fonds, l’UE compte de nombreux petits écosystèmes régionaux. Cette fragmentation géographique, culturelle et réglementaire entrave les investissements transfrontaliers et la constitution de « tours » vraiment massifs ([829]).
La fragmentation du marché européen du capital-risque limite aussi les opportunités de sortie en Europe (exit ([830]) et IPO ([831])) : les marchés boursiers y sont moins liquides et intégrés, offrant moins de possibilités d’IPO locales réussies – en 2015, seulement 2,6 % des IPO en Europe étaient celles de start-up financées par VC, contre 16,4 % aux États-Unis ([832]).
– Faible appétit pour le risque des investisseurs institutionnels européens. Contrairement aux États-Unis, le capital-risque européen souffre d’un manque de soutien structurel des grands investisseurs institutionnels ([833]). Aux États-Unis, fonds de pension, compagnies d’assurance, endowments universitaires, fonds de fonds et family offices alimentent massivement le capital-risque. Cela tient en partie à la structure même de l’épargne et de la protection sociale : les fonds de pension privés européens gèrent des encours bien moindres qu’aux États-Unis (les retraites étant largement publiques en Europe). En Europe, les fonds de pension n’investissent que 0,01 % de leurs 9 000 Md$ d’actifs dans le VC, contre 0,029 % pour leurs homologues américains ([834]).
De plus, les assureurs et gérants européens affichent historiquement une aversion au risque plus forte, se traduisant par une sous-exposition aux actifs technologiques et non cotés. En France, les actifs des assureurs-vie ne comptent que 7 % de valeurs technologiques, contre 19 % pour les assureurs américains ([835]). Malgré une progression récente, les fonds de pension européens investissent encore plus de trente fois moins dans le venture capital que dans le capital-investissement traditionnel ([836]) (LBO). Plusieurs raisons expliquent cette frilosité : le rendement du VC européen a longtemps été perçu comme trop faible pour le risque encouru, du fait de la petite taille des fonds et d’un manque d’expérience opérationnelle, ce qui a refroidi les grands investisseurs ([837]).
S’y ajoutent des contraintes réglementaires : dans le cadre prudentiel dressé par la directive dite « Solvabilité II », une assurance européenne doit provisionner un capital important (charges de 49 %) pour tout investissement en actions non cotées, un niveau de prudence bien plus strict que pour d’autres actifs ([838]). Cela désincite fortement les assureurs, pourtant pourvoyeurs naturels d’épargne longue, à investir dans ces secteurs.
La révision de la directive Solvabilité II ([839]), adoptée en 2024 et en cours de transposition (entrée en application en 2026), introduit un régime prudentiel allégé pour les investissements en actions de long terme (long-term equity investments – LTEI), avec une exigence en capital réduite à 22 % ([840]) (contre 49 % dans le régime standard). Cette évolution vise à encourager les assureurs à financer des projets stratégiques à horizon long.
Le texte de compromis permet désormais l’éligibilité des fonds d’investissement au régime LTEI, à condition qu’ils soient considérés comme « à faible risque ». Mais cette notion, non définie à ce stade, est renvoyée aux futurs actes délégués au niveau national ([841]). Il existe donc une fenêtre politique décisive pour en influencer les contours, notamment dans le sens d’une reconnaissance des fonds technologiques stratégiques comme véhicules éligibles.
Des latitudes d’interprétation sont laissées aux superviseurs. Les exigences de valorisation, de transparence et de suivi prudentiel (reporting) pourront varier d’un État membre à l’autre, pouvant créer une fragmentation du marché européen et décourager l’adoption du LTEI dans les secteurs émergents, plus volatils ou plus difficiles à évaluer (IA, deep techs, biotechs, etc.).
Les critères d’éligibilité restrictifs (durée minimale de détention, absence de revente anticipée, forte diversification) limitent pour l’heure la portée de cette réforme, en particulier pour des secteurs émergents comme l’intelligence artificielle.
Face à ce constat, vos rapporteurs appellent à assouplir les contraintes prudentielles pesant sur l’investissement dans le non-coté au niveau assurantiel. Vos rapporteurs constatent également que si certaines évolutions relèvent encore des actes délégués européens, la réforme de la directive Solvabilité II laisse toutefois une marge d’interprétation significative aux régulateurs nationaux, en particulier sur la qualification des véhicules « low risk » et les exigences de valorisation ou de reporting.
Dans ce cadre, le législateur français peut utilement intervenir pour favoriser l’éligibilité des fonds technologiques stratégiques au régime LTEI, notamment dans le domaine de l’intelligence artificielle, en définissant des critères d’appréciation proportionnés aux spécificités de ces actifs.
Recommandation n° 29 : Adapter les règles de Solvabilité II pour permettre aux assureurs d’investir plus facilement dans l’IA, en élargissant le régime des investissements de long terme (LTEI) aux fonds technologiques stratégiques, afin de mobiliser leur épargne au service de l’innovation tout en gardant des garanties de sécurité.
– Culture entrepreneuriale et demande de financement plus faibles : du côté des fondateurs eux-mêmes, l’Europe souffre d’un déficit d’entreprises cherchant l’hyper-croissance ([842]) financée par capital externe. De nombreuses jeunes pousses européennes préfèrent l’autofinancement ou la croissance modérée : 60 % des entrepreneurs high-tech interrogés ne recherchent pas d’investissement en capital, estimant ne pas en avoir besoin ([843]) ; 15 % ([844]) disent même le refuser par crainte d’une perte de contrôle de leur entreprise. Cette attitude, liée en partie à une culture du risque moins prononcée et à la peur de la dilution, limite mécaniquement le deal-flow de qualité pour les « capital-risqueurs » ([845]) européens. La mission observe toutefois une inflexion dans cet état d’esprit, portée par l’émergence d’une nouvelle génération de fondateurs plus audacieux. Néanmoins, la culture de l’ambition à grande échelle – comme en témoignent le positionnement stratégique du fonds Frst en capital-risque ou l’approche de Mistral AI dans le domaine des modèles de langage – demeure moins ancrée en France qu’aux États-Unis, où la volonté de devenir rapidement un acteur de rang mondial tend à primer sur la crainte de l’échec ou de la dilution par rachat.
L’écosystème financier européen est à la fois moins profond et moins tolérant au risque, ce qui crée un véritable « scale-up gap » ou, autrement dit, un déficit structurel en matière de passage à l’échelle. Les entreprises innovantes européennes se heurtent à un « mur de financement » au-delà des premiers tours, risquant une rupture de leur trajectoire de croissance.
L’ensemble de ces facteurs expliquent également la sous-performance européenne en matière de licornes. Début 2025, l’Union européenne comptait 110([846]) entreprises valorisées à plus d’un milliard de dollars, un chiffre nettement inférieur à celui des États-Unis (687) et également en deçà de celui observé en Chine (162).
Nombre de « licornes » selon les pays, janvier 2025.
Source : European Commission, The EU Startup and Scaleup Strategy, 28 mai 2025.
b. Le cas de l’intelligence artificielle : un révélateur et un amplificateur du déficit structurel en matière de passage à l’échelle (ou « scale-up gap ») européen
i. IA : une part croissante du capital-risque
Les start-up d’intelligence artificielle (IA) attirent des montants de capital-risque croissants, mais avec de fortes disparités géographiques et selon le stade de financement. En Europe, ce sont seulement 9 Md€ qui ont été investis dans l’IA en 2023, contre 62,5 Md€ aux États‑Unis([847]). Selon le rapport AI index ([848]), les investissements privés dans l’intelligence artificielle ont atteint 109,1 Md$ aux États-Unis, soit près de 12 fois le niveau chinois (9,3 Md$) et 24 fois le niveau britannique (4,5 Md$). Leur montant atteint 2,62 Md€ en France. Les seules technologies d’IA générative ont attiré 33,9 Md$ à l’échelle mondiale, en hausse de 18,7 % par rapport à 2023.
Investissements privés mondiaux dans l’IA par zone géographique en 2024
Source : Banque européenne d’investissement, The scale-up gap Financial market constraints holding back innovative firms in the European Union, Juin 2024.
L’IA constitue une part croissante du capital-risque européen et mondial. Selon les données Dealroom, 18 % ([849]) du financement en capital-risque en Europe était alloué à l’IA (dont 10 % à l’IA générative).
Part de l’IA et de l’IA générative dans le financement en capital-risque en Europe (2012-2024)
Source : Dealroom, AI Europe Report 2024, juin 2024.
Comme le résume la Cour des comptes européenne ([850]), l’UE peine à développer l’écosystème européen d’intelligence artificielle et n’a pas réussi à doper suffisamment les investissements dans le domaine de l’IA pour faire jeu égal avec les leaders mondiaux du secteur.
Pourtant, cet écosystème est capable de développer des joyaux technologiques. En 2024, treize nouvelles licornes ont vu le jour en Europe, portant leur nombre total à 139 ([851]). Plus de la moitié de ces nouvelles entrées sont issues du secteur de l’intelligence artificielle, avec des exemples emblématiques comme Mistral AI ou Poolside. La valeur totale des opérations impliquant des licornes a progressé de 15 %, atteignant 8 Md€, principalement sous l’effet de méga-tours dans l’IA et la fintech.
La France capte près de 2,5 %([852]) des financements mondiaux en IA générative, une part supérieure à son poids économique (2,2 % du PIB mondial). En 2024, les start-up françaises ont levé 1,4 Md€ ([853]), soit près de 50 % des investissements européens dans le secteur. Cette surperformance relative traduit une véritable montée en puissance.
ii. Des start-up IA européennes en mal d’échelle
En ventilation par stades de financement, on observe en 2024-25 que les tours Seed et série A concentrent le plus grand nombre d’opérations en Europe, souvent pour des montants plus faibles qu’aux États-Unis, alors que les séries C et D (stades de croissance avancée) y sont rares et de taille limitée.
Plus de 70 % des fonds actifs se focalisent sur les stades « Pre‑Seed » et « Seed », tandis qu’à peine 25 % participent aux tours de série A. Cela crée un manque criant de capital pour les stades de croissance (séries C et D), où les financements sont « rares et de taille limitée » ([854]). Au 2ᵉ trimestre 2024 ([855]) , les montants injectés, tous secteurs confondus, se répartissent clairement ainsi : Seed (1–4 M$) et Series A (4–15 M$) concentrent la majorité des quelques milliers de tours réalisés ; les series C (40–100 M$) et « megarounds » (>100–250 M$) représentent une fraction marginale des opérations en Europe.
Investissement VC en IA selon le « stage » de financement en Europe
Source : Dealroom, europe Tech update Q2 2024, juillet 2024.
Des levées majeures comme celles de Mistral AI, Wayve ou Synthesia ont ainsi été largement portées par des acteurs américains comme a16z, Nvidia ou Microsoft ([856]). Ce constat (voir tableau ci-dessous) souligne l’absence d’un écosystème européen suffisamment structuré pour soutenir ses propres scale-ups.
Principaux tours de table en Europe dans le secteur de l’IA en 2024
Source : Silicon Valley Bank, The state of AI industry trends in Europe: Talent drives success, but U.S. funding still crucial, 15 avril 2025.
Plus spécifiquement en France, la majorité des jeunes pousses IA financées le sont aux stades initiaux (amorçage et série A), tandis que peu accèdent aux tours C/D. En cumulé, les start-up IA françaises ont levé près de 13 M€ depuis leur création, 65 % d’entre elles ayant levé des fonds, la plupart en série A ([857]). Seules 24 start-up IA françaises ont réussi des méga-levées (>100 M€), signe d’un creux persistant au stade growth.
iii. Des trajectoires freinées et des exits : le cas des start-up IA européennes
Faute de fonds de croissance domestiques capables de suivre, beaucoup de start-up européenne dans le domaine de l’IA sont poussées à se financer à l’étranger ou à céder aux offres de rachat de grands groupes non-européens. Par exemple, le rachat du britannique DeepMind par Google (2014) ou la relocalisation de start-up comme Hugging Face vers les États-Unis illustrent une forme d’exode technologique.
Cette situation est jugée préoccupante : des analyses françaises récentes ([858]) notent que l’insuffisance de capital-risque au stade « growth » en Europe menace le développement local des innovations et favorise leur capture par des acteurs étrangers. En 2023, 53 % des montants levés par les deep techs françaises provenaient des dic plus grosses levées (dont Mistral AI, Verkor, etc.), reflétant un écosystème où quelques « tours » majeurs masquent la difficulté des scale-ups suivantes à trouver des fonds.
Le risque souligné par la Commission européenne et la BEI ([859]) est un cercle vicieux : sans financement massif local, les meilleures start-up IA décrochent ou partent, entraînant une perte de talents et de propriété intellectuelle pour l’Europe.
Outre l’initiative Tibi, la banque publique française d’investissement (Bpifrance) joue un rôle central dans ces initiatives et pour remédier à ce fossé d’investissements en IA. Outre ses dispositifs historiques (prêts innovation, aides Bpifrance Deeptech, concours i-Lab/i-PhD), elle investit en direct via son fonds Large Venture ([860]) dans les tours de growth et abonde de nombreux fonds de capital-risque privés. Doté de 2,5 Md€, Large Venture a contribué au développement du secteur du capital de croissance en France, qui a connu une croissance remarquable depuis 2013, passant de 146 M€ à plus de 10 Md€ levés en 2022 pour les opérations de plus de 20 M€. Large Venture accompagne aujourd’hui 65 sociétés innovantes dont certaines des entreprises les plus emblématiques de la French Tech. Bpifrance opère aussi French Tech Souveraineté (fonds dédié aux technologies stratégiques). Ces instruments ciblent notamment l’IA, la cybersécurité, le quantique, etc., pour assurer un financement souverain des pépites nationales.
Ce soutien multiforme de Bpifrance, qui s’est révélé déterminant dans l’émergence d’un écosystème français du capital-risque technologique, demeure néanmoins crucial à un moment où les besoins en financement des entreprises d’IA s’intensifient fortement, en particulier au stade de la croissance. Dans un contexte international très concurrentiel, où les champions technologiques sont massivement soutenus par les pouvoirs publics, il importe que la France renouvelle et amplifie cet effort.
Vos rapporteurs recommandent donc de renouveler l’effort de la Banque publique d’investissement en faveur de l’écosystème fournissant des solutions d’intelligence artificielle, notamment en renforçant les capacités du fonds Large Venture et des dispositifs sectoriels stratégiques tels que French Tech Souveraineté.
c. Quelques pistes pour combler le retard : initiatives publiques et leviers d’action
i. Mobiliser l’épargne institutionnelle et privée vers la tech en général et l’IA en particulier
Les fonds de capital-risque et de capital développement, pourtant essentiels au financement des start-up et scale-ups européennes, peinent à mobiliser des capitaux auprès des investisseurs institutionnels. Entre 2013 et 2023, les investisseurs financiers privés de long terme n’ont représenté que 30 % du financement du capital-risque en Europe, contre 72 % aux États-Unis. L’écart est particulièrement marqué s’agissant des fonds de pension, qui ne contribuent qu’à 7 % du total en Europe, contre 20 % aux États-Unis ([861]).
Face à ce constat, plusieurs rapports ([862]) ([863]) recommandent d’orienter une part des gigantesques encours d’assurance-vie et d’épargne retraite vers le financement des start-up innovantes. L’iniative française Tibi est un bon exemple de réussite de politiques publiques en la matière (cf. encadré ci-dessous).
L’initative Tibi ([864])
Lancée en 2019, l’initiative Tibi vise à mobiliser l’épargne des investisseurs institutionnels (notamment les assureurs) pour financer le développement des entreprises technologiques françaises. Elle a permis, entre 2020 et 2022, de mobiliser 6 Md€ à travers 67 fonds labellisés et 320 recrutements d’investisseurs spécialisés. L’initiative a été un catalyseur pour l’écosystème tech, avec une injection de près de 30 M€ ([865]) , dont environ deux tiers dans les fonds homologués de capital-investissement late stage et un tiers dans les fonds homologués d’actions cotées.
Face à l’essor de la French Tech (13,5 Md€ levés en 2022), une deuxième phase a été lancée en 2023. Elle mobilisera 7 Md€ supplémentaires de capitaux privés, en priorisant la décarbonation, les projets de haute technologie, et en intégrant un nouveau volet « early stage » pour soutenir les jeunes start-up dès leur création.
L’objectif est également de favoriser l’émergence de fonds de grande taille capables de rivaliser avec les acteurs internationaux et de renforcer l’ancrage national des start-up françaises. La mission relève une nette montée en puissance de l’ambition portée par l’écosystème : près de 130 candidatures ([866]) ont été déposées pour l’homologation de la phase 2 de l’initiative Tibi, dont 54 fonds déjà homologués à fin avril 2024. Par ailleurs, plus de 15 fonds de capital-risque visent à gérer plus d’un milliard d’euros, une ambition jugée crédible pour la majorité d’entre eux.
Dans cette même logique, au niveau européen, la Commission pousse à développer une industrie de la retraite par capitalisation (fonds de pension paneuropéens) pour augmenter les ressources disponibles pour le capital-innovation.
Le Pan-European Personal Pension Product (Pepp) a été créé pour mobiliser l’épargne des citoyens européens, notamment de ceux sans accès à des régimes professionnels ou d'entreprise, et ainsi compléter les systèmes de retraite publics ([867])([868]). Il s'agit d'un produit volontaire, standardisé et portable au sein de l’UE, conçu pour élargir les options de retraite tout en garantissant protection et transparence.
Comme le souligne un rapport récent de l’EIOPA ([869]), le Pan-European Personal Pension Product (Pepp) a jusqu’à présent atteint très partiellement ses objectifs, en raison notamment de sa faible diffusion commerciale. Deux limites majeures sont régulièrement identifiées : d’une part, le produit souffre d’un traitement fiscal peu incitatif dans la plupart des États membres, freinant son attractivité ; d’autre part, il ne contribue qu’indirectement au financement du capital-risque, les fonds étant aujourd’hui investis majoritairement dans des actifs traditionnels à faible risque. Or vos rapporteurs estiment que l’élargissement du périmètre du Pepp constitue une piste d’évolution pertinente : une telle réforme permettrait non seulement de stimuler l’essor du produit, mais également de mobiliser une part accrue de l’épargne longue européenne en faveur du capital-investissement, en IA, secteur aujourd’hui insuffisamment soutenu par les régimes publics de retraite.
Selon la Banque européenne d’investissement ([870]) , les ménages de l’Union européenne détiennent environ 300 % du PIB sous forme de dépôts bancaires, contre 85 % aux États-Unis, illustrant une forte dépendance à l’épargne peu risquée. En France, près de 30 % de la richesse financière des ménages est détenue en dépôts à terme ou en livrets, tandis que 32 % est investie en assurance-vie ([871]) et que seule une proportion très marginale (quelques centaines de M€ par an) est orientée vers le capital‑risque. Cette structure s’explique notamment par un système de retraite public dominant, qui contribue à limiter la canalisation de l’épargne privée vers des produits risqués, observation corroborée par M. Pierre Entremont, cofondateur du fonds Frst.
Source : Crédit Agricole, France Placement des ménages, 10 avril 2025.
Vos rapporteurs préconisent donc d’orienter une fraction de cette épargne dite « dormante », aujourd’hui inactive dans les livrets et l’assurance‑vie, vers des produits plus dynamiques à fort impact stratégique, en particulier dans le domaine de l’intelligence artificielle.
Recommandation n° 30 : Créer un fonds public-privé dédié à l’intelligence artificielle, cofinancé par l’État, Bpifrance et des investisseurs privés, et ouvert à l’épargne des particuliers via un placement de long terme bénéficiant d’un cadre fiscal incitatif.
ii. Créer des fonds publics-privés de « late stage »
Entre 2013 et 2023, le financement public a constitué une part essentielle du capital-risque levé par les start-up et scale-ups européennes, représentant 31 % des montants totaux levés, contre seulement 4 % aux États-Unis ([872]). Ce soutien passe notamment par des interventions directes ou via des fonds de fonds destinés à renforcer les capacités de financement en capital‑innovation et en capital‑croissance.
Répartition des sources de financement du capital-risque par type d’investisseur dans l’UE et aux États-Unis (2013-2023)
Source : IMF (2024), Stepping Up Venture Capital to Finance Innovation in Europe. IMF Working Paper No. 2024/146.
Face à ce constat d’une part élevée du financement public dans l’écoystème capital-risque, vos rapporteurs considèrent logique de multiplier les initiatives de fonds publics-privés de capital-risque, en particulier au stade « late stage » et pour combler le retard européen en la matière.
Dans cette perspective, pour combler le « late stage gap », l’Union européenne prévoit de lancer un « Scale-Up Europe Fund » de 10 Md€ ([873]) pour co-investir dans les pépites technologiques en phase de croissance. Ce fonds public-privé, annoncé en 2025, vise à combler le retard « late stage » en Europe et à réduire l’écart de financement avec les États-Unis et la Chine. Géré par des professionnels privés avec effet de levier (1 euro public attirerait 4 euros privés), il prendra des participations dans des entreprises prometteuses afin d’éviter qu’elles ne partent chercher l’intégralité de leurs fonds aux États-unis.
Parallèlement, la Banque européenne d’investissement et son bras armé, le Fonds européen d’investissement (FEI), ont lancé en 2022 l’initiative « European Tech Champions » ([874]) qui investit dans des fonds de venture late stage et a mobilisé 10 Md€ à ce jour. Ces interventions ciblées du secteur public peuvent créer un effet d’entraînement en « dé-risquant » certaines technologies et en attirant des co-investisseurs privés.
Face à la faiblesse du financement late stage des entreprises technologiques françaises, vos rapporteurs estiment nécessaire de compléter les initiatives européennes existantes en créant un fonds national de co-investissement, inspiré du Scale-Up Europe Fund.
Ce véhicule serait capitalisé à la fois par des ressources publiques (État, Bpifrance, Caisse des dépôts) et par des apports privés (assureurs, fonds de capital-investissement, investisseurs institutionnels). Il serait géré par des professionnels du capital-risque, sélectionnés sur appels d’offres, afin de garantir une allocation performante et orientée vers les besoins réels des scale-ups.
Contrairement à l’initiative Tibi, que vos rapporteurs appellent également à poursuivre et qui repose sur des engagements volontaires de capitaux privés sans levier public ni véhicule dédié, la proposition vise à créer un véritable fonds structuré de co‑investissement public‑privé, ciblant spécifiquement le financement late stage des scale-ups technologiques, avec une gouvernance professionnelle et un effet de levier comparable au Scale-Up Europe Fund.
Recommandation n° 31 : Créer un fonds national de co-investissement destiné aux scale-ups technologiques, alimenté par des fonds publics et privés et géré par des investisseurs professionnels, afin de renforcer l’offre de financement late stage en France, notamment pour l’IA, et de limiter la dépendance de nos entreprises stratégiques aux capitaux extra-européens.
iii. Remédier à l’absence de marché unique des capitaux
Le morcellement actuel des marchés financiers européens freine lourdement le financement des start-up innovantes, notamment dans l’IA. En Europe, il demeure bien plus difficile de financer et d’encourager le développement des jeunes pousses technologiques qu’aux États-Unis : le volume de capital-risque rapporté au PIB y est nettement inférieur à celui des États-Unis (en France et en Allemagne, il est cinq à huit fois plus faible qu’outre-Atlantique) ([875]). Faute de financements suffisants sur place, de nombreuses start-up européennes à fort potentiel se tournent vers les États-Unis pour chercher des fonds, privant l’Union européenne des bénéfices de leur croissance et de leurs innovations ([876]).
L’Union européenne cherche donc à lever ce frein identifié en bâtissant une Union des marchés de capitaux (UMC) ([877]) véritable qui permettrait d’unifier l’espace de financement. Près de quarante ans après l’Acte unique (1986) et plus de vingt ans après l’unification monétaire (1999), la libre circulation de l’épargne se heurte encore à de nombreux obstacles nationaux, ce qui nuit au financement de la croissance, de l’innovation et de la transition numérique en Europe ([878]).
L’épargne des ménages européens, estimée à environ 35 500 Md€([879]), n’est pas suffisamment mobilisée au profit des entreprises innovantes du continent. Une part importante de ces capitaux est placée à l’étranger : on estime par exemple qu’environ 300 Md€ par an d’épargne européenne participent à financer l’économie américaine plutôt que les secteurs stratégiques en Europe (dont l’IA).
Pour remédier à cette situation, l’UE promeut des mesures d’harmonisation réglementaire, par exemple la réforme de la directive Solvabilité II, visant à libérer du capital chez les assureurs afin qu’ils puissent investir davantage dans les jeunes entreprises technologiques non cotées. De fait, les analystes estiment que réduire ces frictions réglementaires, notamment celles qui dissuadent aujourd’hui les fonds de pension et assureurs d’investir en capital-risque, est indispensable pour développer l’écosystème d’innovation européen ([880]).
Les besoins de financement dans l’IA illustrent le retard européen face aux pôles de financement américain et asiatique. Les États-Unis et la Chine représentent à eux deux plus de 80 % des investissements annuels en fonds propres dans les technologies d’IA et de chaîne de blocs, tandis que l’UE n’en représente qu’environ 7 % ([881]). L’Europe excelle principalement dans le financement des débuts (amorçage) de ses start-up d’IA, mais accumule les retards dans les tours de financement plus avancés (phases d’expansion et de croissance) ([882]).
En conséquence, il manque en Europe des fonds de capital-risque suffisamment importants et matures (fonds dit « late stage ») pour soutenir l’essor des jeunes pousses d’IA jusqu’au stade de leaders mondiaux. Cette faiblesse du segment « scale-up » ([883]) s’explique en partie par des marchés de capitaux peu profonds et une participation limitée des investisseurs institutionnels (assureurs, fonds de retraite), des facteurs qui réduisent drastiquement les sources de financement disponibles et créent un désavantage par rapport aux États-Unis ([884]).
Dans une analyse conjointe publiée en juillet 2024, le Conseil d’analyse économique (CAE) et le Conseil allemand des experts économiques ([885]) soulignent que l’Union européenne souffre encore d’une architecture financière trop fragmentée et dominée par l’intermédiation bancaire, peu adaptée aux besoins de financement de l’innovation, notamment dans les secteurs à forte intensité en capital immatériel comme l’intelligence artificielle. Le potentiel de croissance européen est en déclin, entravé par un manque de profondeur des marchés de capitaux, une faible participation des investisseurs institutionnels, et une prédominance des flux financiers nationaux. Cette situation freine le financement de la transition écologique, des start-up technologiques et limite la résilience de l’économie européenne face aux chocs. L’Union reste, de surcroît, structurellement désavantagée face aux États-Unis, où les marchés d’actions sont plus développés, les fonds de pension bien capitalisés et le capital-risque abondant sur toutes les phases de développement.
Pour remédier à ces fragilités, le CAE identifie des priorités de réforme. Il recommande tout d’abord d’harmoniser les régimes de faillite et de créer un point d’accès unique aux informations financières (ESAP), afin de renforcer la transparence et de favoriser les investissements transfrontaliers. Il préconise ensuite une refonte de la supervision financière européenne, notamment de l’AEMF, en vue d’en améliorer l’efficacité, l’intégration et la capacité d’action à l’échelle décentralisée. Troisièmement, il souligne l’importance de réorienter les investisseurs institutionnels vers les marchés d’actions, en renforçant les dispositifs de retraite par capitalisation et en révisant les contraintes réglementaires (comme celles en cours pour la directive Solvabilité II) qui freinent l’investissement dans les actifs risqués.
Dans le prolongement des priorités identifiées, notamment par le Conseil franco‑allemand des experts économiques, et face à la persistance d’une fragmentation des marchés de capitaux au sein de l’Union, la Commission européenne a relancé l’agenda de l’Union des marchés de capitaux (UMC) avec son initiative « Savings and Investments Union » (SIU) ([886]) lancée en mars 2025. Elle vise à renforcer l’Union des marchés de capitaux en mobilisant l’importante épargne privée européenne afin de l’orienter vers des investissements productifs, notamment dans les secteurs stratégiques comme l’intelligence artificielle, la défense ou la transition écologique ([887]).
Ce projet repose sur la conviction que l’Europe doit créer un environnement plus favorable à l’investissement, en particulier pour les ménages, afin de réduire sa dépendance au financement bancaire.
Pour y parvenir, la Commission propose une série de mesures ([888]) : amélioration de la culture financière des ménages, incitations fiscales à l’investissement dans les actions européennes, relance du marché de la titrisation, harmonisation des régimes d’insolvabilité et renforcement des pouvoirs de supervision de l’Autorité européenne des marchés financiers (AEMF). L’objectif est de permettre l’émergence de marchés véritablement intégrés et profonds, capables de soutenir l’investissement à long terme dans les technologies d’avenir, à l’image de ce que permettent les marchés américains.
Pour que le capital-risque en IA puisse pleinement jouer son rôle en Europe et en France, vos rapporteurs considèrent donc comme crucial d’achever le marché unique des capitaux en Europe.
Recommandation n° 32 : Accélérer la réalisation de l’Union des marchés de capitaux, en harmonisant les règles prudentielles applicables aux investisseurs institutionnels et en renforçant la supervision intégrée des marchés financiers européens, afin de favoriser l’émergence de fonds de capital-risque paneuropéens capables de soutenir les start-up d’intelligence artificielle sur l’ensemble du cycle de croissance.
2. Des instruments de soutien public à conforter
a. Maximiser l’usage des ressources dégagées par l’Union européenne en faveur de la croissance de champions nationaux d’envergure mondiale
Au 11 juin 2025 ([889]), seuls 56 % des subventions (359 Md€ au total) et 38 % des prêts (291 Md€ au total) du plan européen NextGenerationEU ont été effectivement versés aux États membres. Alors que la France dispose encore d’une marge significative sur les décaissements de la Facilité pour la reprise et la résilience (FRR), dont l’enveloppe reste mobilisable jusqu’à la fin de l’année 2026, il apparaît essentiel d’optimiser l’usage de ces ressources dans un contexte de transition technologique accélérée.
Le règlement européen établissant la FRR ([890]) permet, sous conditions, de réviser les plans nationaux de relance afin de tenir compte de nouvelles priorités stratégiques. Dès lors, une réorientation partielle de ces fonds vers le soutien aux infrastructures critiques d’intelligence artificielle s’inscrirait pleinement dans les objectifs initiaux de transformation économique, de résilience et de souveraineté numérique.
Dans cette perspective, la consolidation de champions nationaux dans le domaine de l’IA et du cloud revêt un caractère stratégique. La France doit saisir l’opportunité de renforcer des acteurs émergents comme Mistral AI et OVHCloud, qui se positionne comme la seule alternative européenne crédible aux modèles de fondation anglo-saxons. Un soutien public peut être envisagé sous plusieurs formes : subventions pour infrastructures de calcul (Mistral Compute), financement de la R&D dans le cadre du PIA, garantie d’accès préférentiel aux marchés publics ou encore mise à disposition de ressources issues des fonds non engagés du RRF (NGEU). De tels soutiens doivent s’inscrire dans une logique de rentabilité économique, mais également de constitution d’un écosystème souverain et compétitif à l’échelle mondiale.
Recommandation n° 33 : Privilégier le fléchage des fonds non utilisés de NextGenerationEU vers le développement d’infrastructures d’intelligence artificielle et le soutien ciblé à des champions nationaux, tels que Mistral.
b. Assurer l’efficacité des financements publics nationaux à l’innovation
Vos rapporteurs constatent, au vu des auditions, la capacité positive du crédit d’impôt recherche (CIR) à stimuler la recherche et l’innovation dans les structures agiles et à fort potentiel technologique.
La Cour des comptes ([891]) confirmait récemment l’efficacité du CIR, en particulier lorsqu’il bénéficie aux très petites entreprises (TPE) et aux petites et moyennes entreprises (PME). En mobilisant des données fiscales croisées avec les dépôts de brevets, l’analyse montre qu’un million d’euros de CIR génère en moyenne 1,165 brevet chez les TPE, contre 0,464 chez les grandes entreprises (GE), soit un rendement 2,5 fois supérieur. Cette efficacité est encore plus marquée si l’on considère la qualité des innovations produites : le rendement du CIR en matière de brevets triadiques – indicateurs d’innovation à forte valeur ajoutée – est 2,9 fois plus élevé pour les TPE. ([892])
La réforme du CIR 2025 marque un tournant majeur pour les entreprises innovantes en IA. La loi de finances pour 2025 supprime en effet l’éligibilité au CIR des dépenses liées aux brevets ainsi qu’à la veille technologique ([893]). Il s’agissait d’une recommandation émanant d’un rapport du Conseil des prélèvements obligatoires (février 2022 ([894])) : l’intégration au CIR des dépenses de propriété industrielle (brevets) et de veille technologique était jugée inefficiente et redondante avec le crédit d’impôt innovation (CII). Jusqu’à 2025, les entreprises pouvaient inclure dans leur assiette de calcul du crédit d’impôt les frais de prise, de maintenance et de défense des brevets, ainsi que les dépenses de veille technologique (abonnements spécialisés, participation à des salons, études techniques, etc.). Ces postes budgétaires permettaient de soutenir la stratégie d’innovation des entreprises dans son ensemble, en couvrant aussi bien la création que la protection et la surveillance des actifs immatériels.
Les start-up et PME actives dans le domaine de l’intelligence artificielle sont directement concernées par la réforme du crédit d’impôt recherche de 2025, et ceci en raison de la nature même de leurs dépenses. Ces structures, souvent jeunes, intensives en capital humain et en propriété intellectuelle, mobilisent d’importants moyens pour le développement algorithmique, l’entraînement de modèles, mais également pour la protection et la surveillance de leur environnement technologique et concurrentiel.
Avec l’exclusion du CIR des dépenses relatives aux brevets et à la veille technologique, ces entreprises voient leur dispositif de soutien fiscal significativement amoindri. Or, dans le secteur de l’IA, la stratégie de propriété intellectuelle (dépôt de brevets logiciels, veille sur les usages de l’IA, participation à des salons scientifiques ou techniques) constitue un levier de valorisation et de sécurisation essentiel, particulièrement dans une logique de levée de fonds ou de partenariats industriels.
Si les PME peuvent continuer à mobiliser le crédit d’impôt innovation (CII) pour certaines dépenses de propriété intellectuelle, celui-ci est plafonné à 20 % des montants engagés ([895]) (contre 30 % avant l’adoption de la loi de finances pour 2025), contre 30 % pour le CIR, et limité à certaines catégories de dépenses.
De surcroît, l’articulation entre CII et CIR suppose une gestion analytique complexe, peu adaptée aux capacités administratives réduites des jeunes entreprises technologiques.
Recommandation n° 34 : Réintroduire une éligibilité des dépenses de propriété intellectuelle et de veille technologique au CIR pour les start-up et PME opérant dans des secteurs stratégiques à forte intensité d’innovation, tels que l’intelligence artificielle. Favoriser la rapidité des versements aux entreprises.
D. PRÉSERVER et accroÎtre des ressources humaines INDISPENSABLES À L’APPROPRIATION DE PROCÉDÉS INNOVANTS
a. Des positions solides dans les disciplines essentielles au développement l’intelligence artificielle
Sur un plan technique, le développement des usages de l’intelligence artificielle requiert fondamentalement un socle solide de connaissances scientifiques et des aptitudes théoriques prédisposant à la modélisation, à la conception des algorithmes et au traitement des données ainsi que des savoirs en matière de programmation d’outils et d’apprentissage automatique.
De fait, ces domaines de compétence correspondent à des disciplines dans lesquelles la France dispose d’acquis très solides, à savoir les mathématiques (notamment les mathématiques appliquées) et l’informatique.
Cette excellence académique trouve une illustration dans la part qu’occupent de nombreux élèves issus des grandes écoles et des grandes universités françaises parmi les personnalités de référence dans les domaines de l’intelligence artificielle. Elle apparaît également établie au regard du classement des établissements scientifiques à l’échelle mondiale. Suivant le classement thématique de Shangaï publié en novembre 2024 ([896]), la France occupe la 4e place par le nombre des établissements classés (derrière la Chine, les États-Unis et le Royaume Uni). Elle se distingue particulièrement en mathématiques, avec près de 29 établissements figurant dans le classement et la place remarquable décrochée par les universités Paris-Saclay (classée 2e au plan mondial) et Paris-Cité (6e). Les établissements français enregistrent également des résultats significatifs en physique (avec Paris-Saclay à la 8e place mondiale) et, à un moindre degré, dans des disciplines touchant à l’ingénierie au sens large.
● Suivant les réponses au questionnaire de vos rapporteurs, l’enseignement de ces compétences est dispensé dans le cadre :
– des cursus d’école d’ingénieur ;
– de double diplômes (maths-informatique, maths-physique, maths-sciences de la vie, informatique-sciences de la vie, entre autres) ;
– de formations spécifiques consacrées à l’IA, élaborées par des établissements d’enseignement supérieur.
Par ailleurs, de nombreuses formations comportent une ouverture au monde professionnel qui, sur le principe, peut concourir à la compréhension des besoins du marché et des cas d’usages concrets de l’IA. Cet aperçu peut être procuré aux étudiants par la réalisation de projets collaboratifs, de stages, de périodes de césure au niveau master, de mobilités internationales ou encore de formations en alternance qu’implique, selon le cas, le suivi des cursus.
b. Des établissements engagés dans le développement des enseignements répondant aux besoins du développement de l’intelligence artificielle
Les éléments recueillis par la mission portent à conclure que l’ensemble des établissements universitaires et des grandes écoles s’emparent des enjeux créés par les progrès rapides de l’intelligence artificielle.
L’attention portée aux impacts des évolutions de la technologie se manifeste d’abord par la conduite de réflexions dans les instances qui regroupent les établissements. En juin 2025, la conférence des grandes écoles a ainsi lancé une enquête sur les usages de l’IA dans les grandes écoles qui s’adresse aux étudiants, aux enseignants et aux directions générales des établissements ([897]). Cette initiative fait suite à d’autres travaux prospectifs, tels que le Livre blanc publié en 2025 et consacré aux caractéristiques de la technologie et aux modalités de son intégration à la vie des grandes écoles ([898]).
Au sein des établissements, existe un travail de veille et de coordination des initiatives prises pour l’appropriation des enjeux de l’intelligence artificielle. Ainsi que le suggèrent les quelques exemples fournis à la mission, l’organisation de cette démarche peut être institutionnalisée selon des modalités diverses. CentraleSupélec s’est ainsi dotée d’un cercle de réflexion consacré à l’IA, associant des professeurs de l’école spécialisés dans ce domaine et des anciens élèves (« alumni ») qui occupent des postes dans l’industrie ou le monde académique. L’école dispose par ailleurs d’un « Hub de l’IA » : créé en 2021 et regroupant étudiants, enseignants-chercheurs, entrepreneurs et partenaires, il constitue un « observatoire stratégique », et a vocation à structurer et coordonner les initiatives de l’école.
En pratique, l’engagement des établissements et des grandes écoles se traduit par une évolution de l’offre pédagogique, destinée à répondre aux besoins spécifiques des milieux universitaires et industriels.
D’une part, on peut observer un enrichissement et une adaptation des enseignements qui comporte :
– une actualisation du contenu des formations existantes, marquée par l’introduction de nouveaux modules spécifiques à l’IA dans les différents cycles de formation ;
– la mise en place de nouvelles formations consacrées à l’IA par les établissements d’enseignement supérieur ;
– de manière spécifique, l’adaptation des formations d’ingénieur par le développement de parcours spécialisés sur l’IA, à l’image des mentions « IA » ou encore « Data Science » des cursus proposés par CentraleSupélec, entre autres.
Les formations en rapport avec les domaines
de l’intelligence artificielle à l’université Paris-Saclay
Selon les éléments communiqués par M. Frédéric Pascal, enseignant-chercheur en IA et vice-président IA de l’université Paris-Saclay, les enjeux majeurs liés à l’IA ont donné lieu, au sein de l’université Paris-Saclay :
– à la création de nouvelles formations consacrées à la technologie, destinées à répondre à des besoins spécifiques du monde académique et industriel : on citera à titre d’exemples le master of science (MSc) en intelligence artificielle, le Bachelor AIDAMS (AI, Data & Management Sciences) ou encore le mastère spécialisé en IA de confiance, lancé en 2024 en collaboration avec l’IRT SystemX.
– au développement de parcours spécialisés au sein des formations d’ingénieur (tels que les parcours/mention de 3A dédiés à l’IA (mention IA et mention Data Science) ;
– à une évolution continue des contenus de formation existants, à travers la mise à jour régulière des modules existants pour y intégrer les dernières avancées et par l’introduction de modules nouveaux, spécifiques à l’IA, dans les différents cycles de formation ;
– à l’offre de formations « sur mesure » pour les besoins d’acteurs industriels à l’instar de Safran, Thales, MBDA, Edhec, Transvalor ou la DGA.
Source : réponse au questionnaire des rapporteurs.
D’autre part, les établissements d’enseignement supérieur et les grandes écoles nouent des collaborations étroites avec les entreprises afin de proposer des enseignements répondant aux besoins industriels et socio-économiques inhérents au développement des usages de la technologie. La mise en œuvre de cette politique donne lieu à :
– la mise en place de partenariats entre les chaires de formation et de recherche créées par des établissements d’enseignement supérieur et les entreprises ;
– la réalisation de thèses de « Conventions industrielles de formation par la recherche » (Cifre) qui visent à favoriser l’immersion de doctorants dans les milieux industriels sur des problématiques définies relatives à l’IA ;
– la conception de parcours de formation « sur mesure » en collaboration avec les entreprises : dans le cas de CentraleSupélec, cette offre pédagogique implique l’intervention de collaborateurs dans les modules pédagogiques, avec un possible recours au statut de professeur attaché ([899]), et s’appuie sur les retours d’expérience provenant des réseaux d’anciens élèves (« alumni ») implantés dans des secteurs clés de l’IA.
– l’encadrement de projets étudiants par les entreprises.
Cette démarche coopérative pourrait franchir une nouvelle étape avec la constitution d’un consortium entre quatorze universités françaises, l’entreprise Mistral AI et les start-up « EdTech France », ayant pour projet le déploiement d’une IA de confiance, de frugalité et de souveraineté.
Le consortium pour une IA de confiance, de frugalité et de souveraineté
Lancée dans le prolongement de la dynamique insufflée par le Sommet international pour l’action sur l’IA organisé à Paris, les 10 et 11 février 2025, l’initiative vise aussi bien à améliorer l’expérience d’apprentissage des étudiants qu’à faciliter le travail des personnels d’enseignement et administratifs.
Le consortium a notamment vocation à travailler sur plusieurs axes : proposer un cadre d’intégration adapté à la diversité des disciplines enseignées ; identifier les besoins en formation pour accompagner la montée en compétences des acteurs de l’enseignement supérieur ; développer de nouvelles modalités d’évaluation et de reconnaissance des compétences, adaptées aux réalités de l’ère numérique et de l’IA ; définir un cadre éthique et réglementaire pour garantir une utilisation souveraine et responsable de l’IA dans les établissements ; proposer des axes de recherche innovants sur les usages de l’IA, en impliquant enseignants, étudiants et autres acteurs de l’enseignement supérieur et de la recherche en France, en Europe et à l’international ([900]).
Source : travaux de la mission.
Enfin, l’engagement des universités et grandes écoles dans l’adaptation de leur offre pédagogique dans le champ de l’intelligence artificielle se matérialise par un investissement sur le plan des ressources humaines.
Ainsi que le suggèrent les éléments recueillis par la mission, celui-ci peut conduire, suivant la politique des établissements de l’enseignement supérieur et leurs ressources à :
– des recrutements d’enseignants-chercheurs spécialistes notamment dans le domaine de l’IA ou de chargés de projet spécialisés en IA, qui ont pour mission d’effectuer un travail de veille et d’animation scientifique ;
– un effort sur le temps alloué par les enseignants-chercheurs en poste, en supplément de leurs activités de recherche, au déploiement d’activités d’IA (à l’instar de CentraleSupélec pour le développement des activités de son Hub IA).
Bien qu’il n’existe à ce jour aucun chiffre consolidé du nombre total d’enseignants-chercheurs recrutés dans le domaine de l’IA, la dynamique du recrutement de ces profils s’observe, par exemple, par le nombre de postes ouverts par les établissements d’enseignement supérieur : Paris-Saclay a ouvert cinq postes de Tenure Track en IA depuis 2023 ; Paris-Saclay, l’ENS, Sorbonne Université, entre autres, ont recruté des maîtres de conférences et des professeurs d’université en IA.
2. Un enseignement scolaire répondant aux besoins de l’IA ?
Le développement des usages de l’intelligence artificielle suppose qu’en dehors de toute spécialisation, les individus acquièrent les connaissances et la culture nécessaires à la compréhension d’une technologie qui pourrait demain imprégner de nombreux pans de la vie économique et sociale. Cette exigence pose la question de la capacité du système scolaire à transmettre les compétences prédisposant au suivi de cursus menant aux métiers qui impliquent l’usage de la technologie. En dehors de considérations relatives aux évolutions de la demande de travail des entreprises, elle conduit également à s’interroger sur les biais possibles de l’orientation scolaire, notamment en défaveur des filles.
a. Des technologies dont le développement exige un nombre croissant et une diversité de profils
● Même si l’ordre de grandeur des besoins peut susciter des appréciations divergentes, le développement des usages de l’intelligence artificielle paraît de nature à créer un renouvellement de la demande de travail des entreprises.
En l’état, une étude réalisée par le cabinet d’audit PwC ([901]) estime à 166 000 le nombre des postes faisant l’objet d’une offre d’emploi liée à l’IA ([902]). Sur ce critère, la France occupe la première position des pays devant l’Allemagne (147 000) et le Royaume-Uni (125 000). Ici, comme dans les autres pays étudiés, la part des offres d’emploi liées à l’IA qui sont publiées varie selon les secteurs : ainsi, le secteur de la communication et de l’information publie deux à trois fois plus d’offres d’emploi liées à l’IA que les autres secteurs, ce qui représente une croissance entre 2018 et 2024 comprise entre + 2,5 % et + 3,8 %.
PART DES OFFREs D’emplois portant
sur un poste liÉ À l’ia en France (par secteur)
Cette hausse des offres d’emploi liées à l’IA peut, selon le cas, correspondre à :
– la création, au sein des organisations, de postes spécifiquement consacrés au développement de l’IA (ingénieur IA, chef de projet IA, data analyst/scientist, notamment) ;
– l’augmentation des effectifs de métiers impliqués dans le développement, le déploiement et l’utilisation de la technologie (développeur, data analyst, ingénieurs, entre autres).
Dans un rapport publié en 2025, l’Observatoire des métiers du numérique, de l’ingénierie, du conseil et de l’évènement (OPIIEC) souligne que la création de postes spécifiquement dédiés à l’IA est plus répandue dans le secteur de l’ingénierie ([903]).
Principales compétences attendues pour le développement et l'utilisation de l'IA dans la branche Bureaux d'Etudes Techniques, des cabinets d'Ingénieurs Conseils et des sociétés de conseils (BETIC)
Figure 145 : principales compétences attendues pour le développement et l'utilisation de l'IA dans la branche Bureaux d'Etudes Techniques, des cabinets d'Ingénieurs Conseils et des sociétés de conseils (BETIC)- Source : Enquête BVA pour OPIIEC – 2024.
De fait, le recours à l’intelligence artificielle suscite des besoins en compétences en rapport avec toutes les phases du déploiement de la technologie et de son incorporation au processus productif.
En premier lieu, le développement de la technologie au sein des entreprises requiert des profils et compétences techniques spécifiques relevant de l’ingénierie et de l’informatique :
– les métiers spécialistes de l’IA du secteur de l’ingénierie (ingénieurs en IA ou encore ingénieurs en machine learning), qui conçoivent notamment des modèles d’IA adaptés aux cas d’usage ;
– les métiers de la science des données (data science), c’est-à-dire les analystes et spécialistes du traitement des données ou les spécialistes en gouvernance et management de ces données, effectuent un travail sur celles-ci afin d’entraîner et maintenir les modèles.
En second lieu, le déploiement des solutions d’IA mobilise les métiers du développement de logiciel et des infrastructures :
– les architectes et spécialistes des systèmes et réseaux, dont la mission consiste à intégrer l’IA dans les systèmes existants et à préparer l’infrastructure technique pour accueillir les nouveaux programmes et applications ;
– les développeurs logiciels auxquels incombe la tâche d’adapter et de déployer les solutions d’IA dans des logiciels ou des interfaces utilisateurs.
En dernier lieu, l’exploitation des outils d’IA peut conduire les entreprises à mettre en place des fonctions destinées à s’assurer de la bonne diffusion des pratiques et des usages et qui peuvent être exercées par :
– des chefs de projet IA, qui pilotent les projets de développement et qui veillent à l’intégration des solutions ;
– ou encore des formateurs, qui apprennent aux différents acteurs au sein des organisations les compétences nécessaires à l’usage des solutions d’IA.
Comme souligné par plusieurs acteurs auditionnés, l’incorporation de la technologie ne nécessite pas uniquement des compétences techniques et scientifiques. Elle peut impliquer l’intervention d’autres fonctions et métiers de l’entreprise sur des questions d’ordre éthique (telles que le traitement des biais algorithmiques ou la transparence du fonctionnement des modèles), juridique (sur les enjeux de régulation et de protection des données personnelles) ou encore sociétale. De fait, selon les résultats une enquête publiée en 2024, les entreprises exerçant dans le domaine de l’IA et de la donnée citent trois secteurs clés pour leur organisation : la data governance (58 %), la data quality (52 %), ainsi que celui relatif à la sécurité de la donnée (47 %) ([904]).
b. Une acculturation et des apprentissages nécessaires dans le cadre du cursus scolaire
Sans préjuger des initiatives particulières prises par les établissements et de leurs ressources, les travaux de la mission mettent en lumière deux besoins fondamentaux dans la dispense des enseignements scolaires compte tenu des implications du développement des usages de l’IA.
● Le premier besoin réside dans la diffusion d’une culture commune favorisant une appropriation de la technologie et de ses usages. Il découle du constat d’une relative faiblesse des compétences numériques à l’échelle de la population, mais aussi, de manière plus surprenante, parmi les étudiants.
Selon le Baromètre du numérique 2024 publié par le Credoc ([905]), 33 % des Français en ont déjà utilisé des outils de l’intelligence artificielle en 2024 (contre 20 % en 2023). Malgré la nette progression des utilisateurs, l’enquête rend compte d’une méfiance importante et persistante dans une majorité de la population, bien qu’elle recule avec l'usage personnel de ces outils. Par ailleurs, l’enquête établit une corrélation entre le degré d’utilisation de l’IA, d’une part, et le genre et l’âge des individus, d’autre part ([906]).
D’après l’enquête réalisée par un réseau international d’institutions éducatives, 69 % des étudiants en France déclarent utiliser des outils d’IA générative, ce qui caractérise une proportion plus faible que dans d’autres pays : en comparaison, les étudiants colombiens, espagnols ou encore italiens déclarent recourir à l’IA générative, respectivement à hauteur de 84 %, 78 %, et 76 % ([907]). Selon l’étude, seulement 27 % des étudiants français affirment être formés aux usages de l’IA. L’étude observe que le retard dans l’adoption du recours à l’IA chez les étudiants français, qui varie selon les domaines d’étude, ne se limite pas au déficit de formation à cette technologie, mais aussi à un manque de confiance : 60 % ont en effet déclaré ne pas se considérer confiants dans leur capacité à acquérir les connaissances nécessaires permettant travailler avec des outils d’IA.
Du point de vue des rapporteurs, ces résultats plaident en faveur d’une acculturation aux usages de la technologie dès l’enseignement scolaire.
En l’état, le socle commun de connaissances, de compétences et de culture ([908]) fixé pour les études primaires et secondaires vise à développer la capacité d’ « apprendre à apprendre, seuls ou collectivement, en classe ou en dehors », l’accès à l’information et à la documentation et les outils numériques.
Vos rapporteurs estiment qu’il conviendrait de consacrer la connaissance et la maîtrise élémentaires des outils de l’intelligence artificielle parmi les objectifs de la scolarité obligatoire. Compte tenu des compétences minimales exigées par la technique et des équipements informatiques qu’elle peut supposer, cette initiation ou sensibilisation pourrait être organisée au début des études secondaires.
Recommandation n° 35 : Intégrer la sensibilisation et l’initation à la connaissance et à l’usage des outils de l’intelligence artificielle au socle commun de connaissances, de compétences et de culture, défini par le ministère de l’Éducation nationale.
Le second besoin fondamental réside dans la valorisation des compétences nécessaires à la compréhension et à l’usage de technologie.
Comme précédemment observé, le fonctionnement et l’usage des outils d’IA font appel à des capacités de modélisation, d’abstraction et de programmation. Au regard des constats partagés par plusieurs intervenants devant la mission, l’essor de la technologie suppose donc d’accorder un rôle central aux mathématiques et aux compétences numériques.
Dans cette optique, plusieurs intervenants ont alerté sur la nécessité de revaloriser l’enseignement des mathématiques, tant en volume horaire qu’en niveau d’exigence, pour garantir à tous les élèves une base solide. Ils préconisent également l’introduction progressive, à un stade précoce, d’enseignements liés au numérique et à l’intelligence artificielle afin de familiariser les élèves avec ses concepts fondamentaux (données, algorithmes, apprentissage automatique, enjeux éthiques), développer leur culture numérique et susciter des vocations. D’après certains spécialistes, l’apprentissage en mathématiques se joue dès six ans.
L’accent mis sur l’enseignement des mathématiques et sur la maîtrise des compétences numériques fait écho aux analyses de la Commission européenne. Dans son rapport sur l’état d’avancement de la décennie numérique publié en juin 2025, elle avertit que la faible disponibilité des spécialistes des technologies de l’information et de la communication (TIC) dotés de compétences avancées pourrait entraver les progrès dans des secteurs clés tels que la cybersécurité et l’intelligence artificielle ([909]). Dans son évaluation de l’état d’avancement de la décennie numérique en France, la Commission affirme également que le faible niveau en mathématiques limiterait le développement des technologies de l'information et de la communication (TIC), engendrant une disponibilité faible de compétences avancées en la matière. Aussi, elle préconise de développer le marché de travail dans le domaine des TIC, notamment par le développement et la clarification des formations numériques, tout étendant les formations de requalification.
Sans mésestimer les difficultés inhérentes au déficit des vocations conduisant à des postes non pourvus et à la contrainte des rythmes scolaires, le renforcement de l’enseignement des mathématiques et la place accordée au développement des compétences numériques relèvent d’un investissement impératif. Aussi vos rapporteurs appellent les pouvoirs publics à veiller à la pertinence des volumes horaires et des programmes consacrés à ces deux disciplines afin de préserver les compétences nécessaires au développement de l’IA dans l’enseignement secondaire et professionnel, cette exigence valant également dans la formation des apprentis.
Recommandation n° 36 : Assurer la pertinence des programmes et volumes horaires dans l’enseignement des mathématiques et des compétences numériques dans l’enseignement scolaire et l’enseignement professionnels afin de préserver les compétences nécessaires au développement des usages de l’intelligence artificielle.
Sensibiliser et formation les apprentis aux usages de l’intelligence artificielle.
c. Encourager l’orientation des jeunes filles vers les filières de l’IA
Vos rapporteurs ont pu le percevoir de manière empirique au cours de leurs auditions : l’émergence d’un nouveau secteur économique et de nouveaux métiers fondés sur l’intelligence artificielle n’implique pas, en soi, la disparition des inégalités de genre qui peuvent affecter la position et les perspectives de carrière dans certains milieux professionnels. De fait, la sous-représentation des femmes dans les filières du numérique semble aujourd’hui devoir peser sur leur affirmation dans le développement des usages de l’IA.
D’une étude réalisée en 2023 par l’Insee et la Dares ([910]), il ressort ainsi que, sur la période 2021-2022, seulement 24 % des emplois dans les professions du numérique étaient occupés par des femmes. L’étude établit par ailleurs que les femmes « sont proportionnellement plus nombreuses que les hommes dans les métiers émergents de l’analyse de données et de l’intelligence artificielle. Elles sont plus rares en revanche dans les métiers purement techniques comme l’informatique et les systèmes d’information (36 % des femmes contre 57 % des hommes exerçant une profession du numérique), ou encore dans les métiers des télécoms et infrastructures réseaux (3 % des femmes contre 10 % des hommes) ».
Fondamentalement, cette situation trouve son origine dans des stéréotypes et des choix d’orientation qui restreignent la place des filles et des jeunes femmes dans les filières scientifiques. Ces phénomènes inégalitaires, qui se creusent entre les filles et les garçons, s’observent dès le cours préparatoire.
Ainsi que le confirme le récent rapport de l’Inspection générale des finances (IGF) et de l’Inspection générale de l’éducation, du sport et de la recherche (IGESR) ([911]), les stéréotypes portent sur l’aptitude des filles à suivre des études en mathématiques. Répandus dans la société et dans les classes, ils nourrissent un manque de confiance des filles dans leurs performances par rapport aux garçons, selon une étude de la Direction de l’évaluation, de la prospective et de la performance (Depp) ([912]), ce qui ne les prédispose pas à s’orienter vers des enseignements scientifiques qui conduisent aux métiers d’ingénieur et du numérique, même à compétences égales.
La Depp relève également que la part des filles dans les matières scientifiques décroît à mesure de leur avancée dans les classes de l’enseignement secondaire : si les filles représentent 55 % des élèves de seconde générale et technologique, en classe de première 48 % d’entre elles choisissent l’enseignement de spécialité de mathématiques, tandis qu’en classe de terminale 42 % poursuivent dans cette spécialité et seulement 33 % optent pour l’enseignement optionnel de mathématiques expertes ([913]). Il en résulte une sous-représentation parfois sensible suivant les spécialités qu’illustre le graphique ci-après.
Source : ministère chargé de l’Enseignement supérieur et de la Recherche, « Enseignement supérieur et recherche « Vers l’égalité femmes-hommes ? », mars 2025.
En conséquence, la présence décroissante des filles au cours de l’avancée des classes de l’enseignement secondaire se répercute sur la composition des filières scientifiques : les filles ne représentent en effet que 25 % des étudiants qui intègrent des formations supérieures conduisant aux métiers d’ingénieurs et du numérique, ce qui illustre une proportion qui stagne depuis 20 ans. Suivant les observations du rapport conjoint de l’IGF et de l’IGESR, après une progression régulière jusqu’à la fin des années 2000, la proportion de femmes dans les études de mathématiques, physique-chimie, informatique et sciences de l’ingénieur (dites STEM) plafonne à un faible niveau depuis une dizaine d’années.
Afin de remédier à la sous-représentation des femmes dans les filières scientifiques, l’État a pris des initiatives qui visent à renforcer l’attractivité des filières de formation numérique, du collège aux études supérieures.
Cette action repose sur un accompagnement dans les projets et l’orientation post-baccalauréat, ainsi que sur la mise en œuvre de mesures de lutte contre les stéréotypes de genre. Ainsi, dès le collège, des séances pédagogiques sont organisées et des outils sont mis en place afin de favoriser l’attractivité des disciplines scientifiques et numériques auprès des filles. Par des dispositifs d’accompagnement dans l’orientation et de découverte des métiers, sont organisées dès le collège des rencontres avec des personnalités scientifiques. Des associations animent des « réseaux de marrainage » ou organisent des interventions en classe.
Sur le fondement des conclusions du rapport précité de l’IGF et de l’IGESR, la ministre de l’éducation nationale, de l’enseignement supérieur et de la recherche Élisabeth Borne a dévoilé, le 7 mai 2025, un plan d’actions intitulé : « filles et maths » ([914]). À cet effet, il comporte huit mesures ordonnées sur trois axes de travail.
Orientations et mesures du plan « Filles et maths »
Le plan « Filles et maths » se structure en trois piliers.
Le premier pilier porte sur la formation et la sensibilisation des personnels de l’éducation nationale aux biais de genre et aux stéréotypes. Il comporte un plan de formation pluriannuel afin d’aider les professeurs des écoles et les professeurs de mathématiques du second degré à les prévenir dans l’apprentissage des mathématiques.
Le deuxième pilier a pour objet le renforcement de la place des filles dans les enseignements qui conduisent vers les filières d’ingénieur et du numérique. Dans cette optique, le plan « Filles et maths » fixe plusieurs objectifs : pour l’enseignement secondaire supérieur, qu’à l’horizon de l’année 2030, 30 000 filles de plus choisissent l’enseignement de spécialité de mathématiques en classe de première et le conservent en terminale – ce qui signifie un accroissement des effectifs de la catégorie de 5 000 élèves par an à compter de la rentrée 2025 ; pour l’enseignement supérieur, que chaque classe préparatoire scientifique compte au moins 30 % de filles dans son effectif, et pas moins de 20 % de filles dès la rentrée 2026. En outre, afin de développer l’intérêt des filles pour les sciences, ce plan prévoit, dès la rentrée 2025 et dans le cadre d’une expérimentation, la création de classes de quatrième et de troisième, constituées d’au moins 50 % de filles, à horaires aménagés en mathématiques et en sciences.
Le troisième pilier vise à mettre en place des programmes d’éducation à l’orientation des filles de la troisième à la terminale, afin de sensibiliser les filles aux parcours scientifiques et de susciter des vocations.
Sources : travaux de la mission.
Les éléments recueillis par la mission ne permettent pas d’évaluer l’efficacité des dispositifs en vigueur et ne sauraient conduire à préjuger de la pertinence des mesures annoncées par le Gouvernement. Toutefois, le seul constat de la stagnation du nombre des femmes dans les études de mathématiques, physique-chimie, informatique et sciences de l’ingénieur montre l’étendue du chemin restant à parcourir afin que les femmes puissent prendre toute leur place dans les métiers scientifiques et techniques.
Au regard de la nécessité de renforcer les compétences numériques et le vivier des talents, vos rapporteurs ne peuvent qu’appeler les pouvoirs publics à accentuer les efforts accomplis dans la lutte contre les inégalités de genre dans la perspective du développement des usages de l’intelligence artificielle.
Recommandation n° 37 : Poursuivre et développer les actions tendant à favoriser l’orientation des filles vers les filières scientifiques et numériques et à les inciter à se spécialiser dans les métiers de l’intelligence artificielle.
3. Un effort à maintenir dans le domaine scientifique
Indéniablement, la France dispose d’atouts significatifs dans la compétition scientifique autour des usages de l’intelligence artificielle. Sur le strict plan de la capacité d’innovation, elle se classait ainsi cinquième de l’index établi par l’université de Stanford ([915]) pour l’exercice 2023, alors qu’elle n’en occupait que la 13e place en 2022. Outre la qualité de l’écosystème de recherche, la progression manifeste un réel investissement des acteurs publics et privés dans le développement de la technologie.
classement des dix pays les plus importants dans le champ des innovations en intelligence artificielle
Source : « The Global AI Vibrancy Tool », novembre 2024, p. 24.
Néanmoins, la performance globale ne saurait occulter des résultats plus contrastés du point de vue de l’évolution de la part de la recherche nationale dans le développement de la technologie. Il en va ainsi sur le plan du nombre des publications et des citations d’articles portant sur l’intelligence artificielle : la France occupe la 7e place mondiale et la seconde place à l’échelle européenne en matière de publications scientifiques entre 2017 et 2024. Cela étant, le rapport publié par la Cour des comptes montre que sa place tend à s’éroder, à l’échelle mondiale comme européenne ([916]).
classement de la France du point de vue du nombre de publications et du nombre de citations en ia entre 2014 et 2021
Même si un tel indicateur revêt une part conjoncturelle, il importe de poursuivre les efforts entrepris en matière d’innovation, notamment dans le cadre de la seconde phase de la stratégie nationale pour l’intelligence artificielle à horizon 2025, au regard des trois enjeux que sont la diffusion de la recherche et développement, l’efficacité de l’organisation de la recherche et une exigence d’attractivité de notre pays pour les scientifiques.
a. Un effort de recherche en matière d’IA demeurant du ressort de grands acteurs privés et publics
S’il n’existe pas de chiffres consolidés quant à l’origine des dépenses d’innovation en matière d’intelligence artificielle, l’écosystème français se révèle polarisé entre, d’une part, les grandes entreprises et start-up, et, d’autre part, les institutions publiques d’enseignement et de recherche.
● Les grands groupes et les start-up jouent un rôle décisif en matière de recherche fondamentale et de recherche et développement.
Ainsi que le confirment les travaux de la mission, grands groupes et start-up représentent une part prépondérante des projets portant sur des développements significatifs de la technologie ou l’exploration de nouveaux cas d’usage. On trouve un autre indice de cette part essentielle sur le plan des publications. Ainsi que l’a relevé M. Yann LeCun lors de son audition par vos rapporteurs, le laboratoire Facebook AI Research (FAIR) se trouve à l’origine de plus de la moitié des publications françaises les plus citées au monde dans le domaine de l’intelligence artificielle.
En dehors des start-up, les TPE-PME se trouvent essentiellement dans la position d’entreprises utilisatrices. Les observations convergentes de l’Union des entreprises de proximité (U2P) et de la Confédération des petites entreprises (CPME) donnent à penser qu’elles recourent volontiers à des solutions accessibles gratuitement en ligne et/ou fournies par des acteurs majeurs tels que Microsoft, Google, OpenAi ou AWS.
Cette situation résulte vraisemblablement de deux facteurs : d’une part, le caractère limité des ressources pouvant être consacrées à un tel investissement ; d’autre part, l’absence de cas d’usage identifiés en rapport avec l’activité, l’organisation du travail et les données produites par l’entreprise. Suivant l’analyse de la CPME, seules s’engagent dans la conception de solutions techniques propres quelques entreprises confrontées à des besoins spécifiques ou cherchant à se différencier sur leur marché. Du reste, les développements sont souvent portés par des structures possédant déjà une expertise technique interne ou collaborant avec des partenaires spécialisés. Par contraste, les solutions fournies présentent l’avantage de coûts faibles et de facilités d’intégration : elles sont souvent gratuites ou proposées sous forme d’abonnements accessibles financièrement, avec des interfaces prêtes à l'emploi et une infrastructure déjà optimisée.
● S’ils ne disposent pas nécessairement des mêmes ressources que certains géants de la tech et grands groupes, les grands organismes de recherche et d’enseignement publics contribuent de plusieurs manières à l’effort d’innovation en matière d’intelligence artificielle.
Outre leurs missions d’enseignement, ils participent, en premier lieu, au développement de la recherche fondamentale dont découlent les solutions applicatives.
Les éléments recueillis par la mission montrent qu’à des degrés divers, les grandes écoles et établissements universitaires développent une fonction de veille quant aux évolutions de la technologie. Dans les réponses au questionnaire de vos rapporteurs, M. Frédéric Pascal, vice-président IA de l’université Paris-Saclay, évoque ainsi l’existence au sein de l’établissement de travaux de recherche dans les domaines du traitement du langage naturel, des grands modèles de langage (LLM) et des techniques d’encodage (embeddings).
L’importance de l’activité de recherche à l’échelle nationale se mesure dans les articles co-publiés sur les développements de la technologie. Ainsi que l’illustre le graphique ci-après, les grands établissements de l’enseignement supérieur et de la recherche conservent une place substantielle dans la production de la littérature issue de collaborations scientifiques.
FRÉQUENCE DES CITATIONS des grands Établissements de l’ESR ([917]) DANS LES ARTICLES PUBLIES SUR L’IA EN 2023
Source : Cour des comptes, La stratégie nationale de recherche en intelligence artificielle, avril 2023, p. 78 ([918]).
En second lieu, les grands établissements publics structurent l’écosystème de la recherche. La France compte aujourd’hui 81 laboratoires spécialisés en intelligence artificielle, soit l’un des effectifs les plus importants en Europe.
Pour leur part, les organismes nationaux de recherche (CNRS, Inria et Inserm) et les grandes universités (Paris Sciences Lettres, Paris-Saclay, Côte d’Azur et Grenoble-Alpes) se trouvent aujourd’hui au cœur des réseaux que constituent les instituts interdisciplinaires d’intelligence artificielle (3IA). Ils entretiennent des collaborations scientifiques qui, parfois, s’appuient sur des instruments antérieurs à la mise en place de ces cadres structurants. Il en va ainsi de l’université Paris-Saclay, qui a mis en place l’Institut DataIA. Premier écosystème français en intelligence artificielle ([919]), cette structure a pour mission de coordonner les activités de recherche, de formation et d’innovation dans le domaine de l’IA, afin de favoriser les synergies entre laboratoires, écoles, universités et entreprises, ainsi que le développement d’enseignements répondant aux exigences de la technologie.
rEPRÉSENTATION DU SOUS-rÉseau français rÉsultant des instituts interdisciplinaires de l’intelligence artificielle
Source : Cour des comptes, La stratégie nationale de recherche en intelligence artificielle, rapport public thématique, avril 2023, p. 80.
Au-delà, leur concours à l’effort de recherche et d’innovation procède de l’apport de ressources partagées avec d’autres membres de l’écosystème, sous la forme d’outils mis à leur disposition.
Comme la Cour des comptes l’a relevé dans son analyse de la stratégie nationale de recherche pour l’intelligence artificielle ([920]), cette démarche est notamment le fait d’opérateurs de recherche comme l’Inria ou le CNRS. Par l’intermédiaire de l’Institut du développement et des ressources en informatique scientifique (Idris), le Centre assure ainsi le fonctionnement et les développements du supercalculateur Jean Zay, dont une partie de la puissance de calcul sert à des projets de recherche ouverte menés par des chercheurs des milieux universitaires et industriels dans les domaines de la simulation numérique et de l’intelligence artificielle. Par ailleurs, le CNRS se trouve à l’origine d’un certain nombre de recherches ou technologies sur lesquelles repose aujourd’hui l’activité de start-up utilisant l’IA.
b. Des dynamiques à approfondir sur le plan des ressources et de l’organisation de la recherche publique
L’effort en faveur du développement des usages de l’intelligence artificielle au sein des entreprises françaises suppose le maintien de collaborations denses entre acteurs publics et privés de la recherche. Ainsi qu’il ressort des travaux de la mission, la réalisation de cet objectif emporte deux exigences.
● La première exigence touche à la continuité des financements alloués à l’effort d’innovation en matière d’IA, après l’achèvement de France 2030 et dans le cadre de la loi de programmation pour la recherche.
Sur le fondement de ce programme exceptionnel, la stratégie nationale pour l’intelligence artificielle disposait, pour la période 2018-2022, d’une enveloppe de 1,5 Md€. D’après le chiffrage établi par la Cour des comptes ([921]), 30 % de ce montant (soit 445 M€) sont allés à la recherche. Ce financement aura permis notamment la création et le développement du réseau d’instituts interdisciplinaires d’intelligence artificielle, la mise en place de 180 chaires d’excellence et de 300 programmes doctoraux, ainsi que le déploiement du supercalculateur Jean Zay.
Destinée à favoriser la diffusion des technologies au sein de l’économie, la seconde phase de la stratégie nationale couvre la période 2021-2025 et fait l’objet d’un financement d’un milliard d’euros assis sur les crédits de France 2030. Ses objectifs portent à la fois sur le développement des compétences et des talents et sur la conception d’une IA embarquée, frugale et de confiance.
Les objectifs de la stratégie nationale
pour l’intelligence artificielle à l’horizon 2025
Pour le développement des compétences et talents nécessaires à la diffusion de la technologie, la stratégie nationale pour l’intelligence artificielle vise, dans le cadre de sa seconde phase :
– la formation à l'IA de 40 000 et 100 000 étudiants par an et le financement de 200 thèses supplémentaires par an en régime de croisière ;
– le classement d’au moins un établissement d’excellence dans les meilleurs rangs internationaux de la recherche et la formation en IA ;
– le recrutement de 15 scientifiques étrangers d’envergure mondiale d’ici janvier 2024.
Pour la mise au point de modèles d’IA embarquée, frugale et de confiance, la stratégie nationale se donne pour ambitions :
– de capter de 10 % à 15 % des parts du marché mondial de l’IA embarquée à horizon 2025 et de faire de la France un leader mondial dans le domaine ;
– de soutenir 10 projets de démonstrateurs ou de développement technologique d’IA frugale ;
– de livrer 3 à 4 plateformes de développement, test et expérimentation d’envergure européenne, dans les domaines de l’IA embarquée ou décentralisée et de l’IA de confiance.
Aux ressources allouées à la stratégie nationale pour l’intelligence artificielle s’ajoutent les ressources mobilisées par Bpifrance. Fin 2024, l’établissement public avait ainsi investi 3,4 Md€ pour le financement de projets innovants dont l’objet touchait à l’intelligence artificielle, notamment par le biais d’appels à projet spécifiques France 2030 ([922]). Le plan stratégique 2025-2029 prévoit d’allouer un montant total de 10 Md€ au développement du secteur de l’intelligence artificielle, dont 5 Md€ à titre de soutien à l’innovation.
Or, le plan France 2030 devrait arriver à son terme en 2026. En l’état, la mission budgétaire correspondante « Investir pour la France de 2030 » ne porte que des crédits de paiement, aucune nouvelle autorisation d’engagement n’y étant inscrite. Par conséquent, la mise en œuvre des actions de la stratégie nationale pour l’IA et de Bpifrance apparaît suspendue à la définition de nouvelles modalités de financement.
Si l’hypothèse d’un renouvellement du dispositif de France 2030 a pu être évoquée par certains intervenants, elle ne constitue pas nécessairement une option à privilégier, au regard des critiques quant à son manque de lisibilité et aux difficultés de gestion des crédits au plan budgétaire. Du point de vue de vos rapporteurs, il pourrait être plus expédient d’inscrire le soutien au développement des usages de l’intelligence artificielle dans l’exécution de la loi de programmation pluriannuelle de la recherche promulguée en décembre 2020 ([923]).
Entre 2021 et 2030, ce texte planifie une augmentation progressive des crédits inscrits sur le programme 172 « Recherches scientifiques et technologiques pluridisciplinaires », qui constitue le principal vecteur de financement de la recherche publique, et le programme 150 « Enseignement supérieur et recherche universitaire » de la mission Recherche et enseignement supérieur. Ainsi que l’établit le rapport annexé à la loi, le développement de l’intelligence artificielle figure parmi les éléments de contexte de la programmation sans nécessairement être tenu pour un objet à financer.
Afin de conférer une certaine visibilité à l’engagement de l’État dans ce champ d’innovations, vos rapporteurs estiment qu’il pourrait être judicieux de consacrer au développement de la recherche relative à l’intelligence artificielle une action budgétaire au sein des programmes 172 et 150 et de planifier l’évolution de ses crédits dans le cadre de la loi de programmation pluriannuelle de la recherche. De leur point de vue, l’engagement de l’évaluation du texte pourrait donner lieu à l’examen de la pertinence d’une telle mesure.
Recommandation n° 38 : Prévoir et financer la recherche sur l’intelligence artificielle dans le cadre de la programmation pluriannuelle de la recherche, en créant éventuellement une action budgétaire spécifiquement consacrée à l’IA au sein des programmes 172 et 150.
● La seconde exigence réside dans l’encouragement à la création des structures de coopération et aux simplifications administratives nécessaires à l’interdisciplinarité.
Le développement d’un travail collaboratif et la mutualisation des ressources universitaires constituent un impératif, tant au regard du niveau des investissements requis par une compétition internationale que par la multiplicité des domaines du savoir scientifique qui concourent au progrès de l’intelligence artificielle. Suivant la remarque de M. Frédéric Worms, directeur de l’École normale supérieure, il s’agit de disposer de centres universitaires d’envergure mondiale et non pas de s’en tenir à des collèges de très bons étudiants. Il faut un passage à l’échelle compte tenu du caractère relativement exigu des centres d’excellence français.
L’objectif d’un développement de l’interdisciplinarité dans l’organisation de la recherche sur l’IA se traduit depuis quelques années par deux évolutions.
D’une part, se structure un écosystème fondé sur le travail coopératif entre établissements et la reconnaissance de sept centres d’excellence qui maillent le territoire national. Ce mouvement repose d’abord sur la formation du réseau d’instituts interdisciplinaires d’intelligence artificielle (3IA). Inspirés par les recommandations de la mission Villani, présentées en 2018 ([924]), les instituts désignent des pôles de recherche, de formation et d’innovation à fort potentiel scientifique et économique en intelligence artificielle.
Le réseau des instituts interdisciplinaires d’intelligence artificielle
La création des instituts interdisciplinaires d’intelligence artificielle (3IA) répond à trois objectifs :
– la constitution d’environnements de recherche attractifs et prestigieux, capables d’avancées significatives à l’échelle mondiale, regroupés sous un label unique, visible et reconnu ;
– la diffusion d’une formation scientifique de haut niveau en IA, pour les chercheurs, les ingénieurs et les entrepreneurs ;
– la fluidification des interfaces entre disciplines et entre la recherche académique et le monde industriel, afin de favoriser la transformation rapide des idées en preuves de concept (POC), en applications scientifiques, en avancées technologiques et en propriété intellectuelle, et de créer les conditions de l’émergence d’un tissu de start-up et de PME.
Le réseau des 3IA se compose aujourd’hui de quatre pôles :
– 3IA Côte d’Azur à Nice, porté par l’université Côte d’Azur (UCA), spécialisé dans les usages de l’IA se rapportant à la santé et au développement des territoires ;
– ANITI (Artificial and Natural Intelligence Toulouse Institute) à Toulouse, porté par l’université fédérale de Toulouse Midi-Pyrénées (UFTMiP), spécialisé dans les usages de l’IA dans les domaines de la mobilité, des transports et de l’industrie du futur ;
– MIAI (Multidisciplinary Institute in Artificial Intelligence) à Grenoble, porté par l’université de Grenoble-Alpes (UGA), tourné vers les usages de l’IA pour l’humain et l’environnement ;
– PRAIRIE (PaRis Artificial Intelligence Research InstitutE) à Paris, porté par Paris Sciences et Lettres (PSL) et Paris-Cité, et consacré au développement des usages de l’IA en matière de santé, de transports et d’environnement.
Source : https://aniti.univ-toulouse.fr/fr_fr/linstitut/reseau-des-3ia/.
Le réseau des 3IA se double aujourd’hui du dispositif territorial développé dans le cadre du programme d’équipement prioritaire de recherche d’accélération Intelligence artificielle (PEPR IA). Lancé le 25 mars 2024, mis en œuvre par l’Agence nationale de la recherche (ANR) ([925]) et doté de 73 M€ sur six ans financés par France 2030, le programme comporte :
– la mise en place de 5 clusters IA correspondant à des projets portés par les universités de Rennes et de Lorraine, l’Institut polytechnique de Paris, Sorbonne université et Paris-Saclay ;
– 43 chaires destinées à valoriser des chercheurs ou petites équipes disposant d’une expertise de haut niveau sans être intégrés à un centre disposant d’une masse critique pour bénéficier d’un rayonnement international (sur les 190 chaires existantes, en incluant celles attachées au réseau 3IA) ;
Le PEPR IA soutient actuellement neuf programmes organisés autour de trois axes thématiques : IA frugale et IA embarquée dans les programmes, applications ou logiciels ; IA de confiance et IA distribuée ; fondements mathématiques de l’IA.
Sur le plan de l’organisation, le site de Paris-Saclay constitue un autre exemple de structuration, avec la mise en place de l’institut DataIA. D’après les éléments communiqués par M. Frédéric Pascal, vice-président IA de l’université Paris-Saclay et directeur de cet institut, celui-ci joue un rôle central dans la coordination des activités de recherche, de formation et d’innovation en IA. Ce type de structuration favoriserait les synergies entre laboratoires, écoles, universités et entreprises.
Les éléments recueillis par la mission ne permettent pas de porter un jugement quant à l’efficacité de cette structuration. Dans son rapport publié en 2023([926]), la Cour des comptes prônait un renforcement des synergies entre pôles d’excellence comportant une démarche plus systématique de valorisation réciproque des travaux. Elle estimait par ailleurs nécessaire une clarification des missions des centres d’excellence n’appartenant pas au réseau 3IA, dès lors que leur labellisation ne résultait pas d’un appel à projet compétitif.
Vos rapporteurs ne peuvent qu’appeler le Gouvernement à veiller à l’efficacité et à la clarté du dispositif des pôles d’excellence, compte tenu de la nécessité d’optimiser le soutien apporté à la recherche dans les domaines de l’intelligence artificielle et de créer les conditions d’une visibilité des structures à l’échelle internationale.
D’autre part, contribue au renforcement de la pluridisciplinarité un certain décloisonnement au sein de l’enseignement supérieur qu’il convient de soutenir pour le développement des usages de l’intelligence artificielle.
Au-delà de la diversification des formations, les établissements semblent enclins à organiser une approche transversale de la technologie nonobstant le périmètre de leur unités pédagogiques. Si le mouvement demande sans doute à être quantifié, l’audition de représentants de grandes écoles et universités suggère qu’un nombre croissant de départements de formation, de laboratoires ou de centres de recherche universitaire traitent de l’intelligence artificielle en leur sein. À l’École normale supérieure, cette démarche sous-tend la création d’un centre qui regroupe plusieurs départements (chimie, physique, sciences cognitives, informatique, mathématiques). Par ailleurs, les centres d’excellence comme l’École normale supérieure ou CentraleSupélec peuvent nouer des coopérations à l’échelle de leur université d’appartenance afin de mener des projets portant sur le développement de l’intelligence artificielle qui excéderaient leurs ressources ou toucheraient à un autre domaine de recherche. Du point de vue de M. Frédéric Worms, des universités comme Paris Sciences et Lettres (PSL) permettraient de répondre aux besoins du fait de leurs dimensions.
Toutefois, il apparaît que ce travail collaboratif pour le développement des usages de l’intelligence artificielle peut pâtir de la rigidité de certaines procédures administratives ou cadres de gestion. Sans porter nécessairement à extrapolation, les éléments recueillis dans le cadre des auditions fournissent l’indice de difficultés potentiellement engendrées par :
– les modalités de contractualisation entre établissements de l’enseignement supérieur et de la recherche : suivant les exemples fournis à vos rapporteurs, les procédures peuvent conduire à des délais de plusieurs mois pour la mise en œuvre de dispositifs tels que « Compétences et Métiers d’avenir » (CMA) ;
– les modalités d’usage des crédits obtenus auprès de certains financeurs publics et les règles d’imputation des dépenses : selon les signalements, l’établissement des dossiers dont l’examen conditionne la mise à disposition de crédits peut nécessiter l’apport de nombreuses informations. En outre, le recours à des crédits pour dépenses de fonctionnement (titre III) ne facilite pas le recrutement de profils extérieurs.
Les questions soulevées par les conditions d’application du droit administratif et du droit budgétaire valent pour l’ensemble des projets de recherche fondamentale ou appliquée. Néanmoins, au regard des développements rapides de la technologie et de l’avantage que confère l’antériorité dans la course à l’innovation, vos rapporteurs considèrent qu’il conviendrait d’examiner les simplifications que nécessite le cadre administratif, budgétaire et comptable applicable aux projets de développement des usages de l’intelligence artificielle. Cette démarche pourrait trouver un aboutissement raisonnable dans le cadre d’une éventuelle révision de la loi de programmation de la recherche pour les années 2021 à 2030.
Recommandation n° 39 : Examiner les simplifications du cadre administratif, budgétaire et comptable applicable aux projets de recherche portant sur le développement des usages de l’intelligence artificielle.
● Au-delà, il convient peut-être d’accompagner des évolutions culturelles permettant d’assurer des débouchés applicatifs et une valorisation de la recherche et du développement dans la recherche publique.
Les éléments recueillis par la mission donnent à penser que la conduite des projets relatifs au développement de l’intelligence artificielle tend à estomper une césure traditionnelle en France entre recherche fondamentale et recherche en développement. Ce changement apparaît perceptible dans le cadre des clusters IA. D’après l’état des lieux dressé par certains intervenants des milieux universitaires et industriels, les laboratoires de recherche en commun permettent ainsi un partage direct des résultats scientifiques avec les entreprises. Ces structures faciliteraient une élaboration conjointe des projets de recherche et développement, l’accès à des données industrielles et l’intégration rapide de nouvelles technologies issues des laboratoires universitaires dans les processus industriels.
Au plan juridique, il existe des dispositifs destinés à faciliter le recrutement de chercheurs privés et publics. La loi de programmation de la recherche pour les années 2021 à 2030 a ainsi créé :
– les contrats postdoctoraux privés et publics ([927]) : le contrat a pour objet l'exercice d’une activité de recherche dans le cadre d'un projet retenu au titre d'un appel à projets international ou national ou défini par l'établissement. La loi impose que l’activité proposée fournisse au chercheur une expérience professionnelle complémentaire au doctorat, permettant d’approfondir sa pratique de la recherche, de faciliter sa transition professionnelle vers des postes permanents en recherche publique ou privée et de prendre, le cas échéant, des responsabilités scientifiques au sein de l'établissement recruteur ;
– le contrat à durée indéterminée de mission scientifique ([928]) : ce contrat de droit public à durée indéterminée permet aux établissements publics de recherche et d’enseignement supérieur de recruter des personnels pour mener à bien des projets ou opérations de recherche ; il s'achève avec la réalisation du projet ou de l’opération ;
– le contrat de travail à temps partiel pour les enseignants-chercheurs ou chercheurs ([929]) : le code de la recherche dispose que le contrat peut être conclu afin de recruter un chercheur, titulaire du diplôme de doctorat ([930]), en vue de la réalisation d'un objet défini, dans les entreprises de droit privé ayant une activité de recherche et développement, les établissements publics de recherche à caractère industriel et commercial, les fondations reconnues d’utilité publique ayant pour activité principale la recherche publique ([931]) ou encore les établissements d'enseignement supérieur privés d'intérêt général. En pratique, le contrat donne aux chercheurs la faculté de prendre part à des projets privés sans quitter leur poste universitaire. Suivant les éléments recueillis par la mission, ces dispositifs ont déjà fait l’objet d’une expérimentation dans certains établissements et présentent l’intérêt de créer des ponts efficaces entre la recherche fondamentale et les applications concrètes.
Si les éléments recueillis par la mission ne permettent pas d’établir le nombre de personnes ayant recours à l’ensemble de ces dispositifs, il n’apparaît pas douteux que ces contrats apportent des réponses aux besoins de recrutement des entreprises et des établissements de recherche pour le développement de l’intelligence artificielle. En réalité, l’incertitude et l’enjeu portent sur la possibilité d’exploiter les résultats de la recherche à des fins lucratives et commerciales.
La loi de programmation de la recherche pour les années 2021 à 2029 ([932]) a étendu les possibilités de créer une entreprise ou d’y participer à titre personnel. L’article L. 531-1 du code de la recherche dispose ainsi que « les fonctionnaires civils des services publics et des entreprises publiques définis à l'article L. 112-2 et les fonctionnaires exerçant leurs fonctions dans les établissements publics relevant du décret mentionné à l'article L. 112-6 peuvent être autorisés à participer à titre personnel, en qualité d'associé ou de dirigeant, à la création d'une entreprise dont l'objet est d'assurer, en exécution d'un contrat conclu avec une personne publique, une entreprise publique ou une personne morale mandatée par ces dernières, la valorisation de travaux de recherche et d'enseignement, que ces travaux aient été réalisés ou non par ces fonctionnaires dans l'exercice de leurs fonctions ».
Cela étant, l’état du droit semble moins propice à une exploitation commerciale des découvertes des chercheurs en ce qui concerne les établissements d’enseignement supérieur et de recherche. Dans les réponses au questionnaire de vos rapporteurs, M. Frédéric Pascal, enseignant-chercheur en IA et vice-président IA de l’université Paris-Saclay, évoquait ainsi la possibilité de créer des structures agiles sur le modèle des filiales, à l’interface entre le monde universitaire et les entreprises. D’après son analyse, un tel mécanisme faciliterait les transferts technologiques, l’expérimentation rapide et une collaboration plus fluide avec les acteurs économiques.
Vos rapporteurs n’entendent pas écarter par principe une telle mesure. Soucieux de prévenir les risques d’une marchandisation de la recherche, ils estiment toutefois qu’il conviendrait de donner un cadre adapté au développement d’activités fondées sur l’exploitation de la recherche. Dans cette optique, il pourrait être expédient d’évaluer la pertinence d’une adaptation des instituts de recherche technologique (IRT) aux besoins du développement des usages de l’intelligence artificielle.
Labellisés dans le cadre des Investissements d’avenir, les IRT se présentent comme des organismes de recherche thématique interdisciplinaire qui associent des établissements d’enseignement supérieur et de recherche, des grands groupes et des PME autour d’un programme commun de recherche technologique. Leur fonctionnement repose sur un partenariat public-privé entre l’État, des établissements publics de recherche et des industriels dans une logique de co-investissements et de partage de risques. Leurs activités sont censées couvrir l’ensemble du processus d’innovation (recherche et développement, formation et valorisation économique des résultats). Ils ont vocation à regrouper, sur un périmètre géographique restreint, des moyens humains et des équipements afin d’atteindre une taille critique suffisante de compétences pour notamment disposer d’une visibilité internationale.
c. Une attractivité scientifique à conforter
En dehors de la qualité des formations et des infrastructures présentes sur le territoire national, le développement des usages de l’intelligence artificielle suppose une capacité de l’écosystème français de recherche à attirer et à retenir les talents susceptibles de contribuer aux progrès de la technologie. Cette exigence renvoie à deux enjeux : d’une part, l’évolution de la mobilité des chercheurs nationaux ; d’autre part, les conditions d’accueil des chercheurs et des centres de recherche venus de l’étranger.
De ce point de vue, la France occupe aujourd’hui des positions relativement solides, qui témoignent d’une certaine compétitivité. Elle se classe ainsi à la 3e place mondiale en ce qui concerne le nombre de chercheurs spécialisés en IA. Par ailleurs, le territoire national s’impose comme la première localisation au monde de centres de recherche et de décision en matière d’IA des géants mondiaux du numérique, tels que Alphabet (Google), Meta, Open AI, mais également Cisco, Criteo, DeepMind, Fujitsu, HPE, IBM, Intel, Microsoft, Samsung, SAP, Uber ([933]).
Néanmoins, ces résultats ne doivent pas conduire à exagérer l’importance du vivier dont la France dispose. Ainsi que l’illustrent les graphiques ci-après, la part prise sur le marché des talents de l’IA demeure limitée et précaire : nonobstant le net écart qui la sépare des États-Unis et de la Chine – écart naturel compte tenu de leur rôle originel et moteur dans le développement de la technologie –, la France se trouve au coude-à-coude avec l’Allemagne ou le Canada et assez en retrait par rapport au Royaume-Uni.
Source : MarcoPolo (2023), The Global AI Talent Tracker 2.0 (cité par Direction générale du Trésor).
En soi, une telle situation montre l’âpreté de la compétition mondiale et l’importance du défi à relever pour entretenir et renouveler les capacités d’innovation du pays. Ainsi qu’il ressort des auditions réalisées par la mission, la mobilité des chercheurs exerce des effets ambivalents.
Les expériences professionnelles hors des frontières ou auprès d’entreprises étrangères implantées en France peuvent enrichir l’écosystème français en créant les conditions de retours d’expérience et de transferts de technologies. Ainsi que le montrent les exemples de MM. Arthur Mensch, Guillaume Lample et Thimothée Lacroix, fondateurs de Mistral AI après avoir respectivement travaillé chez DeepMind et chez Meta, la mobilité des chercheurs et des ingénieurs peut apporter des compétences utiles à la valorisation des travaux de la recherche et à la poursuite de projets entrepreneuriaux. Elle contribue par ailleurs à assoir la réputation et à renforcer la visibilité de grands établissements français tels que l’École polytechnique, l’École normale supérieure ou l’université Paris-Saclay.
La question reste de savoir dans quelle mesure les scientifiques et chercheurs français partis travailler à l’étranger reviennent durablement dans notre pays pour y poursuivre leur carrière dans les métiers de l’intelligence artificielle. S’ils ne permettent pas d’établir l’existence et de quantifier une éventuelle « fuite des cerveaux », quelques témoignages recueillis par la mission suggèrent que dans certaines promotions de l’École normale supérieure ou du corps des Mines, la part des diplômés faisant le choix d’une vie professionnelle à l’étranger revêt un caractère significatif.
La mobilité des scientifiques et des ingénieurs expose en effet le système de recherche français à une mise en concurrence avec des écosystèmes étrangers, selon une logique de mise en concurrence des avantages comparatifs.
Dans les arbitrages opérés par les professionnels pour le choix d’un poste à l’étranger, peuvent entrer de nombreux critères parmi lesquels le niveau de rémunération trouve naturellement sa place. Le montant nominal des salaires et des gratifications ne joue pas nécessairement en faveur des entreprises et des centres de recherche français. Ainsi qu’il ressort des signalements de plusieurs start-up et d’entreprises déjà plus établies, il peut déterminer la durée d’exercice des premiers postes par de jeunes diplômés recrutés à la sortie de l’école et constitue parfois un désavantage comparatif dans le recrutement de professionnels plus expérimentés.
Toutefois, il convient de nuancer la part des considérations financières dans les termes de la concurrence entre écosystèmes de recherche. Il apparaît en effet que, de manière générale, les chercheurs et ingénieurs aspirent à travailler à la frontière technologique et accordent de l’importance aux moyens matériels et opportunités de promotion de leurs travaux. S’agissant des expatriés, peuvent par ailleurs entrer en ligne de compte la qualité de vie (hors et dans le milieu professionnel), ainsi que la proximité avec la culture locale. En cela, les travaux de la mission portent à conclure que les motivations des chercheurs et ingénieurs spécialisés dans les domaines de l’intelligence artificielle ne diffèrent guère de celles qui déterminent la mobilité des scientifiques.
Si la qualité de l’environnement de travail et les modalités pratiques d’intégration aux structures de recherche intéressent au premier chef les établissements de l’enseignement supérieur, il importe d’assurer l’attractivité de la France au regard des conditions d’exercice professionnel et du droit au séjour.
Il existe aujourd’hui plusieurs dispositifs généraux destinés à favoriser l’accueil de scientifiques étrangers :
– le « passeport Talent » : créé par la loi du 7 mars 2016 ([934]) et modifié par la loi « Ddadue » du 30 avril 2025 ([935]), ce titre se définit comme une carte de séjour pluriannuelle, d’une durée maximale de quatre ans et destinée à l’accueil de scientifiques étrangers. Elle peut être délivrée aux titulaires d’un diplôme équivalent au grade de master qui mènent des travaux de recherche ou dispensent un enseignement de niveau universitaire, dans le cadre d'une convention d’accueil signée avec un organisme public ou privé ayant une mission de recherche ou d'enseignement supérieur et préalablement agréé. Le passeport talent permet l’exercice d'une activité professionnelle salariée dans le cadre de la convention d'accueil ayant justifié la délivrance de ce titre de séjour ;
– la « talent-carte bleue européenne » : instituée par la loi Ddadue précitée du 30 avril 2025 ([936]), elle désigne une carte de séjour pluriannuelle valable à l’échelle de l’Union européenne. Peuvent en demander le bénéfice les étrangers qui occupent un emploi hautement qualifié pendant une durée égale ou supérieure à six mois et justifient d’un diplôme sanctionnant au moins trois années d’études supérieures ou d’une expérience professionnelle d'au moins cinq ans d'un niveau comparable ou qui ont acquis – dans des conditions, tenant notamment à la profession concernée, déterminées par décret en Conseil d’État – au moins trois ans d'expérience professionnelle pertinente au cours des sept années précédant la demande. La durée de la carte correspond à celle figurant sur le contrat de travail, dans la limite de quatre ans lorsque le contrat est conclu pour une durée d'au moins deux ans, sous réserve de justifier du respect d'un seuil de rémunération fixé par décret en Conseil d’État et dont le montant ne peut être inférieur à 1,5 fois le salaire annuel brut moyen ;
– le « séjour de recherche » des doctorants et chercheurs étrangers : formalisé par la loi de programmation de la recherche pour les années 2021 à 2029 ([937]), ce dispositif permet l’accueil de doctorants et de chercheurs étrangers disposant d’une bourse suivant une procédure simplifiée. Le séjour de recherche a pour objet de participer à une formation à la recherche et par la recherche, de concourir à une activité de recherche ou de développement technologique, au sein d’un établissement d’accueil, l’activité pouvant être complétée par une activité d'enseignement. La convention est conclue pour une durée maximale de trois ans pour les doctorants, renouvelable deux fois pour une année ;
– le « French Tech Visa » : il s’agit d’un programme permettant la délivrance du « passeport Talent » suivant une procédure simplifiée pour trois catégories : les salariés de start-up françaises reconnues comme innovantes ([938]), avec un contrat de travail (« French Tech Visa For Employees ») ; les fondateurs de start-up sélectionnées par les incubateurs partenaires (« French Tech Visa for Founders ») ; les business angels ou fonds d’investissement étrangers souhaitant ouvrir des bureaux en France.
Par ailleurs, il existe des programmes bilatéraux visant à faciliter la venue en France de jeunes chercheurs tels que :
– le Graduate Research Opportunities Worlwide Program (GROW) de la National Science Foundation ;
– le programme PhD-Track de l’université franco-allemande ;
– les différents « programmes Hubert Curien » (PHC) du ministère de l’Europe et des Affaires étrangères.
En l’absence d’éléments circonstanciés, rien n’indique que les procédures et dispositifs ne puissent répondre aux besoins qui déterminent la mobilité et le recrutement des chercheurs et ingénieurs spécialisés dans le développement des usages de l’intelligence artificielle. En revanche, l’état des lieux dressé devant la mission souligne la nécessité d’assurer une visibilité des dispositifs d’accueil, ainsi que l’importance de perspectives offertes en termes de durée des activités de recherche et d’enseignement.
Dans cet optique, vos rapporteurs estiment qu’il conviendrait de veiller à la pertinence des statuts et procédures permettant l’accueil des chercheurs et scientifiques étrangers au regard de l’objectif d’un renforcement de l’attractivité scientifique de la France dans le champ de l’IA et de la diffusion de la technologie au sein des entreprises françaises.
Recommandation n° 40 : Évaluer l’efficacité des titres et procédures destinés à faciliter l’accueil des scientifiques étrangers afin de favoriser le recrutement des chercheurs et ingénieurs susceptibles de concourir au renforcement des capacités d’innovation en matière d’intelligence artificielle.
E. FAVORISER L’appropriation de l’ia dans la marche des entreprises et sur le marche du travail
La troisième condition d’un développement des ressources de l’intelligence artificielle au service de l’économie française tient à la capacité et à la manière même des entreprises d’incorporer ses innovations dans leurs activités et leur organisation du travail. De fait, la technologie offre des solutions et des procédés susceptibles de renouveler assez profondément les modalités de conception, de réalisation et de fourniture des biens et des services. Un tel potentiel « disrupteur » peut conduire à des questionnements et à des transformations, tant sur le plan de la définition et la division des tâches dans le processus productif que sur celui de la position des actifs et de la valorisation des compétences sur le marché du travail.
En l’état, le caractère restreint et inégal de la diffusion de l’intelligence artificielle au sein de la sphère marchande invite sans doute à se garder de toute conclusion définitive. Néanmoins, les premiers constats établis à propos de son impact dans certains secteurs d’activités émergent : en premier lieu, des effets contrastés sur l’emploi et les conditions de travail ; en second lieu, la nécessité d’un effort massif de formation au regard des enjeux relatifs à l’acquisition des compétences et à l’organisation des transitions professionnelles ; en dernier lieu, le besoin de conforter le dialogue social sur les conséquences du recours à l’intelligence artificielle dans la vie des entreprises.
Ainsi que le confirment les travaux de la mission, l’impact des procédés reposant sur l’intelligence artificielle sur les équilibres du marché du travail, ainsi que sur l’exercice des métiers, peut être jugé encore incertain et ambivalent. À bien des égards, l’essor de cette nouvelle technologie soulève des questions analogues à celles pouvant entourer le déploiement de la robotique dans l’industrie, tant sur le plan de la place prise dans l’accomplissement des tâches relevant d’un poste de travail que sur celui de l’évolution des effectifs employés et des qualifications requises.
a. Des outils pouvant conforter l’efficacité des travailleurs et alléger certaines sujétions de leurs postes
Nonobstant les difficultés entourant la mesure exacte des gains de productivité, l’intelligence artificielle peut manifestement concourir à enrichir le contenu du travail et simplifier les conditions de sa réalisation pour de nombreux salariés.
● Par leur autonomie croissante et une capacité d’apprentissage de plus en plus étendue, les modèles d’intelligence artificielle peuvent, en premier lieu, assurer une automatisation des tâches répétitives et une optimisation des processus métiers. Ainsi, ils peuvent permettre aux salariés de se consacrer davantage, voire exclusivement, à leur « cœur de métier » ou à des actes à plus haute valeur ajoutée pour l’entreprise.
De manière générale, les auditions menées par vos rapporteurs attestent de l’utilisation de plus en plus courante de modèles capables d’effectuer des travaux de secrétariat, tels que la gestion d’agenda, la prise de rendez-vous, l’organisation de réunions ou encore l’établissement de comptes rendus.
Une telle automatisation peut également s’observer dans les opérations de recrutement et de gestion de carrière au sein des entreprises, comme d’organismes ou prestataires extérieurs. D’après les réponses apportées par le Mouvement des entreprises de France (Medef) au questionnaire de vos rapporteurs, des opérateurs comme Adecco recourent à l’intelligence artificielle pour la rédaction d’annonces de poste, la préparation aux entretiens et même la création de curriculum vitae audios. Dans une large mesure, des procédés analogues existent à France Travail, notamment par l’usage de l’application MatchFT. D’après les explications fournies par les représentants de l’opérateur, cet outil donne aux conseillers la faculté de mieux rapprocher les offres disponibles du profil des demandeurs d’emploi, d’interagir par le biais d’un système conversationnel reposant sur l’envoi de SMS et de procéder à une mise à jour périodique du profil des inscrits en s’assurant de la validité de leurs données.
S’agissant des métiers du droit, les cas d’usage de l’intelligence artificielle comprennent également l’analyse, la comparaison, la traduction ou la rédaction de documents standardisés selon le témoignage des représentants de l’Association française de juristes d’entreprises (AFJE).
S’il peut être motivé par la recherche d’une optimisation et d’une sécurisation d’interventions aujourd’hui humaines dans le fonctionnement d’un processus industrialisé ou l’organisation d’un circuit de livraison, l’usage de l’intelligence artificielle peut également concourir à la réduction des facteurs de pénibilité au travail. Il en va ainsi dans le domaine de la logistique. Certains modèles offrent désormais la faculté de déléguer à des robots guidés par un logiciel et des capteurs la gestion d’un stock de marchandises. Ainsi que l’illustre l’exemple fourni par les représentants d’Exotec, l’intelligence artificielle rend possibles des opérations de manutention hors des heures ouvrées et en l’absence des opérateurs au sein des entrepôts. Dans cette entreprise, les robots travaillent vingt-quatre heures sur vingt-quatre et traitent 60 % des stocks de commande. Les salariés interviennent au terme du processus.
● Par sa capacité à traiter un volume croissant de données – dont la qualité et la structuration, du reste, varient – l’intelligence artificielle peut, en second lieu, participer au renforcement des connaissances et savoir-faire professionnels.
Ainsi que l’illustrent les éléments recueillis par la mission, les modèles d’IA génératives disponibles peuvent procurer des instruments susceptibles d’accroître les performances en fournissant une assistance dans l’accomplissement de tâches relevant du cœur de métier.
Ce constat vaut notamment pour les métiers juridiques. Selon une étude réalisée en 2025 par le Cercle Montesquieu, PWC et France Digitale, 71 % des juristes d’entreprise utiliseraient l’intelligence artificielle pour des travaux de recherche et de veille juridiques et l’analyse et le traitement de documents. D’après les représentants de l’AFJE, la totalité des logiciels métiers utilisés par les directions juridiques intégrerait désormais des fonctionnalités reposant sur l’exploitation de l’intelligence artificielle. L’état des lieux dressé devant vos rapporteurs met par ailleurs en exergue l’usage croissant de logiciels pour la gestion des contrats d’entreprise. En pratique, les CLM (pour Contract Lifecycle Management) donnent aux directions juridiques la possibilité d’établir des processus automatisés, susceptibles d’associer l’ensemble des services opérationnels, afin d’exécuter les obligations contractuelles et de rappeler les échéances. Ce faisant, l’intelligence artificielle tendrait à faciliter l’organisation d’un travail collaboratif et la réduction des risques.
En dehors de l’automatisation de tâches répétitives, les modèles concourent également à l’efficacité des entreprises en permettant de valoriser et de généraliser les solutions proposées à des clients. Relève de ce cas d’usage l’emploi d’un « assistant de requêtes techniques » dans le traitement des demandes adressées à Airbus : d’après la présentation réalisée par les représentants du groupe au cours de leur audition, les ingénieurs s’appuient sur des outils d’intelligence générative afin de trouver les cas d’usage les plus proches de la demande des clients dans les bases de données et connaître les réponses apportées à des requêtes similaires.
● Outre des gains opérationnels, les modèles d’intelligence générative paraissent en mesure de doter les professionnels et les salariés de capacités ou facultés « augmentées », en leur donnant accès à un champ de connaissances ou de savoir-faire techniques qui peut excéder leur formation ou même les capacités humaines.
La possibilité d’un enrichissement des capacités professionnelles découle assez directement des progrès accomplis par les modèles d’intelligence générative, notamment sur le plan des fonctionnalités prédictives. S’ils ne peuvent prétendre ni à l’exhaustivité, ni à la généralité, les exemples fournis à la mission mettent ainsi en lumière un nombre significatif de cas d’usage dans lesquels cette technologie seconde ou supplée les salariés dans l’accomplissement de leurs tâches par l’intervention de moyens robotiques, de logiciels ou par l’apport d’outils d’aide à la décision.
On peut en trouver une illustration de ces cas d’usage dans le secteur des transports (aériens ou maritimes), où certaines compagnies emploient l’intelligence artificielle afin d’optimiser les plans de navigation. D’après les informations communiquées par le Medef, il en va ainsi de la compagnie Corsica Linéa : depuis 2023, ses capitaines s’appuient sur un outil embarqué dénommé « Voyage Optimizer » qui exploite les données de capteurs équipant les navires et celles de la météorologie afin de déterminer l’itinéraire le plus économe en carburant ; l’outil transmet par ailleurs les informations à un centre de navigation situé à terre afin de réaliser une analyse globale.
Dans le secteur des métiers du droit, les éléments recueillis par la mission suggèrent que l’intelligence artificielle peut concourir à l’établissement de la politique juridique des entreprises et à la gestion du risque contentieux. Selon le tableau de la situation des juristes d’entreprise brossé par l’AFJE, des logiciels tels que Case Law Analytics (édité par LexisNexis) offrent des instruments de simulation des décisions de justice et d’évaluation du risque judiciaire, grâce à la modélisation mathématique.
Au regard de ces transformations, l’usage de l’intelligence artificielle et les modalités de son incorporation au processus productif constituent nécessairement de nouveaux enjeux dans le champ des problématiques relatives à la qualité de vie au travail. Les travaux de la mission, comme la littérature existante, ne permettent toutefois pas de trancher de manière définitive et univoque quant aux impacts de la technologie sur l’accomplissement des fonctions et missions attachées à la diversité des postes.
Certes, des études récentes semblent attester de la capacité des salariés à s’approprier les solutions procurées par l’intelligence artificielle et à en tirer parti. D’une publication de l’OCDE d’avril 2024 ([939]), il ressort ainsi qu’une majorité de travailleurs interrogés attribuent des effets bénéfiques à l’usage de la technologie, au regard des améliorations perçues sur le plan des performances, de la satisfaction au travail et de leur santé personnelle.
Une majorité de salariés utilisant l’IA déclarent des gains de performance, de satisfaction et de santé au travail (finance-assurance vs industrie).
Dans une certaine mesure, l’usage des ressources de l’intelligence artificielle pourrait même devenir un standard dans l’exercice des métiers, ainsi qu’un élément de sélection des entreprises sur le critère de la qualité du travail. Cette hypothèse ne parait pas dénuée de tout fondement au regard de la politique de ressources humaines menée dans certains métiers du droit. S’agissant des juristes d’entreprise, l’AFJE observe ainsi que les directions juridiques tendent aujourd’hui à considérer la place accordée à cette technologie comme un ressort de leur attractivité et de leur capacité à retenir les jeunes talents.
Toutefois, le développement de l’usage de l’intelligence artificielle fait apparaitre certaines contraintes, notamment lorsque son exploitation répond avant tout à des exigences de productivité. Dans leurs réponses aux questionnaires de vos rapporteurs, plusieurs organisations syndicales, parmi lesquelles l’Unsa, affirment ainsi observer une dégradation du bien-être au travail, du fait d’une surcharge cognitive attribuée à l’existence d’interfaces multiples, de notifications permanentes ou d’injonctions paradoxales.
b. Une innovation source de chômage technologique ?
L’intelligence artificielle tend à renouveler assez sensiblement les termes du débat quant à l’impact du changement technologique sur le volume et la structure des emplois. Au regard d’une aptitude croissante à mener efficacement des tâches de plus en plus complexes et de la capacité à acquérir et améliorer des connaissances et des savoir-faire, le développement des modèles pose la question d’une possible automatisation d’activités intervenant dans la fourniture de biens et de services. Par rapport à d’autres technologies de rupture, l’intelligence artificielle affecte potentiellement le devenir de l’emploi d’actifs occupant des postes qualifiés, voire très qualifiés : selon la formule employée par l’un des intervenants auditionnés à propos des cas d’usage développés dans son entreprise, l’intelligence artificielle offre la faculté de « mécaniser la partie “col blancs” ».
Reste à savoir dans quelle mesure un tel processus peut revêtir un caractère général, d’une part, et l’innovation conduire à une substitution – ou à une complémentarité – entre les tâches exécutées par les modèles et le travail fourni par les salariés, d’autre part. En vérité, les éléments recueillis par la mission portent à nuancer, en l’état de la technique, la perspective d’un remplacement inévitable des actifs.
● En premier lieu, l’estimation des créations et des destructions d’emplois induites par le développement des usages de l’intelligence artificielle s’avère relever d’une démarche prospective et aléatoire.
Suivant les études, l’évaluation du nombre des emplois menacés peut en effet varier assez considérablement. Dans une note publiée en 2024, le Fonds monétaire international (FMI) affirmait que 33 % des emplois aux États-Unis se trouvaient menacés d’un remplacement par l’intelligence artificielle ([940]). En revanche, l’Organisation internationale du Travail (OIT) estimait cette part à 5 % des emplois à l’échelle des pays développés ([941]), pourcentage jugé plausible en ce qui concerne la France selon la commission de l’intelligence artificielle ([942]). Pour sa part, France Travail a indiqué à vos rapporteurs ne pas avoir réalisé d’étude spécifique permettant de quantifier de manière globale le rapport entre les créations et les destructions d’emplois potentiellement induites par la multiplication des usages de l’intelligence artificielle.
De fait, ainsi que le rappelle la direction générale du Trésor dans ses publications ([943]), l’impact de la technologie sur le volume des emplois comporte une relative incertitude car ses effets demeurent tributaires des caractéristiques des modèles utilisés, de la vitesse et du degré de diffusion dans le secteur productif, ainsi que des coûts de développement pour les entreprises. Il convient ici de rappeler qu’une étude parue en 2013 prédisait qu’à échéance de dix ou vingt ans, 47 % des emplois aux États-Unis pourraient être menacés par l’automatisation ([944]).
● En second lieu, le développement des usages de l’intelligence artificielle semble davantage en mesure de remettre en cause le devenir des tâches relevant de certains postes de travail que de conduire au remplacement des emplois dans leur globalité. Les effets exercés par la technologie diffèrent selon la nature des compétences qui constituent le cœur des métiers et la possibilité d’une transformation des prestations.
D’une part, l’exposition des professions à l’automatisation portée par les modèles d’intelligence générative se révèle très inégale.
Ainsi que l’illustre le graphique ci-après, certaines professions (à l’instar des interprètes, des journalistes ou des graphistes) paraissent exposées à une concurrence très directe, à raison de la part de leurs activités pouvant être accomplie par un processus automatisé : de manière pratique, les modèles possèdent désormais la faculté de réaliser des traductions simultanées (orale et écrite), de produire des visuels de campagnes de publicité, d’écrire des articles ou de fournir des conseils.
Effets attendus de l’intelligence artificielle
sur les mÉtiers en FRANCE
Source : Bergeaud (2024) cité par Commission de l’intelligence artificielle, IA : Notre ambition pour la France, mars 2024, p.46.
Suivant l’estimation fournie par l’Unsa sur le fondement de plusieurs rapports, 20 % à 30 % des emplois dans certains secteurs pourraient connaître une automatisation partielle ou totale. Le mouvement affecterait notamment les fonctions administratives, les centres d’appel ou les activités logistiques.
Ce diagnostic prospectif présente une certaine crédibilité au regard des analyses sectorielles existantes à propos de l’impact des grands modèles de langage aux États-Unis. Le graphique ci-après([945]) illustre ainsi la possible coexistence entre des tâches automatisées et des tâches augmentées. En proportion, l’équilibre varie suivant l’intensité des emplois en activités reposant sur les connaissances et savoir-faire théoriques, les usages de l’intelligence artificielle prenant une grande place dans le secteur des services financiers et des marchés de capitaux, dans les assurances et la gestion des pensions, le commerce de détail et le commerce de gros.
Les services à forte intensité de connaissances sont les plus exposés à l’automatisation et à l’augmentation par l’IA générative textuelle (États-Unis, 2022)
D’autre part, il apparaît que le recours à l’intelligence artificielle peut contribuer à un renouvellement des activités offertes aux salariés, tant à l’échelle de l’économie nationale que des entreprises.
Le développement des usages de la technologie contribue, en première instance, à la création de nouveaux emplois dans le secteur numérique. D’après les statistiques évoquées par le Medef devant les membres de la mission, ce domaine d’activités comptait 77 000 postes en 2023 (contre 11 000 en 2018), avec une forte demande dans les services financiers, professionnels et informatiques. Le nombre des actifs travaillant dans les start-up spécialisées dans le champ de l’intelligence artificielle pouvait être estimé à 13 500 personnes (avec 70 000 emplois indirects générés) selon le ministère de l’économie, des finances et de la souveraineté industrielle et numérique ([946]) . Il convient toutefois de ne pas prêter à ce mouvement un caractère univoque. Nombre de tâches fréquentes dans le secteur numérique peuvent être réalisées avec l’assistance de l’intelligence artificielle, telles que l’assistance au codage, l’automatisation de la gestion des tickets et des incidents. Or on ne peut exclure l’hypothèse que la technologie modère ou tarisse le besoin de certains profils au sein du secteur numérique : d’après plusieurs intervenants entendus par la mission, le développement de l’intelligence artificielle pourrait ainsi expliquer en partie la baisse des recrutements de programmeurs informatiques dans la Silicon Valley. Suivant les réponses apportées par des constructeurs et équipementiers reçus par vos rapporteurs, l’industrie automobile emploie des procédés d’assistance dans l’écriture, la détection, la documentation et l’optimisation de codes informatiques utilisés pour le fonctionnement des chaînes de montage.
Au-delà, l’état de la recherche et les éléments recueillis par la mission portent à conclure à une capacité d’adaptation des métiers et à une évolution des modèles d’affaires associant automatisation d’une partie des tâches et émergence de nouvelles fonctions pour les salariés dans le processus productif.
Sur un plan macro-économique, le FMI évalue ainsi à 27 % la part des emplois dans les économies avancées qui peuvent être jugés complémentaires avec le développement des usages de cette technologie ([947]). Pour sa part, l’OIT considère que le pourcentage des emplois dont l’exercice peut être amélioré par l’intelligence artificielle (soit 13,4 %) dépasse celui des emplois exposés au remplacement (5,1 %).
En soi, de tels chiffres suggèrent une assez grande diversité de situations et conduisent à relativiser la propension des entreprises à substituer les procédés de l’intelligence artificielle à une main d’œuvre, en particulier qualifiée. Ils corroborent l’estimation de la commission de l’intelligence artificielle ([948]) suivant laquelle dans 19 emplois sur 20, il existe des tâches que l’intelligence artificielle ne peut accomplir. S’agissant plus spécifiquement de l’impact des modèles de fondations, des études citées par la direction du Trésor à propos des États-Unis estiment que seuls 19 % des travailleurs américains pourraient voir leurs tâches remplacées par le recours à ce type d’intelligence artificielle ; pour 80 % d’entre eux, la part des activités soumises à remplacement se limiterait à 10 %.
Sur un plan micro-économique, l’essor de la technologie semble ouvrir la perspective d’une nouvelle division du travail entre les modèles d’intelligence artificielle et les salariés.
De manière concrète, la réorganisation des entreprises utilisatrices donne lieu à un recentrage des salariés sur les activités constitutives de leur cœur de métier ou tenues pour stratégiques et complexes, les dispositifs fondés sur l’intelligence artificielle se voyant déléguer des actes jugés annexes ou relevant de fonctions support.
Il en va ainsi au sein des banques ou des assurances : d’après l’audition des représentants du secteur, les établissements déploient des agents conversationnels (ou « chatbots ») afin d’apporter aux clients de premiers éléments de réponse aux questions les plus courantes ou recueillir les informations nécessaires au traitement d’un sinistre. Dans le secteur de la construction et de l’équipement automobiles, les éléments communiqués à la mission mettent en relief le transfert à des robots des tâches répétitives dans le champ de la fabrication et de la production tandis que les salariés assument des fonctions de supervision et de contrôle de qualité ou interviennent sur des segments plus spécifiques. De telles fonctions existent dans d’autres branches industrielles, à l’exemple de l’aéronautique : chez Airbus, l’intelligence artificielle sert à la détection de défauts dans le processus de fabrication (par des contrôles non destructifs), à l’optimisation de la planification de la production, à la rationalisation de la gestion des stocks, ainsi qu’à la surveillance des risques en atelier.
Ce faisant, l’intelligence artificielle tend à accentuer des réorganisations déjà engagées sous l’effet de technologies comme la robotique ou de l’évolution même des modes de production des biens et des services.
Au regard des théories sur l’impact de l’innovation, on ne peut exclure que la technologie provoque à terme une recomposition de la structure des emplois, en modifiant les avantages comparatifs dont disposent les agents économiques. Si certaines entreprises parvenaient à transformer ses usages en un facteur de compétitivité accrue, le développement de l’intelligence artificielle pourrait en effet transformer les rapports de concurrence et aboutir à la disparition de certains opérateurs d’un secteur d’activité, suivant le mécanisme de « destruction créatrice » décrit par l’économiste Joseph Schumpeter (1883-1950).
Une telle hypothèse ne parait pas infondée à l’aune des dynamiques divergentes que connaissent des entreprises suivant leur propension à exploiter les solutions techniques tirées de l’intelligence artificielle. Il ressort ainsi d’une enquête TIC Entreprises de l’Insee que l’emploi total a cru davantage au sein des entreprises françaises recourant à la technologie qu’au sein de celle ne l’ayant pas adoptée, alors qu’il suivait un cours similaire pendant les trois années précédentes ([949]).
Effets de l’adoption de l’intelligence artificielle sur l’emploi total
au sein des entreprises en France
Source : commission de l’intelligence artificielle.
Nonobstant les apports de l’innovation sur le plan des procédés et des modes de production, les effets sur l’emploi du développement des usages de l’artificielle dépendront par ailleurs de son impact sur l’équilibre des mécanismes de marché qui conditionnent la demande de travail. Ainsi que le rappellent les travaux de la direction du Trésor ([950]), celle-ci résulte de deux facteurs : d’une part, l’efficacité respective des facteurs de production, qui détermine la propension du capital à se substituer au travail ; d’autre part, l’importance des gains de productivité (dégagés par l’amélioration du rendement du capital déjà utilisé ou par le remplacement par des facteurs de production plus efficaces) et des revenus susceptibles de soutenir la demande d’un produit ou d’un service. Conformément aux théories de l’innovation, la baisse du prix des biens et services incorporant l’usage de l’intelligence artificielle pourrait non seulement accroître leur consommation mais aussi, par un effet de report, augmenter les dépenses dans des produits et prestations non exposés à une automatisation par l’intelligence artificielle ([951]).
● En dernier lieu, il convient de ne pas négliger le poids des considérations touchant à l’acceptabilité sociale des usages de l’intelligence artificielle.
Suivant les conclusions de certains chercheurs ([952]), le droit applicable et les dispositifs de régulation peuvent modérer la propension à automatiser les processus productifs, notamment au regard des écueils et des risques que présentent encore le fonctionnement de certains modèles (tels que les hallucinations, les discriminations). Certaines prescriptions légales ou réglementaires peuvent ainsi impliquer le maintien d’une supervision ou d’interventions humaines.
En outre, il apparaît que dans certains secteurs, les usages de l’intelligence artificielle peuvent être conditionnés par un arbitrage entre les gains tirés de l’optimisation du processus productif et les exigences particulières tenant à la qualité de l’expérience client. En pratique, les entreprises s’efforcent de déterminer dans quelle mesure le recours à des modèles peut correspondre aux attentes des consommateurs et influer sur la perception de la qualité des biens et services qu’elles commercialisent. Dans cette appréciation, entrent notamment la proximité avec la technologie mais aussi l’importance que peuvent attacher les consommateurs à la présence d’intervenants humains au gré des différentes étapes menant à l’achat.
Il en résulte que certains usages de l’intelligence artificielle peuvent être écartés ou restreints, dans un souci de préservation de la relation client et en considération de l’état de la technique. Un tel positionnement peut être observé dans le secteur des banques et des assurances. Ainsi qu’il ressort des éléments communiqués à vos rapporteurs, des sociétés telles qu’Axa excluent, en l’état, que les clients aient affaire directement et exclusivement à des dispositifs automatisés pour le traitement de leurs dossiers. De leur point de vue, les modèles apportent une contribution certaine à l’authentification des actes et des démarches (comme la reconnaissance des photos d’un sinistre) et facilitent l’exploitation des données. En revanche, leur fonctionnement nécessiterait une fiabilisation.
Naturellement, ces observations ne sauraient conduire à préjuger des effets possibles de l’agentification dont les progrès fulgurants offrent la perspective d’une nouvelle extension du champ des usages de l’intelligence artificielle.
Les transformations induites par l’intelligence artificielle
dans les métiers du droit
Malgré un démarrage encore progressif, l’intérêt pour l’IA dans le monde du droit croît rapidement. Depuis la publication du rapport LexisNexis ([953]) d’octobre 2023, qui révélait que seulement 19 % des professionnels du droit en France utilisaient effectivement l’IA générative, bien que près de 49 % envisageaient de le faire, les chiffres les plus récents témoignent d’une adoption nettement accrue de ces outils. Selon une enquête PwC menée en 2024 ([954]), 64 % des directions juridiques interrogées sont impliquées dans les projets d’IA générative de leurs entreprises. Une récente étude de Wolters Kluwer ([955]) indique que 76 % des directions juridiques et 68 % des cabinets d’avocats l’utilisaient au moins une fois par semaine, un tiers des professionnels en ayant même un usage quotidien. Selon le Thomson Reuters Institute ([956]) environ 28 % des cabinets d’avocats et 23 % des services juridiques d’entreprise ont déjà intégré des outils GenAI, dont l’usage régulier par une majorité de professionnels (plus de 40 % s’en servent quotidiennement) pour des tâches telles que la relecture documentaire (74 %), la recherche juridique (73 %) ou la rédaction de courriers et contrats (jusqu’à 51 %).
Toutefois, l’adoption varie selon les professions : les juristes d’entreprise et avocats sont les plus en pointe (respectivement 52 % et 46 % d’utilisateurs ou testeurs), alors que les notaires demeurent plus réservés (39 %) ([957]). Cette disparité s’explique par des usages et attentes différents : quand avocats et juristes exploitent l’IA surtout pour la recherche d’informations ou la rédaction de notes, les notaires l’utilisent davantage pour analyser et rédiger des documents juridiques courants. Quoi qu’il en soit, toutes les branches du droit s’approprient progressivement ces technologies. Ainsi, 42 % des conseillers en propriété industrielle ont déjà expérimenté l’IA générative et 72 % d’entre eux souhaitent son intégration dans leurs méthodes de travail ([958]).
Du côté des juristes d’entreprise, de grands groupes français communiquent sur l’intégration de ces outils au sein de leurs directions juridiques : 30 % ([959]) des services juridiques des entreprises du CAC 40 auraient souscrit à des offres de legaltech reposant sur l’IA afin d’automatiser la veille, la gestion contractuelle ou la conformité, et ainsi améliorer l’expérience des clients internes.
Conscientes de l’ampleur de la transformation en cours, les instances professionnelles du secteur juridique se mobilisent pour accompagner ces évolutions. Le Conseil national des barreaux (CNB) ([960]) , auditionné par la mission, a mis en place dès 2024 un groupe de travail consacré à l’IA et publié des guides de bonnes pratiques pour une utilisation responsable de l’IA générative par les avocats. Le CNB insiste sur des critères essentiels tels que la sécurité et la confidentialité des données, la fiabilité des réponses juridiques et la conformité éthique des outils déployés. Parallèlement, une consultation nationale menée en 2024 a confirmé que « l’IA est un sujet prioritaire pour la profession ». Le CNB s’est aussi associé à Lefebvre Dalloz pour former gratuitement plus de dix mille avocats aux bases de l’IA en quelques mois. Du côté des notaires, la position du Conseil supérieur du notariat (CSN), également auditionné par la mission, est prudente. Le CSN considère ainsi l’IA générative comme un outil complémentaire destiné à renforcer l’efficacité et la qualité du service notarial, sans se substituer au professionnel humain. L’Association française des juristes d’entreprise (AFJE), auditionnée par la mission, encourage l’innovation numérique au sein des directions juridiques, tout en sensibilisant ses membres aux risques juridiques et éthiques de l’IA. Son président Jean-Philippe Gille souligne qu’un juriste d’entreprise « libéré des tâches de routine par l’IA » ([961]) pourra consacrer davantage de temps à l’analyse des risques, à la conformité et à la régulation interne, renforçant ainsi sa valeur stratégique pour l’entreprise.
En dépit de ses promesses, l’IA suscite d’importantes préoccupations éthiques et déontologiques dans le secteur du droit. D’après l’étude LexisNexis, 85 % ([962]) des juristes expriment des inquiétudes quant aux implications de l’IA générative sur leur pratique. Les principaux risques identifiés concernent la fiabilité des réponses (les fameuses « hallucinations » des modèles de langage), la confidentialité des données clients, ainsi que le respect des principes déontologiques (secret professionnel, indépendance, devoir de vigilance). Lors des auditions de la mission, les professionnels soulignent la nécessité d’une supervision humaine systématique : toute analyse ou rédaction proposée par l’IA doit être vérifiée par un juriste, ce qui peut parfois annuler le gain de temps escompté si l’outil fournit des sources erronées ou inventées.
Par ailleurs, l’introduction de ces technologies pourrait accentuer les inégalités entre acteurs du droit ([963]). D’une part, les cabinets disposant de moyens pour s’équiper en solutions d’IA performantes pourraient prendre l’avantage sur les plus petits cabinets ou les études qui n’en ont pas les moyens, créant un déséquilibre dans l’accès à l’information et aux outils juridiques de pointe. Conscient de ce danger, le barreau de Paris ([964]) a noué un partenariat en 2024 afin d’offrir l’accès à l’outil GenIA-L (solution d’IA juridique française) à tous les petits cabinets de son ressort jusqu’au 31 décembre 2025, évitant ainsi une « fracture numérique » au sein de la profession. D’autre part, si l’IA permet aux justiciables ou aux clients d’obtenir plus facilement certaines informations juridiques automatisées, les avocats craignent une banalisation de leur rôle sur les tâches simples. Les attentes des clients pourraient évoluer vers davantage d’immédiateté ([965]) et de conseils pointus, ce qui obligera les professionnels à démontrer toujours plus la valeur ajoutée de leur expertise et de leur jugement pour justifier leurs honoraires.
Ce constat interroge en filigrane le modèle économique ([966]) traditionnel de la profession (souvent fondé sur la facturation au temps passé) : si la productivité s’accroît et que certaines tâches se standardisent, les acteurs du droit devront peut-être repenser la facturation et se concentrer sur des prestations à haute valeur ajoutée difficilement automatisables.
Bien que l’IA ne menace pas l’existence même des professions juridiques, son potentiel de transformation soulève des interrogations légitimes. Un rapport publié par Goldman Sachs en 2023 ([967]) estimait que 44 % des tâches juridiques pourraient être automatisées, plaçant le droit parmi les secteurs les plus exposés après l’administration. Si cette projection, critiquée pour sa méthodologie ([968]) , ne peut être considérée comme un socle fiable de prévision, elle illustre l’ampleur des mutations à l’œuvre. Le rapport de la Commission sur l’intelligence artificielle ([969]) adopte une position plus nuancée, en soulignant que les professions du droit, comme d’autres métiers de la connaissance, pourraient être affectées par une réduction du nombre d’emplois, en raison de l’automatisation de certaines fonctions autrefois considérées comme exclusivement humaines.
Si l’intelligence artificielle s’impose progressivement dans les pratiques juridiques, elle demeure perçue comme un outil d’assistance plutôt que de substitution, en particulier dans les domaines mobilisant le raisonnement, le jugement et la créativité. Kapoor, Henderson & Narayanan (2024) ([970]) soulignent que les domaines les plus transformateurs (créativité, jugement juridique) sont ceux où l’évaluation des performances d’IA reste la plus fragile, ce qui doit inciter à la prudence dans l’interprétation des résultats. Dans la même logique, une enquête menée auprès des directions juridiques ([971]) souligne que 66 % des juristes d’entreprise estiment que l’IA automatisera certaines tâches sans remplacer les avocats, tandis que 26 % anticipent des transformations plus profondes dans la pratique juridique : seuls 1 % soutiennent une autonomie totale de l’IA dans la prise de décision juridique. Le rôle envisagé reste clairement celui d’un assistant envisageant des suggestions, avec le juriste en contrôle final.
Source : Travaux de la mission.
2. Une acquisition des compétences et une organisation des transitions professionnelles nécessitant un effort massif de formation
Au regard du degré de maturité atteint par la technique, les modèles d’intelligence artificielle ouvrent la perspective de très sensibles réorganisations du processus productif. Nonobstant la diffusion encore restreinte de la technologie, le renouvellement des tâches qu’elle favorise peut affecter les conditions d’exercice des métiers, en particulier dans les secteurs dont l’activité se prête le mieux à son adoption. Il en résulte la nécessité de donner aux actifs la possibilité d’étendre leurs compétences au regard des besoins nouveaux qui pourraient émerger au sein des entreprises et sur le marché du travail.
a. Un risque de déqualification ?
Fondamentalement, cette préoccupation découle de la capacité des modèles d’intelligence artificielle à assurer l’automatisation d’une part significative et croissante des activités attachées à certains postes de travail. Au-delà de l’exposition nouvelle de métiers qualifiés, voire très qualifiés, le développement des usages de la technologie peut affecter la valeur des compétences professionnelles mais aussi les conditions de leur acquisition. Toutefois, les incertitudes entourant la portée de ces transformations incitent à une certaine nuance au regard de trois constats.
● De prime abord, les gains en efficacité et en autonomie créent les conditions d’une obsolescence plus rapide des qualifications universitaires et de l’acquis des expériences professionnelles.
Cette difficulté touche potentiellement les métiers du numérique et les ingénieurs, au premier chef. Ainsi que le suggèrent les réflexions de certains intervenants auditionnés par la mission, les connaissances acquises au terme de la formation initiale peuvent être mises en cause ou dépassées parfois dans un délai très bref après l’entrée dans la vie active. Cette observation apparaît corroborée par les résultats de l’enquête réalisée par PwC ([972]) d’après laquelle, en 2024 en France, les compétences requises dans les métiers exposés à l’IA ont évolué 66 % ([973]) plus vite que dans les autres professions. On remarquera que cette dynamique (34 %) parait moins prononcée que dans d’autres pays, comme le Royaume-Uni (60 %) ou les États-Unis (54 %).
Par ailleurs, outre les compétences techniques demeurant essentielles pour la majorité des entreprises, celles-ci accordent désormais une importance croissante à des soft skills, telles que la capacité de comprendre et de communiquer les données des modèles d’IA, afin de les relier aux besoins métiers.
De surcroît, les savoir-faire et l’autonomie acquis par les modèles d’intelligence artificielle peuvent réduire l’utilité de certaines formations et de certains postes dans les entreprises. D’après une enquête publiée sur le site Indeed en mai 2025 ([974]), 49 % des demandeurs d’emplois de la « génération Z » aux États-Unis estiment que leur formation universitaire a perdu de la valeur sur le marché du travail en raison du développement de l’intelligence artificielle.
Au-delà du déclassement éventuel de certaines formations universitaires, des analyses conduisent à s’interroger sur une polarisation des emplois entre, d’un côté, des postes correspondant à des tâches peu ou pas qualifiées et, de l’autre, des postes valorisés par la maîtrise des outils de l’intelligence artificielle et la détention de compétences spécifiques (telles qu’apprécier la pertinence des résultats proposés par les modèles ou savoir élaborer des algorithmes). Si la probabilité d’un tel scénario mérite d’être documentée, les premières conclusions de l’enquête du Labor IA incitent à ne pas écarter la possibilité de configurations de travail aliénantes, dans lesquelles des salariés perdraient la maîtrise de leur travail et la conscience des résultats obtenus dans son accomplissement ([975]). Certaines organisations syndicales reçues par la mission évoquent même le risque d’une « tâcheronisation » lorsque des salariés travaillent aux ordres de machines dirigées par l’intelligence artificielle, sans interaction avec leurs pairs.
● Cela étant et de manière paradoxale, le développement des usages de l’intelligence artificielle peut néanmoins offrir – dans des proportions qui restent à établir – de nouvelles opportunités aux personnes peu qualifiées.
Sur le plan de la productivité du travail, l’état des recherches universitaires porte à conclure que le déploiement de la technologie apporterait des gains d’efficacité aux actifs peu ou pas expérimentés nettement supérieurs à ceux que pourraient en tirer les actifs possédant une expérience professionnelle dans leurs postes. Ce constat peut être observé dans plusieurs secteurs d’activités. Il en va ainsi dans les centres d’appels où, d’après les enquêtes évoquées par les représentants de France Travail, l’intelligence artificielle augmente la productivité des travailleurs initialement les moins productifs ou les plus récemment recrutés. Au sein des services clients aux États-Unis, certaines études estiment même que les modèles d’intelligence générative accroitraient d’un tiers la production horaire des travailleurs débutants ou peu qualifiés, contre 14 % pour celle des travailleurs possédant un niveau moyen de qualification ([976]). Chez les consultants, d’autres enquêtes mettent en lumière une plus grande disproportion entre les bénéfices tirés par les profils les moins expérimentés et ceux obtenus par des consultants les plus performants (+ 43 % contre + 17 %) ([977]).
Source : Dell’Aqua F, E McFowland, E Mollick, H Lifshitz-Assaf, K Kellogg, S Rajendran, L Krayer, F Candelon, et Lakhani (2023).
Sur le plan de l’accès au marché du travail, le développement des usages de l’intelligence artificielle peut, là encore, exercer des effets ambivalents : s’il parait logique qu’elle pousse à une augmentation de la demande des entreprises en compétences très qualifiées, la diffusion de la technologie parait également de nature à relativiser le poids de certains obstacles à l’insertion inhérents au manque de qualifications professionnelles ou résultant de difficultés d’apprentissage.
Suivant l’estimation publiée par Terra Nova ([978]), 18 % des demandeurs d’emploi en général et 25 % des personnes se trouvant au chômage depuis plus de deux ans éprouvent ainsi de forte difficultés en litteratie ([979]) et numératie ([980]). Par ses fonctionnalités (notamment la production autonome de textes), les modèles d’intelligence générative peuvent donner les moyens de surmonter les problèmes causés par l’illettrisme, la dyslexie, la non-maitrise des outils digitaux, une maîtrise imparfaite de la langue ou encore certains handicaps.
Du reste, les résultats d’une enquête réalisée par France Travail en octobre 2024 fournissent l’indice de l’importance croissante de l’usage de l’intelligence artificielle dans la recherche d’emploi ([981]) : 83 % des moins de 25 ans l’intègrent dans leur stratégie de recherche d’emploi (contre 69 % des plus de 50 ans) ; la moitié des demandeurs d’emploi anticipent que les compétences en rapport avec l’intelligence artificielle pourraient leur être utiles dans leur prochain emploi (dont 72 % des ingénieurs/cadres et 45 % des ouvriers qualifiés). Trois demandeurs d’emploi sur dix se déclarent intéressés par une formation sur l’utilisation des outils fondés sur cette technologie dans la recherche d’emploi.
● Au-delà des conditions de l’entrée dans la vie active et du maintien en poste, le recours accru à l’intelligence artificielle ne parait pas sans incidence sur la transmission et la maîtrise de savoir-faire professionnels. Ainsi qu’en témoignent des articles récemment parus dans la presse ([982]), il existe un débat quant à de possibles impacts délétères de la technologie sur l’apprentissage des jeunes diplômés en entreprise. Si ce point de vue ne suscite pas nécessairement l’unanimité, il soulève néanmoins deux questions essentielles.
La première question porte sur la possibilité pour les jeunes d’exercer de premiers emplois formateurs.
Comme précédemment observé, le recours à l’intelligence artificielle peut permettre la suppression de tâches routinières par leur automatisation. Or, suivant le constat de M. François Xavier de Vaujany, chercheur et professeur à Paris-Dauphine PSL, spécialiste des modes d’organisation du travail ([983]), ces postes correspondent aux missions les plus souvent confiées aux jeunes actifs en début de carrière. Il pourrait en résulter une éviction en rapport avec la propension de certaines entreprises à ne pas recruter pour des tâches susceptibles d’être assumées par des modèles d’intelligence artificielle.
La seconde question touche à la place prise par la technologie dans le travail fourni et à son impact sur le processus d’appropriation des connaissances et compétences requises par l’exercice des métiers. Ainsi qu’il ressort des témoignages recueillis par la mission, de jeunes salariés peuvent déléguer assez massivement aux modèles d’intelligence générative une part significative des activités que ces derniers peuvent réaliser.
Or, de l’avis des experts et de professionnels, la réalisation des tâches les plus élémentaires participe aux étapes décisives de l’apprentissage en ce qu’elle contribue à la structuration de la pensée et à l’appropriation des savoir-faire et de la culture qui font l’identité d’une profession. Elle pourrait également concourir à la transmission des bonnes pratiques auprès de salariés plus expérimentés.
De fait, la dextérité démontrée dans l’exploitation des outils n’assure aucunement d’une aptitude à progresser et à accomplir par soi-même les tâches confiées à l’intelligence artificielle, faute de comprendre le raisonnement ou les étapes conduisant au résultat. D’après les observations d’enseignants et professionnels, le recours à la technologie comporterait le risque d’une perte du sens et de compréhension des finalités du travail demandé. Devant vos rapporteurs, Mme Laurence Devillers, chercheuse en IA au CNRS, experte en éthique de l’IA, a ainsi alerté contre une forme de paresse intellectuelle vis-à-vis de l’apport des modèles et des réponses de nature probabiliste qu’ils peuvent fournir. Pour leur part, certaines entreprises font état d’un certain manque d’esprit critique chez « certains jeunes [qui] maitrisent la technique, mais ne comprennent plus pourquoi ils l’utilisent » ([984]).
b. Une nécessaire adaptation des cadres et outils de la formation continue
Cet impératif s’impose tant au regard de l’objectif de ménager les transitions professionnelles nécessaires que des enjeux que recèle l’adaptation de l’économie nationale à des mutations technologiques majeures. En pratique, la France doit relever deux défis : d’une part, favoriser le développement des compétences requises par l’émergence de secteurs fournissant des procédés reposant sur l’intelligence artificielle ; d’autre part, assurer l’évolution et la disponibilité des qualifications nécessaires à l’exploitation des outils au sein des entreprises utilisatrices.
● Les statistiques disponibles accréditent l’hypothèse d’un nombre important d’actifs à former, au regard de l’évolution des compétences requises par l’émergence de nouvelles activités mais aussi l’adaptation des postes de travail en entreprise et les transitions professionnelles.
D’après les projections réalisées par la Commission de l’intelligence artificielle sur le fondement d’une récente étude de l’OCDE ([985]), les besoins en main d’œuvre correspondraient à 56 000 postes par an pour le développement des outils de l’intelligence artificielle et à 25 000 postes par an pour la diffusion de la technologie ([986]). La diffusion de la technologie exigerait de former chaque année environ 1,5 % de l’ensemble des étudiants de l’enseignement supérieur pour disposer de 25 000 personnes qualifiées dans ce domaine en 2034. En ce qui concerne les infrastructures des systèmes d’information, la commission estime qu’il conviendrait de porter le nombre des inscrits dans les formations correspondantes à 20 000 étudiants. Dans les réponses au questionnaire de vos rapporteurs, le Medef préconise pour sa part la formation de cent mille salariés et de cent mille experts à l’usage de la technologie.
En comparaison, le nombre des personnes formés à la conception et/ou à l’usage des outils de l’intelligence artificielle s’avère encore très modeste en France, aux stades de la formation initiale comme de la formation continue.
La modestie de ces effectifs se mesure d’abord à l’aune des inscrits dans les établissements universitaires. Selon un rapport de la Cour des comptes publié en 2023 ([987]), on recensait 16 687 places en master et doctorat au sein des filières de spécialistes et d’experts formés à la technologie en 2021. Au niveau des licences et des DUT qui ouvrent à une spécialisation dans les domaines de l’intelligence artificielle, les filières mathématiques comptaient 16 000 élèves à la même date et près de 34 000 étudiants en informatique. S’agissant des filières fournissant des formation en rapport avec la gestion des infrastructures des systèmes d’information, les cycles d’ingénieur dans le domaine « Informatique et sciences informatiques » accueillaient 16 959 étudiants en 2023, d’après les chiffres cités par la Commission de l’intelligence artificielle([988]).
Un même diagnostic prévaut en ce qui concerne le nombre des personnes accueillies dans les dispositifs de requalification, de reconversion ou de retour sur le marché de l’emploi. Ainsi que l’illustre la récente étude réalisée par l’Association pour l’emploi des cadres (Apec) ([989]), seul un cadre sur quatre (24 %) a ainsi déjà bénéficié d’une formation à l’IA (contre 19 % en janvier 2024) alors que 72 % des salariés interrogés demandent à être formés : pour 20 % d’entre elles, la formation portait sur l’intelligence artificielle en général ; pour 18 % d’entre elles, la formation avait pour objet de répondre à des besoins en rapport avec le métier. D’après les statistiques communiquées à vos rapporteurs par France Travail, 1 110 demandeurs d’emploi ont été formés à l’intelligence artificielle entre juillet 2022 et juin 2024.
Dans une certaine mesure, l’importance des besoins de formation peut également s’apprécier en considération des postes non pourvus dans les activités qui contribuent au développement des usages de l’intelligence artificielle. Ainsi que le soulignent les réponses apportées aux questionnaires de vos rapporteurs, l’émergence de la technologie intervient en France dans un contexte marqué, selon l’expression de Numéum, par une pénurie des compétences numériques. Ainsi qu’il ressort de l’état des lieux établi par France Travail ([990]), les entreprises du secteur se trouvent confrontées à de grandes tensions sur le marché de l’emploi, 85 % des embauches étant jugées difficiles. Cette appréciation rejoint celle de l’enquête menée par la French Tech Community et publiée en avril 2025, dans laquelle 80 % des entreprises déclarent rencontrer « des difficultés de recrutement dans les métiers technologiques » : selon l’analyse des responsables des activités digitales et des responsables des ressources humaines interrogés, la situation s’explique notamment par une pénurie de profils qualifiés et par une inadéquation des compétences des candidats avec les besoins des entreprises ([991]).
● À l’évidence, de tels constats plaident en faveur d’une poursuite des efforts tendant à accroître la formation des actifs à la conception et aux usages de l’intelligence artificielle, en particulier dans le cadre professionnel.
Dans les milieux universitaires, cette démarche parait en effet assez largement engagée. Les éléments communiqués à vos rapporteurs donnent à penser qu’un nombre significatif d’établissements de l’enseignement supérieur, en particulier les grandes écoles (École normale supérieure, CentraleSupélec, l’Ecole des entrepreneurs -EDE) s’efforcent depuis plusieurs années d’étoffer et d’élargir l’offre pédagogique dans les domaines de compétence requis par la technologie. Selon les établissements, cet effort semble porter à la fois sur le contenu et le nombre des formations dispensées.
Il convient ici de rappeler que parmi les objectifs de la seconde phase de la stratégie nationale pour l’intelligence artificielle, figure la formation de 3 500 étudiants supplémentaires, dont 2 500 étudiants en premier cycle (DUT, licence, licence professionnelle), 1 500 étudiants en master et 200 thèses supplémentaires par an ([992]).
En revanche, la propension des employeurs à proposer des actions de formation diffère manifestement suivant la taille des entreprises.
Les travaux de la mission suggèrent un investissement significatif des grands groupes dans le développement des compétences de leurs salariés nécessaires à la conception ou à l’usage des outils de l’intelligence artificielle. Au vu des éléments fournis par les entreprises auditionnées, cette politique se matérialise par la mise en œuvre de plans de formation interne s’adressant plutôt à l’ensemble des catégories du personnel. Elle peut donner lieu à la formalisation d’une organisation interne ayant pour objet exclusif le développement des compétences et des connaissances sur la technologie, à l’exemple de l’Airbus Scale AI Academy. Les formations dispensées peuvent porter sur l’adaptation des compétences techniques et métiers ou traiter d’enjeux plus généraux attachés au développement de la technologie. Elles peuvent se doubler d’actions plus spécifiques destinées notamment aux cadres.
Exemples de la politique de formation
aux usages de l’IA au sein de grands groupes
La politique d’acculturation et de formation à l’IA menée par Groupama comporte :
– des formations sur le « prompting » par le biais du déploiement de Copilot ;
– un effort de maintien des compétences techniques et métiers afin de garder un regard critique sur les outils IA ;
– des actions ciblées pour les managers afin d’anticiper les changements organisationnels ;
– un accompagnement des dirigeants et des salariés les plus impliqués dans la connaissance des enjeux réglementaires et des risques entourant les usages de l’intelligence artificielle dans le cadre d’un dispositif transverse mis en place avant même la parution du règlement IA.
Chez Orange, l’offre de formation interne comporte la mise à disposition de divers modules de formation, en présentiel ou distanciel, en individuel ou pour des collectifs. Ces modules peuvent être génériques ou bien spécialisés par métier. Le groupe propose également des formations plus techniques destinées à des experts (data scientists, data engineers, ingénieurs chargés de la gestion du cycle de vie du machine learning, du développement au déploiement et à la surveillance) qui incluent la maîtrise des outils répondant à des besoins propres, la gestion des bases documentaires et l’utilisation des modèles LLM.
Chaque collaborateur pourrait bénéficier d’un accompagnement personnalisé, grâce à la mise à disposition de packs d’accompagnement (Découverte, Coach, Premium), en complément de la solution Live Intelligence, comprenant des ateliers, du coaching et des formations sur mesure pour assurer la montée en compétences et la réussite des projets.
À la Société générale, la politique de formation à l’usage de la donnée et de l’intelligence artificielle repose sur :
– des programmes de formation spécifiques, accessibles par le biais de plateformes internes et destinés à permettre aux salariés de se familiariser avec les concepts clés de l’IA et leurs applications dans le secteur bancaire ;
– des ateliers pratiques et des sessions de sensibilisation ayant pour objet le renforcement des compétences techniques et la promotion d’une culture de l’innovation.
– des partenariats avec des institutions universitaires internationales et des experts externes visant à enrichir l’offre de formation. Ces efforts visent à préparer les collaborateurs aux transformations induites par l’IA et à favoriser leur montée en compétences.
Source : réponse au questionnaire des rapporteurs.
Cela étant, rien ne permet d’affirmer que les plans de gestion prévisionnelle des emplois et des compétences (GPEC) traitent désormais systématiquement et de manière formelle des enjeux de l’adaptation aux effets du recours à l’intelligence artificielle.
Pour leur part, les très petites, petites et moyennes entreprises (TPE-PME) semblent éprouver des difficultés à concevoir et appliquer une politique de formation aux usages de la technologie. S’il n’existe pas de données permettant de quantifier le nombre des actions et des salariés formés, des observations convergentes exprimées portent à conclure en la faiblesse des dispositifs internes.
Suivant l’analyse des représentants de la Confédération des petites et moyennes entreprises (CPME), cette situation résulte pour l’essentiel de ressources limitées par rapport aux moyens dont disposent les grandes entreprises dans l’accompagnement des requalifications et des reconversions. L’accès à des formations adaptées aux besoins des entreprises reste un enjeu essentiel. Ce point de vue rejoint les observations de l’Union des entreprises de proximité (U2P) qui, dans les réponses au questionnaire des rapporteurs, estime que la formation à tous les niveaux, du chef d’entreprise au salarié, constitue la première priorité.
Dans ce contexte, les éléments recueillis par vos rapporteurs tendent à mettre en exergue l’importance du concours apporté aux TPE-PME par des partenaires extérieurs tels que FranceNum ([993]), la Banque publique d’investissement (Bpifrance) ou l’Institut national de recherche en sciences et technologies du numérique (Inria).
Aux dispositifs mis en place par l’État et ses établissements, s’ajoutent les initiatives prises par les régions afin de soutenir l’appropriation par les entreprises des outils de l’intelligence artificielle. Elles peuvent consister en l’apport de financements ou d’accompagnements (tels que le Pack IA en Ile-de-France, le dispositif CAP’TN - Transformation Numérique en Centre-Val de Loire ou le Pass Cyber Investissement dans les Hauts-de-France).
Exemples d’aides apportées aux TPE-PME
en matière de formation à l’IA par les services et établissements de l’État
FranceNum propose des formations aux TPE-PME destinées à leur permettre de s’initier aux outils numériques ou à mieux en faire usage dans une optique de maintien ou de développement de leur activité. Organisées en ligne ou sur site, elles traitent de sujets concrets et peuvent également avoir pour objet d’expérimenter des solutions numériques en réponse à un besoin réel.
Avec l’aide de ses partenaires, dont l’U2P, FranceNum fournit par ailleurs des supports de communication en ligne, avec notamment quatre fiches pratiques sur les moyens de profiter de l’IA générative (« À quoi ça sert ? », « Comment ça marche ? », « 3 cas concrets d’usage de l’IA en TPE » et « Choisir parmi les solutions d’intelligence artificielle génératives et comment les utiliser » ([994])).
Le concours apporté par Bpifrance aux TPE-PME repose notamment sur la mise en œuvre du programme IA Booster France 2030. Le dispositif s’adresse aux entreprises françaises (PME et ETI) de tout secteur d’activité, avec une priorité donnée aux entreprises ayant un effectif compris entre 10 et 2 000 collaborateurs et réalisant plus de 250 000 euros de chiffre d’affaires HT. Par le biais de la plateforme Bpifrance, il fournit quatre prestations visant à sensibiliser les entreprises et favoriser une acculturation à l’usage des procédés de l’intelligence artificielle : des outils d’auto-diagnostic ; des modules de formation en ligne ; des webinaires et des tables rondes en ligne.
Source : réponses aux questionnaires des rapporteurs.
Sans mettre en cause l’efficacité et l’apport de ces partenariats, il apparaît que des clivages persistants en termes de formation ne peuvent que nuire à la diffusion des usages de l’intelligence artificielle au sein de l’économie française dès lors que les TPE-PME constituent une part essentielle du tissu productif. Une telle situation présente en effet le risque de freiner la modernisation des entreprises et d’entraver les transitions professionnelles alors que, de manière générale, les salariés des petites et moyennes entreprises subissent des difficultés structurelles dans l’accès à des dispositifs qualifiants.
Aussi, vos rapporteurs estiment qu’il conviendrait que l’État et ses opérateurs renforcent le soutien au financement de la formation des TPE-PME. Dans cette optique, ils préconisent la mise en place d’un dispositif permettant l’apport à cette catégorie d’entreprises d’aides publiques (sous des formes restant à définir) en contrepartie d’une accentuation des actions de formation de leur personnel aux outils de l’intelligence artificielle. De leur point de vue, cette mesure n’exclut pas pour autant la nécessité d’une accentuation des moyens consacrés aux formations dispensées avec le concours de FranceNum et de Bpifrance.
Recommandation n°41 : Instituer un fonds de transition numérique subordonné à des obligations de formation. Renforcer l’aide aux formations apportées par FranceNum et Bpifrance et spécifiquement destinées aux TPE-PME.
En dehors de cet appui spécifique à la transformation des entreprises, il importe que les mécanismes paritaires de financement et d’organisation de la formation continue au niveau des branches professionnelles puissent couvrir efficacement les besoins suscités par le développement des usages de l’intelligence artificielle. Il s’agit de donner aux actifs l’accès à des parcours et modules qualifiants et de créer les conditions de la prise en charge du coût de leur participation à des dispositifs extérieurs aux entreprises.
L’offre de formation présente une assez grande diversité. En dehors des organismes spécialisés, les grandes entreprises peuvent jouer un rôle dans l’appropriation de la technologie par leurs sous-traitants. Surtout, les éléments recueillis par la mission fournissent l’indice d’un investissement significatif de grands groupes fournisseurs ou utilisateurs de solutions IA dans la fourniture de prestations destinées à l’apprentissage et/ou la montée en compétences d’actifs engagés dans un projet d’évolution, de transition ou de réorientation professionnelle.
De grands groupes prestataires de formation :
les offres d’Orange Business et de Microsoft
Orange Business développe une offre de formations par le biais de la Digital Services School. Certifiée Qualiopi, elle vise à répondre aux besoins opérationnels et stratégiques des entreprises engagées dans leur transformation numérique. Les formations dispensées portent sur le cloud, la data, l’IA et l’IA générative. Depuis fin 2023-début 2024, la Digital Services School propose des cursus spécifiques consacrés à l’intelligence artificielle testés en interne afin de répondre aux besoins du programme de reconversion vers les métiers de la data au sein du groupe Orange. D’après les informations communiquées par les représentants d’Orange, 50 % des heures de formation sont destinées à un public extérieur au groupe.
Microsoft participe à la formation de développeurs IA par le biais des Écoles IA Microsoft by Simplon. Créées en 2018, ces structures proposent des sessions sur l’ensemble du territoire national destinées à des personnes en reconverstion ou à des demandeurs d’emplois. Les formations sont gratuites pour les apprenants et diplômantes (en permettant l’obtention d’un titre reconnu au répertoire national des certifications professionnelles de niveau 6). Elles comprennent deux phases : un enseignement intensif du code et des technologies de l’IA pendant 19 mois ; de l’alternance pour chacun des apprenants au sein des entreprises partenaires recruteurs. D’après les statistiques fournies par Microsoft, 905 apprenants ont été formés en cinq ans dans 50 promotions réparties sur toute la France, avec 98,45 % de sorties positives. Par ailleurs, 79 % des apprenants a également validé des certifications Microsoft (AZ-900 : fondamentaux de Microsoft Azure ; AI-102 : Conception et implémentation d’une solution Microsoft Azure AI).
Source : réponse au questionnaire des rapporteurs.
Fondamentalement, se pose la question des objectifs et de l’importance des moyens consacrés par les opérateurs de compétences (Opco) ([995]) à la formation des salariés aux usages de l’intelligence artificielle.
Certes, il existe aujourd’hui un certain nombre d’instruments ayant vocation à soutenir l’organisation et l’accompagnement des transitions professionnelles. Néanmoins, les critères qui conditionnent parfois leur bénéfice paraissent de nature à en réduire la portée suivant le profil des salariés. De surcroît, rien n’établit qu’ils permettent de traiter les besoins spécifiques de requalification ou de reconversion inhérents au caractère diffus du développement des usages de l’intelligence artificielle.
Au regard de la présentation de ces dispositifs par la direction générale du travail, il apparaît que leur capacité à appréhender les effets de cette technologie sur l’emploi et les compétences demeure tributaire du cadre juridique qui les fonde et des modalités de leur mise en œuvre. En l’absence d’évaluation de leur efficacité, on notera d’ailleurs que, parmi les objectifs assignés à la négociation engagée par les partenaires sociaux sur les transitions et reconversions professionnelles, figurent la simplification des dispositifs existants et l’amélioration de leur lisibilité. Dès lors, il conviendrait sans doute de réévaluer les dispositifs de reconversion professionnelle au regard des évolutions du cadre juridique que pourraient appeler les résultats d’un accord éventuel entre partenaires sociaux.
Des dispositifs d’organisation et d’accompagnement
des transitions professionnelles
– le conseil en évolution professionnelle (CEP) ([996]) : il s’agit d’un service d’information et d’orientation s’adressant aux actifs occupés, organisé et financé désormais par France Compétence ([997]). Il vise à accompagner les bénéficiaires à titre gratuit dans la formalisation et la mise en œuvre de leurs projets d’évolution professionnelle et à faciliter l’accès à la formation ;
– le projet de transition professionnelle (PTP) ([998]) : le dispositif participe de l’exercice des droits attachés au compte personnel de formation. Il ouvre la possibilité à ses bénéficiaires (salariés en CDI ou en CDD, intermittents du spectacle, intérimaires) de suivre, sur leur temps de travail, une formation certifiante destinée à permettre un changement de métier ou de profession. Les salariés bénéficient d’un congé spécifique lorsqu’ils suivent cette formation en tout ou partie durant leur temps de travail. Le salarié doit toutefois justifier d’une activité salariée d’au moins deux ans consécutifs (dont un an dans la même entreprise), quelle que soit la nature des contrats successifs ;
– la « reconversion ou promotion par alternance » (ou « Pro A ») ([999]) : le dispositif vise à permettre au salarié de changer de métier ou de profession, ou de bénéficier d'une promotion sociale ou professionnelle par des actions de formation ou par des actions permettant de faire valider les acquis de l'expérience. Il s’adresse aux salariés n’ayant pas atteint un niveau licence et soumis à un risque de forte mutation de l’activité ou d’obsolescence, de changer de métier ou de profession ;
– Transitions collectives : créé en janvier 2021 et résultant d’une négociation avec les partenaires sociaux, le dispositif a pour objet de favoriser la mobilité des salariés exerçant des métiers fragilisés au sein d’entreprises confrontées à des transformations liées à leur développement et des entreprises en mutation (du fait de l’évolution de l’organisation du travail de transition technologique). Sa mise en œuvre comporte des actions de formation, un accompagnement personnalisé vers la reconversion, un financement complet du parcours de formation, le maintien d’un niveau significatif de la rémunération pendant toute la formation, le maintien du contrat de travail ; toutefois, son bénéfice demeure conditionné par l’occupation d’un poste identifié comme fragilisé au sein de l’entreprise et le choix d’une reconversion vers un métier porteur sur le territoire, ainsi que le respect de conditions d’ancienneté (à savoir au moins 24 mois en qualité de salarié pour les CDI, dont 12 mois dans l’entreprise ; au moins 24 mois de salariat au cours des 5 dernières années dont 4 mois en contrat à durée déterminée au cours des 12 derniers mois pour les CDD).
Source : réponse au questionnaire des rapporteurs.
Les orientations et les actions des Opco appellent sans doute un examen similaire. Si les organismes ont pris la mesure des impacts de la transition numérique au sens large, rien n’assure que les actions de formation soutenues correspondent véritablement aux exigences du développement des usages de l’intelligence artificielle.
Dans l’ensemble, les éléments recueillis par la mission rendent davantage compte d’un travail de sensibilisation. L’état des lieux fourni par la direction générale du travail fait ainsi état du lancement d’études prospectives par plusieurs branches visant à éclairer les multiples facettes des outils d’intelligence artificielle et ses répercussions sur l’ensemble des secteurs. Certaines études auraient déjà conduit à l’établissement d’un diagnostic. À ceci s’ajoute le financement d’actions de sensibilisation des entreprises, d’accompagnement dans la transition numérique sous la forme de rencontres, de webinaires ou de guides pratiques propres à un domaine d’activité. Par ailleurs, la direction générale du travail signale des engagements de développement de l’emploi et des compétences (Edec) ([1000]) portant sur la transformation des métiers par le numérique lancés par les Opco AKTO, Constructys, 2I et Afdas en collaboration avec le ministère du travail, de la santé, des solidarités et des familles.
Du point de vue de vos rapporteurs, il convient d’encourager ce type de démarche afin que l’ensemble des Opco intègre les enjeux du développement de l’intelligence artificielle dans leurs objectifs en matière d’apprentissage et de financement des actions de formation continue. Ils estiment que, sans préjudice de la négociation entre partenaires sociaux, l’accompagnement des mutations engendrées par la technologie pourrait constituer un objectif soumis à évaluation.
Dans cette optique, ils préconisent d’insérer des mentions relatives à la formation aux usages de l’intelligence artificielle dans les conventions d’objectifs et de moyens conclues entre chaque opérateur de compétences et l’État prévu par l’article L. 6332-2 du code du travail.
Recommandation n°42 : Veiller à la pleine intégration des besoins de formation inhérents au développement des usages de l’intelligence artificielle dans les orientations et financement des opérateurs de compétence. Consacrer l’adaptation de la formation des salariés à la technologie au sein des conventions d’objectifs et de moyens des opérateurs.
Du point de vue de vos rapporteurs, l’effort de formation qu’exige le développement des usages de l’intelligence artificielle doit s’inscrire dans une démarche globale d’acculturation et de formation. Aussi, ils appellent également à poursuivre la mise en œuvre du plan national « Oser l’IA ». Lancé le 1er juillet 2025, il vise à accélérer la diffusion de la technologie dans les entreprises françaises, afin qu’elle fournisse des outils accessibles, concrets et utiles. Il comporte ainsi l’objectif d’assurer une acculturation aux procédés et de former quinze millions de personnes d’ici à 2030.
La réalisation de l’objectif suppose assurément la mobilisation de l’ensemble de l’écosystème de formation mais aussi des instruments conçus afin de favoriser la mobilité professionnelle tels que la reconnaissance des acquis de l’expérience et une pleine utilisation du compte personnel de formation.
Dans cette optique, les rapporteurs invitent les pouvoirs publics et les partenaires sociaux à examiner les conditions dans lesquels les salariés peuvent recourir à ces dispositifs afin de répondre aux besoins de formation créés par l’essor de la technologie, en dehors des actions de requalifcation menées par les entreprises. Si les éléments de recueillis par la mission ne comportent pas de signalement mettant en cause la reconnaissance de l’utilité de telles formation, il importe de veiller à ce qu’à l’avenir, les salariés et les actifs disposent d’une latitude dans l’acquisition de compétences utiles à leur évolution dans l’emploi.
Recommandation n°43 : Assurer la possibilité pour les salariés et les actifs de recourir aux dispositifs de validation des acquis de l’expérience et du compte personnel de formation pour l’acquisition des compétences nécessaires aux usages de l’intelligence artificielle.
3. Un approfondissement nécessaire du dialogue social face à des mutations d’ampleur
À bien des égards, le développement des usages de l’intelligence artificielle ouvre la perspective d’une nouvelle révolution industrielle. Tout en accentuant des évolutions déjà à l’œuvre sous l’effet de la digitalisation dans la fourniture des biens et des services, la diffusion de la technologie porte les germes de transformations plus profondes, tant sur le plan des activités que sur ceux de l’organisation du travail et de la gestion des ressources humaines.
Si elles peuvent soulever des questions d’intérêt public, les conditions dans lesquelles l’intelligence artificielle peut être intégrée aux outils de travail et aux modes de production intéressent, au premier chef et de manière pratique, les entreprises et les salariés. Dans cet esprit, les membres de la mission ne peuvent qu’appeler les partenaires sociaux à se saisir pleinement des implications du changement technologique, au regard de deux incertitudes majeures : d’une part, la propension des entreprises à aborder les sujets entourant l’adoption de l’intelligence artificielle ; d’autre part, la pertinence des procédures d’information et de concertation.
a. Des enjeux assez diversement appréhendés selon les entreprises
Les travaux de la mission donnent à penser qu’il existe une grande disparité dans la manière dont les entreprises peuvent organiser le recours à l’intelligence artificielle et formaliser des instruments d’acculturation de ses usages par leurs salariés.
● Au sein des grands groupes, il existe des démarches assez volontaristes destinées à favoriser la pleine intégration des procédés de l’intelligence artificielle au fonctionnement et à la culture des entreprises.
En dehors des mesures prises en matière de formation, cette politique comporte, d’une part, l’établissement de chartes ou de manifestes destinés à définir le cadre d’emploi de la technologie. Selon les résultats de l’enquête réalisée par l’Association pour l’emploi des cadres (Apec) ([1001]), 17 % des entreprises de taille intermédiaire et des grandes entreprises possédaient une charte – ou avaient formalisé de bonnes pratiques – afin d’encadrer l’usage de l’intelligence artificielle par leurs collaborateurs en mars 2025 et 16 % prévoyaient de s’en doter.
Au vu des illustrations fournis par les groupes Airbus, Axa, Groupama, Macif ou Orange, ces documents comportent l’énoncé de principes à portée éthique, des prescriptions quant aux conditions d’usage des modèles et d’exploitation des données ; ils formalisent également des procédures de gouvernance.
D’autre part, les actions tendant à l’incorporation des usages de l’intelligence artificielle peuvent donner lieu à la tenue de réunions et à des communications avec les organisations syndicales. Si les travaux de la mission ne permettent pas d’en établir la généralité et d’en mesurer les résultats, ces échanges semblent obéir à un certain formalisme et à une certaine régularité ; les échanges peuvent porter sur des sujets plus ou moins étendus et approfondis, de la politique générale suivie par les entreprises aux conditions du déploiement opérationnel d’un projet.
En dernier lieu, cette forme de dialogue social peut aboutir à l’établissement de relevés de conclusions ou la conclusion d’accords d’entreprises, même si le nombre de textes signés paraît encore restreint. Parmi les exemples fournis à vos rapporteurs, le relevé de conclusions du 19 novembre 2024 adopté par Axa France sur le dialogue social et l’intelligence artificielle apparaît comme l’une des formes probablement les plus abouties : signé par la Confédération française démocratique du Travail (CFDT), la Confédération française de l'encadrement - Confédération générale des cadres (CFE-CGC) et l’Union de défense des personnels des groupes de l'assurance et de leurs filiales (UDPA-Unsa), le document consacre les principes généraux devant régir l’usage de l’intelligence artificielle et formalise le cadre d’échange des informations avec les représentants des salariés, ainsi que des procédures applicables à l’expérimentation de modèles, notamment ceux fondés sur l’intelligence générative. Pour le reste, les signalements reçus par la mission font état de quelques accords, principalement dans le secteur du numérique et, de manière secondaire, dans les transports ou les télécommunications, qui prévoient des mécanismes de suivi paritaire en cas d’introduction d’outils reposant sur l’intelligence artificielle.
● En revanche, la propension des très petites, petites et moyennes entreprises (TPE-PME) à aborder les questions entourant l’usage de l’intelligence artificielle, notamment dans un cadre d’échanges ad hoc, se révèle plus incertaine.
D’après l’enquête précitée de l’Apec, 7 % des TPE et 7 % des PME avaient mis en place une charte ou des bonnes pratiques encadrant l’usage de l’intelligence artificielle en mars 2025 (contre respectivement 3 % et 5 % en juin 2024).
Au regard des signalements convergents quant à l’état du dialogue social à l’échelle de l’ensemble des entreprises, on peut émettre l’hypothèse de pratiques qui varient fondamentalement en fonction de la culture sociale. Au demeurant, l’engagement de travaux prospectifs associant les représentants du personnel semble devoir se heurter à un manque fondamental d’informations des TPE-PME. D’après les constats établis par la Confédération des petites et moyennes entreprises (CPME), beaucoup d’entreprises, en particulier les plus petites d’entre elles, ne connaissent pas ou peu les solutions procurées par les outils de l’intelligence artificielle ; elles ne disposent pas des ressources nécessaires à la conception et à l’application de modèles en rapport avec leurs besoins spécifiques.
Les obstacles à l’appropriation de la technologie et les appréhensions que cette dernière peut susciter ne créent pas un environnement parfaitement propice à l’engagement d’une réflexion prospective sur la réalisation de concertations préalables. Ainsi que le souligne une étude de Bpifrance publiée en juin 2025 ([1002]), si 58 % des dirigeants des TPE et ETI considèrent l’intelligence artificielle comme une question de survie à horizon de trois à cinq ans, seuls 43 % d’entre eux ont conçu une stratégie en vue de son acquisition. 23 % des répondants affirment éprouver des difficultés à identifier des cas d’usages répondant aux besoins de leur activité – un chiffre en baisse, mais néanmoins encore significatif.
● Indépendamment des ressources et de la politique des structures, les modalités pratiques d’intégration de la technologie au sein des entreprises procèdent également de la dynamique des organisations et du degré d’autonomie des salariés.
Ainsi qu’il ressort de l’enquête menée par le LaborIA en 2024 ([1003]), le déploiement des outils de l’intelligence artificielle tend à redistribuer les rôles professionnels à l’échelle de l’ensemble du processus productif et, en conséquence, soulève des questionnements à propos du rôle des managers intermédiaires. D’après des constats transmis à vos rapporteurs par des organisations syndicales, les outils IA peuvent altérer la relation directe entre salariés et managers, en introduisant une logique de pilotage par les données, avec par exemple des indicateurs de suivi d’atteinte d’objectifs, produits par les modèles, qui conditionnent des primes ou des évolutions de carrière. En outre, la réception et l’appropriation de modèles peuvent être affectées par la discordance entre les objectifs de rationalisation des décideurs (tels que la réduction des risques d’erreurs, l’amélioration de la performance des salariés, la réduction des tâches fastidieuses) et les aspirations des salariés (comme la recherche de reconnaissance et de responsabilité et l’attachement à l’autonomie dans le travail). Suivant l’analyse des auteurs de l’enquête du LaborIA, une trop forte logique gestionnaire dans la conduite de projets pousserait ainsi soit à un manque d’implication, les salariés percevant le recours à l’intelligence artificielle comme un surajout à des outils existants, soit à des réactions de défense de l’autonomie professionnelle.
Dans une certaine mesure, la pratique du « shadow IA » met en lumière la portée encore relative, à ce stade, des démarches de normalisation des usages de l’intelligence artificielle au sein des entreprises.
Ce terme désigne l’utilisation d’outils d’intelligence artificielle par les salariés, à titre individuel ou au sein d’équipes, hors de toute règle fixée par les entreprises et/ou sans validation préalable des directions ou des services informatiques. Si la mission ne peut établir sa prévalence suivant les catégories d’entreprise, le phénomène apparaît relativement répandu : selon les réponses de Microsoft, 55 % des salariés recoureraient à des outils d’intelligence artificielle de leur propre initiative, en dehors de tout cadre. Ce chiffre fait écho aux constats de la CFE-CGC ([1004]) et de la CFTC qui, dans les éléments communiqués à vos rapporteurs, estiment que l’intelligence artificielle devient un outil du quotidien dans le monde du travail. Il apparaît très significatif en comparaison de la part très minoritaire des entreprises qui fournissent à leurs salariés un accès à un modèle d’intelligence artificielle générative. Sur la base de l’étude réalisée par l’Apec([1005]), on pouvait estimer cette proportion, en mars 2025, à 21 % des ETI et des grands groupes, à 19 % des PME et 15 % des TPE (contre respectivement 9 %, 8 % et 10 % en juin 2024).
Or cette pratique informelle peut être jugée très problématique dans la mesure où elle conduit à l’emploi d’outils non qualifiés et validés, ainsi qu’à l’usage d’assistants d’intelligence artificielle en méconnaissance du droit applicable. Suivant les remarques de plusieurs intervenants au cours des auditions, le « shadow IA » expose les entreprises à un traitement non conforme de données sensibles, telles que les données à caractère personnel ; elle met en cause leur cyber sécurité en donnant à des acteurs extérieurs l’accès au cœur des systèmes d’information ou en aboutissant à la divulgation de données en open source.
b. Des cadres de suivi et de négociation à formaliser ?
À l’évidence, la capacité des entreprises à traiter des questions inhérentes au développement des usages de l’intelligence artificielle dans le cadre du dialogue social constitue un enjeu décisif. Ainsi qu’il ressort des données de l’Institut national de recherche en informatique et en automatique (Inria) sur la période 2020-2023, la cause de l’absence de mise en œuvre opérationnelle d’une grande majorité des projets de déploiement de modèles réside dans l’absence d’intégration des salariés. Au regard des impacts sur l’organisation et les conditions de travail, l’incorporation de cette technologie soulève deux questions : en premier lieu, la pertinence des prescriptions légales susceptibles de régir l’emploi des outils ; en second lieu, l’effectivité des procédures permettant l’intervention des représentants du personnel.
D’un strict point de vue normatif, il peut être considéré que les principes et prescriptions du droit du travail permettent d’appréhender l’ensemble des usages de l’intelligence artificielle au sein des entreprises. D’après l’analyse de la direction générale du travail, la technologie ne possède pas à proprement parler de spécificités qui l’affranchiraient de son application.
Il en va ainsi en ce qui concerne le recrutement et l’évaluation des salariés. L’article L. 1132-1 du code du travail consacre le principe de non-discrimination dans les procédures d’accès à un emploi, à un stage ou à une période de formation. Les critères et motifs retenus offrent une base légale impliquant, pour les entreprises, l’obligation de prévenir les biais observés dans le fonctionnement de certains modèles.
Sur le plan des conditions de travail, les caractéristiques de la technologie ne remettent pas en cause les prérogatives et obligations qui découlent du pouvoir de direction des employeurs, ainsi que des liens de subordination inhérents aux contrats de travail. Ainsi, il résulte des dispositions de l’article L. 1121-1 du même code que le contrôle et la surveillance des activités des salariés doivent être non seulement en adéquation avec le but recherché mais aussi proportionné par rapport à celui-ci.
Par ailleurs, les usages de l’intelligence artificielle entrent dans le champ de la législation relative à la prévention des risques psychosociaux compte tenu de la nature extensive de ce concept.
L’article L. 4121-1 du code du travail fonde l’obligation, pour les employeurs, de prendre les mesures nécessaires afin d’assurer la sécurité et de protéger la santé physique et mentale des travailleurs. Ces mesures comprennent des actions de prévention des risques professionnels, des actions d’information et de formation et la mise en place d’une organisation et des moyens adaptés. Cet article impose en outre aux entreprises de veiller à l’adaptation de ces mesures afin de tenir compte du changement des circonstances et tendre à l’amélioration des situations existantes.
En principe, l’analyse des effets du développement de l’intelligence artificielle trouve également sa place dans le document unique d’évaluation des risques professionnels (Duerp).
Fondé sur l’article L. 4121-3 du code du travail ([1006]), le Duerp détermine et recense les facteurs d’atteinte à la santé et à la sécurité des travailleurs, compte tenu de la nature des activités de l’établissement. Il prend notamment en considération le choix des procédés de fabrication et des équipements de travail, le réaménagement des lieux de travail ou des installations, l’organisation du travail et la définition des postes de travail. Ce document a vocation à servir de fondement à la mise en œuvre des actions de prévention, ainsi que les méthodes de travail et de production garantissant un meilleur niveau de protection de la santé et de la sécurité des travailleurs. Suivant les réponses apportées à vos rapporteurs par la direction générale du travail, les entreprises pourraient ainsi parfaitement, en l’état des textes, intégrer dans leurs démarches de prévention les risques particuliers que pourrait comporter le recours à l’intelligence artificielle.
ii. Des procédures d’une portée incertaine suivant le contexte social et la conduite des projets
Du point de vue de l’application de la loi, rien n’assure en revanche que le fonctionnement des entreprises garantisse l’exercice, par les salariés, d’un droit collectif à l’information et à la consultation sur les modalités et les effets d’un développement des usages de la technologie. Cette incertitude pose avant tout le problème du caractère opérant des procédures de saisine des instances représentatives du personnel et du champ de la négociation collective.
● En théorie, le droit en vigueur accorde au comité social et économique (CSE) des compétences de nature à permettre une certaine implication des salariés dans le déploiement des modèles d’intelligence artificielle.
Le 4° de l’article L. 2312-8 du code du travail consacre le droit du CSE à être informé et consulté sur les questions intéressant l’organisation, la gestion et la marche générale de l’entreprise, notamment sur « l’introduction de nouvelles technologies, tout aménagement important modifiant les conditions de santé et de sécurité ou les conditions de travail ». Pour l’exercice de cette compétence, le 2° de l’article L. 2315-94 du même code habilite le comité à recourir aux services d’un expert habilité « en cas d’introduction de nouvelles technologies ou de projet important modifiant les conditions de santé ou de sécurité ou les conditions de travail ». L’expert est tenu d’apporter à ses membres des éléments d’information suffisants, lisibles et objectifs leur permettant de formuler un avis éclairé en contribuant notamment à évaluer les conséquences, pour les travailleurs, de l’introduction d’une nouvelle technologie.
De manière plus spécifique, les articles L. 2312-37 et L. 2312-38 du code du travail posent le principe d’une information préalable du CSE à propos de la mise en œuvre de moyens de contrôle de l’activité des salariés, de méthodes ou techniques d’aide au recrutement des candidats à un emploi ainsi que sur toute modification de celles-ci.
Par ailleurs, les changements induits par le développement des usages de l’intelligence artificielle peuvent constituer un objet de la négociation sur la gestion des emplois et des parcours professionnels et sur la mixité des métiers prévue à l’article L. 2242-20 du code du travail. Le 2° de l’article L. 2242-21 du même code précise en effet que ces négociations peuvent porter « sur la qualification des catégories d’emplois menacés par les évolutions économiques ou technologiques ». L’obligation d’engager de telles discussions ne vaut toutefois que dans les entreprises et les groupes d’entreprises ([1007]) d’au moins trois cents salariés, ainsi que dans les entreprises et groupes d'entreprises de dimension communautaire ([1008]) comportant au moins un établissement ou une entreprise d’au moins cent cinquante salariés en France.
Aux procédures légales impliquant les institutions représentatives du personnel peuvent s’ajoutent des modes de consultation ad hoc propres à certaines entreprises. Ils se traduisent par la mise en place d’instances spécialisées dénommées « groupe de travail IA », « comité IA, « comité d’éthique IA » ou encore « commission mixte de gouvernance du numérique », dont la fonction consiste à associer les parties prenantes de l’entreprise au développement des usages de la technologie.
Nombre de grands groupes possèdent de telles structures à l’instar d’Axa, de Groupama, de la Société générale, de BNP Paribas ou d’Orange.
Leur composition apparaît variable, mais comprend souvent les cadres dirigeants, les services informatiques, les services juridiques et des représentants des utilisateurs – sans que les signalements recueillis par vos rapporteurs indiquent dans quelle mesure les représentants du personnel y siègent ès qualité. Le champ des sujets dont les instances peuvent être saisies apparaît très vaste : les réunions peuvent porter sur la formalisation des usages de l’intelligence artificielle, sur des questions éthiques ou sur la sensibilisation des acteurs aux enjeux du déploiement de la technologie (tels que la sécurité des systèmes d’information ou un traitement conforme des données), comme sur l’organisation d’un pilotage ou d’un suivi de projets relatif à l’incorporation de modèles. Suivant la remarque formulée par plusieurs intervenants, le rythme de l’expérimentation et de l’intégration des outils reposant sur l’intelligence artificielle diffère selon la taille des entreprises et la complexité de leur organisation (nombre de niveaux de validation des projets).
● Dans les faits, le traitement des enjeux inhérents aux usages de l’intelligence artificielle dans le cadre institutionnalisé du dialogue social ne va pas de soi.
D’une part, le développement de la technologie ne figure parmi les thèmes abordés par les partenaires sociaux que de manière très sectorielle et extrêmement marginale.
Ainsi, le bilan de la négociation collective en 2023 publié par le ministère du Travail ([1009]) ne fait état que de l’engagement de négociations relatives à l’impact de l’intelligence artificielle sur l’activité de production, s’agissant en particulier des artistes interprètes. Ce recensement dénote ainsi une absence de dynamique dans le champ des négociations collectives qui corrobore les signalements de plusieurs organisations syndicales : actuellement, il n’existe aucun accord de branche quant à l’usage de l’intelligence artificielle et le nombre des accords d’entreprise demeure insignifiant.
Si le dialogue social ne se décrète pas, la mission considère qu’il peut créer les conditions d’une intégration pertinente des usages de la technologie. Ainsi qu’il ressort d’une étude de l’OCDE, la négociation collective peut jouer un rôle décisif dans l’adaptation des organisations et la réalisation des transitions professionnelles qu’implique l’essor de l’intelligence artificielle ([1010]). Au-delà, l’intérêt d’une concurrence loyale et non faussée et d’une préservation des conditions de travail peut plaider en faveur d’une convergence de ses modalités d’exploitation.
Dans cette optique et ainsi que le préconisent plusieurs organisations syndicales, vos rapporteurs estiment nécessaire la conclusion d’un accord national interprofessionnel (ANI) et d’accords de branche susceptibles de donner un cadre au développement de l’intelligence artificielle.
Suivant la proposition de la CFTC, cet instrument de droit souple viserait à créer des instruments d’évaluation de l’impact de la technologie sur chaque métier et à mettre en place les formations adéquates.
Une telle démarche pourrait s’inspirer de l’accord-cadre européen sur la transformation numérique des entreprises conclu le 22 juin 2020 ([1011]) : le texte fournit en effet une méthodologie pour appréhender les transformations de l’entreprise et du travail qui pourrait servir de fondement à un volet du dialogue social spécialement consacré aux usages de l’intelligence artificielle. D’après les éléments recueillis par la mission, la direction générale du travail en assure la diffusion auprès des branches professionnelles et des entreprises afin de sensibiliser les négociateurs. Vos rapporteurs ne peuvent qu’encourager cette initiative.
Recommandation n° 44 : Favoriser la conclusion d’un accord national interprofessionnel ou l’actualisation des accords de branche afin de créer les conditions d’une intégration optimale de l’IA dans les entreprises.
D’autre part, la capacité des instances représentatives du personnel à suivre et à se prononcer sur les développements des usages de l’intelligence artificielle peut être affectée par de sérieux aléas.
Le premier obstacle tient à la technicité même des projets visant à l’implantation de dispositifs fondés sur cette technologie. Selon l’analyse des organisations syndicales, les membres des comités sociaux et économiques et les délégués syndicaux ne possèdent pas nécessairement des formations et parcours professionnels leur donnant d’emblée des clefs de compréhension et les dispensant d’un travail de recherche et d’analyse approfondi.
À certains égards, le même problème se pose à l’inspection du travail, dans l’accomplissement des contrôles relevant de la prévention des risques en matière de santé et de sécurité au travail. Suivant les réponses apportées par la direction générale du travail, il n’existe pas aujourd’hui d’outils de sensibilisation et de formation à l’utilisation des outils de l’intelligence artificielle.
Plus fondamental, le second obstacle réside dans le déroulement des procédures d’information et de consultation qui ne prédispose pas les instances représentatives du personnel à intervenir de manière opportune au regard des modalités d’incorporation des outils de l’intelligence artificielle.
En effet, le processus s’avère très progressif et prend souvent la forme d’expérimentations circonscrites à quelques services ou à quelques tâches accomplies par les salariés. Il en résulterait, selon les signalements convergents de plusieurs organisations syndicales, une propension très inégale des employeurs à saisir les représentants du personnel dès la mise en place d’un dispositif d’intelligence artificielle, certains considérant qu’une telle mesure participe de l’exercice de leur pouvoir de direction. De surcroît, la mise en œuvre des procédures de consultation n’offre pas la faculté de mener une revue au long cours du développement des usages de l’intelligence artificielle : le rythme de déploiement effectif des outils conduirait à ce que l’avis rendu par les instances représentatives ne porte que sur les principes et objectifs du projet, sans garantie d’un réexamen de ses effets pratiques dans des réunions ultérieures.
S’il convient de se garder de toute généralité, les conditions dans lesquelles certaines entreprises mettent en place les outils de l’intelligence artificielle appellent un renforcement des procédures d’information et de consultation des instances représentatives du personnel en cas d’introduction de tels outils.
En premier lieu, il importe d’assurer la saisine des instances dès l’engagement d’un projet tendant à l’introduction de modèles d’intelligence artificielle. Dans cette optique, la loi pourrait être explicitée au regard des solutions récemment affirmées par plusieurs tribunaux judiciaires, qui établissent une obligation de consultation à propos de la mise en place de modèles à titre expérimental.
Dans un jugement rendu le 15 avril 2022, le tribunal judiciaire de Pontoise ([1012]) a ainsi considéré qu’un projet d’introduction de nouvelles technologies dans l’entreprise justifie, à lui seul, la consultation du CSE, d’une part, et le recours sur ce projet à un expert habilité (en matière de santé, de sécurité et de conditions de travail), d’autre part. La consultation ne peut être subordonnée à la démonstration préalable de l’existence de répercussions sur les conditions de travail des salariés, par une lecture stricte du 4° de l’article L. 2312-8 du code du travail qui distingue deux motifs de consultation : d’un côté, « l’introduction de nouvelles technologies » ; de l’autre, « tout aménagement important modifiant les conditions de santé et sécurité ou les conditions de travail ». L’expertise se justifie au plan légal par la seule nouveauté de la technologie déployée.
Dans une ordonnance rendue le 14 février 2025 ([1013]), le tribunal judiciaire de Nanterre a pour sa part jugé que le déploiement d’outils d’intelligence artificielle dans l’entreprise sans consultation préalable du comité social et économique constituait un trouble manifestement illicite et une entrave à ses prérogatives. Sur le fondement de l’article L. 2312-15 du code de travail, il a ordonné la suspension du déploiement des outils d’intelligence artificielle jusqu’à la fin de la consultation du CSE, en concluant qu’un déploiement en phase pilote constitue une mise en œuvre des outils informatiques soumis à consultation : elle ne peut s’analyser comme une simple expérimentation nécessaire à la présentation d’un projet suffisamment abouti ([1014]).
Si ces deux jugements s’inscrivent dans la continuité des principes dégagés par la Cour de cassation à propos de la forme et du contenu des décisions soumises à consultation ([1015]), on ne saurait préjuger de leur portée jurisprudentielle. Il conviendrait donc de dissiper les incertitudes qui peuvent persister quant à la nécessité d’informer ou de consulter les comités sociaux et économiques en cas de lancement d’une expérimentation préalable à l’introduction d’une nouvelle technologie. Du point de vue de vos rapporteurs, une telle précision n’appelle pas nécessairement une mention expresse des procédés de l’intelligence artificielle : le concept « d’introduction d’une nouvelle technologie » peut en effet être jugé suffisamment englobant pour assurer l’efficacité du droit alors que la qualification d’un dispositif relevant des procédés de l’IA pourrait prêter davantage à interprétation.
Recommandation n° 45 : Expliciter dans la loi l’obligation d’engager les procédures d’information et, le cas échéant, de consultation des instances représentatives du personnel dès l’engagement des projets reposant sur l’introduction de procédés technologiques appuyés sur l’intelligence artificielle, y compris au stade expérimental.
En second lieu, il convient d’organiser une évaluation continue et régulière du développement de l’intelligence artificielle dans le cadre de la négociation collective.
Les éléments recueillis par la mission, notamment auprès des organisations syndicales, portent en effet à relativiser l’efficacité des informations et consultations préalables : en dehors d’un avis initial, la mise en œuvre des procédures ne conduit pas les partenaires sociaux à examiner les suites données aux projets approuvés ; la périodicité et l’objet des réunions des instances représentatives ne permettent pas nécessairement d’appréhender les effets induits par l’évolution des usages sur les organisations. Suivant la formule employée au cours des auditions, les procédures présentent un caractère « statique ». Un tel constat plaide en faveur d’un approfondissement du dialogue social sur les questions inhérentes aux changements technologiques tels que ceux apportés par le recours accru aux procédés de l’intelligence artificielle.
Dans cet esprit et sans mésestimer l’intérêt de comités paritaires ad hoc chargés du suivi de l’impact de ces procédés, vos rapporteurs préconisent d’inclure l’introduction des nouvelles technologies et des procédés reposant sur l’intelligence artificielle parmi les thèmes relevant de la négociation obligatoire devant être engagée chaque année.
Les 1° et 2° de l’article L. 2242-13 du code de travail imposent de discuter à échéance annuelle de la rémunération, du temps de travail et du partage de la valeur ajoutée dans l'entreprise, ainsi que de l’égalité professionnelle entre les femmes et les hommes et la qualité de vie et des conditions de travail. Le 3° du même article prévoit que la gestion des emplois et des parcours professionnels relève d’une négociation organisée tous les trois ans dans les entreprises d’au moins trois cents salariés. En dernier lieu, le texte dispose qu’à défaut d’une initiative de l'employeur depuis plus de douze mois, pour chacune des deux négociations annuelles, et depuis plus de trente-six mois, pour la négociation triennale, suivant la précédente négociation, cette négociation s'engage obligatoirement à la demande d'une organisation syndicale représentative.
Du point de vue de vos rapporteurs, il pourrait être expédient de mentionner expressément l’introduction de nouvelles technologies et, éventuellement, le recours aux systèmes d’intelligence d’artificielle, parmi les thèmes mentionnés au 1° de l’article L. 2242-3 du code de travail. Une autre solution consisterait à inscrire l’introduction de nouvelles technologies dans le champ de la consultation du comité social et économique sur les orientations stratégiques de l’entreprise prévue à l’article L. 2312-24 du code du travail et d’assurer la périodicité de cette consultation par une mention expresse. Il s’agit en effet d’appréhender le développement des usages de l’intelligence artificielle sous l’angle des impacts sur l’emploi, sans négliger les enjeux de productivité et de compétitivité.
Recommandation n° 46 : Inclure l’introduction des nouvelles technologies appuyées sur l’intelligence artificielle dans le champ des négociations annuelles obligatoires, ainsi que dans la consultation du comité social et économique sur les orientations stratégiques de l’entreprise.
III. des usages et des activitÉs dont le dÉveloppement appelle une rÉgulation proportionnÉe et ouverte À l’innovation
En dehors de la maîtrise des techniques et de la disponibilité des ressources humaines et matérielles, le développement des usages de l’intelligence artificielle au sein des entreprises suppose fondamentalement une croyance dans l’avenir de son exploitation et l’établissement d’un climat de confiance. Suivant le constat partagé par nombre des acteurs auditionnés, l’incertitude ne peut que freiner des initiatives s’agissant de l’investissement dans une technologie porteuse d’un profond renouvellement des activités économiques et des organisations de travail.
L’essor de l’intelligence artificielle ne fait que renouveler les questionnements que suscite toujours l’émergence de technologies de rupture. Pour les pouvoirs publics, il s’agit de tirer des conséquences raisonnables d’un nouveau cap franchi dans la numérisation de l’économie et qui, si la technologie tient ses promesses, conditionne la capacité de la France à demeurer au premier rang de la recherche scientifique et de la création de richesses.
Cette recherche d’une approche équilibrée comporte deux exigences : d’une part, un cadre juridique adapté aux défis d’un écosystème payant les effets d’un retard initial et exposé à une vive concurrence ; d’autre part, la pleine valorisation des actifs immatériels que représentent les données, dans le respect des règles d’intérêt public et des droits fondamentaux.
Au plan juridique, le développement des usages de l’intelligence artificielle par les entreprises pose fondamentalement la question de la compatibilité des applications de la technologie avec le cadre que forment le droit européen et le droit national.
Dans cette démarche, il convient de ne pas céder aux facilités du procès en surréglementation dont l’Union européenne et la France font régulièrement l’objet. De fait, l’état de la technique évolue et bien des modèles d’affaires restent à définir. En outre, il apparaît très réducteur d’appréhender le droit dans sa seule dimension normative ou coercitive : si elles peuvent être sources de charges administratives, les règles juridiques procurent également de la visibilité aux opérateurs économiques – en permettant de distinguer le licite de l’illicite et en les protégeant des aléas d’un procédé innovant ; en cela, elles participent donc à la compétitivité de nos économies et, au-delà, comportent des enjeux de souveraineté. Il s’agit de mesurer les effets qu’exercent les obligations auxquelles peuvent être assujettis les chercheurs et les producteurs, tant au stade de la conception des produits et composants que de leur utilisation par les professionnels et les consommateurs.
De ce point de vue, les travaux de la mission portent à deux conclusions : en premier lieu, l’offre de produits et services faisant appel à l’intelligence artificielle peut être appréhendée assez efficacement par le droit général, sous réserve peut-être d’une consolidation du droit de la responsabilité ; en second lieu, l’approche européenne fondée sur une catégorisation et la définition des usages de la technologie ne conduit pas nécessairement à une surréglementation, même si le cadre fixé mériterait des précisions et des mesures de simplification pour sa mise en œuvre pratique et son appropriation par les entreprises. En tout état de cause, des évolutions juridiques ne sauraient être conçues qu’à l’échelle de l’Union européenne, sauf à courir le risque d’une fragmentation préjudiciable à l’innovation et à l’investissement.
1. Une technologie ne rendant pas inopérantes les obligations régissant les secteurs d’activités
Au cours de leur audition, plusieurs acteurs ont indiqué que le développement des usages de l’intelligence artificielle ne supposait pas nécessairement une évolution du droit en vigueur ou la prise de mesures législatives. Pour l’essentiel, cette appréciation rejoint l’analyse de vos rapporteursn car les travaux de la mission mettent plutôt en exergue l’intérêt d’une stabilité du droit en vigueur moyennant quelques approfondissements spécifiques, notamment sur le plan de l’exercice du droit de la responsabilité.
a. Des applications pouvant être déjà assez largement appréhendées par le droit général
Les éléments recueillis par la mission ne la portent pas à caractériser un défaut de base juridique qui affranchirait l’intelligence artificielle de l’application des lois et règlements.
● D’une part, la définition de l’intelligence artificielle consacrée en droit européen semble de nature à couvrir l’ensemble des caractéristiques des produits, matériels et éléments relevant de cette technologie.
En vertu de l’article 3 du règlement sur l’intelligence artificielle, constitue un système d’IA « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ». Cette disposition a été précisée par des lignes directrices publiées par la Commission européenne le 6 février 2025 ([1016]).
Au regard des analyses développées devant la mission, les termes de la définition peuvent être considérés comme suffisamment fonctionnels et souples pour répondre à des exigences de sécurité juridique. D’après plusieurs intervenants, établir une liste des technologies pourrait conduire à occulter des innovations et à ignorer le droit.
● D’autre part, les caractéristiques des outils et solutions fondés sur l’intelligence artificielle ne semblent pas faire obstacle à une assimilation aux grandes catégories et notions sur lesquelles reposent les normes encadrant les activités économiques et sociales.
Cette capacité intégratrice procède notamment de la place qu’accordent désormais les législations générales et sectorielles à la numérisation dans la définition des produits et composants impliqués dans la production de biens et de services, ainsi que dans la définition des obligations applicables aux entreprises. Il en va ainsi en ce qui concerne le cadre applicable à la conception des machines qui fixe les règles visant à assurer la santé et la sécurité de leurs utilisateurs. Remaniant profondément la directive « Machines », le règlement (UE) du 14 juin 2023 ([1017]), dit règlement « Machines » inclut ainsi les logiciels dans le champ d’application des règles sur les produits défectueux. En matière de sécurité des produits, l’actualisation opérée par le règlement (UE) 2023/988 du 10 mai 2023 ([1018]) sur la sécurité générale des produits (RSGP) procède de la même logique. Dans le champ de la protection des consommateurs, le droit français comporte des dispositions spécifiques relatives aux contrats de fourniture de contenus numériques et de services numériques ([1019]).
Actualisation du droit de l’Union européenne
applicable à la conformité des machines
Le droit de l’Union européenne relatif à la conformité et la sécurité des machines repose désormais sur les dispositions du règlement (UE) 2023/1230 du 14 juin 2023 ([1020]). Entré progressivement en vigueur depuis le 13 juillet 2023 et applicable dans son intégralité à compter du 14 janvier 2027, le texte abroge à cette date les directives 73/361/CEE du 19 novembre 1973 ([1021]) et 2006/42/CE du 17 mai 2006 ([1022]).
Le règlement adapte les obligations respectives des fabricants, des importateurs et des distributeurs des machines, en prenant notamment en considération les risques susceptibles d’accompagner l’usage d’équipements fondés sur l’exploitation de technologies numériques (tels que les robots collaboratifs, les systèmes d’intelligence artificielle et la cybersécurité).
Ainsi, la partie A de l’annexe I inclut dans le champ des machines et des produits connexes relevant des procédures d’évaluation de la conformité fixées par le règlement :
– les composants de sécurité au comportement totalement ou partiellement auto-évolutif et qui utilisent des approches d’apprentissage automatique assurant des fonctions de sécurité ;
– les machines dont les systèmes intégrés ont un comportement totalement ou partiellement auto-évolutif et utilisent des approches d’apprentissage automatique assurant des fonctions de sécurité qui n’ont pas été mises sur le marché de manière indépendante, uniquement en ce qui concerne ces systèmes.
Par ailleurs, l’emploi de moyens numériques figure parmi les facteurs de modifications substantielles des machines et produits connexes.
Au titre des exigences essentielles destinées à protéger la santé et la sécurité des personnes dans l’Union européenne (EESS), le règlement (UE) 2023/1230 consacre l’adaptation de l’interface être humain/machine aux caractéristiques prévisibles des opérateurs. L’obligation vaut également pour les machines ou produits connexes dont le comportement ou la logique sont prévus pour être totalement ou partiellement auto-évolutifs et qui sont conçus pour fonctionner avec des degrés d’autonomie variables. Elle implique notamment qu’ils répondent aux personnes de manière adéquate et appropriée et communiquent aux opérateurs de manière compréhensible les actions planifiées.
En outre, le règlement prévoit une adaptation des exigences relatives à la prévention des risques de contact avec des éléments mobiles facteurs de situations dangereuses ou de stress psychologique afin de prendre en considération la coexistence de l’être humain et de la machine dans un espace partagé sans collaboration directe, ainsi que l’interaction être humain/machine.
Au-delà, l’introduction d’une nouvelle technologie ne constitue qu’un moyen ou une modalité dans l’exercice d’une activité économique ou sociale ou dans l’exécution d’un contrat. L’usage de l’intelligence artificielle n’affecte pas les situations juridiques et la teneur des obligations qui peuvent y être attachées : conformément aux principes généraux du droit, les lois et règlements s’appliquent en l’absence de mention expresse contraire ou de norme supérieure. Ce constat vaut tout particulièrement en matière de droit du travail. Selon l’analyse de la direction générale du travail, la technologie ne présente pas de spécificité qui la place hors du champ d’application du règlement général sur la protection des données (RGPD) ou du droit régissant les conditions de travail. Elle soulève des questions qui relèvent de l’organisation du travail et qui peuvent relever des discussions ayant pour cadre le dialogue social ou les relations entre encadrants et salariés.
En outre, il s’avère que dans certains secteurs, les recommandations ou lignes directrices émises par les régulateurs sectoriels sont de nature à favoriser une certaine normalisation des usages de l’intelligence artificielle à droit constant.
Tel semble être le cas dans les secteurs de la banque et des assurances. Du point de vue de plusieurs établissements auditionnés, les recommandations publiées en mars 2024 et le contrôle de l’Autorité de contrôle prudentiel et de résolution (ACPR) sur l’utilisation de la technologie dans le secteur bancaire sont globalement pertinents et correspondent aux exigences de sécurité, de transparence et de gestion des risques propres à ces industries. Dans l’ensemble, ils permettraient de structurer l’usage de l’IA tout en garantissant une conformité aux principes éthiques et réglementaires, en étayant par exemple la gestion des risques modèle, grâce à une approche pragmatique du pôle « Fintech » de l’Autorité.
Dans le secteur aéronautique et à l’instar de la Federal Aviation Administration aux États-Unis, les autorités de l'aviation civile ont établi et adaptent progressivement des cadres pour la certification des systèmes IA employés dans la navigation aérienne. L’Agence de la sécurité aérienne de l'Union européenne (European Union Aviation Safety Agency, EASA) a publié en 2021 une feuille de route destinée à définir les principes d’une « IA digne de confiance » dans l’aviation. D’après l’état des lieux dressé par les représentants d’Airbus, l’intégration dans le cockpit d’outils d’aide à la décision pour les pilotes donne lieu à des discussions avec le régulateur.
● Cette capacité d’intégration à l’ordre public économique n’exclut pas cependant la nécessité de précisions quant au champ d’application et à l’interprétation d’actes de droit dérivé qui conditionnent de manière indirecte le développement des usages de l’intelligence artificielle. En dehors du contenu des catégories instituées par le règlement (UE) 2024/1689 du 13 juin 2024, la qualification des produits ou composants dans le cadre de procédures d’homologation en droit national ou dans l’application de lignes directrices élaborées par les régulateurs sectoriels peut poser question, ainsi que le suggèrent quelques signalements à la mission.
Dans le secteur des banques et assurances, certains établissements estiment ainsi qu’il conviendrait que l’ACPR clarifie la distinction entre les usages de systèmes IA relevant de l’aide à la décision et de ceux qui aboutissent à une automatisation totale des procédures. De leur point de vue, une telle mesure permettrait d’éviter un classement abusif des outils présentant un faible impact dans la catégorie des systèmes IA à haut risque.
Dans le domaine médical, des start-up commercialisant des outils d’analyse d’images et d’aide au diagnostic ont attiré l’attention de vos rapporteurs sur l’impossibilité de faire reconnaître ces outils parmi les dispositifs pouvant bénéficier d’un remboursement de la sécurité sociale. Aux dires de leurs représentants, cette situation résulterait d’un défaut de base légale qui empêcherait la Commission nationale d’évaluation des dispositifs médicaux et des technologies de santé (CNEDiMTS) de procéder à un examen de leur éligibilité, prérequis à une inscription sur la liste des produits et des prestations par la Haute autorité de santé. On notera qu’en l’état, l’article L. 165-1-1 du code de la sécurité sociale admet la possibilité d’une prise en charge partielle ou totale, à titre dérogatoire et pour une durée limitée, des produits de santé ou actes innovants ([1023]) susceptibles de présenter un bénéfice clinique ou médico-économique. Aux termes de l’article L. 5211-1 du code de la santé publique, la qualification de « dispositif médical » s’applique à tout instrument, appareil, équipement, logiciel, implant, réactif, matière ou autre article, destiné par le fabricant à être utilisé, seul ou en association, chez l’homme pour l’une ou plusieurs des fins médicales et dont l’action principale voulue dans ou sur le corps humain n’est pas obtenue par des moyens pharmacologiques ou immunologiques ni par métabolisme, mais dont la fonction peut être assistée par de tels moyens. Les fins médicales mentionnées par l’article comprennent le diagnostic, la prévention, la surveillance, la prédiction, le pronostic, le traitement ou l’atténuation d'une maladie.
Indépendamment de l’appréciation de la conformité en l’espèce des dispositifs aux règles de remboursement de la sécurité sociale, cet exemple souligne la nécessité d’appréhender de manière très large les conditions dans lesquelles le droit français peut offrir un cadre propice et sécurisé au développement de l’intelligence artificielle. Aussi et dans la perspective de la pleine entrée en vigueur du règlement (UE) 2024/1689 du 13 juin 2024, vos rapporteurs préconisent une revue périodique du droit en vigueur afin d’identifier d’éventuelles difficultés d’application aux usages de cette technologie. Dans leur esprit, ce travail de veille pourrait en particulier être réalisé par la commission de l’intelligence artificielle, en collaboration avec le coordinateur national.
Recommandation n° 47 : Mener une évaluation périodique des conditions d’application du droit national aux usages de l’intelligence artificielle.
b. Un droit de la responsabilité civile à consolider ?
Outre la clarté et l’efficacité du cadre juridique, la confiance indispensable à l’appropriation des usages de l’intelligence artificielle suppose que les concepteurs, les distributeurs et les utilisateurs finaux (entreprises et consommateurs) disposent de la garantie de pouvoir obtenir réparation d’un éventuel préjudice causé par des systèmes ou composants issus de l’exploitation de la technologie. Dès lors que les systèmes IA possèdent une autonomie croissante et que les conditions de leur usage se diversifient, se pose nécessairement la question des modalités d’exercice des recours fondés sur le droit de la responsabilité.
i. Des mises en cause possibles sur le fondement de la responsabilité contractuelle ou de la responsabilité pour faute
● Sous réserve d’une évaluation plus approfondie, les éléments recueillis par la mission portent à conclure que les régimes de responsabilité contractuelle et de responsabilité pour faute demeurent opérants et pourraient permettre d’appréhender de nombreuses situations.
D’une part, les spécificités des systèmes et composants IA ne font pas obstacle à l’application des principes relatifs aux obligations contractuelles consacrés en droit français. En vertu de l’article 1103 du code civil, « les contrats légalement formés tiennent lieu de loi à ceux qui les ont faits ». Les entreprises et les consommateurs peuvent se prévaloir d’un dommage causé par l’inexécution ou la mauvaise exécution du contrat, notamment sur le fondement de l’article 1231-1 du même code qui dispose que « le débiteur est condamné, s'il y a lieu, au paiement de dommages et intérêts soit à raison de l'inexécution de l'obligation, soit à raison du retard dans l'exécution, s'il ne justifie pas que l'exécution a été empêchée par la force majeure. ». Sur le fondement des principes généraux du droit civil, les clauses limitatives de responsabilité peuvent être écartées en cas de faute dolosive ou de faute lourde ([1024]), voire de faute inexcusable dans certaines activités ([1025]).
D’autre part, le cadre légal et règlementaire parait de nature à permettre de sanctionner des usages non-conformes de l’intelligence artificielle.
Outre les infractions pénales réprimant les atteintes aux personnes et aux biens, le droit national permet de mettre en cause la responsabilité civile et d’obtenir réparation au titre des préjudices causés par la méconnaissance d’obligations légales ou contractuelles. Dans la rédaction issue de la loi du 30 avril 2025 ([1026]), l’article 1254 du code civil institue une sanction civile en cas de faute dolosive ayant causé des dommages sériels : il prévoit que « lorsqu'une personne est reconnue responsable d'un manquement aux obligations légales ou contractuelles afférentes à son activité professionnelle, le juge peut, à la demande du ministère public, devant les juridictions de l'ordre judiciaire, ou du Gouvernement, devant les juridictions de l'ordre administratif, et par une décision spécialement motivée, la condamner au paiement d'une sanction civile, dont le produit est affecté à un fonds consacré au financement des actions de groupe. »
Dans le cadre du règlement (UE) 2024/1689 du 13 juin 2024, la méconnaissance ou la violation des règles harmonisées sur l’intelligence artificielle par des opérateurs peuvent donner lieu à la mise en œuvre de sanctions et de mesures d’exécution, ainsi qu’à des avertissements et des mesures non monétaires. En vertu de l’article 99 du texte, la détermination de ce régime incombe aux États membres. Le règlement leur fait obligation de prendre toute mesure nécessaire pour veiller à la mise en œuvre correcte et effective des sanctions, en tenant compte des lignes directrices publiées par la Commission européenne ([1027]).
Pour sa part, le règlement IA fixe expressément des sanctions pécuniaires plafonnées dont l’importance varie suivant le manquement constaté. Dans le cas des PME, y compris les « jeunes pousses », il pose toutefois le principe d’un plafonnement des amendements maximales pouvant être encourues aux pourcentages ou montants mentionnés aux paragraphes 3, 4 et 5 de l’article 99, le chiffre le plus faible étant retenu.
Aux termes de son article 2, le règlement IA n’affecte pas, par ailleurs, l’application des dispositions relatives à la responsabilité des prestataires intermédiaires énoncées au chapitre II du règlement sur les services numériques du 19 juin 2022, dit ou règlement « DSA » ([1028]). Ce texte n’écarte la responsabilité des fournisseurs de services en ligne au titre des informations transmises sur un réseau de communication qu’à trois conditions : si le fournisseur ne se trouve pas à l’origine de la transmission ; s’il ne sélectionne pas le destinataire de la transmission ; s’il ne sélectionne pas ou ne modifie pas les informations faisant l’objet de la transmission.
Sanctions encourues en cas de manquement
au règlement (UE) 2024/1689 du 13 juin 2024 sur l’intelligence artificielle
La méconnaissance ou la violation des dispositions relatives aux pratiques interdites en matière d’IA (article 5) peut donner lieu à des amendes administratives pouvant aller jusqu’à 35 M€ ou, si l’auteur de l’infraction est une entreprise, jusqu’à 7 % de son chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent, le montant le plus élevé étant retenu.
La non-conformité avec l’une quelconque des autres dispositions suivantes relatives aux opérateurs ou aux organismes notifiés est passible d’une amende administrative pouvant aller jusqu’à 15 M€ ou, si l’auteur de l’infraction est une entreprise, jusqu’à 3 % de son chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent, le montant le plus élevé étant retenu. Le règlement sanctionne la méconnaissance ou la violation des obligations incombant aux fournisseurs en vertu de l’article 16, aux mandataires en vertu de l’article 22, aux importateurs en vertu de l’article 23, aux distributeurs en vertu de l’article 24 et aux déployeurs en vertu de l’article 26.
Des amendes administratives peuvent également être infligées au titre :
– des exigences et obligations applicables aux organismes notifiés en application des articles 31, 33 (paragraphes 1, 3 et 4) ou 34 ;
– des obligations de transparence pour les fournisseurs et les déployeurs conformément à l’article 50.
Source : Travaux de la mission.
Ainsi qu’il ressort des observations de certains spécialistes et de la Commission européenne ([1029]), les caractéristiques des systèmes et solutions fondées sur l’intelligence artificielle tendent néanmoins à rendre plus difficiles la reconnaissance d’une faute et l’établissement d’un lien de causalité entre le préjudice allégué et le fonctionnement ou l’usage des produits et composants.
En premier lieu, l’établissement d’une responsabilité ne va pas de soi compte tenu de la prise en considération de facteurs tels que :
– l’intangibilité des produits : le contenu numérique, les logiciels et les données jouent un rôle crucial dans le fonctionnement de nombreux dispositifs. Toutefois, leur intégrité peut être mise en cause par des ajouts de nouveaux composants ou des opérations de mise à jour des logiciels ;
– la connectivité et le niveau de cybersécurité : comme d’autres technologies numériques, l’ouverture aux données et l’usage d’intrants exposent à des risques d’atteintes à l’intégrité des systèmes, ainsi qu’aux actifs numériques et aux données sensibles de l’entreprise. Au plan juridique, peut se poser la question de la définition des défauts susceptibles d’ouvrir droit à réparation en cas de faits mettant en cause la responsabilité ;
– la complexité : la sophistication de certains modèles peut peser sur la transparence de leur fonctionnement et sur la prévisibilité des résultats que l’on peut raisonnablement en attendre sur un plan contractuel.
En deuxième lieu, le droit de la responsabilité peut se heurter à la structuration et à l’évolution des chaînes de valeur de l’intelligence artificielle et de l’accès à la technologie.
Le développement des achats en ligne altère l’efficacité de régimes fondés sur une présomption de responsabilité en rapport avec le rôle joué dans un circuit commercial : en donnant aux consommateurs la faculté d’acquérir par eux-mêmes des produits en provenance de pays tiers, il contribue à un mouvement de désintermédiation qui réduit le rôle des importateurs et des mandateurs ; en conséquence, il paraît moins concevable de les traiter comme des producteurs aux fins de la responsabilité du fait des produits.
Au demeurant, le droit en vigueur peut lui-même participer à une certaine complexification des situations juridiques préjudiciable à l’identification des auteurs de préjudice. Dans la mise en œuvre du règlement (UE) 2024/1689 du 13 juin 2024 sur l’intelligence artificielle, le partage de responsabilité entre « déployeurs » et « fournisseurs » comporte ainsi une part d’imprévisibilité dès lors que sur le fondement de son article 25, le statut des opérateurs peut faire l’objet d’une requalification en de modification substantielle d’un système d’IA à haut risque. Du point de vue de plusieurs acteurs auditionnés, la disposition mériterait une clarification.
ii. Des régimes de responsabilité extracontractuelle moins opérationnels ?
Au-delà, la véritable source d’incertitudes inhérentes aux récents développements des usages de l’intelligence artificielle porte sur l’adaptation des régimes de responsabilité sans faute, hors du champ contractuel.
De fait, les systèmes et composants IA possèdent désormais des capacités accrues d’autonomie, ainsi que d’apprentissage et d’adaptation continus. Conjuguées à une certaine imprévisibilité et à une opacité de leur fonctionnement, ces caractéristiques paraissent de nature à compliquer l’imputation des dommages causés par l’usage de l’intelligence artificielle et l’identification d’un auteur tenu à réparation. Le problème se pose en particulier avec l’avènement de l’ « agentification », car, dans ce nouvel âge de la technologie, un système d’IA pourrait répondre à un besoin en s’appuyant sur des agents spécialisés, à même de planifier, de réaliser et d’optimiser l’ensemble des actions connexes nécessaires à la satisfaction de ce besoin, en collaboration et en toute autonomie. Comme précédemment observé, cette évolution technique ouvre la perspective d’une automatisation réduisant l’intervention humaine.
Par ailleurs et suivant le degré d’autonomie des systèmes, les usages de l’intelligence artificielle soulèvent la question de la mise en cause de la responsabilité du fait des choses.
● En droit français, ce régime procède des principes consacrés à l’article 1242 du code civil, lequel dispose : « On est responsable non seulement du dommage que l'on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l'on a sous sa garde. ». Il repose sur une présomption de responsabilité qui n’exige pas une faute de la personne qui détient : la caractérisation de la responsabilité suppose un dommage résultant d’une chose anormale pour laquelle le bien a joué un rôle actif. Dans le principe, la responsabilité du fait des choses peut s’appliquer à l’intelligence artificielle.
Toutefois, la démonstration du caractère anormal des résultats produits par un système peut s’avérer problématique, du fait notamment de la technicité des algorithmes utilisés. Ce constat conduit certains commentateurs à préconiser une distinction entre la garde du système et les résultats produits par l’intelligence artificielle, une telle conception permettant de répartir la responsabilité des dommages entre le fabricant matériel et un développeur logiciel – sous réserve que le système repose sur des produits ou composants physiques.
● Dans le cadre du droit de l’Union européenne, la directive (UE) 2024/2853 du 23 octobre 2024 ([1030]) formalise un régime de responsabilité sans faute des produits défectueux susceptible de permettre d’appréhender les caractéristiques de l’intelligence artificielle.
Abrogeant et remplaçant la directive 85/374/CEE du 25 juillet 1985, la directive tend, en premier lieu, à élargir le champ des biens et services auxquels s’applique le droit à réparation. Aux termes de l’article 4, elle retient en effet une définition assez large du concept de « produit », ce terme qualifiant « tout meuble, même s’il est incorporé dans un autre meuble ou dans un immeuble ou interconnecté avec celui-ci; le terme comprend l’électricité, les fichiers de fabrication numériques, les matières premières et les logiciels ». La nouvelle directive couvre également :
– les fichiers de fabrication numérique, entendus comme une version numérique (ou un modèle numérique) d’un meuble, qui contient les informations fonctionnelles nécessaires pour produire un élément corporel en permettant le contrôle automatisé de machines ou d’outils ;
– les « services connexes » : la notion désigne des services numériques intégrés à un produit ou interconnectés avec celui-ci de telle sorte que leur absence empêcherait le produit d’exécuter une ou plusieurs de ses fonctions ;
– les composants : tout élément, corporel ou incorporel, matière première ou service connexe, intégré dans un produit ou interconnecté avec celui-ci.
Aux termes de la directive (UE) 2024/2853, un produit est considéré comme défectueux lorsqu’il n’offre pas la sécurité à laquelle une personne peut légitimement s’attendre ou qui est requise par le droit de l’Union ou le droit national. Parmi les critères devant être pris en compte dans l’évaluation de la défectuosité d’un produit, le texte mentionne notamment :
– la présentation et les caractéristiques du produit, y compris son étiquetage, sa conception, ses caractéristiques techniques, sa composition, son emballage et les instructions d’assemblage, d’installation, d’utilisation et d’entretien ;
– l’utilisation raisonnablement prévisible du produit ;
– l’effet sur le produit de toute capacité à poursuivre son apprentissage ou à acquérir de nouvelles caractéristiques après sa mise sur le marché ou sa mise en service ;
– l’effet raisonnablement prévisible sur le produit d’autres produits dont on peut s’attendre à ce qu’ils soient utilisés conjointement avec le produit, notamment au moyen d’interconnexion ;
– les exigences pertinentes en matière de sécurité des produits, y compris les exigences de cybersécurité pertinentes pour la sécurité.
En application de l’article 8 de la directive (UE) 2024/2853, la responsabilité du fait d’un produit défectueux pèse sur le fabricant du produit, sur le fabricant d’un composant défectueux (lorsque ce composant a été intégré dans un produit ou interconnecté avec celui-ci sous le contrôle du fabricant et a causé le défaut du produit, et sans préjudice de la responsabilité du fabricant du produit lui-même), sur les importateurs ou sur le mandataire du fabricant et, à défaut, sur les prestataires de service d’exécution des commandes. Le texte affirme le principe suivant lequel la responsabilité du fabricant d’un produit défectueux couvre également tout dommage causé par un composant défectueux lorsqu’il a été intégré dans un produit ou interconnecté avec celui-ci sous le contrôle de ce fabricant. En revanche, toute personne physique ou morale qui modifie de manière substantielle un produit en dehors du contrôle du fabricant et le met ensuite à disposition sur le marché ou en service est considérée comme un fabricant de ce produit.
En second lieu, l’article 10 de la directive (UE) 2024/2853 dispose qu’existe une présomption de défectuosité du produit dans trois cas :
– si le défendeur ne divulgue pas les éléments de preuve pertinents prévus par l’article 9, paragraphe 1 de la directive ;
– si le demandeur démontre que le produit n’est pas conforme aux exigences obligatoires en matière de sécurité des produits prévues par le droit de l’Union ou le droit national qui sont destinées à protéger contre le risque de survenance du dommage subi par la personne lésée ;
– si le demandeur démontre que le dommage a été causé par un dysfonctionnement manifeste du produit lors d’une utilisation raisonnablement prévisible ou dans des circonstances ordinaires.
L’article précise que le lien de causalité entre la défectuosité du produit et le dommage est présumé lorsqu’il a été établi que le produit est défectueux et que le dommage causé est d’une nature généralement compatible avec le défaut en question.
On notera que la défectuosité du produit et/ou le lien de causalité entre la défectuosité du produit et le dommage peuvent être présumés, malgré la production d’éléments de preuve et en considération de toutes les circonstances pertinentes dans le cas d’espèce, dès lors que :
– le demandeur fait face à des difficultés excessives, notamment en raison de la complexité technique ou scientifique, pour prouver la défectuosité du produit et/ou le lien de causalité entre cette défectuosité et le dommage ;
– le demandeur démontre qu’il est probable que le produit est défectueux ou qu’il existe un lien de causalité entre la défectuosité du produit et le dommage.
La directive (UE) 2024/2853 doit entrer en vigueur et donner lieu aux mesures nécessaires à sa transposition en droit interne avant le 9 décembre 2026, date à laquelle l’abrogation de la directive 85/374/CEE prendra effet. À certains égards, la portée de ce régime reste incertaine au regard des caractéristiques des systèmes IA, dans la mesure où plusieurs dispositions du texte tendent à restreindre la responsabilité du fait des produits défectueux encourue dans certaines situations.
Ainsi, l’article 6 de la directive écarte le droit à réparation pour le dommage causé à des biens ou la destruction de biens, pour un produit endommagé par un composant défectueux intégré dans un produit ou interconnecté avec celui-ci par le fabricant du produit ou placé sous le contrôle du fabricant, ainsi que pour les biens utilisés exclusivement à des fins professionnelles.
En outre, l’appréciation de certaines circonstances permettant d’écarter la responsabilité sur le fondement de l’article 11 de la directive peut introduire des aléas dans l’imputation d’un dommage éventuellement causé par un système d’IA. Pourraient ainsi prêter à débat devant les tribunaux les motifs d’exonération tirés :
– du fait que la défectuosité ayant causé le dommage n’existait pas au moment de la mise sur le marché, de la mise en service ou, dans le cas d’un distributeur, de la mise à disposition sur le marché du produit, ou que cette défectuosité est apparue après ce moment (c du paragraphe 1 de l’article 11) ;
– d’un état objectif des connaissances scientifiques et techniques au moment de la mise sur le marché ou de la mise en service du produit ou au cours de la période pendant laquelle le produit se trouvait sous le contrôle du fabricant, qui n’a pas permis de déceler la défectuosité (e du paragraphe 1 de l’article 11) ;
– du fait que le dommage survenu provient d’une partie non affectée par une modification substantielle d’un produit réalisée par une personne physique ou morale en dehors du contrôle du fabricant, le produit étant ensuite mis à disposition sur le marché ou en service (g du paragraphe 1 de l’article 11).
Du reste, certains observateurs estiment que les dispositions du texte ne couvrent pas tous les cas de figure créés par le développement des usages de l’intelligence artificielle. De leur point de vue, elles marquent un retrait par rapport aux mesures figurant dans une proposition de directive traitant spécifiquement de ces questions, mais retirée du programme de travail de la Commission au début de l’exercice 2025 ([1031]).
La proposition de directive sur la responsabilité en matière d’IA
Publiée le 28 septembre 2022, la proposition de directive du Parlement européen et du Conseil relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle ([1032]) visait à « améliorer le fonctionnement du marché intérieur en établissant des exigences uniformes pour certains aspects de la responsabilité civile en lien avec des dommages résultant de l’utilisation des systèmes d’IA ». Elle comportait trois dispositions clés.
L’article 3 de la directive prévoyait qu’une juridiction « puisse ordonner la divulgation des éléments de preuve pertinents concernant des systèmes d’IA à haut risque spécifiques » soupçonnés d’avoir causé un dommage. Cette mesure visait à donner l’accès aux informations nécessaires à l’appui d’une demande de réparation.
L’article 4 instituait une présomption réfragable de causalité si le plaignant parvenait à démontrer : l’existence d’une faute commise par le défendeur en conséquence du non-respect d’une obligation à sa charge et d’un impact de cette faute sur les résultats ou l’absence de résultat du système IA ; la probabilité raisonnable d’un lien de causalité entre la faute et les performances du système IA.
Cette présomption visait à surmonter les difficultés inhérentes aux caractéristiques spécifiques de certains systèmes d'IA (opacité, complexité, autonomie) qui rendent particulièrement difficile l'établissement de la preuve de la faute.
En outre, la proposition de directive établissait des régimes de présomption adaptés selon les systèmes d’IA en distinguant les systèmes à haut risque des autres catégories de systèmes (telles que définis par le règlement UE 2024/1689 du 13 juin 2024 précité). Dans le cas des systèmes d’IA à haut risque, le texte conférait aux plaignants un droit d’accès aux éléments de preuve auprès des entreprises et des fournisseurs.
Source : Travaux de la mission.
En réalité, l’existence d’un régime de responsabilité sans faute spécifique importe sans doute moins que le degré de protection procuré aux entreprises et aux consommateurs par les instruments de droit actuels. La nouvelle directive relative à la responsabilité du fait des produits défectueux et la directive (UE) 2024/1689 du 13 juin 2024 forment un cadre relativement exigeant, mais dont la pertinence reste à vérifier à l’épreuve des faits. En ce qui concerne en particulier la directive relative à la responsabilité du fait des produits défectueux, la nécessité de mesures de transposition confère aux États des obligations et un grand rôle afin d’en garantir la bonne application.
Aussi, en se gardant du risque d’une surréglementation, vos rapporteurs invitent les pouvoirs publics à prendre toutes les dispositions nécessaires afin de garantir l’effectivité du droit à réparation dans la transposition de la directive relative à la responsabilité du fait des produits défectueux et, au-delà, à travailler à l’adaptation des régimes de responsabilité sans faute en droit national.
Recommandation n° 48 : Garantir l’effectivité du droit à réparation dans la transposition de la directive (UE) 2024/2853 du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux. Veiller à l’adaptation, si nécessaire, des régimes de responsabilité sans faute en droit national au regard des spécificités de l’intelligence artificielle.
2. Un encadrement spécifique porteur d’un risque de surréglementation ?
Les principes et obligations régissant le déploiement et l’usage des modèles d’intelligence artificielle procèdent du règlement (UE) 2024/1689 du 13 juin 2024 ([1033]) , communément appelé « règlement sur l’intelligence artificielle » (RIA). Entrées en vigueur partiellement depuis le 2 février 2025, ses dispositions devraient s’appliquer dans leur intégralité à partir du 2 août 2027. Le texte vise à établir un régime juridique uniforme à l’échelle de l’Union européenne et de l’espace économique européen (EEE) pour le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d’intelligence artificielle dans le respect des valeurs européennes.
En vertu de l’article 2, le règlement s’applique à tout « système d’intelligence artificielle » (SIA) ([1034]) mis sur le marché, mis en service ou utilisé au sein de l’Union européenne, ainsi qu’aux sorties produites par les SIA (telles que des prédictions, du contenu, des recommandations ou des décisions) utilisées sur son territoire. Demeurent hors de son champ :
– les SIA mis sur le marché, mis en service ou utilisés exclusivement à des fins militaires, de défense ou de sécurité nationale ;
– les SIA ou les modèles spécifiquement développés et mis en service à des fins de recherche et de développement scientifique et les sorties qu’ils produisent ;
– les SIA diffusés sous licence libre et open source, à l’exclusion des systèmes relevant de la catégorie des SIA à haut risque ou de celle exigeant des mesures de transparence particulière ([1035]).
Ainsi qu’en attestent les travaux de la mission, les conditions de son application suscitent, en l’état, encore beaucoup d’interrogations parmi les acteurs économiques.
a. Un « IA Act » fondé sur une approche par risques appropriée ?
Outre l’identification de pratiques prohibées, le RIA établit des obligations de conformité et des exigences dont l’existence et l’étendue diffèrent suivant la qualification des systèmes d’intelligence artificielle. Celle-ci dépend de critères fondés sur les effets et les possibles atteintes à des droits et principes d’intérêt public. Le règlement définit ainsi formellement trois catégories de systèmes d’intelligence artificielle (SIA).
● La première catégorie est celle des systèmes à haut risque (article 6 du RIA). Se voient appliquer ce classement les SIA qui remplissent deux conditions :
– être un système IA utilisé en tant que composant de sécurité des produits relevant de la législation d’harmonisation de l’Union en matière de santé et de sécurité (par exemple pour l’aviation, les voitures, les jouets ou les dispositifs médicaux) ou constituant un de ces produits ;
– être un composant de sécurité d’un produit ou un produit soumis à une évaluation de conformité avant mise sur le marché ou mise en service
En outre, le règlement assimile aux SIA à haut risque les systèmes figurant dans son annexe III. Ces derniers peuvent ne pas recevoir cette qualification s’ils remplissent certains critères spécifiques.
L’appartenance à la catégorie des SIA à haut risque impose le respect d’obligations renforcées (prescrites par les articles 8 à 15 du règlement). La conformité des systèmes et de leur usage suppose ainsi :
– de posséder un système de gestion des risques mis en œuvre, documenté et tenu à jour (article 9) ;
– de prendre des mesures afin de contrôler la qualité et les conditions d’obtention des données d'entraînement, de validation et de test, qui garantissent l'adéquation, l'exactitude et la fiabilité des données, ainsi que le contrôle des biais (article 10) ;
– d’établir la documentation technique relative au système d'IA, ainsi qu’un journal des évènements pertinents, afin d’assurer la transparence sur le fonctionnement de ces systèmes (articles 11 et 12) ;
– d’être en mesure d’interpréter les sorties du système et de fournir des informations aux déployeurs par le biais d’une notice d’utilisation (article 13) ;
– d’organiser un contrôle effectif par des personnes physiques humaines, par exemple au moyen d’outils d’interface homme-machine appropriés (article 14) ;
– de garantir que la conception et le développement des systèmes permettent d’atteindre un niveau approprié d’exactitude, de robustesse et de cybersécurité, de manière constante tout au long du cycle de vie (article 15).
Les pratiques prohibées par le règlement sur l’intelligence artificielle
L’article 5 du règlement (UE) 2024/1689 interdit la mise sur le marché, la mise en service ou l’utilisation des systèmes d’IA :
– ayant recours à des techniques subliminales, au-dessous du seuil de conscience d’une personne, ou à des techniques délibérément manipulatrices ou trompeuses (§ 1, a) ;
– visant à l’exploitation des vulnérabilités dues à l’âge, au handicap ou à la situation sociale ou économique spécifique d’une personne physique ou d’un groupe de personnes, avec pour objectif (ou effet) d’altérer substantiellement le comportement de cette personne ou d’un membre de ce groupe d’une manière qui cause (ou est raisonnablement susceptible de causer) un préjudice important à cette personne ou à un tiers (§ 1, b) ;
– destinés à l’évaluation ou la classification de personnes physiques ou de groupes de personnes au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites, si cet usage conduit à un traitement préjudiciable ou défavorable et dans le cadre de deux situations bien précises (§ 1, c) ;
– permettant des opérations de police prédictive, notamment sans intervention humaine (§ 1, d) ;
– destinées à la la création ou au développement de bases de données de reconnaissance faciale par le moissonnage non ciblé d'images faciales provenant de l'internet ou de la vidéosurveillance (§ 1, e) ;
– destinées à la reconnaissance émotionnelle sur le lieu de travail ou dans les établissements d’enseignement (§ 1, f) ;
– destinées à la la catégorisation biométrique individuelle de personnes physiques afin d’arriver à des déductions ou des inférences concernant des caractéristiques sensibles telles que la race, les opinions politiques, l’orientation sexuelle (§ 1, g).
Le règlement n’admet l’utilisation de systèmes d'identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives uniquement sous réserve de circonstances spéciales (telles que la traite ou l'exploitation sexuelle d’êtres humains ou encore les attaques terroristes).
Il exige en outre l’obtention d’une autorisation préalable octroyée par une autorité judiciaire ou une autorité administrative indépendante, ainsi qu’une analyse d’impact sur les droits fondamentaux ([1036]) (article 27) et un enregistrement du SIA dans la base de données de l'Union européenne (article 49).
Source : Travaux de la mission.
● La seconde catégorie de SIA établie par le règlement regroupe les systèmes assujettis à des obligations de transparence particulières pour les fournisseurs et déployeurs ([1037]) (article 50). Selon le cas, le règlement exige des fournisseurs et des déployeurs qu’ils informent les personnes ou les publics concernés qu’ils se trouvent en interaction avec une IA ou que les sorties des systèmes puissent être identifiées (par leur formation ou une mention indiquant que les contenus proviennent de l’IA).
Relèvent de ce régime :
– les systèmes d’IA destinés à interagir directement avec des personnes physiques ;
– les systèmes d’IA, y compris des systèmes d’IA à usage général, qui génèrent des contenus de synthèse de type audio, image, vidéo ou texte ;
– les systèmes de reconnaissance des émotions ou les systèmes de catégorisation biométrique ;
– les systèmes d’IA qui génèrent ou manipulent des images ou des contenus audio ou vidéo constituant un « hyper-trucage » ;
– les systèmes d’IA qui génèrent ou manipulent des textes publiés dans le but d’informer le public sur des questions d’intérêt public.
Le règlement admet certaines exceptions aux obligations de transparence, par exemple pour des usages répondant à des besoins inhérents à la prévention ou à la détection des infractions pénales, à la réalisation d’enquêtes ou de poursuites.
● Les systèmes d’IA à usage général constituent la troisième catégorie de SIA consacrée par le règlement. Aux termes de l’article 3, la qualification s’applique aux systèmes fondés sur un modèle d’IA à usage général ([1038]) et qui possèdent la capacité de répondre à diverses finalités, tant pour une utilisation directe que pour une intégration dans d’autres systèmes d’IA. Le texte couvre les modèles mis sur le marché de différentes manières, notamment au moyen de bibliothèques, d’interfaces de programmation d’applications (API), de téléchargements directs ou de copies physiques.
Au sein de cet ensemble, le RIA distingue les modèles ordinaires des modèles présentant un risque systémique. En vertu de l’article 51 du règlement, peuvent être classés dans cette sous-catégorie les modèles qui disposent de capacités à fort impact évaluées sur la base de critères méthodologiques, déterminées par une décision de la commission ([1039]) ou encore mesurées au regard de la capacité de calcul utilisée pour l’entraînement du modèle ([1040]).
L’article 53 du RIA impose aux fournisseurs des modèles d’IA à usage général :
– d’élaborer et de tenir à jour la documentation technique du modèle, y compris son processus d’entraînement et d’essai et les résultats de son évaluation (à l’exclusion des modèles en open source) ;
– d’élaborer, de tenir à jour et de mettre à disposition des informations et de la documentation à l’intention des fournisseurs de systèmes d’IA qui envisagent d’intégrer un modèle d’IA à usage général dans leurs systèmes d’IA (à l’exclusion des modèles en open source) ([1041]) ;
– de mettre en place une politique visant à se conformer au droit de l’Union européenne en matière de droits d’auteur et de droits voisins, et notamment à identifier et à respecter une réservation de droits ;
– d’élaborer et de mettre à la disposition du public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à usage général, conformément à un modèle fourni par le Bureau de l’IA.
Outre ces prescriptions générales, l’article 55 du règlement soumet les modèles d’IA à usage général présentant un risque systémique à l’obligation :
– d’une évaluation des modèles sur la base de protocoles et d’outils normalisés reflétant l’état de la technique, y compris en réalisant et en documentant des essais contradictoires des modèles en vue d’identifier et d’atténuer les risques systémiques ;
– d’une évaluation et d’une atténuation des risques systémiques éventuels au niveau de l’Union, y compris ceux inhérents à leur origine et aux conditions de développement, de mise sur le marché ou d’utilisation ;
– d’un suivi, d’une documentation et d’une communication sans retard injustifié des informations pertinentes concernant les incidents graves, ainsi que des éventuelles mesures correctives pour y remédier au Bureau de l’IA et, le cas échéant, aux autorités nationales compétentes ;
– d’une garantie d’un niveau approprié de protection en matière de cybersécurité pour le modèle d’IA à usage général présentant un risque systémique et pour l’infrastructure physique du modèle.
Une telle typologie revient à distinguer quatre catégories de systèmes, selon qu’ils présentant un risque inacceptable, un risque élevé, un risque limité ou un risque minimal (voire nul).
Au regard des éléments recueillis par la mission, il s’avère qu’une telle approche normative peut, en l’état, comporter deux écueils.
Le premier écueil tient à la nature évolutive des technologies de l’intelligence artificielle et de leur diffusion dans la sphère marchande. Ainsi qu’il ressort de réflexions convergentes de représentants de plusieurs secteurs économiques, les innovations et progrès de la technologie induisent des changements dans l’organisation des activités et les conditions d’exploitation de la technologie. Dès lors que les chaînes de valeur se structurent ou connaissent des changements, il peut être difficile d’établir un cadre de régulation qui retranscrive les réalités technologiques et économiques.
Le second écueil réside dans l’absence de prévisibilité quant à l’étendue exacte des obligations qui pourraient découler des caractéristiques des systèmes d’intelligence artificielle et de leur usage par les entreprises.
Cette incertitude peut résulter, d’une part, de la possible requalification des rôles entre fournisseurs et déployeurs des SIA, malgré la définition de ces statuts à l’article 3 du règlement ([1042]). La question se pose essentiellement pour les systèmes à haut risque. En l’occurrence, l’article 25 du règlement prévoit trois circonstances dans lesquelles les distributeurs, les importateurs, les déployeurs et les tiers peuvent se voir attribuer le statut de fournisseur en lieu et place du fournisseur initial :
– la commercialisation sous son propre nom ou sa propre marque d’un système d’IA à haut risque déjà mis sur le marché ou mis en service, sans préjudice des dispositions contractuelles prévoyant une autre répartition des obligations ;
– l’apport d’une modification substantielle à un système d’IA à haut risque qui a déjà été mis sur le marché ou a déjà été mis en service de telle manière qu’il reste un système d’IA à haut risque en application de l’article 6 ;
– la modification de la destination d’un système d’IA, y compris un système d’IA à usage général, qui n’a pas été classé à haut risque et a déjà été mis sur le marché ou mis en service de telle manière que le système d’IA concerné devient un système d’IA à haut risque conformément l’article 6.
Comme observé par certains opérateurs auditionnés, cette disposition ne contribue pas à un partage de responsabilité clair entre déployeurs et fournisseurs.
D’autre part, l’imprévisibilité pouvant encore entourer les obligations des entreprises peut provenir du caractère relatif de la délimitation des catégories de systèmes d’intelligence artificielle définies par le règlement.
En particulier, l’étendue de la catégorie des SIA à haut risque comporte une assez large part d’appréciation susceptible de concourir à son élargissement. Outre des caractéristiques objectives, énoncées par le 1 de l’article 6 du règlement, le classement dans cette catégorie procède en effet d’une inscription à l’annexe III du règlement, qui comporte une part d’aléas. Il résulte ainsi du paragraphe 3 de l’article 6 du RIA que même s’il figure dans cette liste, un système peut ne pas être considéré comme à haut risque « lorsqu’il ne présente pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, y compris en n’ayant pas d’incidence significative sur le résultat de la prise de décision ».
Le bénéfice de cette dérogation suppose que le système respecte l’une des conditions suivantes :
– être destiné à accomplir une tâche procédurale étroite ;
– être destiné à améliorer le résultat d’une activité humaine préalablement réalisée ;
– être destiné à détecter les constantes en matière de prise de décision ou les écarts par rapport aux constantes habituelles antérieures et n’être pas destiné à se substituer à l’évaluation humaine préalablement réalisée, ni à influencer celle-ci, sans examen humain approprié ;
– être destiné à exécuter une tâche préparatoire en vue d’une évaluation pertinente aux fins des cas d’utilisation mentionnés à l’annexe III.
En outre, un SIA mentionné à l’annexe III peut ne pas être considéré comme à haut risque si son fournisseur fournit aux autorités nationales compétentes une évaluation en apportant la preuve avant la mise sur le marché ou la mise en service ([1043]).
À un bien moindre degré, le champ des obligations de transparence particulières auxquelles certains systèmes d’IA peuvent être assujettis reste à préciser, au regard de la portée qui pourrait être donnée à des dispositions dérogatoires qui affectent leur application. Il en va ainsi en ce qui concerne :
– les systèmes d’IA qui génèrent des contenus de synthèse de type audio, image, vidéo ou texte : le règlement affranchit les fournisseurs des prescriptions relatives à l’identification des contenus produits par l’intelligence artificielle notamment « dans la mesure où les systèmes d’IA remplissent une fonction d’assistance pour la mise en forme standard ou ne modifient pas de manière substantielle les données d’entrée fournies par le déployeur ou leur sémantique » ;
– les systèmes de reconnaissance des émotions ou de catégorisation biométrique : le règlement admet que les obligations relatives à l’information du public et au traitement des données à caractère personnel ne s’appliquent pas « aux systèmes d’IA utilisés pour la catégorisation biométrique et la reconnaissance des émotions dont la loi autorise l’utilisation à des fins de prévention ou de détection des infractions pénales ou d’enquêtes en la matière, sous réserve de garanties appropriées pour les droits et libertés des tiers et conformément au droit de l’Union » ;
– les systèmes d’IA qui génèrent ou manipulent des images ou des contenus audio ou vidéo constituant un hyper-trucage : la restriction des obligations énoncées par le règlement demeure conditionnée par le caractère manifestement artistique, créatif, satirique, fictif ou analogue du programme, ainsi que par l’absence d’entrave à l’affichage ou à la jouissance de l’œuvre.
b. Un instrument de droit spécifique source de conflits de normes ?
Ainsi que le confirment les travaux de la mission, le développement des usages de l’intelligence artificielle ouvre la perspective de l’émergence d’un nouveau secteur économique, mais aussi celle d’une transformation de l’offre de biens et de services, ainsi que des rapports de production et d’échange au sein de la sphère marchande. Dès lors, la mise en œuvre du règlement (UE) du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle emporte deux nécessités : d’une part, garantir l’articulation des normes susceptibles de régir ces activités ; d’autre part, établir les obligations applicables aux entreprises et aux particuliers. L’enjeu porte ainsi sur la cohérence du droit de l’Union européenne et, selon le cas, du droit national.
En l’état, le règlement sur l’intelligence artificielle se borne à établir des mesures de coordination avec d’autres instruments du droit de l’Union européenne.
D’une part, le règlement affirme que l’existence de dispositions encadrant le recours aux SIA n’écarte ou n’affecte pas l’application d’actes juridiques relevant d’autres branches du droit portant sur des activités dans lesquelles les opérateurs économiques et les individus recourent ou se trouvent exposés à l’intelligence artificielle ([1044]). Il en va ainsi en ce qui concerne :
– la protection des consommateurs et la sécurité des produits ;
– la responsabilité des fournisseurs intermédiaires dans le domaine numérique fixée par le « règlement sur les services numériques » du 19 octobre 2022 ([1045]) (DSA([1046]))°;
– le droit de l’Union en matière de protection des données à caractère personnel, de respect de la vie privée et de confidentialité des communications : il résulte des articles 2, 10 et 59 du règlement que les dispositions du texte n’affranchissent pas les utilisateurs des outils de l’intelligence artificielle de la mise en œuvre du règlement général sur la protection des données personnelles (RGPD ([1047])) et du règlement (UE) 2018/1725 du 23 octobre 2018 relatif au traitement des données à caractère personnel par l’Union européenne ([1048]), ainsi que de la directive « Vie privée et communications électroniques » du 12 juillet 2002 ([1049]) ou encore la directive (UE) 2016/680 du 27 avril 2016 encadrant le traitement des données à caractère personnel à des fins de prévention et de détection des infractions pénales ([1050]) ;
– le traitement des données biométriques : l’article 2 du règlement précise que son application est sans préjudice de l’article 9 du RGPD et de l’article 10 de la directive précitée (UE) 2016/680 du 27 avril 2016
En outre, le règlement prévoit expressément l’application aux SIA à haut risque de textes constitutifs de la législation d’harmonisation de l’Union. Objet de l’annexe 1 du texte, cette liste comprend notamment la directive « Machines » du 17 mai 2006 ([1051]).
D’autre part, le RIA impose à la Commission européenne de tenir compte des exigences affirmées par son dispositif ([1052]) dans la modification ou la précision de textes sectoriels dont les prescriptions peuvent s’appliquer en tout ou partie aux SIA.
L’obligation vaut pour la prise des actes délégués, ainsi que pour les mesures détaillées relatives aux spécifications techniques, normes d’essai et procédures. Suivant les explications fournies par MM. Thierry Boulanger et Gaspard Demur, représentants de la direction générale des réseaux de communication, du contenu et des technologies (DG Connect) de la Commission européenne et chargés du Bureau de l’IA, ce procédé normatif participe de la nouvelle approche réglementaire de la Commission. Celle-ci repose sur trois principes destinés à prévenir une instabilité normative : restreindre l’objet des règlements et des directives à la seule définition des principes et règles essentiels ; privilégier le maintien des textes existants et la consolidation de standards juridiques par des dispositions de renvoi à la législation d’harmonisation ; expliciter les modalités d’exécution dans des actes délégués, des normes techniques portant sur un cas d’usage, ainsi que par des lignes directrices et des guides.
En l’espèce, les prescriptions du règlement ont vocation à être intégrées dans les textes d’application de six règlements et de trois directives de portée sectorielle qui régissent l’offre de biens et de services à l’échelle du marché intérieur.
Mesures de coordination entre le RIA
et des règlementations sectorielles de l’Union européenne
L’obligation, pour la Commission européenne, de prendre en compte les principes et obligations encadrant les usages de l’intelligence artificielle dans la modification de règlements et de directives sectorielles procède des articles 102 à 110 du même texte. Ces articles complètent, selon le cas, le dispositif ou les annexes de ces instruments de droit par une mention expresse. Le RIA vise ainsi expressément :
– le règlement (CE) n° 300/2008 relatif à l’instauration de règles communes dans le domaine de la sûreté de l’aviation civile et abrogeant le règlement (CE) n° 2320/2002 ;
– le règlement (UE) n° 167/2013 du Parlement européen et du Conseil du 5 février 2013 relatif à la réception et à la surveillance du marché des véhicules agricoles et forestiers ;
– le règlement (UE) n° 168/2013 du Parlement européen et du Conseil du 15 janvier 2013 relatif à la réception et à la surveillance du marché des véhicules à deux ou trois roues et des quadricycles ;
– la directive 2014/90/UE du Parlement européen et du Conseil du 23 juillet 2014 relative aux équipements marins et abrogeant la directive 96/98/CE du Conseil ;
– la directive (UE) 2016/797 du Parlement européen et du Conseil du 11 mai 2016 relative à l'interopérabilité du système ferroviaire au sein de l'Union européenne ;
– le règlement (UE) 2018/858 du Parlement européen et du Conseil du 30 mai 2018 relatif à la réception et à la surveillance du marché des véhicules à moteur et de leurs remorques, ainsi que des systèmes, composants et entités techniques distinctes destinés à ces véhicules, modifiant les règlements (CE) n° 715/2007 et (CE) n° 595/2009 et abrogeant la directive 2007/46/CE ;
– le règlement (UE) 2018/1139 du Parlement européen et du Conseil du 4 juillet 2018 concernant des règles communes dans le domaine de l'aviation civile et instituant une Agence de l'Union européenne pour la sécurité aérienne, et modifiant les règlements (CE) n° 2111/2005, (CE) n° 1008/2008, (UE) n° 996/2010, (UE) n° 376/2014 et les directives 2014/30/UE et 2014/53/UE du Parlement européen et du Conseil, et abrogeant les règlements (CE) n° 552/2004 et (CE) n° 216/2008 du Parlement européen et du Conseil ainsi que le règlement (CEE) n° 3922/91 du Conseil ;
– le règlement (UE) 2019/2144 du Parlement européen et du Conseil du 27 novembre 2019 relatif aux prescriptions applicables à la réception par type des véhicules à moteur et de leurs remorques, ainsi que des systèmes, composants et entités techniques distinctes destinés à ces véhicules, en ce qui concerne leur sécurité générale et la protection des occupants des véhicules et des usagers vulnérables de la route ;
– la directive (UE) 2020/1828 du Parlement européen et du Conseil du 25 novembre 2020 relative aux actions représentatives visant à protéger les intérêts collectifs des consommateurs et abrogeant la directive 2009/22/CE (article 110 du RIA).
Source : Travaux de la mission d’information.
À ce stade de l’entrée en vigueur du règlement sur l’intelligence artificielle, les éléments recueillis par la mission ne caractérisent pas de motifs de contrariété ou de concurrence entre les principes et obligations qu’il édicte et les règles découlant d’autres branches du droit de l’Union européenne ou du droit national. Néanmoins, rien ne permet d’exclure une telle éventualité au regard de deux considérations : en premier lieu, le RIA possède une portée équivalente à celle des textes avec lesquels peuvent potentiellement exister des interférences ; en second lieu, les implications des normes régissant les usages de la technologie restent à préciser pour la mise en œuvre de ces instruments juridiques. En outre, de possibles interprétations divergentes des réglementations entre les juridictions comportent le risque d’une incertitude réglementaire et d’une fragmentation accrues par l’absence de hiérarchie des normes.
Aussi, il importe que la Commission européenne et, autant que nécessaire, les États-membres assurent une intégration pertinente du règlement sur l’intelligence artificielle dans le droit existant.
Ainsi que le soulignent l’ensemble des analyses développées devant la mission, il importe de prévenir une surcharge réglementaire susceptible d’alourdir le fonctionnement des entreprises et de dissuader l’innovation. Du point de vue de vos rapporteurs, cet impératif commande de répondre à deux besoins : d’une part, une proportionnalité des obligations pouvant entourer l’usage de l’IA et la prévention du risque de formalités redondantes, notamment sur le plan des procédures déclaratives ; d’autre part, la lisibilité des normes applicables et la prévisibilité des exigences auxquelles doivent se conformer les entreprises, ce qui suppose de prévenir une instabilité des textes.
Recommandation n° 49 : Veiller à la cohérence des obligations découlant des instruments de droit susceptibles de régir le recours à l’IA et procéder à leur adaptation suivant la nouvelle approche réglementaire portée par la Commission européenne.
3. Un besoin de simplification dans l’application
Si elles peuvent concourir à une certaine souplesse du cadre normatif au regard d’une technologie très évolutive, l’approche par risque et la définition des obligations encadrant la fourniture et l’usage des systèmes d’intelligence artificielle se révèlent aujourd’hui sources de complexité et d’incertitudes pour les entreprises. Ainsi qu’il ressort de l’état des lieux convergent établi au cours des travaux de la mission, la bonne appropriation du règlement (UE) 2024/1689 du 13 juin 2024 suppose de répondre à des enjeux pratiques relatifs aux modalités de son application. Compte tenu de l’entrée en vigueur progressive du texte et des avancées rapides de la technologie, trois axes de travail semblent s’imposer.
a. Une nécessaire consolidation du classement et des conditions de conformité des SIA
En premier lieu, l’exigence de prévisibilité et de sécurité juridique emporte la nécessité de préciser et de stabiliser le classement des systèmes d’intelligence artificielle entre les quatre catégories définies par le règlement. Comme précédemment observé, la qualification des modèles et des produits conserve à ce stade un caractère imprécis, du fait de certains éléments de définition retenus par le texte mais aussi de la capacité reconnue à la Commission européenne d’adapter les catégories.
Ce constat vaut tout particulièrement s’agissant des systèmes d’intelligence artificielle à haut risque.
L’article 6 du règlement habilite en effet la Commission à adopter des actes délégués susceptibles de faire évoluer le rattachement à cette catégorie des systèmes inscrits à son annexe III : elle peut ainsi les en retirer par l’ajout ou la modification des conditions figurant au paragraphe 3, « lorsque qu’il existe des preuves concrètes et fiables de l’existence de systèmes d’IA qui relèvent du champ d’application de l’annexe III, mais qui ne présentent pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques » ([1053]) (paragraphe 6). À l’inverse, elle peut supprimer l’une des conditions énoncées par le texte, « lorsqu’il existe des preuves concrètes et fiables attestant que cela est nécessaire pour maintenir le niveau de protection de la santé, de la sécurité et des droits fondamentaux prévu par le présent règlement » ([1054]).
Pour sa part, l’article 7 du règlement confie à la Commission européenne un pouvoir décisionnaire dans la modification du contenu même de la liste des systèmes d’intelligence artificielle relevant de son annexe III. L’ajout ou la modification des cas d’utilisation relevant de cette catégorie suppose que les SIA remplissent deux conditions cumulatives : être destinés à une utilisation dans l’un des domaines énumérés à l’annexe III du règlement ; présenter un risque de préjudice pour la santé et la sécurité, ou un risque d’incidence négative sur les droits fondamentaux, ce risque devant être équivalent ou supérieur au risque de préjudice ou d’incidence négative que présentent les systèmes d’IA à haut risque déjà mentionnés à l’annexe III. Dans l’appréciation de ces conditions, le règlement impose à la Commission de considérer un certain nombre de critères relatifs aux caractéristiques des systèmes ou des produits, ainsi qu’à leurs effets et aux potentiels préjudices ([1055]). La possibilité de supprimer des SIA de la liste figurant à l’annexe III demeure subordonnée au respect de deux conditions : d’une part, l’inexistence ou la disparition de risques substantiels pour les droits fondamentaux, la santé ou la sécurité, compte tenu des critères énumérés au paragraphe 2 ; d’autre part, la non-diminution du niveau global de protection de la santé, de la sécurité et des droits fondamentaux en vertu du droit de l’Union.
La définition des modèles d’IA à usage général présentant un risque systémique apparaît également susceptible d’adaptations. L’article 51 du règlement donne en effet compétence à la Commission européenne pour modifier les seuils qui déterminent le classement dans cette catégorie, ainsi que pour compléter les critères de référence et les indicateurs à la lumière des évolutions technologiques ([1056]). Par ailleurs, l’article 52 du règlement autorise la modification des critères sur le fondement desquels la Commission peut désigner un modèle d’IA à usage général comme présentant un risque systémique, d’office ou à la suite d’une alerte qualifiée du groupe scientifique institué par le texte ([1057]).
À l’évidence, l’efficacité et l’intelligibilité du cadre de régulation des usages de l’IA appellent une clarification par des actes délégués des critères déterminant la qualification des systèmes, ainsi que la formalisation d’une doctrine relative à l’interprétation des conséquences juridiques de leur classement pour les entreprises. Dans une large mesure, ce travail d’explicitation et d’illustration des modalités d’application du règlement commence à peine.
Le 29 juillet 2025, la Commission européenne a publié des lignes directrices portant sur la définition des systèmes d’intelligence artificielle ([1058]). Pour l’essentiel, le document s’applique à décrire ce à quoi renvoient les termes fondant ce concept (tels que « système automatisé », « capacité d’adaptation », « inférences sur la manière de générer des sorties en utilisant des techniques d’IA » ou la nature des différents types d’apprentissage). Il tend aussi à délimiter le champ d’application du RIA en désignant des systèmes qui ne relèvent pas de cette qualification. Les lignes directrices ne proposent pas, en revanche, de liste des systèmes. En outre, elles ne revêtent pas un caractère contraignant, la Commission affirmant d’emblée que « la définition du terme “système d’IA” ne doit pas être appliquée mécaniquement » et que « chaque système doit être évalué sur la base de ses caractéristiques propres ».
Or, les travaux de la mission donnent à penser que, pour une part, les préoccupations et l’attentisme exprimés par les opérateurs économiques tiennent à l’absence d’actes et de prises de position à portée normative.
Les actes délégués prévus par le règlement IA se trouvent encore en phase d’élaboration. Ainsi que le suggèrent les informations communiquées par MM. Thierry Boulanger et Gaspard Demur, représentants de la direction générale des réseaux de communication, du contenu et des technologies (DG Connect) de la Commission européenne et chargés du Bureau de l’IA, l’établissement des textes d’application et des lignes directrices requiert des délais qui pèsent sur les échéances initialement envisagées pour leur publication. Par ailleurs, la Commission européenne a lancé une consultation en marge de la publication du « plan d’action pour un continent de l’IA » : les réponses obtenues attestent d’un besoin de lignes directrices, de normes techniques et de simplification.
Aussi, sans méconnaître la technicité et la charge d’un tel travail, ainsi que les délais inhérents aux nécessaires consultations, vos rapporteurs ne peuvent qu’appeler la Commission européenne à établir et publier dès que possible les actes délégués et lignes directrices qu’implique le classement des systèmes d’intelligence artificielle.
Il s’agit là en effet d’une condition indispensable au plein investissement des entreprises françaises et européennes dans le développement de cette nouvelle technologie. Au-delà, une accélération du processus normatif créerait des conditions favorables à une entrée en vigueur du dispositif conforme aux prévisions formées par le Conseil et le Parlement européen. Il convient ici de rappeler que s’il ne fixe pas d’échéance immédiate pour la prise des actes délégués ([1059]), le règlement prévoit qu’après consultation du Comité européen de l’intelligence artificielle (ou « Comité IA ») et au plus tard le 2 février 2026, la Commission fournit des lignes directrices précisant la mise en œuvre pratique de l’article 6, assorties d’une liste exhaustive d’exemples pratiques de cas d’utilisation de systèmes d’IA qui sont à haut risque et de cas d’utilisation qui ne le sont pas.
Recommandation n° 50 : Établir et publier dès que possible les actes délégués et lignes directrices qu’implique le classement des systèmes d’intelligence artificielle.
Dans une optique de simplification et conformément à la nouvelle approche réglementaire de la Commission européenne, il importe par ailleurs de veiller à la proportionnalité des charges induites par la mise en œuvre du règlement sur l’intelligence artificielle.
Rappelons que d’après l’étude réalisée en vue de l’examen du texte ([1060]), le coût total de mise en conformité des entreprises aux exigences initiales de la proposition de règlement sur les systèmes d’IA pourrait représenter environ 17 % du coût total de l’investissement dans la technologie. L’étude estimait que le respect du dispositif initial pouvait engendrer pour l’économie de l’Union européenne, en l’état de sa diffusion, des dépenses comprises entre 131 M€ et 345 M€ en 2022. L'évaluation de la conformité impliquerait 13 % du coût d’investissement dans les systèmes, alors que la mise en place d’un système de gestion de la qualité pourrait avoir un coût initial moyen allant de 193 000 € à 330 000 € par entreprise ([1061]).
Au regard des ressources inégales des entreprises et de l’investissement que pourrait impliquer l’adaptation de leur processus productif, la mise en conformité pourrait donc représenter un effort relativement important : lle problème se pose quelle que soit la taille des structures, suivant l’analyse de Numéum, mais il pourrait sans doute affecter davantage les très petites, petites et moyennes entreprises, nonobstant les quelques mesures de simplification auxquelles elles pourraient prétendre es qualité.
Éléments de simplification dans
la mise en conformité des petites entreprises dans le RIA
Les mesures de simplification prévues par le règlement sur l’intelligence artificielle au bénéfice des très petites, petites et moyennes entreprises, ainsi que des start-up, consistent en une adaptation des exigences relatives à la fourniture d’informations requises sur les SIA à haut risque et la mise en place d’un système de gestion de qualité pour cette catégorie.
L’article 11 du règlement (deuxième alinéa du paragraphe 1) dispose ainsi que les PME, y compris les jeunes pousses, peuvent fournir des éléments de la documentation technique spécifiée à l’annexe IV d’une manière simplifiée. Elles peuvent s’acquitter de cette obligation au moyen d’un formulaire de documentation technique simplifié établi par la Commission européenne et adapté aux besoins des petites entreprises et des micro-entreprises.
L’article 62 du règlement impose la prise en considération des intérêts et des besoins spécifiques des PME fournisseuses, y compris les jeunes pousses, lors de la fixation des frais liés à l’évaluation de la conformité mentionnée à l’article 43, ces frais étant réduits proportionnellement à leur taille, à la taille de leur marché et à d’autres indicateurs pertinents. En outre, le texte assigne au Bureau de l’IA deux obligations au bénéfice de ces entreprises : fournir des modèles normalisés pour les domaines qui relèvent dudit règlement, comme précisé par le Comité IA dans sa demande ; mettre au point et tenir à jour une plateforme d’information unique fournissant des informations faciles à utiliser en rapport avec ledit règlement pour tous les opérateurs dans l’ensemble de l’Union.
L’article 63 (paragraphe 1) prévoit que les microentreprises au sens de la recommandation 2003/361/CE peuvent se conformer de manière simplifiée à certains éléments du système de gestion de la qualité requis par l’article 17 du règlement, pour autant qu’elles n’aient pas d’entreprises partenaires ou d’entreprises liées au sens de ladite recommandation. Cette faculté pourra s’exercer dans le cadre des lignes directrices qu’il incombe à la Commission d’établir afin de définir les éléments du système de gestion de la qualité qui peuvent être respectés de manière simplifiée en tenant compte des besoins des microentreprises, sous réserve de ne pas affecter le niveau de protection ni la nécessité de se conformer aux exigences relatives aux systèmes d’IA à haut risque.
Aux termes du paragraphe 2 de l’article 63, cette procédure simplifiée ne dispense pas les opérateurs de satisfaire à d’autres exigences ou obligations prévues par le règlement, y compris celles établies aux articles 9, 10, 11, 12, 13, 14, 15, 72 et 73.
Source : travaux de la mission.
En conséquence, la mise en conformité pourrait peser sur la diffusion de la technologie. Ce constat plaide en faveur d’une certaine stabilité normative et, au-delà, pour une proportionnalité des obligations applicables aux entreprises.
Vos rapporteurs estiment donc que tout projet d’actes délégués modifiant le classement des SIA et/ou les conditions de leur usage devrait être assortie préalablement d’une évaluation des implications de la mise en conformité.
Recommandation n° 51 : Évaluer préalablement l’impact sur les charges administratives et financières des entreprises de l’adoption ou de la modification des actes délégués nécessaires à l’application du règlement (UE) 2024/1689 du 13 juin 2024.
b. La préservation d’une certaine souplesse dans la mise en œuvre des exigences du règlement sur l’intelligence artificielle
En deuxième lieu, les travaux de la mission mettent en relief le besoin de laisser aux opérateurs une certaine latitude dans les modalités et le rythme de mise en conformité des systèmes d’intelligence artificielle. De fait, rien n’assure que le cadre normatif permette d’appréhender parfaitement et de suivre le développement des usages compte tenu de la rapidité des changements dans l’état de la technique. En outre, l’exploitation de la technologie et la régulation de ses impacts peuvent toucher à des activités et à l’exercice de droits qui relèvent de plusieurs instruments juridiques. Le caractère mouvant de ces situations invite dès lors à s’interroger sur la manière d’articuler les normes, ainsi que sur la possibilité de ménager un droit à l’expérimentation.
Dans cette optique, l’un des moyens de garantir l’adaptation du cadre juridique aux exigences de l’innovation réside probablement dans le recours à l’instrument des « bacs à sable » réglementaires. Ce concept désigne un dispositif normatif contrôlé qui autorise des entreprises innovantes à tester leurs produits ou services, y compris en conditions réelles, sous la supervision d’un régulateur et avec la possibilité de déroger temporairement au droit applicable à leurs activités. De nature expérimentale, il a deux finalités : en premier lieu, permettre aux entreprises, en particulier aux PME, de conduire des projets dont la conformité au droit applicable ne peut être établie et qui pourraient les placer en situation d’infraction ; en second lieu, évaluer les risques et éprouver la nécessité et les conditions d’une adaptation de la réglementation.
Les modalités du recours aux bacs à sable réglementaires de l’IA procèdent des articles 57 à 60 du règlement sur l’intelligence artificielle.
En vertu de l’article 57 du règlement, les bacs à sable réglementaires de l’IA visent à offrir un environnement contrôlé qui favorise l’innovation et facilite le développement, l’entraînement, la mise à l’essai et la validation de systèmes d’IA innovants pendant une durée limitée, avant leur mise sur le marché ou leur mise en service. Sa mise en place implique l’établissement d’un plan spécifique de bac à sable convenu entre les fournisseurs (ou fournisseurs potentiels) et l’autorité compétente. Les bacs à sable peuvent comprendre des essais en conditions réelles, qui sont supervisés.
L’article 57 du RIA impose aux autorités compétentes de donner aux fournisseurs et aux fournisseurs potentiels participant au bac à sable réglementaire de l’IA des orientations sur les attentes réglementaires et sur la manière de satisfaire aux exigences et obligations énoncées par le règlement. Il prévoit que les autorités fournissent, s’il y a lieu, des orientations, une surveillance et un soutien dans le cadre du dispositif en ce qui concerne l’identification des risques. Dans le champ de ces derniers, la disposition inclut les risques affectant les droits fondamentaux, la santé et la sécurité, les essais, les mesures d’atténuation et leur efficacité par rapport aux obligations et exigences du règlement et, le cas échéant, d’autres dispositions du droit de l’Union et du droit national, dont le respect fait l’objet d’un suivi dans le cadre du bac à sable.
En outre, la mise en place d’un bac à sable réglementaire de l’IA n’affecte pas les pouvoirs dont disposent les autorités compétentes chargées de la surveillance du dispositif pour l’exercice de contrôle ou la prise de mesures correctives. L’article 57 prescrit la prise de mesures d’atténuation appropriées face à tout risque substantiel pour la santé, la sécurité et les droits fondamentaux constaté lors du développement et des tests des systèmes d’IA. Il habilite les autorités nationales compétentes à suspendre temporairement ou définitivement le processus d’essai ou la participation au bac à sable si aucune atténuation efficace n’est possible.
En dernier lieu, l’article 57 du RIA affirme le principe de la responsabilité des fournisseurs et fournisseurs potentiels participant au bac à sable réglementaire de l’IA pour tout préjudice infligé à des tiers en raison de l’expérimentation menée dans le cadre du dispositif, sur les fondements du droit de l’Union européenne et du droit national applicables en matière de responsabilité. Néanmoins, le RIA écarte l’application de l’amende administrative encourue en cas de violation de ses principes et obligations si les intéressés remplissent deux conditions cumulatives : en premier lieu, un respect du plan spécifique du bac à sable, ainsi que des modalités de leur participation ; en second lieu, leur disposition à suivre de bonne foi les orientations fournies par l’autorité nationale compétente. De même, le texte exclut le prononcé d’amendes administratives au titre d’autres dispositions du droit de l’Union et du droit national si les autorités compétentes en ces matières ont participé activement à la surveillance du système IA dans un bac à sable réglementaire et ont fourni des orientations en matière de conformité.
L’article 58 du règlement charge la Commission européenne d’établir les actes d’exécution devant préciser les modalités de mise en place, de développement, de mise en œuvre, d’exploitation et de surveillance des bacs à sable réglementaires de l’IA. En outre, il fixe les garanties que le dispositif doit comporter, telles que :
– l’ouverture à tout fournisseur ou fournisseur potentiel d’un SIA ;
– l’accès gratuit pour les PME, y compris les jeunes pousses ([1062]) ;
– la facilitation de la participation d’autres acteurs pertinents au sein de l’écosystème de l’IA ([1063]) ;
– le caractère simple et facilement compréhensible des procédures, processus et exigences administratives relatives au traitement des demandes, à la sélection, à la participation et à la sortie des bacs à sable réglementaires ;
– la limitation de la participation aux bacs à sable réglementaires de l’IA à une période adaptée à la complexité et à l’envergure des projets (sous réserve d’une prolongation par l’autorité nationale compétente).
En l’absence de publication des actes d’exécution prévus par le règlement sur l’intelligence artificielle, les effets et implications pratiques de la mise en place de bacs à sable réglementaires de l’IA peuvent apparaître, dans une certaine mesure, indéterminés. Toutefois, le dispositif pourrait fournir un instrument de régulation pertinent dès lors qu’en son principe, il offre aux entreprises une certaine liberté et la prévisibilité nécessaire à la conduite de projets innovants sans les affranchir des exigences pouvant découler de la protection de principes et de règles d’intérêt public. Une telle conciliation est déjà mise en oeuvre puisque, à l’instar de l’Autorité de régulation des communications électroniques et des postes (Arcep) ou de la Commission nationale de l’informatique et libertés (Cnil), des régulateurs opérant dans des champs du droit touchant à la donnée et aux services numériques recourent à ce type de dispositif. En ce qui concerne plus précisément l’usage de l’intelligence artificielle, la Cnil a ainsi établi un bac à sable règlementaire destiné aux projets portant sur l’usage de la technologie dans l’amélioration des services publics au premier semestre 2024 ([1064]).
En vertu de l’article 57 du RIA, il incombe aux États membres de veiller à ce que leurs autorités compétentes mettent en place au moins un bac à sable règlementaire de l’IA au niveau national opérationnel au plus tard le 2 août 2026. Le texte prévoit en outre la faculté de créer des bacs à sable réglementaire au niveau régional ou au niveau local ou établis conjointement avec les autorités compétentes d’autres États membres.
Dans cette perspective, vos rapporteurs estiment qu’il conviendrait que les pouvoirs publics examinent au plus vite les mesures nécessaires au développement rapide des bacs à sable réglementaires de l’IA, étant rappelé que la mise en place de certains dispositifs par le pouvoir réglementaire et les régulateurs pourrait exiger un cadre général fixé par voie législative. De leur point de vue, cette forme d’expérimentation présenterait deux intérêts : d’une part, accorder aux porteurs de projet une certaine visibilité propice à l’investissement dans de nouveaux usages de la technologie ; d’autre part, assurer une sécurité juridique dans l’attente d’une formalisation du droit applicable et d’une stabilisation de l’application du règlement sur l’intelligence artificielle, des mesures transitoires étant préférables à des réponses désordonnées.
Recommandation n° 52 : Favoriser la mise en place de bacs à sable réglementaires de l’IA autant que nécessaire dès la pleine entrée en vigueur du règlement (UE) 2024/1689 du 13 juin 2024.
c. L’utilité d’une pédagogie active sur le terrain
Au-delà d’une simplification et d’une intégration du cadre juridique, l’appropriation par les entreprises du règlement sur l’intelligence artificielle suppose, en troisième lieu, une intelligibilité et une accessibilité des normes. Indépendamment de l’inégalité de ressources qui distingue les structures, la relative sophistication de ce nouvel instrument de droit crée deux besoins fondamentaux.
● Le premier besoin réside dans la possibilité, pour les entreprises, de disposer d’un interlocuteur susceptible de délivrer des informations pertinentes quant à l’application du RIA et de concourir à un traitement cohérent des problèmes de mise en conformité. Ainsi qu’en rendent compte les réponses au questionnaire de vos rapporteurs, l’organisation administrative du suivi du règlement et l’éventualité qu’elle puisse associer plusieurs services de l’État peuvent susciter des préoccupations parmi les opérateurs économiques. Ces interrogations mettent en exergue la nécessité d’une coordination par le biais d’un guichet unique pour l’entrée en vigueur et la mise en œuvre du règlement à l’échelle nationale.
Au plan juridique, l’article 70 du RIA assigne aux États membres l’obligation d’établir ou de désigner en tant qu’autorités nationales compétentes au moins une autorité notifiante et au moins une autorité de surveillance du marché. Sous réserve du respect de principes visant à garantir la neutralité et l’efficacité des organismes ([1065]), le règlement laisse aux États la faculté de désigner une ou plusieurs autorités pour exercer ces compétences, « en fonction des besoins organisationnels de l’État membre ». En outre, il incombe à ces derniers de désigner une autorité de surveillance du marché faisant office de point de contact unique pour l’application du RIA. L’identité des autorités et les tâches qui leur sont attribuées doivent être communiquées à la Commission européenne, ainsi que toute modification ultérieure.
L’établissement ou la création de ces autorités participe de la mise en place d’un mécanisme de gouvernance formalisé par le texte et qui repose notamment, au niveau européen, sur le Bureau de l’IA et le comité de l’IA.
La gouvernance du règlement sur l’intelligence artificielle
au niveau européen
Régie par les articles 64 à 69 du texte, la gouvernance du règlement sur l’intelligence artificielle au niveau européen comprend deux instances majeures, en dehors des autorités notifiantes et des autorités de surveillance de marché nationales.
Institué par l’article 64 du règlement, le Bureau de l’IA constitue un service placé auprès de la Commission européenne, chargé d’assurer le développement de l’expertise et des capacités de l’Union dans le domaine de l’IA. Les États membres sont tenus de faciliter l’accomplissement des tâches qui lui sont confiées et telles qu’elles sont définies dans le règlement. Le Bureau de l’IA rassemble aujourd’hui cinq unités (« Excellence dans l'IA et la robotique », « Règlement et conformité », « Sécurité », « Innovation et coordination des politiques » et « AI pour le bien social »). Il comprend en outre un conseiller scientifique principal et un conseiller pour les affaires internationales.
D’autres autorités, organes ou experts nationaux et de l’Union peuvent être invités aux réunions du Comité au cas par cas, lorsque les questions examinées relèvent de leurs compétences. Le Comité IA est présidé par l’un des représentants des États membres. Le Bureau de l’IA assure le secrétariat du Comité IA, convoque les réunions à la demande du président et prépare l’ordre du jour.
Aux termes de l’article 66 du règlement, le « Comité IA » est compétent pour :
– contribuer à la coordination entre les autorités nationales chargées de l’application du règlement et soutenir les activités conjointes des autorités de surveillance du marché mentionnées à l’article 74, paragraphe 11 ;
– recueillir l’expertise technique et réglementaire, ainsi que les bonnes pratiques et les partager entre les États membres ;
– fournir des conseils sur la mise en œuvre du règlement, en particulier en ce qui concerne le contrôle de l’application des règles relatives aux modèles d’IA à usage général ;
– contribuer à l’harmonisation des pratiques administratives dans les États membres, y compris en ce qui concerne la dérogation à la procédure d’évaluation de la conformité mentionnée à l’article 46, le fonctionnement des bacs à sable réglementaires de l’IA et les essais en conditions réelles mentionnés aux articles 57, 59 et 60 du règlement ;
– émettre des recommandations et des avis écrits sur toute question pertinente liée à la mise en œuvre du règlement et à son application cohérente et efficace ;
– faciliter l’élaboration de critères communs et d’une interprétation commune, entre les opérateurs du marché et les autorités compétentes, des concepts pertinents prévus par le règlement, y compris en contribuant au développement de critères de référence ;
– coopérer, lorsqu’il y a lieu, avec d’autres institutions, organes et organismes de l’Union, ainsi que des groupes d’experts et réseaux compétents de l’Union, en particulier dans les domaines de la sécurité des produits, de la cybersécurité, de la concurrence, des services numériques et des services de médias, des services financiers, de la protection des consommateurs, de la protection des données et des droits fondamentaux;
– fournir des avis à la Commission sur les alertes qualifiées concernant les modèles d’IA à usage général.
En outre, les mécanismes de gouvernance du règlement comprennent au niveau européen :
– le forum consultatif (article 67), chargé de fournir une expertise technique et de conseiller le Comité IA et la Commission, ainsi que de contribuer à l’accomplissement des tâches qui leur incombent en vertu du règlement IA. Il se compose de membres nommés par la Commission européenne parmi les parties prenantes possédant une expertise reconnue dans le domaine de l’IA : le règlement pose le principe d’un nécessaire équilibre dans la représentation des parties prenantes, entre industrie, jeunes pousses, PME, société civile et monde universitaire, ainsi que sur le plan de la représentation des intérêts commerciaux et non commerciaux. La durée du mandat des membres du forum consultatif est de deux ans et peut être prolongée au maximum de quatre ans. Par ailleurs, des représentants de l’Agence des droits fondamentaux, l’Agence de l'Union européenne pour la cybersécurité (ENISA), le Comité européen de normalisation (CEN), le Comité européen de normalisation électrotechnique (CENELEC) et l’Institut européen de normalisation des télécommunications (ETSI) sont membres permanents du forum consultatif.
– le groupe scientifique d’experts indépendants (« groupe scientifique »), destiné à soutenir les activités de contrôle de l’application du règlement (article 68 du règlement). Il est formé par des experts sélectionnés par la Commission européenne qui en détermine le nombre. Le règlement subordonne leur nomination au respect de critères relatifs à l’expertise et à des exigences d’indépendance, de diligence, de précision et d’objectivité. Le texte confie au groupe scientifique la mission de conseiller et de soutenir le Bureau IA dans la mise en œuvre et le contrôle de l’application du règlement en ce qui concerne les modèles et systèmes d’IA à usage général, ainsi que dans sa participation à la mise en œuvre de la procédure de sauvegarde de l’Union. Il lui incombe par ailleurs de soutenir les autorités de surveillance du marché dans leur travail (à leur demande) et les activités transfrontières de surveillance du marché mentionnées à l’article 74, paragraphe 11 (sans préjudice des pouvoirs des autorités nationales de surveillance du marché).
Source : Travaux de la mission.
En vertu de l’article 70 du règlement, les États membres devaient rendre publiques des informations sur la manière dont les autorités compétentes et les points de contact uniques peuvent être contactés, par voie électronique, au plus tard le 2 août 2025.
Au regard de leurs missions, ainsi que de l’expertise de leurs personnels, la France a désigné plusieurs autorités administratives indépendantes et services ministériels en tant qu’autorités de contrôle de l’application du règlement sur l’intelligence artificielle auprès de la Commission européenne. Ainsi que le soulignaient l’état des lieux dressé par plusieurs opérateurs économiques jusqu’à juin 2025, l’absence de certitude concernant les autorités compétentes pouvait constituer une source d’incertitudes préjudiciables à l’entrée en vigueur du RIA.
En application des décisions prises par le Gouvernement, possèdent désormais le statut d’autorités compétentes et de points de contact unique pour l’application du règlement dans la sphère marchande ([1066]) :
– la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), à raison de ses compétences en matière de protection du consommateur et des pouvoirs de police administrative qu’elle détient afin d’assurer la salubrité et la sécurité des produits, ainsi que la préservation de la concurrence ;
– la Commission nationale de l’informatique et des libertés (Cnil), en considération de ses prérogatives dans la régulation du traitement des données à caractère personnel, sur le fondement de la loi « Informatique et libertés » ([1067]) et du règlement général sur la protection des données (RGPD) ([1068]) ;
– l’Autorité de régulation de la communication audiovisuelle et numérique (conjointement avec la Digccrf), chargée du respect de l’interdiction de la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA qui ont recours à des techniques subliminales, délibérément manipulatrices ou trompeuses ([1069]) ;
– l’Autorité de contrôle prudentiel et de résolution (ACPR), responsable des systèmes d’IA destinés à être utilisés pour évaluer la solvabilité des personnes physiques, établir leur note de crédit et évaluer les risques et la tarification en matière d’assurance-vie et d’assurance maladie lorsque l’opérateur de ces systèmes d’IA relève de la compétence de l’Autorité ([1070]) ;
– le Conseil d’État, la Cour de Cassation et la Cour des comptes des systèmes d’IA mis en service ou utilisés par les autorités judiciaires à des fins d’administration de la justice ([1071]) ;
Vos rapporteurs n’entendent pas se prononcer ici sur l’opportunité d’un telle organisation, le règlement sur l’intelligence artificielle admettant la possibilité d’un partage des tâches entre des autorités différentes à raison des attributions fixées par les États membres. Ils invitent toutefois le Gouvernement à assurer au plus vite la cohérence de l’application du règlement sur l’intelligence artificielle afin d’assurer une visibilité aux opérateurs économiques quant aux implications du règlement pour leurs activités.
Recommandation n° 53 : Procéder dans les meilleurs délais à la désignation d’une ou de plusieurs autorités nationales constituant le point de contact unique prévu par l’article 70 du règlement (UE) 2024/1689 du 13 juin 2024.
● Le second besoin identifié porte sur l’accompagnement des entreprises par le biais de relais locaux.
L’accès aux informations pertinentes aux plans juridique et technique ne va pas de soi pour toutes les entreprises, suivant leur taille et leur proximité avec les innovations technologiques. Le risque d’une « fracture numérique » menace essentiellement les TPE-PME, même si les éléments recueillis par la mission rendent compte d’initiatives prises par des organisations représentatives telles que la Confédération des petites et moyennes entreprises (CPME) ou l’Union des entreprises de proximité (U2P) afin de sensibiliser et former les chefs d’entreprise. Au regard des appréhensions qui peuvent entourer un investissement dans les usages de l’intelligence artificielle et de la relative technicité du règlement (UE) 2024/1689 du 13 juin 2024, il importe de généraliser et de renforcer les dispositifs susceptibles de contribuer à l’intelligibilité et à l’accessibilité des instruments de droit. Il existe aujourd’hui un certain nombre de structures pouvant répondre à ces finalités.
Il en va ainsi du réseau européen des entreprises ([1072]). Lancé en février 2008 et pérennisé à compter de janvier 2012, le réseau se présente comme un dispositif de coopération co-financé par la Commission européenne dans le cadre de la mise en œuvre d’Horizon Europe, programme européen pour la recherche et l’innovation. Il rassemble plus de six cents organisations (des chambres de commerce et d'industrie, des organisations régionales de développement, des universités et instituts de recherche, des agences d’innovation) implantées dans plus de 66 États d’Europe et au-delà. Les missions dévolues au réseau consistent à informer, à conseiller et à assister les entreprises dans toutes les phases de leur développement afin qu’elles puissent bénéficier au mieux des avantages du marché unique européen – avec une attention particulière à l’égard des PME. Les services pouvant être fournis portent ainsi sur :
– l’accompagnement dans le positionnement sur le marché européen ;
– le soutien au management de l’innovation ;
– l’aide à l’accès aux financements de l’Union européenne (Horizon Europe, EIC ([1073]), LIFE, Fond européen de défense, Europe Creative, etc.) ;
– le conseil en réglementation européenne (marquage CE, détachement de travailleurs, réglementation environnementale, TVA intracommunautaire, etc.).
À ce dispositif s’ajoute aujourd’hui l’initiative European vision for AI de la Commission européenne.
D’après la présentation réalisée par M. Gaspard Demur, chef d’unité adjoint, Unité A4 « Innovation et coordination des politiques en matière d'IA », il s’agit d’un réseau destiné à rassembler des organisations travaillant sur la digitalisation technologique et traitant des enjeux du développement des usages de l’intelligence artificielle. Il compte aujourd’hui quinze structures en France (comprenant des chambres de commerce et d’industrie, des pôles de compétitivité ou des universités) et tend à couvrir l’ensemble de la France continentale. En dehors de l’information apportée aux entreprises, le réseau a vocation à servir de relais en transmettant au Bureau de l’IA les questions générales et parfois spécifiques à propos du droit applicable à la technologie. Ces demandes devraient nourrir une foire aux questions et les supports d’information mis en ligne à l’intention des opérateurs et du public.
Ainsi que le suggèrent les éléments recueillis par la mission, European Vision for AI se trouve aujourd’hui dans une phase de structuration. Dans son principe, le dispositif présente l’intérêt de contribuer à la structuration d’un écosystème et d’institutionnaliser un canal intégré d’information et de communication au sein de la gouvernance du règlement sur l’intelligence artificielle. En associant les chambres de commerce et d’industrie et les pôles de compétitivité, il parait de nature à répondre aux besoins spécifiques des entreprises. Aussi, vos rapporteurs estiment qu’il conviendrait de parfaire le déploiement du réseau à l’échelle du territoire national, sans exclure la possibilité de s’appuyer aussi sur le réseau européen des entreprises suivant les réalités locales. Cette démarche ne dispense pas d’une évaluation à terme, car la multiplication des dispositifs comporte les risques d’un manque de lisibilité et d’une redondance par rapport à des instruments antérieurement développés dans le champ de la politique de soutien à l’innovation et à la recherche en Europe ([1074]).
Recommandation n° 54 : Développer le réseau de l’initiative European Vision for AI et s’appuyer autant que nécessaire sur le réseau européen des entreprises afin d’assurer l’information des entreprises à propos de l’application du règlement (UE) 2024/1689 du 13 juin 2024. Y associer les chambres consulaires.
Dans une optique de rationalisation et de simplification des conditions d’application du droit, il apparaît également utile de développer des interactions entre les écosystèmes locaux et la gouvernance du règlement sur l’intelligence artificielle au niveau européen. Aussi, vos rapporteurs soutiennent la mise en place du service d’assistance réglementaire aux entreprises annoncé par la Commission européenne en avril 2025.
D’après le projet décrit par M. Thierry Boulanger, chef d’unité adjoint - CNECT A.2 « règlement et Conformité en matière d’intelligence artificielle » de la DG Connect ([1075]), cette structure relèverait du Bureau de l’IA. Elle apporterait des informations aux entreprises et des réponses aux questions relatives à la mise en conformité par le biais d’une plateforme d’échanges en ligne. L’architecture de cet outil permettrait un renvoi vers des sites d’information nationaux. Le service constituerait ainsi un point de contact central et de plateforme d'information et d'orientation pour le règlement. La DG Connect travaille actuellement à la constitution des équipes, ainsi qu’à l’outillage du service. Celui-ci deviendrait opérationnel à échéance de septembre ou d’octobre 2025.
Vos rapporteurs ne peuvent qu’encourager les services de la Commission européenne à mettre dès que possible cet outil à la disposition des entreprises, en particulier les TPE-PME, afin de leur permettre de se positionner au mieux au cours des différentes étapes de l’entrée en vigueur du règlement sur l’intelligence artificielle.
Recommandation n° 55 : Rendre opérationnel dès que possible un service d’assistance réglementaire aux entreprises au sein du Bureau de l’IA afin d’accompagner les entreprises, en particulier les TPE/PME, dans la mise en œuvre du règlement (UE) 2024/1689 du 13 juin 2024.
B. inscrire le dÉveloppement de l’ia Dans la consolidation d’une Économie de la donnÉe
L’essor des systèmes d’intelligence artificielle participe d’un approfondissement de concept et de procédés qui portent depuis la fin du XXème siècle la numérisation de l’économie. Dans cette transformation numérique, la détention et l’usage de la donnée, entendue comme « toute représentation numérique d'actes, de faits ou d'informations et toute compilation de ces actes, faits ou informations, notamment sous la forme d'enregistrements sonores, visuels ou audiovisuels » ([1076]), revêtent une importance capitale car elles nourrissent la dynamique de l’innovation et peuvent être source d’activités économiques. Elles soulèvent également des questions du point de vue des droits fondamentaux, au regard de l’importance des données à caractère personnel, et par conséquent de régulation.
Ainsi que le montrent les travaux de la mission, il en résulte la nécessité de définir des modèles d’affaires et des usages appropriés aux exigences de la technique, d’un droit spécifique dont l’application constitue un attribut de notre souveraineté.
1. Un développement des usages exigeant une meilleure exploitation des données et d’une attention renouvelée aux enjeux de protection
a. Une technologie fondée sur des concepts et des procédés consommateurs et tributaire de données par essence
L’importance du volume des données nécessaires au développement des usages de l’intelligence artificielle découle très directement des ressorts de l’innovation et des caractéristiques techniques des systèmes.
D’une part, nonobstant les apports décisifs de la recherche fondamentale et de la recherche et développement, l’émergence et le perfectionnement des cas d’usage, la diffusion de la technologie obéissent fondamentalement à la dynamique de transformation numérique.
Ainsi qu’il ressort des travaux du Docteur Bertrand Cassar, co-directeur du diplôme universitaire « Data/IA. – droit du numérique de l’université Paris I ([1077]), celle-ci constitue en soi un phénomène auto-entretenu. D’après son analyse, l’automatisation, la dématérialisation et l’interopérabilité créent en effet les conditions de l’émergence de nouvelles données, d’outils plus efficients et un renforcement de la confiance des utilisateurs. À mesure que la technologie imprègne la vie quotidienne, les usages qu’elles suscitent peuvent engendrer à leur tour une masse de données exponentielle : « Chacune de ces informations, seules, ne possède pas de réelle valeur. Toutefois, la multitude de ces données apporte de nouvelles opportunités, à l'instar d'analyses statistiques (parfois qualifiées de prédictives) ou de créations de nouvelles informations. L’exploitation, la réutilisation ou le croisement des données massives (Big Data) favorise l'élaboration de nouveaux jeux de données, soit en développant des services numériques soit en enrichissant un système déjà existant avec des fonctionnalités originales ».
D’autre part et comme précédemment observé, le volume des données est consubstantiel au fonctionnement et à l’efficacité des systèmes d’IA au plan technique.
Suivant la remarque du docteur Bertrand Cassar à propos de la transformation numérique ([1078]), l’application de l’intelligence artificielle suppose, dans son principe, de convertir un ensemble d’information analogue en des éléments accessibles et compréhensibles par des machines, des logiciels et des composants. Les données jouent ainsi un rôle crucial dans l’économie des systèmes : de manière concrète, elles conditionnent la capacité d’un programme informatique ou d’un algorithme à discerner des images, des sons ou des comportements par référence aux connaissances et contenus enregistrés ; elles fondent sa capacité d’apprentissage et son degré d’autonomie. La variété et l’exactitude des données concourent à la pertinence et à la véracité des résultats produits en réduisant le risque d’« hallucination ».
D’où l’importance décisive des capacités de calcul sur lesquelles peuvent s’appuyer les concepteurs et utilisateurs de systèmes IA. L’entraînement et l’utilisation des modèles impliquent des opérations mathématiques fondées sur les probabilités et les statistiques qui, en l’état de la technique, se font principalement sur les processeurs graphiques GPU ([1079]) . Ces derniers permettent des calculs en parallèle, ce qui accroît la rapidité et le volume des opérations traitées.
Les besoins varient naturellement suivant la sophistication et les usages des modèles d’IA déployés. Ainsi que l’illustre l’exemple de Bloom, les modèles de langage peuvent nécessiter un volume de données considérable et mobiliser des puissances de calcul à la seule portée des Gafam ou d’opérateurs publics disposant de supercalculateurs. Les progrès très rapides de l’intelligence artificielle générative et le passage du concept à la preuve des modèles agentiques tendent aujourd’hui à accroître les besoins, l’agentification ouvrant en particulier la perspective d’exploiter des champs de données de moins en moins structurés.
Les capacités de calcul nécessaires à l’apprentissage des modèles de langage : l’exemple de Bloom
Bloom désigne le projet développé sous la coordination de la start-up Hugging Face dans le cadre du projet BigScience et qui vise à concevoir et entraîner, par une démarche scientifique ouverte et participative, le plus grand modèle de langue multilingue et open source au monde.
L’apprentissage consiste, pour le modèle, à prendre un texte ou une phrase et à n’en garder que le premier mot, puis de tenter de deviner les suivants. Bloom affine ses probabilités et ses statistiques jusqu’à atteindre le niveau attendu. Cet apprentissage exige toutefois la répétition de l’exercice sur l’équivalent de plusieurs millions de livres. Il implique un si grand nombre d’essais que seuls des supercalculateurs peuvent y parvenir en un temps raisonnable.
Le supercalculateur Jean-Zay aura ainsi entraîné Bloom pendant quatre mois, lui consacrant un quart de sa puissance totale grâce à quatre cents processeurs graphiques de pointe travaillant en parallèle.
Pendant son apprentissage, Bloom a acquis la capacité de gérer 176 milliards de paramètres sur des textes. Le modèle a travaillé en quarante-six langues à la fois, réparties sur des sources aussi variées que de la littérature ou des dépêches sportives.
Source : CNRS ([1080]).
Suivant l’importance des capacités de calcul requises et leur coût, les entreprises disposent de trois possibilités afin de répondre à leurs besoins :
– acheter directement des capacités de calcul ;
– louer des capacités de calcul (par le recours à des dispositifs de cloud computing ou éventuellement par la location d’infrastructures spécifiques conçues à cet effet) ;
– le cas échéant, solliciter des infrastructures publiques de calcul telles que le supercalculateur Jean Zay : d’après les informations rendues publiques par le Gouvernement ([1081]), le supercalculateur Jean Zay a ainsi soutenu près de 1 400 projets en IA, dont le projet BigScience coordonné par HuggingFace et qui sert de cadre à l’apprentissage de Bloom ; une partie de la puissance cumulée de Jean-Zay, laquelle atteint 125,9 pétaflops depuis 2025, sert au développement de projets portant sur l’intelligence artificielle.
b. Des conditions de valorisation qui supposent le renforcement d’une culture de gestion des données à l’échelle du tissu productif
Dans la sphère marchande, l’accès à des données nombreuses et de qualité et leur mobilisation revêtent un caractère décisif à deux titres. D’une part, ils conditionnent la capacité des entreprises à tirer un avantage économique et concurrentiel par la conception et l’offre de nouveaux produits et de nouveaux services. Compte tenu de leur importance pour les fonctionnalités et l’efficacité des modèles, le volume et la qualité des données déterminent ainsi l’utilité et la valeur des modèles. D’autre part, il apparaît que la gestion des données et la propension à les traiter comme des actifs immatériels peuvent influer sur l’application des procédés de la technologie au fonctionnement et aux activités d’entreprises utilisatrices.
Sur ce plan, le développement des usages de la technologie emporte trois exigences pour les organisations :
– en premier lieu, la connaissance des données présentant une utilité et/ou une importance stratégique ou une sensibilité dans leur fonctionnement ou dans leur activité ;
– en second lieu, une capacité à collecter et consolider les données de leurs activités, ce qui pose la question des modalités de recueil, de stockage et de standardisation de leur format ;
– en dernier lieu, une capacité à exploiter et protéger les données, ce qui implique l’établissement d’une véritable gouvernance et d’une stratégie qui conduisent à définir, dans une planification à moyen ou long terme, la technologie, les processus, les personnes et les règles nécessaires à la gestion des actifs informationnels de l’organisation.
Dans cette perspective, l’importance croissante attachée à la gestion et à la protection des données que reflètent plusieurs enquêtes d’opinion représente un progrès indéniable. D’après l’enquête menée en 2024 par Datasulting et ses partenaires ([1082]), 32 % des entreprises interrogées avaient engagé une approche structurée comportant la mise en place d’outils de gestion de leurs données et une infrastructure ; 36 % avaient lancé des actions ciblées (telles qu’un début de recrutement) mais ne conduisant pas une centralisation des données ou à l’affermissement d’une gouvernance élaborée ; 27 % exprimaient une conscience du potentiel pouvant être procuré par les données et commençaient à s’interroger et à tester. Seules 3 % des entreprises n’avaient accompli aucune démarche et n’avaient pas de projets à court terme.
i. Une maturité inégale de la gestion des données au sein des entreprises
Ainsi que les travaux de la mission en fournissent l’indice, l’intérêt et les préoccupations que manifestent les entreprises quant à la valorisation de leurs données n’induisent pas nécessairement une évolution des pratiques en rapport avec les nécessités du développement de l’intelligence artificielle. Manifestement, il existe de grandes disparités entre secteurs d’activité et en leur sein du point de vue de la capacité des organisations à pleinement appréhender les enjeux de la gestion des données et à se doter des moyens nécessaires à leur valorisation.
● Les groupes et les grandes entreprises tendent à se démarquer par l’élaboration d’une véritable politique en la matière. À des degrés divers et suivant des modalités qui peuvent leur être propres, leur action se matérialise par la conception d’une stratégie en bonne et due forme, ainsi que par la conception de cadres et d’outils visant à identifier, collecter, consolider et protéger des données permettant la création de valeur ou présentant un intérêt stratégique ou une sensibilité particulière (telle que celle inhérente à la protection du secret des affaires ou aux exigences de conformité à l’égard du RGPD). Y participent notamment la mise en place de « chartes de la data » (qui désormais traitent également des enjeux de l’intelligence artificielle) et de comités ad hoc.
● Par contraste, les TPE-PME semblent nettement moins en mesure d’organiser l’exploitation de leurs données à des fins de création de valeur.
Ainsi qu’il ressort des analyses convergentes de la Confédération des petites et moyennes entreprises (CPME) et de l’Union des entreprises de proximité (U2P), la taille et la structure des organisations peuvent jouer un rôle clé. D’après les réponses de la CPME au questionnaire de vos rapporteurs, la consolidation et l’exploitation des données constituent un défi central : les entreprises peinent à structurer et centraliser leurs données ; du reste, elles s’inquiètent des risques liés à leur sécurité et à leur confidentialité, en particulier lorsqu’elles utilisent des solutions non souveraines. En outre, même si elle a permis une prise de conscience essentielle en matière de cybersécurité et de gestion des données, l’application du règlement général sur la protection des données (RGPD) recèle des complexités et ne paraît pas exempte de lourdeurs administratives et de coûts pour les TPE-PME.
Les constats dressés par les organisations représentatives à propos de des obstacles perçus et des appréhensions apparaissent corroborés par plusieurs enquêtes d’opinion. D’après les derniers travaux de Datasulting et de ses partenaires ([1083]), si 88 % des PME-ETI considèrent que l’exploitation de leurs données peut améliorer la performance de leur activité, seules 22 % s’estiment en capacité de les exploiter correctement. Parmi les principaux freins identifiés à cette exploitation, 43 % des sondées évoquent la qualité des données (contre 31 % en 2022) tandis que 41 % d’entre elles évoquent un manque de temps. Le manque de financement et de budget constitue un motif pour 31 % des organisations interrogées.
ii. Des progrès relatifs rendant indispensables des initiatives et des dispositifs en faveur d’une acculturation à la gestion des données
Au regard du rôle essentiel des données dans le développement des usages de l’intelligence artificielle, il importe de favoriser la diffusion de compétences et de standards de nature à favoriser une gestion optimale des données par les entreprises.
Il ne s’agit pas ici de minorer la portée des changements pouvant être observés dans le fonctionnement des entreprises et dont rendent compte plusieurs études. D’après l’enquête précitée menée par Datasulting et ses partenaires dans le cadre de l’observatoire de la maturité data des entreprises ([1084]), l’exploitation des données serait présenté comme un sujet stratégique dans 61 % des PME-ETI. 29 % des sondées déclaraient disposer d’outils de reporting (contre 22 % en 2022) ; 27 % faisaient état de la mise en place d’un entrepôt de données. Sur le plan de la gouvernance, la même étude donne à penser que les PME-ETI portent une plus grande attention à la sécurité des données et s’efforcent de combler des lacunes initiales.
Néanmoins, on notera qu’en 2024, seuls 29 % de ces entreprises indiquaient avoir totalement sécurisé leurs données – chiffre en faible évolution –, 14 % n’ayant engagé aucune démarche à cette fin. Par ailleurs, l’enquête met en lumière l’absence de progrès notables dans l’application du RGPD : seuls 44 % des PME-ETI interrogées estiment se trouver en conformité avec les exigences du règlement ; 33 % auraient entamé les démarches nécessaires ; 19 % auraient été sensibilisées ; 4 % ne connaissent pas leurs obligations.
À l’évidence, de tels constats portent à conclure à la nécessité de mesures visant à conforter l’appropriation par les entreprises des enjeux relatifs à la valorisation des données, notamment aux fins de développement des usages de l’intelligence artificielle.
● Dans cette optique, vos rapporteurs prônent, d’une part, la poursuite des efforts de sensibilisation des entreprises aux exigences d’une gestion rationalisée des données.
Cette démarche pourrait parfaitement s’appuyer sur les initiatives que des organisations professionnelles représentatives développent depuis plusieurs années.
S’ils ne permettent pas de porter un jugement quant à leur efficacité et à l’ampleur de leur diffusion, les exemples fournis à la mission attestent d’un certain investissement de ces acteurs par le biais d’actions de formation ou de la publication de supports d’information. Ainsi, le mouvement des entreprises de France (Medef) a établi, voici quelques années, un guide visant à apporter aux entreprises des éléments de réflexion à propos des enjeux et modalités de déploiement d’une stratégie data ([1085]). Bien qu’ils ne portent pas nécessairement sur la seule gestion des données, il convient également de signaler les webinaires, les ateliers pratiques et les évènements consacrés aux usages de l’intelligence artificielle et organisés par les réseaux professionnels – à l’instar de ceux de la CPME, du Medef voire de certains syndicats de salariés.
Au-delà, les structures d’échange d’information entre pairs tels que le réseau européen des entreprises ou l’initiative European vision for AI de la Commission européenne ont également un rôle à jouer dans la sensibilisation des entreprises aux enjeux portant sur la gestion des données et le partage de ces données.
Recommandation n° 56 : Renforcer l’acquisition par les entreprises d’une culture relative à la consolidation, la valorisation et la protection de leurs données, notamment en encourageant la poursuite et l’approfondissement des initiatives et actions de sensibilisation menées les organisations représentatives et les réseaux professionnels.
● D’autre part, l’organisation d’une gestion des données créatrice de valeur pour les entreprises appelle ute une professionnalisation des fonctions intervenant dans leur traitement. Ainsi qu’il ressort d’observations convergentes sur la vie des entreprises ([1086]), même si un nombre significatif d’acteurs peuvent être partie prenante dans la production et l’usage des données, la gouvernance tend nécessairement à se structurer autour d’un cercle restreint de spécialistes à même d’en garantir la rationalité et l’efficacité.
Plusieurs études montrent que de manière croissante, les entreprises s’efforcent de disposer des compétences en rapport avec ces besoins. Le constat vaut en particulier pour les PME-ETI. Selon les résultats de l’enquête précitée de l’observatoire de la maturité data des entreprises ([1087]), 53 % des entreprises interrogées auraient internalisé les compétences en matière de gestion des données en 2024 (contre 44 % en 2022), tandis que 44 % d’entre elles auraient choisi de se faire accompagner par un prestataire externe. En outre, 41 % cherchaient à recruter des profils en rapport avec ces besoins (contre 27 % en 2022).
Les métiers intervenant dans la gouvernance et la gestion des données
Suivant les besoins de l’organisation, la stratégie arrêtée et l’ampleur des projets, les entreprises peuvent recruter ou s’assurer des services :
– d’un directeur des données (ou Chief Data Officer), dont la fonction consiste à superviser le programme de gouvernance des données et à en assumer la responsabilité ;
– de responsables d’un domaine de données (ou data owners), chargés de la gestion et de l’état d’un type de données en tant qu’actif ;
– d’animateurs du processus « Données » sur un domaine (ou data stewards), dont le métier est d’assurer au quotidien le respect des normes, cadres et qualité par les différents intervenants au sein de l’entreprise ;
– d’administrateurs système (ou data custodians), garants techniques de la sécurité, de l’intégrité et de l’accessibilité des informations du système de l’entreprise et, à ce titre, maîtres d’œuvre des opérations d’intégration, de maintenance et de mise à jour des données dans le respect des règles de gouvernance.
D’après les résulats de l’Observatoire de la maturité data des entreprises ([1088]), le recrutement de data analysts connait la plus forte progression au sein des PME-ETI (36 % des recrutements en 2024 contre 19 % en 2022). Les recrutements d’ingénieurs data augmentent assez sensiblement (passant de 15 % à 20 %) tandis que la part des data scientists, quelque peu en retrait, demeure (de 10 % à 13 %).
Source : Travaux de la mission.
Au regard de l’exigence des données abondantes et surtout de qualité pour le développement des usages de l’intelligence artificielle, il importe de conforter la place des métiers responsables de la gouvernance et du traitement des données.
Un premier moyen d’accompagner le mouvement engagé avec plus ou moins de force par les entreprises réside dans le développement de l’offre de formation initiale et continue en rapport avec la gestion des données.
Dans ses réponses au questionnaire de vos rapporteurs, l’Association française des juristes d’entreprises (AFJE) signale qu’à l’instar de l’Edhec, des écoles proposent des parcours diplômants. Il en va ainsi de la formation « Digital Ethics Officer » qui aborde le management des enjeux éthiques et juridiques de l’IA, ainsi que des données. Toutefois, ces établissements font figure de précurseurs. Aussi les rapporteurs encouragent les pouvoirs publics à prendre toutes les dispositions nécessaires à l’accroissement du nombre et de la capacité d’accueil des formations afin de répondre à l’évolution des besoins des entreprises en matière de gestion des données.
Un second moyen d’assurer la qualité des données et de leur gestion pourrait consister à étendre l’office des délégués à la protection des données (DPO) désignés au sein des entreprises.
Obligation instituée par le RGPD, la désignation d’un DPO vise à accompagner et à conseiller les organisations dans le déploiement d'une gouvernance adaptée en matière de protection des données à caractère personnel. Le paragraphe 2 de l’article 39 du RGPD dispose ainsi que le délégué à la protection des données « tient dûment compte, dans l'accomplissement de ses missions, du risque associé aux opérations de traitement compte tenu de la nature, de la portée, du contexte et des finalités du traitement ».
Les missions des délégués à la protection des données en application du RGPD
Aux termes du paragraphe 1 de l’article 39 du RGPD, les missions des délégués à la protection des données consistent a minima à :
a) informer et conseiller le responsable du traitement (ou le sous-traitant) ainsi que les employés qui procèdent au traitement sur les obligations qui leur incombent en vertu du règlement et d'autres dispositions du droit de l'Union ou du droit des États membres en matière de protection des données ;
b) contrôler le respect du règlement, d'autres dispositions du droit de l'Union ou du droit des États membres en matière de protection des données et des règles internes du responsable du traitement ou du sous-traitant en matière de protection des données à caractère personnel, y compris, en ce qui concerne la répartition des responsabilités, la sensibilisation et la formation du personnel participant aux opérations de traitement, et les audits s'y rapportant ;
c) dispenser des conseils, sur demande, en ce qui concerne l'analyse d'impact relative à la protection des données et vérifier l'exécution de celle-ci en vertu de l'article 35;
d) coopérer avec l'autorité de contrôle ;
e) faire office de point de contact pour l'autorité de contrôle sur les questions relatives au traitement, y compris la consultation préalable mentionnée à l'article 36, et mener des consultations, le cas échéant, sur tout autre sujet.
Source : Travaux de la mission.
Dans une optique d’amélioration de la sécurité juridique et de structuration du recueil des données des entreprises, vos rapporteurs considèrent qu’il pourrait être envisagé de confier aux DPO un rôle dans la supervision de l’ensemble des enjeux qui touchent à la gouvernance juridique des données des entreprises, dont ceux relatifs au développement des usages de l’intelligence artificielle.
Le professeur Cassar défend ainsi l’idée que la définition du champ de compétences des délégués intègre les enjeux portant notamment sur la protection intellectuelle, la protection du secret des affaires, le secret des correspondances et d’autres secrets protégés par la loi, ou encore les éventuelles obligations en termes de collectes ou de réutilisation des données ([1089]).
Du point de vue de vos rapporteurs, il importe surtout de donner aux DPO des outils et un statut juridique leur permettant de contribuer, en tant que référents, à la conformité et à la qualité de la gestion des données au sein des entreprises, sans les placer dans une position comportant le risque de conflits d’intérêts ou excédant les finalités assignées à leur fonction par le RGPD.
Recommandation n° 57 : Renforcer le rôle des métiers spécialisés dans la gestion et la gouvernance des données au sein des entreprises, en développant la formation des professionnels et en élargissant les missions du délégué à la protection des données.
c. Des besoins de recherche et d’expérimentation ne pouvant être parfois satisfaits que par une mutualisation des données exploitables
Au-delà du volume et de la qualité de celles qu’elles produisent ou valorisent, le perfectionnement des systèmes d’intelligence artificielle supposent le renouvellement des données auxquelles les entreprises peuvent avoir accès. Or cette capacité diffère selon les structures et peut ajouter aux difficultés que recèlent les coûts techniques et économiques inhérents aux conditions d’appropriation de la technologie. Ainsi que le confirment les éléments recueillis par la mission, le problème se pose en particulier pour les TPE-PME et peut représenter une part d’aléa rendant dissuasifs certains investissements.
Dans ces conditions, l’enjeu réside dans la possibilité donnée aux entreprises d’accéder et de partager des données dans un cadre sécurisé, ce qui soulève la question de la mise en place de « communs numériques » à l’usage des développeurs de solutions IA. Suivant la définition retenue par le Conseil national du numérique, ce concept désigne « une communauté de producteurs et d’utilisateurs qui gèrent une ressource numérique en vue de son enrichissement dans le temps à travers des règles de gouvernance conjointement élaborées et dont ils protègent le libre accès face aux tentatives d’appropriation exclusive ». Elles inspirent aujourd’hui des initiatives et projets assez divers en France et au sein de l’Union européenne.
i. Un déploiement de « communs numériques » à poursuivre à l’échelle nationale
● Dans un cadre national, le programme France 2030 soutient la création d’espaces communs de données sur le fondement des résultats de l’appel à projet « Communs numériques pour l’IA générative ». Lancé en juin 2023 et porté par Bpifrance, ce dispositif vise à apporter une aide publique à des projets ayant pour objet :
– la mise en accessibilité ouverte ou partagée d’une ou plusieurs bases de données valorisant de patrimoine français, francophone et européen dans l’entraînement d’IA génératives, qu’il s’agisse de texte, de fréquences, d’images, de signaux ou d’image 3D ;
– la mise en accessibilité ouverte ou partagée de giga-modèles génératifs pré-entraînés offrant une plus-value significative par rapport aux modèles pré-entraînés déjà disponibles en accès ouvert et/ou libre de droits ;
– la mise en accessibilité ouverte ou partagée de giga-modèles génératifs adaptés à des cas d’usage métier spécifiques, qui permettront à certains partenaires du projet de commercialiser un ou plusieurs produits ou services innovants ;
– la mise en accessibilité ouverte ou partagée d’interfaces de programmation d’application (API) permettant des utilisations ciblées de modèles d’intelligence artificielle générative ;
– la mise en accessibilité ouverte ou partagée d’outils d’évaluation des IA génératives pour différentes tâches ;
– d’autres communs de la chaine de valeur de l’IA générative, à condition que le caractère incitatif de l’aide publique soit justifié et avéré.
Les signalements recueillis par la mission comportent également l’exemple d’initiatives portées par des secteurs professionnels à l’instar des métiers du droit. Selon l’Association française des juristes d’entreprises (AFJE), le projet « Legal Date Space » ambitionne ainsi de mutualiser des ressources en données des acteurs du droit, de préserver l’autonomie stratégique des entreprises et des administrations publiques et de favoriser leur compétitivité.
● Dans une large mesure, le droit français se prête à l’organisation d’i, usage partagé des données à des fins de développement technologique et/ou commercial. Ainsi qu’il ressort les travaux du professeur Cassard ([1090]) , il offre en effet la possibilité d’une gouvernance et d’une mutualisation dans le cadre :
– des sociétés commerciales, telles que les sociétés à responsabilité limitée ou les sociétés par actions simplifiées, à l’exemple de « Agdatahub », plate-forme visant à protéger et valoriser les données agricoles françaises ;
– des sociétés coopératives d’intérêt collectif : cette forme sociale constitue aujourd’hui l’infrastructure utilisée pour la mutualisation des données dans le cadre dyu projet Num-Alim ([1091]) ;
– de groupements d’intérêt économique, à l’instar du consortium health data club ;
– d’associations (initiative Voice Lab visant à la création d’une marketplace de solutions vocales) ;
– d’un comité stratégique de filière.
Selon de la direction générale du Trésor, « la France pourrait s'inspirer des mesures mises en place par certains pays comme les États-Unis ou le Royaume-Uni, qui ont développé un cadre qui facilite la réutilisation des données tout en assurant leur confidentialité » ([1092]). Dans ses réponses au questionnaire de vos rapporteurs, le Medef propose également de favoriser la mutualisation d’infrastructures et de données, en soutenant la création d’espaces de données sectoriels et de plateformes partagées, à la fois souveraines, interopérables et accessibles.
Si ces propositions méritent une évaluation plus approfondie, leur convergence invite à tout le moins à s’interroger sur la possibilité de répondre à tous les besoins dans les cadres actuels du droit français. Aussi, vos rapporteurs appellent à une évaluation des conditions juridiques de la réutilisation des données et de la nécessité d’un dispositif spécifique en rapport avec les exigences de la transformation numérique de l’économie et du développement des usages de l’intelligence artificielle.
Recommandation n° 58 : Évaluer les conditions juridiques de la réutilisation des données et la nécessité d’un dispositif spécifique en rapport avec les exigences de la transformation numérique de l’économie et du développement des usages de l’intelligence artificielle.
ii. Des outils offrant de nouvelles opportunités à l’échelle européenne
● Afin de créer les conditions de l’émergence d’un écosystème des données dans de nombreux secteurs, l’Union européenne tend, depuis plusieurs années, à promouvoir la création d’espaces de données dans des domaines essentiels de la vie économique et sociale, ainsi que de l’action communautaire ([1093]). Cette action s’inscrit dans le cadre de la stratégie européenne pour les données de 2020 ([1094]), qui poursuit l’objectif d’établir à terme un marché unique des données (ou « espace européen unique des données »). La création de cet espace vise à favoriser une meilleure circulation des données entre États membres et entre secteurs d'activités de l’Union, tout en respectant les règles européennes de concurrence et de protection de la vie privée.
Le marché unique des données repose aujourd’hui sur un corpus de textes normatifs comprenant notamment le règlement général sur la protection des données (RGPD) de 2016, le règlement sur la gouvernance des données du 30 mai 2022 ([1095]) et le règlement sur les données du 13 décembre 2023 ([1096]). Applicable depuis septembre 2023, le règlement sur la gouvernance des données établit les principes et mécanismes permettant de réutiliser certaines données publiques ou détenues par le secteur public mais qui sont protégées, comme celles relevant de la propriété intellectuelle. Le règlement sur les données vise à faciliter l’accès et le partage des données entre entreprises (B2B) et avec les consommateurs (B2C), en particulier pour les données générées par les objets connectés. Il s'appliquera à partir de septembre 2025.
La constitution d’un marché unique de la donnée paraît de nature à offrir un environnement propice à l’accessibilité de données pour les entreprises françaises. En cela, il peut contribuer au développement des usages de l’intelligence artificielle.
Fonctionnement et principes des espaces européens de données
Destinés à faciliter la mise en commun, l’accès et le partage des données, les espaces européens de données reposent sur un cadre de gouvernance et des infrastructures de données. Leur évolution relève des initiatives des parties prenantes.
Le cadre fixé à leur fonctionnement impose :
– une ouverture à la participation de toutes les organisations et de tous les individus ;
– la mise à disposition d’une infrastructure sécurisée et respectueuse de la vie privée pour la mise en commun, l’accès, le partage, le traitement et l’utilisation des données ;
– l’adoption de règles d’accès équitables, transparentes, proportionnées et non discriminatoires, grâce à des mécanismes de gouvernance des données bien définis et fiables ;
– le respect des règles et des valeurs de l’UE, en particulier les données à caractère personnel et la protection des consommateurs, ainsi que le droit de la concurrence ;
– le droit reconnu aux détenteurs de données d’accorder l’accès à certaines données à caractère personnel ou non personnel ou de les partager ;
– le droit des détenteurs de données à mettre leurs données à disposition en vue de leur réutilisation gratuitement ou contre rémunération.
Ces initiatives peuvent faire l’objet de financements de la part de l’Union européenne.
Source : https://digital-strategy.ec.europa.eu/fr/policies/data-spaces.
● Les actes et mesures pris en faveur d’un marché unique des données se doublent aujourd’hui d’une politique ayant pour objet le développement commun des infrastructures informatiques et de données à grande échelle afin d’améliorer l’accès à des données de qualité nécessaires à l’essor des usages de l’intelligence artificielle.
Formalisée par le plan d’action pour le continent de l’IA publié en avril 2025 par la Commission européenne, cette politique se matérialise, en premier lieu, par le déploiement progressif de giga-usines et d’usines IA ([1097]). Comme précédemment indiqué, les giga-usines se présentent comme des centres de calcul de très grande puissance, conçus pour accueillir jusqu’à cent mille processeurs spécialisés dans l’IA et assurer l’entraînement des modèles à la pointe de la recherche. Les usines d’IA ont vocation à intégrer des « data labs » raccordés aux espaces européens de données sectoriels en cours de constitution et à former entre elles un réseau. Par ailleurs, elles assumeront la fonction de « guichet unique » pour les start-up et les innovateurs et favoriseront l’accès aux supercalculateurs européens des chercheurs et des entreprises, notamment aux start-up et aux PME spécialisés dans le développement de l’intelligence artificielle.
En second lieu, la politique de l’Union européenne en faveur de la technologie comporte la mise en place d’installations sectorielles d’essai et d’expérimentation (Testing and Experimentation Facilities, TEF) de l’IA.
Participant de la mise en œuvre du programme pour l’Europe numérique 2023-2024, cette mesure vise à aider les travaux menés par les développeurs de la technologie afin de favoriser la mise sur le marché des systèmes et faciliter son adoption en Europe. Les TEF désignent des installations physiques et virtuelles destinées à permettre l’intégration, la mise à l'essai et l’expérimentation des dernières technologies reposant sur l’IA afin d’améliorer les procédés et solutions dans un secteur d'application donné, y compris en vue d’une validation et d’une démonstration. Les tests peuvent porter les produits et services de matériel, tels que des robots, dans des environnements réels. Par ailleurs, les TEF peuvent servir dans le cadre des bacs à sable réglementaires de l’IA. Ambitionnant de constituer un réseau de sites de référence, le dispositif est ouvert à l’ensemble des fournisseurs de technologie en Europe.
Les usines IA et les TEF paraissent, au moins dans leur principe, susceptibles de créer les conditions d’une mutualisation sur les plans des capacités de recherche et de l’accès aux données. En cela, ils pourraient constituer des instruments qui permettent de lever certains obstacles à l’investissement dans le développement des usages de l’intelligence artificielle. Aussi, vos rapporteurs estiment que la France gagnerait à la poursuite de la mise en œuvre de ces dispositifs.
Recommandation n° 59 : Encourager les dispositifs européens d’accès à des données dans un cadre mutualisé et sécurisé pour les entreprises susceptibles de contribuer au développement des usages de l’intelligence artificielle, telles que les usines et giga-usines IA et les installations sectorielles d’essai et d’expérimentation (TEF) de l’IA.
2. Vers une évolution de la réglementation applicable aux données à caractère personnel et aux données de santé ?
a. Un développement des usages de l’intelligence artificielle concevable moyennant une application pragmatique du RGPD
Au sein de l’Union européenne, les principes et obligations régissant le traitement des données à caractère personnel procèdent, depuis 2016, du règlement général pour la protection des données (RGPD) ([1098]). Le texte vise fondamentalement à encadrer et à apporter des limitations à l’usage des informations se rapportant à une personne physique identifiée ou identifiable par les institutions publiques et aux personnes morales de droit privé, telles que les entreprises. Dans cette optique, il confère à la notion de « données à caractère personnel » une acception assez large, puisque la liste des identifiants relevant de cette catégorie ne présente pas un caractère limitatif. En vertu de l’article 2 du RGPD, celle-ci inclut notamment le nom d’un individu, un numéro d'identification, des données de localisation, un identifiant en ligne ou un ou plusieurs éléments propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale.
En l’absence de hiérarchie des normes entre deux instruments de droit de portée équivalente, les prescriptions du RGPD ont vocation à régir l’usage de données à caractère personnel par les systèmes d’intelligence artificielle. D’ailleurs, le règlement (UE) 2024/1689 du 13 juin 2024, qui établit les règles harmonisées pour l’intelligence artificielle (ou RIA), affirme expressément dans plusieurs de ses considérants et dans son dispositif ([1099]) qu’il ne constitue pas une base juridique pour le traitement des données à caractère personnel. Dès lors, le recours accru à la technologie dans la sphère marchande recèle deux enjeux fondamentaux : d’une part, la compatibilité des usages avec les droits reconnus au titre de la protection des données à caractère personnel ; d’autre part, les conditions de mise en conformité des systèmes d’IA et l’éventuelle conciliation des obligations fixées par le RGPD et le RIA.
Au regard de l’état des lieux dressé par les opérateurs économiques et la Commission nationale de l’informatique et des libertés, plusieurs principes du RGPD peuvent nourrir, de prime abord, des questionnements spécifiques dans l’attente de la pleine entrée en vigueur du RIA.
● La première source d’incertitudes réside dans les implications des principes relatifs au recueil et à la conservation des données.
Consacré par les articles 5 et 25 du RGPD, le principe de minimisation des données emporte en théorie l’obligation d’un recueil ne portant que sur des données adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées. Or, suivant l’observation de plusieurs intervenants auditionnés, la conception et l’entraînement des systèmes IA peuvent rendre nécessaire le traitement d’un grand volume de données, dont des données à caractère personnel.
L’exigence d’une déclaration a priori des motifs d’usage des données à caractère personnel peut ainsi poser question. Découlant des articles 5 et 14 du RGPD, elle suppose une information sur les finalités de la collecte de données qui, en vertu de l’article 5, doivent être « déterminées, explicites et légitimes ». En outre, la disposition écarte un traitement ultérieur d’une manière incompatible avec les finalités initiales ([1100]). Or, il peut être difficile de déterminer par avance l’intérêt et l’usage des données pouvant servir initialement à l’entraînement d’un système IA.
La limitation de la durée de conservation des données peut soulever concrètement des difficultés analogues. Établie notamment par l’article 5 du RGPD ([1101]), cette obligation impose leur conservation « sous une forme permettant l'identification des personnes concernées pendant une durée n'excédant pas celle nécessaire au regard des finalités pour lesquelles elles sont traitées ». Par dérogation, le règlement autorise des durées de conservation plus longues pour des traitements répondant exclusivement à « des fins archivistiques dans l’intérêt public, à des fins de recherche scientifique ou historique ou à des fins statistiques conformément à l'article 89, paragraphe 1, pour autant que soient mises en œuvre les mesures techniques et organisationnelles appropriées requises par le présent règlement afin de garantir les droits et libertés de la personne concernée ». L’exigence de proportionnalité entre les fins poursuivies par le traitement et la durée de conservation des données s’apprécie de manière stricte. Dans un arrêt de décembre 2023, la Cour de justice de l’Union européenne (CJUE) a ainsi jugé contraire au RGPD la conservation par des agences privées d’informations commerciales destinées à des banques pour une durée supérieure à celle d’un registre public institué par le droit allemand pour la prévention de l’insolvabilité ([1102]).
● La seconde source d’interrogations possibles sur la compatibilité de certains principes du RGPD avec le recours à l’intelligence artificielle tient aux caractéristiques mêmes de certains systèmes.
Suivant le constat de plusieurs acteurs auditionnés, le fonctionnement des modèles fondés sur l’IA générative ou le deep learning peut présenter une certaine complexité ou opacité. L’usage de la technologie peut dès lors mettre en cause le respect des obligations du RGPD portant sur :
– la transparence du traitement des données : fondé sur les articles 5 et 12 du RGPD, le principe de transparence exige que toute information et communication relatives au traitement de ces données à caractère personnel soient aisément accessibles, faciles à comprendre, et formulées en des termes clairs et simples. Ce principe vaut, notamment, pour les informations communiquées aux personnes concernées sur l'identité du responsable du traitement et sur les finalités du traitement ainsi que pour les autres informations visant à assurer un traitement loyal et transparent à l'égard des personnes physiques concernées et leur droit d'obtenir la confirmation et la communication des données à caractère personnel les concernant qui font l’objet d'un traitement ([1103]).
– l’explicabilité de décisions prises sur le fondement d’un traitement automatisé : au titre du droit à l’accès aux données personnelles, le RGPD impose la communication des informations relatives à l’existence d’une prise de décision automatisée, y compris un profilage ([1104]), mentionnée à l’article 22, paragraphes 1 et 4, et, au moins en pareil cas, des informations utiles concernant la logique sous-jacente, ainsi que l'importance et les conséquences prévues de ce traitement pour la personne concernée ([1105]). Au regard des motifs de l’arrêt Dun & Bradstreet Austria, la CJUE semble donner à cette obligation une portée relativement étendue ([1106]).
Motivation des décisions prises sur la base d’un traitement automatisé :
l’arrêt Dun & Bradstreet Austria (2025)
Le litige portait sur le respect du RGPD par un opérateur de téléphonie établi en Autriche qui avait refusé la conclusion d’un contrat impliquant le paiement d’une mensualité de 10 euros, au motif de l’insuffisante solvabilité de la cliente. L’opérateur appuyait sa décision sur une évaluation de la capacité d’emprunt fournie par Dun & Bradstreet Austria, une entreprise spécialisée qui fournissait cette prestation en recourant à un traitement automatisé. Par décision définitive, la juridiction autrichienne saisie du contentieux avait jugé que Dun & Bradstreet violait le RGPD, faute d’avoir fourni à la cliente « des informations utiles sur la logique sous-jacente » à la décision prise par voie automatisée. À tout le moins, cette entreprise n’aurait pas suffisamment motivé pourquoi elle n’aurait pas pu fournir ces informations. Par une question préjudicielle transmise par la juridiction autrichienne compétente pour l’exécution, il était demandé à la Cour de justice de l’Union européenne (CJUE) d’interpréter le RGPD, ainsi que la directive (UE) 2016/943 du 8 juin 2016 sur la protection des secrets d’affaires ([1107]), afin de déterminer les mesures que devait prendre Dun & Bradstreet Austria afin de tirer les conséquences de sa condamnation.
En réponse, la CJUE a affirmé que le responsable du traitement doit décrire la procédure et les principes concrètement appliqués de telle manière que la personne concernée puisse comprendre lesquelles de ses données à caractère personnel ont été utilisées et de quelle manière lors de la prise de décision automatisée. En outre, elle estime qu’afin de satisfaire aux exigences de transparence et d’intelligibilité, il pourrait être adéquat d’informer la personne concernée de la mesure dans laquelle une variation au niveau des données à caractère personnel prises en compte aurait conduit à un résultat différent. En revanche, la simple communication d’un algorithme ne constituerait pas une explication suffisamment concise et compréhensible. Pour le cas où le responsable du traitement considère que les informations à fournir comportent des données de tiers protégées ou des secrets d’affaires, il doit communiquer ces informations prétendument protégées à l’autorité de contrôle ou à la juridiction compétentes. Il incombe à celles-ci de pondérer les droits et les intérêts en cause aux fins de déterminer l’étendue du droit d’accès auxdites informations de la personne concernée.
Source : CJUE, 27 février 2025, Dun & Bradstreet Austria, affaire C-203/22.
Nonobstant le recueil éventuel d’un consentement initial et la collecte directe auprès des intéressés, les modalités de recueil et de traitement des données à caractère personnel par les systèmes IA peuvent affecter en pratique l’exercice des droits touchant à la libre disposition des informations. La question se pose en ce qui concerne :
– l’accès aux données à caractère personnel : l’article 15 du RGPD, il confère à l’intéressé le droit d’obtenir du responsable du traitement la confirmation que des données à caractère personnel le concernant sont ou ne sont pas traitées et, lorsqu'elles le sont, l’accès auxdites données à caractère personnel ainsi que les informations portant notamment sur : les finalités du traitement ; les catégories de données à caractère personnel concernées ; les destinataires ou catégories de destinataires auxquels les données à caractère personnel ont été ou seront communiquées, en particulier les destinataires qui sont établis dans des pays tiers ou les organisations internationales ; lorsque cela est possible, la durée de conservation des données à caractère personnel envisagée ou, lorsque ce n'est pas possible, les critères utilisés pour déterminer cette durée ; l’existence d’une prise de décision automatisée, y compris un profilage, mentionnée à l'article 22, paragraphes 1 et 4, et, au moins en pareils cas, des informations utiles concernant la logique sous-jacente, ainsi que l'importance et les conséquences prévues de ce traitement pour la personne concernée ;
– le droit de rectification : l’article 16 du RGPD prévoit que la personne concernée a le droit d'obtenir du responsable du traitement, dans les meilleurs délais, la rectification des données à caractère personnel la concernant qui sont inexactes. Compte tenu des finalités du traitement, la personne concernée a le droit d'obtenir que les données à caractère personnel incomplètes soient complétées, y compris en fournissant une déclaration complémentaire ;
– le droit à leur effacement : l’article 17 du RGPD reconnaît à la personne concernée le droit d'obtenir du responsable du traitement l'effacement, dans les meilleurs délais, de données à caractère personnel la concernant et le responsable du traitement a l'obligation d'effacer ces données à caractère personnel dans les meilleurs délais ;
– le droit d’opposition : aux termes de l’article 21 du RGPD, la personne concernée a le droit de s'opposer à tout moment, pour des raisons tenant à sa situation particulière, à un traitement des données à caractère personnel la concernant fondé sur l’article 6, paragraphe 1, points e) ou f), y compris un profilage fondé sur ces dispositions. Il en résulte l’obligation, pour le responsable du traitement, de ne plus traiter les données à caractère personnel, à moins qu'il ne démontre qu'il existe des motifs légitimes et impérieux pour le traitement qui prévalent sur les intérêts et les droits et libertés de la personne concernée, ou pour la constatation, l'exercice ou la défense de droits en justice.
ii. Des cadres de régulation envisageables afin de faciliter la coordination les instruments de droit
Une incompatibilité ou une concurrence intrinsèques entre les principes et les obligations fixées par le RGPD et celles affirmées par le règlement (UE) 2024/1689 du 13 juin 2024 n’apparaissent pas de manière évidente. Au regard des éléments recueillis par la mission, le développement de la technologie soulève surtout des questions touchant aux conditions de mise en conformité.
● D’une part, le RGPD et le RIA permettent d’appréhender des usages qui ne répondent pas strictement aux standards de la protection des données à caractère personnel. Les deux textes prévoient en effet des dérogations susceptibles de tempérer la portée pratique de certains principes.
Le RGPD ne comporte pas de dispositions qui, par elles-mêmes, proscriraient le traitement de données à caractère personnel par un algorithme utilisé dans le cadre d’une activité commerciale. Si l’interprétation de la CJUE tend à interdire la pratique du scoring ([1108]), le règlement admet que des décisions individuelles puissent résulter d’un traitement automatisé pour autant qu’il existe des garanties contre des biais et que les personnes objet des décisions puissent obtenir des informations adéquates.
Dans son considérant n° 71, le règlement précise ainsi : « Afin d’assurer un traitement équitable et transparent à l'égard de la personne concernée, compte tenu des circonstances particulières et du contexte dans lesquels les données à caractère personnel sont traitées, le responsable du traitement devrait utiliser des procédures mathématiques ou statistiques adéquates aux fins du profilage, appliquer les mesures techniques et organisationnelles appropriées pour faire en sorte, en particulier, que les facteurs qui entraînent des erreurs dans les données à caractère personnel soient corrigés et que les risques d’erreur soit réduit au minimum, et sécuriser les données à caractère personnel d'une manière qui tienne compte des risques susceptibles de peser sur les intérêts et les droits de la personne concernée et qui prévienne, entre autres, les effets discriminatoires à l'égard des personnes physiques fondées sur l'origine raciale ou ethnique, les opinions politiques, la religion ou les convictions, l'appartenance syndicale, le statut génétique ou l'état de santé, ou l'orientation sexuelle, ou qui se traduisent par des mesures produisant un tel effet. La prise de décision et le profilage automatisés fondés sur des catégories particulières de données à caractère personnel ne devraient être autorisés que dans des conditions spécifiques. »
On notera par ailleurs que le RGPD réserve le cas de traitements de données à caractère personnel aux fins de recherche scientifique pour l’application de certaines obligations telles que la déclaration initiale des finalités du recueil ou la durée de conservation des données ([1109]).
Pour sa part, le RIA offre un fondement juridique à des traitements de données à caractère personnel destinés à remédier à des besoins ou enjeux spécifiques inhérents au développement des systèmes d’intelligence artificielle.
Relatif à la gouvernance des données des systèmes d’IA à haut risque, l’article 10 du règlement (UE) 2024/1689 du 13 juin 2024 habilite les fournisseurs à traiter des catégories particulières de données à caractère personnel, sous réserve de garanties appropriées pour les droits et libertés fondamentaux des personnes physiques, « dans la mesure où cela est strictement nécessaire aux fins de la détection et de la correction des biais ». L’article subordonne la réalisation d’un tel traitement au respect des plusieurs conditions cumulatives, parmi lesquelles figurent notamment : l’existence de limitations techniques relatives à la réutilisation des données à caractère personnel et l’application des mesures les plus avancées en matière de sécurité et de protection de la vie privée, y compris la pseudonymisation (b du paragraphe 5) ; des mesures visant à garantir que les données à caractère personnel sont sécurisées, protégées et soumises à des garanties appropriées (c du paragraphe 5) ; l’impossibilité de transmettre, de transférer ou de consulter les données d’une autre manière par d’autres personnes (d du paragraphe 5) ; la suppression des catégories particulières de données à caractère personnel une fois le biais corrigé ou la période de conservation des données expirée (e du paragraphe 5).
Le paragraphe 3 de l’article 59 du RIA établit la licéité des traitements des données à caractère personnel nécessaires aux fins de développement, de mise à l’essai et d’entraînement des systèmes d’IA innovants répondant à des finalités autres que des intérêts publics importants ou des exigences portant sur les systèmes d’IA à haut risque. Il exige toutefois d’une base juridique dans le droit de l’Union européenne ou des États membres donnant à ce traitement un fondement spécifique assorti de garantie sur le plan de la protection des données individuelles.
● D’autre part, la rédaction du RGPD ne semble pas faire obstacle à une certaine souplesse dans la détermination des caractéristiques des systèmes d’IA et des mesures de mise en conformité susceptible d’assurer la conformité des usages aux principes et obligations du droit de la protection des données à caractère personnel. Sur la base de travaux menés depuis 2022 dont elle fait état dans les réponses apportées au questionnaire de vos rapporteurs, la Cnil considère ainsi que :
– le principe de finalité n’implique pas une description exhaustive de l’ensemble des développements potentiels d’un système IA : un opérateur qui ne peut pas définir précisément l’ensemble de ses applications futures dès l’entraînement pourra se limiter à décrire le type de système développé et illustrer les principales fonctionnalités envisageables ;
– le principe de minimisation n’empêche pas l’utilisation de larges bases de données d’entraînement. Les données utilisées doivent, en principe, être sélectionnées et « nettoyées » afin d’optimiser l’entraînement de l’algorithme tout en évitant l’exploitation de données personnelles inutiles ;
– la durée de conservation des données d’entraînement peut être longue si c’est justifié et si la base fait l’objet de mesures de sécurisation adaptées, notamment pour les bases de données qui requièrent un investissement scientifique et financier important et deviennent parfois des standards reconnus par la communauté scientifique ;
– la réutilisation de bases de données, notamment accessibles en ligne, est possible après avoir vérifié que les données n’ont pas été collectées de manière manifestement illicite et que la réutilisation est compatible avec la collecte initiale.
D’après l’analyse de la Cnil, le RIA pourrait même compléter utilement le RGPD sur certains plans, en précisant les cas dans lesquels l’identification biométrique dans l’espace public constitue une pratique licite ou interdite, ou en formalisant les possibilités de traitement des données sensibles dans la détection et la correction de biais dans le fonctionnement des systèmes IA.
● En revanche, le RGPD et le RIA n’établissent pas expressément la manière dont pourrait être organisée l’articulation entre leurs deux dispositifs. Le règlement (UE) 2024/1689 se borne à poser le principe d’une participation des autorités compétentes en matière de protection des données à caractère personnel aux mécanismes et instances institués pour son application. Le paragraphe 10 de l’article 57 du texte prévoit ainsi l’association des autorités nationales intéressées à l’exploitation des bacs à sable réglementaires de l’IA. Il confère également au contrôleur européen de la protection des données un rôle de surveillance dans sa mise en œuvre qui se matérialise notamment par une participation au comité de l’IA en qualité d’observateur ([1110]).
Dès lors, on ne peut écarter la perspective que la coexistence de deux cadres juridiques se répercute sur les formalités qu’il incombe aux entreprises et aux personnes assujetties d’accomplir. Certains acteurs économiques expriment ainsi la crainte de contraintes et d’exigences croisées qui nécessiteraient une gouvernance renforcée, source de procédures de documentation fastidieuses, voire décourageantes. À leurs yeux, une application combinée du RGPD et du RIA imposerait des contrôles et audits réguliers, des mécanismes d’explicabilité et des outils à même de garantir la conformité des systèmes, comme l’anonymisation ou la pseudonymisation.
● S’il convient de demeurer attentif au risque de charges administratives indues, la conciliation des exigences du RGPD et du RIA semble poser avant tout des problèmes d’application. De fait, l’encadrement normatif du développement des usages de l’intelligence artificielle reste encore à préciser dans l’attente des actes délégués de la Commission européenne. Par conséquent et sans exclure l’intérêt, à terme, d’une révision périodique des textes au vu des leçons de l’expérience, il peut être considéré que les impératifs de sécurité juridique et de simplification administrative plaident plutôt en faveur de deux mesures à droit constant.
● D’une part, vos rapporteurs préconisent le recours au bac à sable réglementaire de l’IA dans le champ de la protection des données à caractère personnel.
Formalisé par les articles 57 à 59 du règlement (UE) 2024/1689 du 13 juin 2024, ce type de dispositif vise à offrir un environnement contrôlé qui favorise l’innovation et facilite le développement, l’entraînement, la mise à l’essai et la validation de systèmes d’IA innovants pendant une durée limitée avant leur mise sur le marché ou leur mise en service. Comme précédemment indiqué, sa mise en place implique l’établissement d’un plan spécifique entre les autorités et les fournisseurs de système IA, ainsi que des orientations sur les attentes réglementaires et sur la manière de satisfaire aux exigences et obligations énoncées par le RIA.
Selon l’analyse développée par la Cnil dans ses réponses au questionnaire de vos rapporteurs, l’établissement d’un bac à sable réglementaire donnerait la possibilité juridique de prendre des mesures dérogatoires aux principes et obligations du RGPD. Ainsi, il ménagerait une certaine souplesse dans l’application des normes susceptibles de régir le développement d’usages de l’intelligence artificielle, dans l’attente d’une évaluation de leur conformité ou, le cas échéant, d’une évolution du droit. À tout le moins, il pourrait lever des appréhensions préjudiciables à la conduite de projets comportant une part d’expérimentation en offrant aux entreprises une certaine prévisibilité quant à l’interprétation du droit en vigueur et aux risques d’infraction.
Vos rapporteurs appellent donc les autorités nationales à exploiter toutes les ressources procurées par les bacs à sable réglementaires de l’IA, sans nécessairement attendre la pleine entrée en vigueur du règlement (UE) 2024/1689 du 13 juin 2024.
Recommandation n° 60 : Recourir autant que nécessaire aux bacs à sable réglementaires afin d’assurer la conciliation des exigences de la protection des données à caractère personnel avec l’encadrement juridique du développement des usages de l’intelligence artificielle.
Outre le choix du ou des autorités notifiantes et des autorités de surveillance du marché imposé par l’article 70 du RIA, la mise en place de bacs à sable réglementaire préconisés par vos rapporteurs et, au-delà, la gouvernance du règlement, peuvent conduire à s’interroger sur les moyens dévolus au régulateur compétent dans le champ de la protection des données à caractère personnel.
S’ils ne permettent pas de quantifier la part de l’activité de la CNILCnil consacrée exclusivement à l’intelligence artificielle, les éléments recueillis par la mission donnent à penser que les usages de la technologie nourrissent désormais un ensemble de questionnements relativement vaste dans le champ de compétences de la Cnil. Ainsi qu’il ressort des réponses au questionnaire de vos rapporteurs, ces usages suscitent des demandes de conseil mais également des saisines de la commission à des fins contentieuses.
Sujets traités par la Cnil en rapport avec
le développement des usages de l’IA
La Cnil observe une augmentation des demandes des professionnels (TPE-PME), et notamment des délégués à la protection des données, à propos de traitements impliquant l’usage de l’intelligence artificielle.
Les demandes de conseil peuvent ainsi porter sur la conformité de l’installation et de l’exploitation :
– de dispositifs dits de « dashcam » dans les habitacles des conducteurs, ainsi que de dispositifs filmant la voie publique afin de détecter une conduite ou un comportement anormal, voire dangereux ;
– d’un outil de retranscription automatique des échanges intervenus lors d’entretiens de recrutement ;
– d’un logiciel d’analyse d'enregistrement téléphonique, permettant de générer des comptes-rendus de réunions, d’entretiens téléphoniques, etc. ;
– de solutions de « CV matching » qui analysent automatiquement les curriculum vitae pour éliminer ceux qui ne correspondent pas aux besoins ;
– de caméras augmentées dans les supermarchés afin de lutter contre le vol (à la caisse automatique ou dans l’intégralité de la surface de vente) ;
– d’algorithmes dans le cadre de l’octroi de crédit, de la lutte contre la fraude ou de la lutte contre le blanchiment et le financement du terrorisme ;
– de systèmes traduisant les enregistrements audio de praticiens en comptes rendus médicaux ;
– de dispositifs d’enregistrement sonore visant à détecter automatiquement les sons critiques (chutes, appels à l’aide, vomissements, détresse respiratoire, etc.) dans les établissements médico-sociaux (Ehpad, structures de prise en charge du handicap, etc.).
Les professionnels s’adressent en majorité à la Cnil sur des projets IA en matière de ressources humaines, dans le secteur de la santé, dans le secteur financier et à propos des usages en lien avec les caméras « augmentées ».
Depuis 2022, la Commission a été saisie de près d’une centaine de plaintes relatives à l’usage d’outils d’intelligence artificielle dans le cadre professionnel, dans les domaines de la santé et de l’éducation ou encore dans le cadre de services en ligne reposant sur une IA (Pimeyes, ChatGPT, etc.). Les plaintes mettent en cause les fournisseurs de services d’IA ou leurs utilisateurs.
Les griefs soulevés sont directement liés aux violations de la réglementation relative à la protection des données. Ils portent en majorité sur l’absence d’information, la question de la licéité de tels dispositifs, celle de la source des données utilisées, l’exactitude des résultats et informations issus de et délivrés par ces dispositifs ou encore des demandes d’exercice de droits.
Source : réponses de la Cnil au questionnaire des rapporteurs.
En dehors de l’examen des saisines dans l’exercice de ses fonctions de régulateur, la Cnil tend à accorder depuis plusieurs années une place croissante aux implications du développement de l’intelligence artificielle dans son approche et sa pédagogie des enjeux du droit de la protection des données à caractère personnel. D’après les réponses au questionnaire de vos rapporteurs, son action comporte :
– la production d’instruments de « droit souple » (référentiels, lignes directrices, recommandations, etc.), destinés à préciser l’application de la règlementation à l’IA : la Cnil mène ainsi depuis 2023 des travaux sur les conditions de développement des systèmes d’IA, dans le respect du RGPD ; cette démarche a notamment donné lieu à la publication de douze fiches, assorties de recommandations et d’exemples concrets, visant à clarifier les moyens d’assurer la conformité de systèmes d’IA dans la phase de développement ([1111]) ;
– l’intégration des questions relatives à l’IA dans les services proposés aux personnes assujetties au RGPD : si elle n’est pas conçue pour traiter spécifiquement des enjeux de la technologie, l’offre de prestations développée par la Cnil comprend néanmoins un accompagnement renforcé destiné aux scale-up ([1112]) et un accompagnement « sur-mesure » pour certains projets identifiés comme stratégiques dans le cadre desquels ces enjeux peuvent être abordés. A ces prestations s’ajoute la mise à disposition du public d’outils de formation, tels le MOOC ou des webinaires, susceptibles de porter sur les sujets relatifs à l’IA ;
– une contribution à l’harmonisation de l’interprétation du RGPD au niveau européen tenant compte des impacts du développement de l’IA : la Cnil participe aux travaux du comité européen de la protection des données (CEPD), organe qui rassemble toutes les autorités de protection des données au niveau européen. Elle peut ainsi concourir à l’élaboration de recommandations, de lignes directrices et d’avis sur l’application du RGPD, relatifs notamment à l’IA.
Du reste, la Cnil dispose depuis 2023 d’un service spécifiquement consacré aux questions de l’intelligence artificielle. Placé sous la co-tutelle des directeurs des technologies, de l’innovation et de l’IA (DTIA) et de l’accompagnement juridique (DAC), le service est formé d’une équipe pluridisciplinaire de cinq personnes (analystes, juristes et ingénieurs) ([1113]). Il est chargé d’apporter son expertise aux autres services et directions de la Cnil, dans l’exercice de fonctions de veille et d’appui. En pratique, il lui incombe d’appréhender le fonctionnement des systèmes d’IA (et notamment d’IA génératives) et les impacts pour les personnes, de guider le développement d’IA respectueuses de la vie privée en clarifiant le cadre juridique applicable aux systèmes d’IA (et notamment d’IA génératives), de fédérer et d’accompagner les acteurs innovants dans le domaine en France et en Europe ainsi que de réaliser l’audit des systèmes d’IA aux fins de protection des personnes.
Ce service artificielle n’a pas vocation à assumer le traitement de l’ensemble des questions relatives à l’IA et il n’est pas certain que les ressources actuelles de la Cnil correspondent aux besoins de régulation et d’accompagnement des acteurs que pourrait induire la diffusion de la technologie.
De fait, le développement des systèmes d’IA générative tend à renouveler assez profondément les enjeux entourant la protection des données à caractère personnel et la conformité au RGPD. D’après ses réponses au questionnaire de vos rapporteurs, la Cnil rencontrerait ainsi systématiquement des difficultés pour obtenir des informations précises quant aux sources permettant de constituer le jeu de données d’entraînement : une grande opacité entoure de nombreux jeux accessibles en ligne – y compris parmi les plus largement utilisés par les entreprises – quant à l’origine des données qui les constituent, ce qui altère la capacité à évaluer la licéité de leur usage. Selon l’analyse de la Commission, cette situation rendrait très insatisfaisant le respect de l’obligation de transparence vis-à-vis des personnes potentiellement concernées par les données d’entraînement.
De surcroît et comme précédemment indiqué, la pleine entrée en vigueur du règlement (UE) 2024/1689 du 13 juin 2024 ouvre la perspective d’un élargissement du rôle de la Commission dans le cadre des mécanismes de gouvernance institués pour l’application de règles uniformisées à l’échelle de l’Union européenne.
Aussi et sous réserve des priorités que commande le nécessaire rétablissement des finances publiques, vos rapporteurs estiment qu’il pourrait être expédient de reconsidérer les effectifs et moyens matériels accordés à la Cnil.
Recommandation n° 61 : Assurer la pertinence des ressources humaines et des moyens matériels de la Cnil au regard des impacts du développement des usages de l’intelligence artificielle et de la pleine entrée en vigueur du règlement (UE) 2024/1689 du 13 juin 2024 sur l’exercice de ses missions de régulation et d’accompagnement.
● D’autre part, vos rapporteurs estiment indispensable de prévenir une éventuelle redondance des formalités requises pour la mise en conformité des systèmes d’IA en application du RGPD et du règlement (UE) 2024/1689 du 13 juin 2024.
Quoique possédant des champs d’application et des finalités propres, les deux règlements peuvent couvrir l’usage de systèmes IA si leur fonctionnement implique le traitement de données à caractère personnel. Une telle situation peut être source de charges administrative dès lors que les personnes et opérateurs assujettis auront l’obligation de produire des informations, justificatifs ou pièces documentaires généralement différents, mais parfois identiques. Ce risque ne présente pas un caractère tout à fait théorique : il résulte ainsi du paragraphe 5 de l’annexe V du règlement (UE) 2024/1689 du 13 juin 2024 que la déclaration de conformité d’un système IA à haut risque doit nécessairement comporter une déclaration qui atteste de sa conformité au RGPD ([1114]), lorsque ce système nécessite le traitement de données à caractère personnel.
Si elle ne porte certes que sur une catégorie potentielle restreinte de systèmes IA, l’existence d’une telle obligation déclarative invite néanmoins à rechercher les voies et moyens d’une coordination et d’une mise en cohérence des procédures de mise en conformité.
Du point de vue de vos rapporteurs, la réalisation de cet objectif suppose a minima une revue des formalités administratives nécessaires à la mise sur le marché et/ou à la mise en service de systèmes d’intelligence artificielle en application du RGPD et du RIA.
Au-delà, il pourrait être utile d’examiner la possibilité de subordonner la communication de documents administratifs au principe « Dites-le nous une fois » pour des projets entrant dans le champ d’application des deux règlements.
Formalisé en droit français par l’article 40 de la loi du 10 août 2018, dite loi « Essoc » ([1115]) , cette axiome désigne une règle applicable aux relations entre le public et l’administration et qui dispense les usagers de communiquer des informations déjà détenues par une autre administration. Il habilite des administrations à échanger les informations et données en leur possession nécessaires au traitement des demandes dans les limites fixées par la loi et les règlements. Sa définition et sa mise en œuvre reposent aujourd’hui sur les articles L. 113-12, L. 113-13, L. 114-8 du code des relations entre le public et l’administration ([1116]). Son fondement essentiel réside dans le dispositif de l’article L. 113-12, qui indique qu’« une personne présentant une demande ou produisant une déclaration à une administration ne peut être tenue de produire des informations ou des données que celle-ci détient ou qu'elle peut obtenir directement auprès d'une administration participant au système d'échange de données défini à l'article L. 114-8 ».
Bien que le droit de l’Union ne semble pas l’ériger en principe général, la règle du « Dites-le nous une fois » imprègne certains dispositifs destinés à faciliter les démarches accomplies en ligne par des particuliers et des entreprises auprès d’autres États membres. Il en va ainsi du dispositif Once Only Technical System (OOTS) : institué par l’article 14 du règlement (UE) 2018/1724 du 2 octobre 2018 ([1117]), il a pour objet le partage sécurisé, entre les administrations publiques des États, des justificatifs requis afin de mener à bien 21 procédures administratives ([1118]). Le texte dispose ainsi que « [l]orsque les autorités compétentes délivrent légalement, dans leur propre État membre et dans un format électronique permettant l’échange automatisé, des justificatifs qui sont pertinents pour les procédures en ligne mentionnées au paragraphe 1, elles mettent également ces justificatifs, présentés dans un format électronique permettant l’échange automatisé, à la disposition des autorités compétentes requérantes d’autres États membres ».
Dès lors que le principe « Dites-le nous une fois » possède des fondements juridiques en droit national comme en droit européen, son application dans le cadre d’une mise en conformité vis-à-vis du RIA et du RGPD ne paraît pas hors de propos. Nonobstant le caractère spécifique des finalités poursuivies par ces deux instruments de droit, la déclinaison de cette règle exige deux préalables : d’une part, un acte fournissant une base juridique ; d’autre part, la formalisation de procédures d’échange et de partage des informations et données requises pour la mise en conformité des systèmes entre administrations compétentes, à l’échelle nationale comme à l’échelle de l’Union européenne.
La présente mission d’information ne dispose pas des moyens de mesurer la technicité d’une telle démarche. Toutefois, il apparaît essentiel de ne pas entraver la diffusion des usages de l’intelligence artificielle par des procédures de mise en conformité créant des charges administratives inutiles.
Dans cette optique, vos rapporteurs jugent nécessaire que les autorités compétences examinent les conditions d’une application du principe « Dites-le nous une fois » aux procédures de mise en conformité des systèmes d’IA comportant un traitement de données à caractère personnel. Sous réserve qu’elle relève d’un texte d’application, la mesure pourrait être ainsi prise dans le cadre des actes délégués qu’il incombe à la Commission européenne d’établir pour la pleine entrée en vigueur du règlement (UE) 2024/1689 du 13 juin 2024.
Recommandation n° 62 : Prévenir la demande d’informations et de pièces redondantes pour la mise sur le marché de systèmes IA soumis au RGPD et au règlement (UE) 2024/1689 du 13 juin 2024.
Examiner les conditions nécessaires à l’application du principe « Dites-le nous une fois » aux procédures de mise en conformité des systèmes d’IA relevant des deux règlements.
b. Les données de santé : un patrimoine public à mieux valoriser
La consommation d’un volume de données croissant constitue l’un des ressorts essentiels du développement des applications de l’intelligence artificielle aux activités de santé. Compte tenu des exigences de fiabilité et d’innocuité dans des actes tels que l’analyse et l’imagerie médicales, le diagnostic et l’aide à la décision ou la conception de médicaments et de vaccins, le perfectionnement des modèles suppose un entraînement continu et une actualisation régulière des éléments de connaissance nécessaires à la précision des algorithmes. L’enjeu réside dans la constitution ou l’accès à des bases de données de qualité susceptibles de contribuer à la recherche dans le domaine de l’intelligence artificielle mais aussi à la mise sur le marché de dispositifs et de services.
Dès lors, se pose la question du recueil et de l’utilisation des données de santé à caractère personnel provenant d’essais cliniques ou de consultations et de soins réalisés auprès de patients. Assurément, une telle valorisation ne va pas de soi au regard de la sensibilité et du statut des données de santé à caractère personnel. Elle doit être appréhendée en considération du cadre posé par le système national des données de santé, ainsi que par le règlement général à la protection des données personnelles (RGPD).
i. Un système national des données de santé conçu à des fins d’éclairage des politiques publiques
● Fondé sur les dispositions du I de l’article L. 1461-1 du code de la santé publique, le système national des données de santé (SNDS) désigne une base de données publique qui rassemble et met à disposition :
1° les données issues des systèmes d’information des établissements de santé (publics et privés) servant à l’analyse de leur activité (mentionnés à l’article L. 6113-7 du même code) ([1119]) ;
2° les données du système national d'information inter-régimes de l’assurance maladie (mentionné à l'article L. 161-28-1 du code de la sécurité sociale) ([1120]) ;
3° les données sur les causes de décès (mentionnées à l'article L. 2223-42 du code général des collectivités territoriales) ;
4° les données médico-sociales du système d’information commun des maisons départementales des personnes handicapées (mentionné à l’article L. 247-2 du code de l’action sociale et des familles) ;
5° un échantillon représentatif des données de remboursement par bénéficiaire transmises par des organismes d'assurance maladie complémentaire et défini en concertation avec leurs représentants ;
6° les données destinées aux professionnels et organismes de santé recueillies à l'occasion des activités de prévention, de diagnostic, de soins ou de suivi social et médico-social, pour le compte de personnes physiques ou morales à l'origine de la production ou du recueil de ces données ou pour le compte du patient lui-même ([1121]) donnant lieu à la prise en charge des frais de santé en matière de maladie ou de maternité ([1122]) et à la prise en charge des prestations en matière d’accidents du travail et de maladies professionnelles ([1123]) ;
7° les données relatives à la perte d’autonomie, évaluée à l’aide de la grille nationale servant à la fixation du montant de l’allocation personnalisée d’autonomie ([1124]) , lorsque ces données sont appariées avec les données mentionnées aux 1° à 6° du présent I ;
8° les données à caractère personnel des enquêtes dans le domaine de la santé, lorsque ces données sont appariées avec des données mentionnées aux 1° à 6° ;
9° les données recueillies lors des visites médicales et de dépistage obligatoires prévues à l'article L. 541-1 du code de l'éducation ;
10° les données recueillies par les services de protection maternelle et infantile dans le cadre de leurs missions définies à l'article L. 2111-1 du code de la santé publique ;
11° les données issues des dossiers médicaux en santé au travail prévus à l’article L. 4624-8 du code du travail.
En application de l’article L. 1462-5 du code de la santé publique, la tenue et la gestion du SNDS incombent à la Plateforme des données de santé (ou « Health data hub ») ([1125]). Groupement d’intérêt public sans limitation de durée, la Plateforme est une structure constituée entre l’État, la caisse nationale de l’assurance maladie (CNAM), la caisse centrale de la mutualité sociale agricole (CCMSA), des organismes publics de recherche, des fédérations des établissements de santé, des fédérations professionnelles des métiers de santé et des régulateurs. Sa mission consiste à veiller à la qualité des données de santé et aux conditions générales de leur mise à disposition, en garantissant leur sécurité et en facilitant leur utilisation dans le respect de la protection des données personnelles sur l’ensemble du territoire. À ce titre, la Plateforme assume les obligations assignées au SNDS par l’article L. 1462-1 du code de la santé publique, notamment celle « [de] réunir, [d’] organiser et [de] mettre à disposition les données du système national des données de santé mentionné à l'article L. 1461-1 et [de] promouvoir l'innovation dans l'utilisation des données de santé ». Le cadre de son fonctionnement et de ses missions est régi notamment par le RGPD, ainsi que les articles L. 1462-1 et L. 1462-2 du code de la santé publique.
● S’il représente l’une des plus vastes bases de données de santé au monde, le système national des données de santé ne répond probablement pas, en l’état, aux besoins de développement d’applications de l’intelligence artificielle. En effet, ses conditions d’usage peuvent revêtir un caractère restrictif sur deux plans.
D’une part, le droit en vigueur tend à donner un accès privilégié aux acteurs du système de santé. Conformément au second alinéa de l’article L. 1460-1 du code de la santé publique, la consultation est ouverte aux citoyens, aux usagers du système de santé, aux professionnels de santé, aux établissements de santé à et leurs organisations représentatives, aux organismes participant au financement de la couverture contre le risque maladie ou réalisant des traitements de données concernant la santé, aux services de l’État, aux institutions publiques compétentes en matière de santé et aux organismes de presse. Les acteurs économiques doivent remplir certaines conditions dans le cadre des procédures d’autorisation établies par la loi « Informatique et libertés » du 6 janvier 1978 ([1126]).
D’autre part, les finalités du système national des données de santé ne se prêtent pas, en principe, à une valorisation des données en vue de l’entraînement de systèmes d’IA.
Le premier alinéa de l’article L. 1460-1 du code de la santé publique prévoit que les données de santé à caractère personnel destinées aux services ou aux établissements publics de l’État ou des collectivités territoriales, aux professionnels de santé ou aux organismes de sécurité sociale peuvent faire l’objet de traitements présentant un caractère d'intérêt public, dans le respect de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés.
Néanmoins, le III de l’article L. 1461-1 du même code subordonne la mise à disposition des données du SNDS au respect de motifs énoncés de manière limitative. Il dispose que le SNDS doit contribuer :
1° à l’information sur la santé ainsi que sur l’offre de soins, la prise en charge médico-sociale et leur qualité ;
2° à la définition, à la mise en œuvre et à l’évaluation des politiques de santé et de protection sociale ;
3° à la connaissance des dépenses de santé, des dépenses d’assurance maladie et des dépenses médico-sociales ;
4° à l’information des professionnels, des structures et des établissements de santé ou médico-sociaux sur leur activité ;
5° à la surveillance, à la veille et à la sécurité sanitaires ;
6° à la recherche, aux études, à l'évaluation et à l'innovation dans les domaines de la santé et de la prise en charge médico-sociale.
De surcroît, l’article L. 1451-3 du même code prévoit que l’accès aux données à caractère personnel du SNDS ne peut être autorisé qu’afin de permettre des traitements possédant un objet circonscrit. L’accès doit en effet :
– contribuer à une finalité mentionnée au III de l’article L. 1461-1 du même code et répondant à un motif d’intérêt public ;
– ou être nécessaire à l’accomplissement des missions des services de l’Etat, des établissements publics ou des organismes chargés d’une mission de service public compétents.
Par ailleurs, les standards relatifs au format et à la présentation des données semblent davantage propices à une analyse économique des prestations de santé qu’à leur exploitation à des fins de recherche médicale.
L’article L. 1461-2 du code de la santé publique impose ainsi un traitement des données du système national des données de santé mises à disposition du public de sorte qu’elles prennent la forme de statistiques agrégées ou de données individuelles constituées de sorte de rendre impossible toute identification directe ou indirecte des personnes. Du reste, la qualité des données peut laisser à désirer : d’après les chiffres publiés par l’Institut national de la santé et de la recherche médicale (Inserm), on relèverait jusqu’à 30 % d’erreurs dans la description des pathologies associées aux malades dans les données consolidées, du fait d’un renseignement erroné ou d’un tableau clinique incomplet ([1127]).
ii. Une utilisation des données de santé envisageable sous réserve d’une explicitation des cas d’usage et d’une simplification des procédures
Au regard des éléments recueillis par la mission et des conclusions d’autres travaux publics, le développement des usages de l’intelligence artificielle nécessite avant tout d’éclaircir et de rationaliser les procédures applicables à des utilisations secondaires ([1128]) des données de santé à caractère personnel.
● Le droit en vigueur ne s’oppose pas à l’établissement de bases de données de santé (ou à l’accès à des bases existantes) susceptibles de contribuer à la conception et/ou à l’entraînement des systèmes d’intelligence artificielle.
L’article 9 du règlement général sur la protection des données (RGPD) ([1129]) admet ainsi la réalisation de traitements automatisés nécessaires :
– aux fins de la médecine préventive ou de la médecine du travail, de l’appréciation de la capacité de travail du travailleur, de diagnostics médicaux, de la prise en charge sanitaire ou sociale, ou de la gestion des systèmes et des services de soins de santé ou de protection sociale sur la base du droit de l'Union, du droit d’un État membre ou en vertu d'un contrat conclu avec un professionnel de la santé et soumis aux conditions et garanties mentionnées au paragraphe 3 (h du paragraphe 2) ;
– pour des motifs d’intérêt public dans le domaine de la santé publique, tels que la protection contre les menaces transfrontalières graves pesant sur la santé, ou aux fins de garantir des normes élevées de qualité et de sécurité des soins de santé et des médicaments ou des dispositifs médicaux, sur la base du droit de l'Union ou du droit de l'État membre qui prévoit des mesures appropriées et spécifiques pour la sauvegarde des droits et libertés de la personne concernée, notamment le secret professionnel (i du paragraphe 2).
Visant fondamentalement à créer les conditions d’un espace européen des données de santé, le règlement (UE) 2025/327 du 11 février 2025 ([1130]) conforte également les utilisations secondaires des données de santé. L’article 51 du règlement consacre en effet le droit, pour les détenteurs de données, de les mettre à disposition sous réserve de respecter certaines exigences.
Au sens du règlement, la qualité de « détenteur de données de santé » s’applique à toute personne physique ou morale :
– qui possède le statut d’autorité publique, agence ou autre organisme dans les secteurs des soins de santé ou des soins, y compris les services de remboursement si nécessaire ;
– ou qui développe des produits ou des services destinés aux secteurs de la santé, des soins de santé ou des soins ;
– ou qui développe ou produit des applications de bien-être ;
– ou qui effectue des travaux de recherche ayant trait aux secteurs des soins de santé ou des soins ;
– ou qui agit en tant que registre de mortalité.
Les catégories de données pouvant donner lieu à une mise à disposition dans ce cadre résultent d’une liste fixée par le règlement. Le paragraphe 2 de l’article 51 précité reconnaît aux États membres la faculté de prévoir des catégories supplémentaires en droit national.
Données pouvant être mises à disposition à des fins d’utilisation secondaire au titre du règlement relatif à l’espace européen des données de santé
Conformément au paragraphe 1 de l’article 51 du règlement (UE) 2025/327 du 11 février 2025, les catégories minimales de données de santé électroniques à des fins d’utilisation secondaire comprennent :
a) les données de santé électroniques provenant de dossiers médicaux électroniques (DME) ;
b) les données sur les facteurs ayant une incidence sur la santé, dont les déterminants socio-économiques, environnementaux et comportementaux de la santé ;
c) les données agrégées sur les besoins en soins de santé, les ressources allouées aux soins de santé, la fourniture et l’accès en matière de soins de santé, les dépenses et le financement en matière de soins de santé ;
d) les données sur les pathogènes ayant une incidence sur la santé humaine ;
e) les données administratives liées aux soins de santé, dont les données relatives aux dispensations, aux demandes de remboursement et aux remboursements ;
f) les données génétiques, épigénomiques et génomiques humaines ;
g) d’autres données moléculaires humaines telles que les données protéomiques, transcriptomiques, métabolomiques, lipidomiques et d’autres données omiques ;
h) les données de santé électroniques à caractère personnel générées automatiquement grâce aux dispositifs médicaux ;
i) les données provenant d’applications de bien-être ;
j) les données relatives au statut professionnel, ainsi qu’à la spécialisation et à l’établissement des professionnels de la santé intervenant dans le traitement d’une personne physique ;
k) les données provenant des registres de données de santé basées sur la population, tels que les registres de santé publique ;
l) les données contenues dans les registres médicaux et les registres de mortalité ;
m) les données provenant d’essais cliniques, d’études cliniques, d’investigations cliniques et d’études de performance soumis au règlement (UE) n° 536/2014, au règlement (UE) 2024/1938 du Parlement européen et du Conseil (35), au règlement (UE) 2017/745 et au règlement (UE) 2017/746 ;
n) d’autres données de santé provenant de dispositifs médicaux ;
o) les données provenant des registres de médicaments et des dispositifs médicaux ;
p) les données provenant de cohortes de recherche, de questionnaires et d’enquêtes dans le domaine de la santé, après la première publication des résultats y afférents ;
q) les données de santé provenant de biobanques et de bases de données associées.
Source : règlement (UE) 2025/327 du 11 février 2025.
Dans la définition des finalités auxquelles peuvent répondre des traitements automatisés de données de santé destinés à des utilisations secondaires, l’article 53 du règlement (UE) 2025/327 du 11 février 2025 intègre en outre expressément des motifs en rapport avec le développement des usages de l’intelligence artificielle. Le premier paragraphe de la disposition mentionne en l’occurrence :
a) l’intérêt public dans le domaine de la santé publique ou de la santé au travail, telles que des activités destinées à la protection contre les menaces transfrontières graves pour la santé et à la surveillance de la santé publique ou des activités destinées à garantir un niveau élevé de qualité et de sécurité des soins de santé, y compris de sécurité des patients, et des médicaments ou des dispositifs médicaux ;
e) la recherche scientifique ayant trait aux secteurs de la santé ou des soins qui contribue à la santé publique ou aux évaluations des technologies de la santé, ou qui garantit un niveau élevé de qualité et de sécurité des soins de santé, des médicaments ou des dispositifs médicaux, dans le but d’en faire bénéficier les utilisateurs finals, tels que les patients, les professionnels de la santé et les administrateurs des services de santé : outre les activités de développement et d’innovation pour les produits ou services, le règlement vise la formation, les essais et l’évaluation d’algorithmes, notamment dans les dispositifs médicaux, les dispositifs médicaux de diagnostic in vitro, les systèmes d’IA et les applications de santé numérique ;
f) l’amélioration de la fourniture de soins, de l’optimisation des traitements et de la fourniture de soins de santé, sur la base des données de santé électroniques d’autres personnes physiques.
On remarquera par ailleurs que, sans préjudice de la protection des données à caractère personnel, le droit national peut autoriser l’exploitation, par des opérateurs économiques, de données qui touchent directement au traitement de patients. Ainsi, l’article L. 165-1-3 du code de la sécurité sociale prévoit que « [d]ans le cadre de la mise en œuvre de certains traitements dont la liste est fixée par arrêté des ministres chargés de la santé et de la sécurité sociale après avis de la Haute Autorité de santé, les distributeurs au détail peuvent recueillir, avec l'accord du patient, les données issues d'un dispositif médical inscrit sur la liste prévue à l'article L. 165-1 du présent code qu'ils ont mis à la disposition du patient et qui est nécessaire à son traitement et à l'évaluation de la pertinence de celui-ci » ([1131]). Il précise qu’avec l’accord du patient, les données peuvent « être télétransmises au médecin prescripteur, au distributeur au détail et au service du contrôle médical mentionné à l'article L. 315-1. Au regard de ces données, le prescripteur réévalue de façon régulière la pertinence et l'efficacité de sa prescription et le distributeur, en lien avec le prescripteur, engage des actions ayant pour objet de favoriser une bonne utilisation du dispositif médical ».
● En définitive, les difficultés évoquées au cours des travaux dans la valorisation de données de santé nécessaires au développement de certains usages de l’intelligence artificielle semblent davantage tenir au cadre procédural et aux conditions pratiques d’accès aux données. Selon les signalements de plusieurs entreprises auditionnées, le problème se poserait en ce qui concerne la constitution de bases de données « Patients » ou le croisement des études longitudinales multiomiques ([1132]). Au-delà de ces cas d’espèce, les éléments recueillis par vos rapporteurs mettent en relief deux sources d’aléas pour la conduite des projets tendant à l’application de l’IA aux activités de santé.
La première source d’aléas réside dans les critères sur lesquels reposent les procédures d’autorisation d’accès à des bases de données de santé en l’état du droit français.
Le II de l’article L. 1461-3 du code de la santé publique fait obligation aux personnes produisant ou commercialisant des produits de santé et dispositifs médicaux ([1133]) ou aux assurances et mutuelles ([1134]) :
1° soit de démontrer que les modalités de mise en œuvre du traitement rendent impossible toute utilisation des données pour l’une des finalités mentionnées au V de l’article L. 1461-1 du code de la santé publique, à savoir : la promotion des produits de santé mentionnés au II de l’article L. 5311-1 en direction des professionnels de santé ou d'établissements de santé ; l’exclusion de garanties des contrats d’assurance et la modification de cotisations ou de primes d'assurance d'un individu ou d'un groupe d'individus présentant un même risque ;
2° soit de recourir à un laboratoire de recherche ou à un bureau d'études, publics ou privés, pour réaliser le traitement ([1135]).
La réalisation d’un projet comportant le traitement de données de santé exige l’obtention :
– d’un avis d’un comité scientifique et éthique (pour les recherches n’impliquant pas la personne humaine, le Comité éthique et scientifique pour les recherches, les études et les évaluations dans le domaine de la santé [Cesrees]) ;
– d’une autorisation de la Commission nationale de l’informatique et des libertés (Cnil).
Si les éléments recueillis par la mission ne permettent pas de documenter le phénomène de surréglementation évoqué par plusieurs opérateurs à propos de l’examen des demandes d’autorisation, une telle procédure peut à tout le moins représenter un facteur de complexité administrative.
Ainsi que l’établit un rapport conjoint du Conseil d’État et de l’Inspection générale des Affaires sociales (Igas) publié en décembre 2023 ([1136]), le rôle de guichet commun assumé par la Plateforme des données de santé depuis 2019 et la maîtrise globale des délais d’instruction par le Cesrees et la Cnil ne répondent pas aux attentes des porteurs de projets : la procédure reste perçue comme longue et complexe, d’autant qu’elle peut se rajouter à l’examen par un comité scientifique et éthique d’une cohorte ou d’un entrepôt de données de santé. S’il existe des procédures simplifiées permettant de se dispenser de l’autorisation de la Cnil, voire de l’avis du Cesrees ([1137]), les auteurs du rapport estiment en dernière analyse qu’elles ne suffisent pas davantage à alléger les procédures, en raison de la complexité du cadre général réglementaire, d’une appropriation insuffisante par une partie des acteurs et d’une méthodologie de construction qui associe insuffisamment les acteurs.
Du point de vue de vos rapporteurs, de tels constats militent pour la poursuite des efforts de simplification des procédures applicables aux travaux de recherche impliquant le traitement de données de santé à caractère personnel.
Le rapport précité du Conseil d’État et de l’Igas ([1138]) prône notamment un élargissement du champ des procédures simplifiées et un allègement de leur agencement afin que l’autorisation devienne l’exception. Il recommande également de rénover la procédure d’examen éthique et scientifique pour les études et recherches n’impliquant pas la personne humaine, dans une logique de subsidiarité vis-à-vis des comités éthiques et scientifiques locaux et sous réserve du respect d’un cahier des charges national.
Si elles peuvent comporter des implications qui ne sauraient être examinées en considération du seul objet de leurs travaux, de telles mesures présenteraient un réel intérêt au regard des nécessités du développement des usages de l’intelligence artificielle en matière de santé. Aussi vos rapporteurs appellent les pouvoirs publics à engager sur cette base une réforme des procédures d’autorisation des accès et créations de bases de données susceptible de soutenir l’essor de la technologie.
Recommandation n° 63 : Élargir et alléger les procédures simplifiées applicables aux demandes d’accès ou de constitution de bases de données de santé à caractère personnel ; rénover la procédure d’examen éthique et scientifique pour les études et recherches n’impliquant pas la personne humaine, dans une logique de subsidiarité vis-à-vis des comités éthiques et scientifiques locaux.
Au-delà, le risque d’une surinterprétation des exigences de la protection des données à caractère personnel au gré des projets invite sans doute à formaliser davantage les motifs d’une utilisation secondaire des données de santé en droit français.
Comme souligné par plusieurs intervenants, la question posée est celle de l’intérêt légitime d’un traitement de données à caractère personnel employé dans le cadre du développement des usages de l’intelligence artificielle. En l’état, les formulations utilisées par le RGPD et les instruments de droit national en vigueur revêtent un caractère relativement général, visant des finalités telles que la poursuite « des motifs d’intérêt public dans le domaine de la santé publique, tels que la protection contre les menaces transfrontalières graves pesant sur la santé, ou aux fins de garantir des normes élevées de qualité et de sécurité des soins de santé et des médicaments ou des dispositifs médicaux ». Il n’est pas certain que ces finalités offrent un cadre d’appréciation propice à la valorisation des données de santé à caractère personnel. Par ailleurs et ainsi que le relève le rapport conjoint du Conseil d’État et de l’Igas, les exigences en matière d’information des personnes contribuent à la complexité de la procédure réglementaire, le RGPD posant le principe d’une ré-information individuelle des patients à chaque réutilisation de leurs données.
Par comparaison, le règlement (UE) 2025/327 du 11 février 2025 inclut expressément la formation, les essais et l’évaluation d’algorithmes et des systèmes IA parmi les finalités auxquelles peuvent répondre les traitements automatisés de données de santé. Conformément au paragraphe 1 de son article 53, il s’agit d’une des conditions nécessaires à l’octroi d’un accès par les organismes responsables.
Toutefois, le règlement (UE) 2025/327 du 11 février 2025 ne deviendra applicable qu’à partir du 26 mars 2027. L’article 105 du texte organise en outre une entrée en vigueur différée des dispositions du chapitre IV, à compter du 26 mars 2029 ([1139]). Même si l’intégration d’un règlement n’exige aucune mesure de transposition, vos rapporteurs considèrent qu’il conviendrait au plus vite de mettre le droit interne en cohérence avec ces règles.
Aussi, dans le respect des exigences normatives découlant du RGPD et sous réserve des garanties appropriées de nature à prévenir tout risque de marchandisation, vos rapporteurs préconisent la reconnaissance expresse de la formation, des essais et de l’évaluation d’algorithmes et des systèmes IA comme des motifs pouvant justifier un traitement automatisé des données de santé à caractère personnel ou l’accès à des bases de données publiques existantes.
Recommandation n° 64 : Reconnaître en droit français la formation, les essais et l’évaluation d’algorithmes et de systèmes d’intelligence artificielle comme des finalités justifiant un traitement automatisé des données de santé à caractère personnel ou l’accès à des bases de données publiques existantes. Veiller à la cohérence des lois et règlements applicables aux dispositions du règlement (UE) 2025/327 du 11 février 2025.
La seconde source d’aléas dans l’accès aux données de santé résulte de la dispersion et de l’insuffisante structuration et visibilité des bases en la matière.
Ainsi que le démontre le rapport conjoint du Conseil d’État et de l’Igas publié en décembre 2023 ([1140]), la collecte et la valorisation de ces données se heurtent à un cloisonnement et à l’absence d’interopérabilité entre les systèmes développés par différents détenteurs de données (système national des données de santé, entrepôts de données de santé ([1141]) développés en particulier par les hôpitaux et d’autres acteurs). Le rapport décèle par ailleurs l’existence d’un « esprit propriétaire » qui nuirait à la collaboration entre acteurs et ajouterait aux effets de la dissémination des bases de données.
D’après l’état des lieux dressé par les auteurs du rapport, la dispersion implique en outre des mécanismes de contractualisation entre les différents hébergeurs. Or, du fait de financements inégaux et de difficultés réglementaires, le processus se caractérise par des délais importants qui compliquent l’accès et la valorisation des données de santé et peuvent dissuader la réalisation de certains projets.
La contractualisation de l’accès aux bases de données de santé : une étape très chronophage dans la conduite de projet
« S’agissant de l’accès aux données de la base principale du SNDS, l’étape de contractualisation et de mise à disposition des données par la caisse nationale de l’assurance maladie (CNAM) est particulièrement longue, avec un délai moyen d’accès aux données de 10 à 12 mois, en hausse (+ 56 % du délai médian entre 2020 et 2022), hausse certes en partie expliquée par une augmentation importante des demandes (35 projets livrés par la CNAM en 2018 contre 165 en 2023) et par leur complexité croissante. Ce délai élevé est très problématique pour de nombreux acteurs publics comme privés, conduisant à des renoncements de la part d’un certain nombre d’acteurs. S’il est prévu depuis 2019 que le Health data hub prenne le relais de la CNAM pour la mise à disposition de ces données, cette transition n’a toujours pas été opérée en raison du blocage du transfert des données de la base principale du SNDS, lié au choix de la solution logicielle Azure de Microsoft pour la plateforme technologique du Health data hub.
« Pour les autres bases de données que la base principale du SNDS, l’étape de contractualisation peut aussi être très longue, du fait notamment de modèles de tarification hétérogènes, peu lisibles et parfois peu compétitifs. L’absence de modalités de financement pérenne des bases de données contribue aux exigences élevées des producteurs de données. »
Source : Rapport conjoint du Conseil d’État et de l’Igas, Fédérer les acteurs de l’écosystème pour libérer l’utilisation secondaire des données de santé, pp. 7 et 8.
Outre la simplification des procédures d’examen des demandes et l’amélioration des conditions d’accès au SNDS, cette situation nécessite sans doute une cartographie actualisée des bases de données existantes en matière de santé.
Au terme de leurs travaux et tout en relevant l’existence d’initiatives, les auteurs estimaient qu’à la fin de l’année 2023, il manquait encore une cartographie transverse des bases de données, à jour, susceptible de renvoyer vers des descriptions homogènes du contenu précis des bases de données et de leurs métadonnées.([1142]) Les travaux de la présente mission d’information ne permettent pas d’établir la portée des changements éventuellement intervenus depuis la publication de ces conclusions. Toutefois, au regard des nécessités du développement de l’intelligence artificielle, vos rapporteurs considèrent qu’un tel référencement constitue un enjeu et un besoin renouvelés.
Vos rapporteurs ne peuvent donc qu’encourager les initiatives prises tendant à améliorer la visibilité des bases de données en matière de santé à l’échelle du territoire national. De leur point de vue, la réalisation de cet objectif nécessite la poursuite et le perfectionnement d’outils de recensement à l’échelon central, à l’exemple de la cartographie réalisée par la Cnil ([1143]) , mais elle peut également donner lieu à une approche plus décentralisée. Dans cette optique, ils souscrivent à la recommandation formulée par le Conseil d’État et l’Igas tendant à « favoriser l’utilisation de données issues de différents champs intersectoriels (en particulier les champs environnemental et social), notamment pour développer la prévention en santé, en s’appuyant sur les « hubs » sectoriels pour cartographier les données et favoriser leur interopérabilité » ([1144]).
Recommandation n° 65 : Établir une cartographie actualisée des bases de données de santé, en s’appuyant sur les outils développés par la Cnil et par des hubs sectoriels. En assurer la publicité auprès des porteurs de projets tendant au développement des usages de l’intelligence artificielle.
En dernier lieu, le développement des usages de l’intelligence artificielle exige un effort de normalisation des données dans leur format et dans leur présentation.
En 2023, le rapport conjoint du Conseil d’État et de l’Igas rendait compte d’une hétérogénéité des données, de l’absence d’utilisation d’une nomenclature commune ainsi que du manque de lisibilité des structures de données. D’après cette analyse, cette situation affecterait au premier chef les entrepôts de données de santé tenus par les établissements hospitaliers et restreindrait les possibilités de réutilisation ([1145]). Quoique plus parcellaires, les éléments recueillis par la mission auprès de start-up soulignent également une qualité très inégale des données de nature à compromettre l’entraînement des modèles d’intelligence artificielle. Comme précédemment indiqué, on relèverait jusqu’à 30 % d’erreurs dans la description des pathologies associées aux malades dans les données consolidées.
Il importe donc de travailler à une harmonisation et une amélioration des données produites en matière de santé.
En 2023, le comité stratégique des données de santé a lancé un groupe de travail en vue de l’élaboration d’un socle de données communes pour les entrepôts de données de santé hospitaliers (EDS). Le groupe a identifié 51 items portant notamment sur des données issues de l’examen clinique des patients. En juin 2025, un second groupe de travail consacré à la standardisation d’un socle commun aux EDS hospitaliers a présenté des livrables destinés à guider sa mise en œuvre (avec des spécifications, des tableaux de correspondance et des recommandations de terminologie) ([1146]).
À l’évidence, l’enjeu dépasse les seules nécessités du développement de l’IA mais cette réalisation peut contribuer puissamment à une valorisation des données de santé utile à l’émergence et à la consolidation de nouveaux usages présentant un intérêt pour les patients, l’économie de la santé et la qualité des politiques publiques. Aussi vos rapporteurs formulent le vœu que ces travaux puissent être menés à bien afin de favoriser une standardisation des données de santé et l’interopérabilité des bases qui les contiennent.
Recommandation n° 66 : Soutenir les initiatives visant à promouvoir une standardisation du format, de la présentation et des conditions d’accessibilité des données de santé.
3. Une valorisation de la langue française nécessaire dans l’affirmation de l’écosystème national
● Au-delà de considérations touchant au rayonnement culturel du pays, la langue utilisée par les systèmes d’intelligence artificielle revêt une importance décisive aux plans technologique et économique.
En premier lieu, elle conditionne l’efficacité des modèles de langage en ce qu’elle détermine le volume des données disponibles pour l’entraînement et l’apprentissage : la langue peut ainsi affecter les connaissances et les aptitudes développées, en particulier la capacité et la faculté de raisonner dans l’univers mental d’un locuteur et de comprendre les intentions implicites d’une requête. En l’occurrence, nombres de modèles mis en service apparaissent optimisés pour traiter des informations en anglais. Au-delà, les données peuvent véhiculer des systèmes de représentation qui correspondent aux valeurs et perceptions d’une aire culturelle et linguistique et peuvent influencer les résultats produits. Suivant la remarque de plusieurs intervenants devant la mission, cette influence peut induire des réponses présentant des biais, voire relevant d’hallucinations. En d’autres termes, la langue utilisée peut peser sur le choix des systèmes IA en conférant un avantage comparatif à ceux qui peuvent exploiter un maximum de données.
En l’état, le français occupe une place insignifiante dans le volume des données d’entraînement des modèles d’intelligence artificielle : d’après les chiffres publiés en 2024, les données en français représentaient de l’ordre de 0,2 % des jeux utilisés par la majorité des modèles de langage commerciaux et open source du marché ([1147]). Ainsi que l’illustre le graphique ci-après, cette part peut augmenter suivant les modèles mais demeure très minoritaire au regard du pourcentage de données en anglais.
RÉpartition des langues dans les ensembles de données d’entraînement de modèles d’IA proposés par Hugging Face en 2024
(en %)
Source : OCDE, Perspectives de l’économie numérique de l’OCDE 2024, volume 1, graphique 2.2, 2024, p. 47.
Une telle situation s’explique aisément par le fait que le français ne constitue pas la langue native de la technologie. Elle n’en revêt pas moins un caractère problématique au regard des exigences de qualité et de diversité des données utilisées pour l’entraînement des systèmes d’IA, ainsi que pour les capacités d’innovations de nos start-up.
● Ainsi qu’il ressort de l’état des lieux dressé devant la mission, la valorisation des données en langue nationale donne lieu, depuis plusieurs années, à diverses initiatives qui, directement ou indirectement, participent de la stratégie nationale de développement des usages de l’intelligence artificielle. En dehors de la mise en open source d’un nombre croissant de données des administrations et opérateurs publics, ces démarches reposent sur des partenariats entre acteurs publics et privés dont les formes varient mais ayant pour objet de favoriser la consolidation et l’accès des données en français à l’usage des modèles.
Lancée en décembre 2023 par l’Institut national de l’Audiovisuel (Ina), la Bibliothèque nationale de France (BNF) et le Centre national de la recherche scientifique (CNRS), l’initiative Villers-Cotterêt vise à réunir une vaste quantité de textes en langue nationale exploitables par des modèles d’intelligence artificielle. Sa mise en œuvre repose sur le consortium ArGiMI, sélectionné dans le cadre de l’appel à projets « Communs numériques pour l’intelligence artificielle générative » organisé par Bpifrance dans le cadre du programme France 2030. Sous la coordination de la société Artefact, le projet réunit des start-up (Mistral AI, Artefact, Giskard), la BNF et l’Ina : il porte sur la création et le partage de communs numériques, dont un grand modèle de langue francophone. Toutefois, sous réserve de l’issue des discussions engagées, il pourrait également conduire à la création d’un pôle d’expertise sur le traitement automatique du langage en français.
Un pôle de données en langue française pour l’IA :
« l’initiative Villers-Cotterêt »
Conçue dans le cadre de la mise en œuvre de l’initiative Villers-Cotterêt, la création d’un pôle de données en langue française à l’usage des modèles d’intelligence artificielle est aujourd’hui formalisée par le projet LANGU : IA. Celui-ci comporte deux volets.
Le premier volet porte sur la constitution d’une base de données de jugements humains sous forme de préférence entre plusieurs réponses de modèles de langage (LLM). Il fixe pour objectif une base suffisamment vaste pour répondre aux besoins de l’apprentissage par renforcement à partir de rétroaction humaine ([1148]). Les données pourraient provenir directement des retours des agents publics utilisant des solutions d'IA générative dans le cadre de leur travail.
Le second volet a pour objet la publication de plusieurs ensembles de données (datasets) francophones, textuelles dans un premier temps et utilisables pour le réglage (fine tuning) et la constitution de modèles conversationnels.
Il s’agirait de rassembler le plus grand nombre possible de données légalement utilisables, des contenus libres comme Wikipédia aux œuvres litteraires tombées dans le domaine public, en passant par divers types de contenus pour lesquels des droits d’exploitation seraient obtenus, notamment le droit d’utiliser les données aux fins d’entraînement des modèles de langue.
Les parties prenantes discuteraient de la constitution d’un véritable pôle d’expertise sur le traitement automatique du langage en français. Le pôle donnerait alors la possibilité de former des ingénieurs spécialisés en traitement automatique du langage naturel afin de répondre aux besoins des entreprises.
D’après les informations publiées dans la presse, le consortium ArGiMi a commencé en janvier 2025. En revanche, aucune échéance n’est officiellement fixée à ce jour pour la réalisation des projets.
Source : Benjamin Polge, « Qu'attendre de Villers-Cotterêts, futur hub de données pour franciser les modèles d'IA ? », Journal du Net, 24 juin 2024 ([1149]).
L’accessibilité des données contenues dans les collections numérisées fait également l’objet d’initiatives portées par les établissements universitaires, à l’exemple du projet de recherche mené sous la houlette et avec le financement de la BNF et du Centre de la Sorbonne pour l’intelligence artificielle. Il vise à améliorer l’efficacité du moteur de recherche de Gallica ([1150]) par la conception et la mise en service d’un prototype « conversationnel » adossé à un grand modèle de langue (Large Language Model, LLM). L’objectif consiste à déterminer l’intention cachée d’un usager derrière un mot-clé et de générer une requête améliorée conduisant à des résultats de recherche plus pertinents.
S’ils ne permettent pas de mesurer le degré d’avancement des mesures annoncées et leur efficacité, les éléments recueillis par la mission portent à conclure en la nécessité d’une poursuite des projets de nature à favoriser l’entraînement des systèmes d’IA par un plus grand accès à des données en français.
La mission n’entend néanmoins pas minorer la technicité et la sensibilité des enjeux pouvant entourer l’accès à ces vastes bases de données.
La mise à la disposition de tiers ne va pas de soi au regard des principes et exigences du droit de la propriété intellectuelle applicables aux corpus de textes et de vidéos provenant de la littérature et de l’audiovisuel. Le problème se pose en particulier pour les œuvres non encore tombées dans le domaine public. Au demeurant, le cadre dérogatoire établi par la directive (UE) 2019/790 du 17 avril 2019 sur le droit d’auteur et les droits voisins ([1151]) ne semble pas répondre aux besoins inhérents à l’utilisation de données à des fins d’entraînement des systèmes IA. Sur un plan juridique, la directive réserve le bénéfice de l’exception au titre de la « fouille de textes et de données » (Text and Data Mining) à des fins de recherche scientifique aux organismes de recherche et aux institutions du patrimoine culturel, catégorie qu’elle définit du reste restrictivement ([1152]). Elle reconnaît aux ayant-droits de données la faculté de s’opposer à leur utilisation ([1153]) (clause d’« opt out »). En pratique, la mise en œuvre du dispositif peut se heurter à des obstacles matériels qui en restreignent l’intérêt pour les parties prenantes : du point de vue des développeurs de systèmes IA, négocier individuellement avec chaque propriétaire de données ou ayant droit peut comporter un coût important et dissuasif ; du point de vue des ayant-droits, la complexité des modèles et l’opacité sur les données d’entraînement peuvent hypothéquer l’effectivité du droit d’opposition et la capacité à négocier leur usage.
Suivant la remarque des représentants de la direction générale du Trésor, le défi consiste à dégager les termes d’un modèle vertueux, de nature à répondre à deux besoins : d’une part, préserver les conditions de reconnaissance et de rémunération des droits d’auteurs et des droits voisins ; d’autre part, permettre la valorisation des œuvres dans le contexte d’un développement de l’intelligence artificielle – et ce, sans méconnaître les risques de remplacement du fait de l’utilisation des œuvres par des systèmes d’IA étrangers.
Au cours d’une réunion tenue le 2 juin 2025 sous la présidence conjointe de la ministre de la culture et de la ministre déléguée chargée de l’intelligence artificielle et du numérique, a été engagé un cycle de concertation entre des représentants des développeurs de modèles d’IA générative et des représentants d'ayants droit des filières de la culture et des médias. La concertation vise à favoriser un partage des points de vue et l’identification d’intérêts communs pour la valorisation des données issues des filières culturelles et des médias Elle devrait donner lieu à des réunions programmées jusqu’en novembre 2025 et approfondir des discussions sur trois thèmes, à savoir l’identification de bonnes pratiques de négociation d’accords de licences, la faisabilité des différentes modalités possibles de rémunération et l’amélioration des dispositifs d’expression du droit d’opposition (afin d’en renforcer la visibilité et la prise en compte par les tiers). Les discussions pourraient intégrer le résultat des travaux de la mission relative à la rémunération des contenus culturels utilisés par les systèmes d’IA, menée par le Conseil supérieur de la propriété littéraire et artistique (CSPLA) ([1154]).
Sans préjuger de leur état d’avancement et de leur portée, de telles démarches méritent d’être menées à bien, le respect de protection de la propriété intellectuelle constituant une exigence et sans doute un levier essentiel dans le renforcement du volume des données pouvant concourir à l’entraînement de systèmes d’IA français. Il convient sans doute également de mener à bien une étude juridique en ce qui concerne l’usage des données patrimoniales.
Sous cette réserve, vos rapporteurs ne peuvent qu’encourager les acteurs publics à poursuivre les initiatives tendant à la valorisation numérique de leurs collections et à améliorer leur accessibilité aux fins de développement des usages de l’intelligence artificielle.
Recommandation n° 67 : Développer le volume et l’accessibilité des données en langue française par la poursuite des projets et de nouvelles initiatives tendant à la valorisation des collections et données détenues par des administrations et institutions culturelles. Travailler à l’établissement d’un modèle de valorisation des œuvres respectueux du droit de la propriété intellectuelle et des intérêts afférant aux droits d’auteurs et droits voisins.
Dans l’esprit de vos rapporteurs, la poursuite et l’approfondissement de mesures nationales ne sont pas exclusifs d’actions pouvant être menées avec les partenaires de l’Union européenne en faveur de la diversité linguistique dans les usages de l’intelligence artificielle.
Ainsi, la France assure aujourd’hui la coordination de l’Alliance pour les technologies des langues (ou ALT-EDIC). Créé par la Commission européenne le 7 février 2024, ALT-EDIC participe de la mise en place de communs numériques entre entreprises européennes. Elle vise à accroître la disponibilité des données dans diverses langues européennes en donnant une masse critique à celles qui possèdent peu de locuteurs. Elle prend la forme d’un consortium pour une infrastructure numérique européenne (EDIC) ([1155]) dont la mission consiste à créer une infrastructure européenne commune de données et de services pour les technologies linguistiques. D’après les informations publiées dans la presse ([1156]), le développement du pôle de données en langue française pour l’IA précédemment évoqué pourrait à terme s’inscrire dans le cadre d’ALT-EDIC.
L’Alliance pour les technologies des langues (ALT-EDIC)
Objet d’une proposition en décembre 2023 et formellement créée par la décision d’exécution (UE) 2024/458 du 1er février 2024 ([1157]), l’Alliance pour les technologies des langues (ALT-EDIC) se compose de dix-sept États membres (Bulgarie, Croatie, Danemark, Espagne, Finlande, France, Grèce, Hongrie, Irlande, Italie, Lettonie, Lituanie, Luxembourg, Pays-Bas, Pologne, Slovénie et République tchèque) et d’une collectivité territoriale (la Flandre). Elle compte en outre huit États membres observateurs (Autriche, Belgique, Chypre, Estonie, Malte, Portugal, Roumanie et Slovaquie).
L’Alliance a pour objet la collecte et la structuration des données linguistiques et multimodales ([1158]) provenant de l’ensemble de l’Union européenne et des États membres afin de favoriser le développement de grands modèles linguistiques innovants, à des fins de compétitivité et de préservation de la diversité linguistique. Sa mission correspond ainsi à cinq champs d’intervention qui portent sur :
– la collecte et la consolidation des données : il incombe au consortium de recueillir et de fédérer les ressources linguistiques et multimodales existantes de l’Union européenne et des États membres dans toutes les langues européennes, nationales et régionales, y compris par la création de données stratégiques telles que les langues ayant peu de locuteurs (moins de dix millions de locuteurs) ; elle pourra s’appuyer sur le Language Data Space ;
– la connaissance des modèles existants : la mission d’ALT-EDIC comporte la création d’un référentiel de modèles linguistiques existants à source ouverte en vue de leur réutilisation par les acteurs industriels, ainsi que l’établissement de méthodes spécifiques de mise au point, en particulier pour les PME, et la fourniture de méthodologies d’évaluation, de certification et de normalisation ;
– le développement de nouveaux modèles : l’alliance doit jouer le rôle d’un fonds d’amorçage commun, en rassemblant des ressources publiques et privées afin de lancer et développer de nouveaux projets de grands modèles de langue et de modèles de base dotés de capacités multimodales, avec notamment la fourniture d’un accès au système européen de calcul à haute performance ;
– l’évaluation, la certificiation et la normalisation : ALT-EDIC doit contribuer au développement de méthodologies d'évaluation en mettant l'accent sur la discrimination potentielle et les préjugés introduits par les modèles TAL, ainsi que fournir un soutien spécifique aux institutions qui investissent dans les grands modèles de langue ;
– la structuration de l’écosystème : ALT-EDIC doit servir de point de conseil pour les administrations publiques et concourir à l’information du public sur les enjeux de l’intelligence artificielle dans un contexte plurilinguistique, par le biais d'un programme culturel basé sur l'intelligence artificielle pour les langues.
Source : https://language-data-space.ec.europa.eu/related-initiatives/alt-edic_fr.
Comme précédemment observé, le français figure parmi les langues les plus présentes dans le volume des données utilisées par les modèles commerciaux et en open source. Néanmoins, cette place ne saurait être tenue pour acquise ou satisfaisante au regard du rôle pionnier et moteur des Gafam dans le développement des usages de l’intelligence artificielle. Dès lors et comme dans d’autres domaines d’activités et d’influence, la défense du pluralisme linguistique ne peut que concourir à la valorisation de la langue nationale et au renforcement de la capacité d’innovation de notre écosystème.
Aussi, vos rapporteurs estiment qu’il importe de soutenir les dispositifs mis en place par l’Union européenne en faveur de la diversité linguistique dans l’usage de l’intelligence artificielle, notamment dans le cadre de l’initiative ALT-EDIC.
Recommandation n° 68 : Poursuivre le développement des dispositifs de l’Union européenne en faveur de la préservation de la diversité linguistique des données nécessaires au développement des usages de l’intelligence artificielle.
Lors de sa réunion du 24 septembre 2025, la commission a examiné le rapport de la mission d’information relative aux effets de l’IA sur l’activité économique et la compétitivité des entreprises françaises (Mme Emmanuelle Hoffman et M. Antoine Golliot, corapporteurs).
Ce point de l’ordre du jour n’a pas fait l’objet d’un compte rendu écrit. Les débats sont accessibles sur le portail vidéo de l’Assemblée nationale à l’adresse suivante :
*
La commission a approuvé la publication du rapport d’information.
Liste des personnes auditionnÉes
Par ordre chronologique
Table ronde de chercheurs dans les organismes publics :
M. Raja Chatila, professeur émérite à la Sorbonne spécialisé en matière d’intelligence artificielle et de robotique, ancien Président du Comité d’éthique du numérique
Dr. Bertrand Cassar, co-directeur du diplôme universitaire « Data/IA. – droit du numérique de l’université Paris I »
Table ronde de représentants de start-up fournissant des solutions IA :
Giskard
M. Jean-Marie John-Mathews, co-fondateur
M. Stanislas Renondin De Hautecloque, directeur affaires publiques, chercheur en droit de l'IA
Dataiku
M. Amaury Delplancq, vice-président Europe du Sud
Mirakl
M. Hugo Weber, vice-président affaires institutionnelles et impact *
M. Baptiste Ledan, directeur conseil chez Taddeo *
Mme Sophia Audias, stagiaire en affaires publiques
LightOn
M. Igor Carron, co-fondateur, Président Directeur Général
Mme Olga Lopusanschi, directrice du « Succès client » (CSM)
Table ronde des experts académiques et scientifiques en intelligence artificielle
Mme Laurence Devillers, chercheuse en IA au CNRS, experte en éthique de l’IA
Mme Isabelle Ryl, vice-présidente « Intelligence Artificielle », docteure en informatique et professeure de l'Université de Lille
Table ronde des représentants de start-up fournissant des solutions IA dans le domaine de la défense et de la sécurité
Safran.AI (ex Preligens)
M. Marc Antoine, directeur des affaires publiques *
Cypheme
M. Hugo Garcia-Cotte, président directeur général et co-fondateur
Microsoft
M. Eneric Lopez, directeur IA et impact social de Microsoft en France
M. Elvire François, responsable affaires publiques de Microsoft France *
Audition commune
Exail
M. Jérôme Chrétien, responsable des affaires publiques
Aegir
M. Nicolas Bordet, directeur général et co-fondateur
Audition des représentants de la Fédération des Agroéquipements
Agreenculture
M. Christophe Aubé, président directeur-général
Weenat
M. Jérôme Le Roy, fondateur et président
Mme Sarah Boiteux, responsable des politiques publiques et des affaires gouvernementales *
Mme Charlotte Radvanyi, responsable des politiques publiques *
Méta
M. Yann LeCun, vice-président et scientifique en chef de l’intelligence artificielle
IBM France
M. Xavier Vasques, vice-président et directeur technique et R&D *
Mme Diane Dufoix-Garnier, directrice des affaires publiques *
M. Quentin Prévot, alternant à la direction des affaires publiques
Audition commune
M. Cédric Villani, mathématicien et ancien député *
M. Cédric O, ancien secrétaire d’Etat du numérique *
Table ronde des représentants de start-up fournissant des solutions IA dans le domaine médical :
Gleamer
M. Christian Allouche, président directeur-général
Synapse Medecine
M. Clément Goehrs, président directeur-général
Table ronde des représentants d’entreprises dans le secteur automobile et activités associées :
Scortex
M. Hugues Poiget, directeur général
Stellantis
M. David Routier, directeur Monde Intelligence Artificielle pour l’ingénierie véhicule
Mme Marie-Agnes Kikano, directrice des affaires publiques France
Renault
M. Rodolphe Gelin, expert leader intelligence artificielle
M. Nicolas Tcheng, responsable relations institutionnelles *
Valéo
M. Antoine Lafay, directeur R&D assistance à la conduite (Valeo Brain)
M. Cédric Merlin, directeur IA (Groupe Valeo)
M. Jean-Baptiste Burtscher, directeur affaires publiques et partenariats R&D (Groupe Valeo) *
Table ronde d’entreprises utilisatrices dans les secteurs de l’aéronautique et de la défense :
Thalès
M. David Sadek, vice-président de la recherche, de la technologie et de l’innovation
Airbus
Mme Catherine Jestin, Executive Vice President Digital et membre du comité exécutif d'Airbus
M. Adrien Ricci, direction des affaires publiques France, Airbus Helicopters & Numérique
M. Olivier Masseret, directeur des relations parlementaire et politiques
Amazon Web Service (AWS)
M. Cédric Mora, responsable des affaires publiques France (AWS) cybersécurité, IA et santé *
M. Yohann Benard, directeur des affaires publiques Europe (Amazon) *
Table ronde d’entreprises utilisatrices dont les activités relèvent du commerce, de la distribution et la logistique :
Carrefour
M. Emmanuel Grenier, directeur exécutif e-commerce et transformation digitale / membre du comex groupe
M. Arnaud Grojean, directeur des données et de l’analyse
La Poste
M. Pierre Etienne Bardin, chief data officer
Mme Judith Mehl, Directrice relations institutionnelles et extérieures – Docaposte *
Zalando
Mme Claudia Martinuzzi, directrice des affaires publique *
L’Oréal
Mme Béatrice Dautzenberg, directrice internationale des services « Beauty Tech »
Mme Isabelle Guyony, directrice du développement de l’organisation, relations humaines et Beauty Tech
Mme Louisa Roussel-Desgrais, responsable des affaires publiques *
Table ronde d’entreprises utilisatrices dont les activités relèvent de la logistique :
LOKAD
M. Joannès Vermorel, président
Exotec
M. Louis Esquerre-Pourtere, directeur recherche et développement
Mme Klervi Flatrès, responsable communication
Table ronde d’entreprises utilisatrices dans les secteurs des banques, assurances :
AXA
M. Christophe Vermont, directeur transformation et technologies et membre du comité exécutif d’AXA France
M. Hubert Marck, directeur des affaires publiques *
BNP Paribas
M. Hugues Even, directeur des données du groupe
M. Laurent Bertonnaud, directeur des affaires publiques « France, Retail et numérique » *
Groupama
M. Nicolas Schwartzmann, directeur adjoint stratégie et partenariats
M. Adrien Van de Walle, directeur adjoint des affaires publiques
Aéma Groupe
M. Fabien Faivre, responsable R&D et innovation data Macif
M. Xavier Michel, directeur des affaires publiques Aéma Groupe France &EU *
Mme Fanny Bastid, responsable affaires publiques Aéma Groupe, enjeux digitaux *
Société générale
M. Etienne Guibout Malet, responsable de l’intelligence artificielle pour le groupe
M. Yves Blavet, directeur des affaires publiques pour la banque de détail et le numérique *
Table ronde d’entreprises utilisatrices dans les secteurs des télécommunications :
SFR
M. Marie Lhermelin, secrétaire générale adjointe
Bouygues Telecom
M. Corentin Durand, responsable du pôle affaires publiques *
M. Olivier Levacher, responsable de l’IA Factory
Free
Mme Ombeline Bartin, directrice générale des relations extérieures d’Iliad (Free) *
Orange
Mme Pauline Cayatte, directrice des relations institutionnelles, adjointe au directeur des affaires publiques *
Mme Anne-Lise Barberon, directrice des relations parlementaires
Table ronde des représentants des acteurs du numérique :
Club informatique des grandes entreprises françaises (CIGREF)
M. Emmanuel Sardet, président *
M. Henri d'Agrain, délégué général *
Numeum (ex-Syntec Numérique)
M. Grégory Wintrebert, administrateur et président du bureau des technologies
M. Clément Emine, délégué aux affaires publiques *
France Digitale, association des start-up et investisseurs
Mme Agata Hidalgo, responsable des affaires européennes *
M. Yann Boulay, responsable des affaires publiques *
Mme Lyline Lim, responsable de l’impact et du développement durable de Photoroom
M. Killian Vermersch, cofondateur et CEO de Golem.ai
M. Thomas Bonnenfant, co-fondateur et directeur des opérations de Alegria.group
Table ronde des organisations représentatives des employeurs :
Union des entreprises de proximité (U2P)
M. Michel Picon, président *
M. Jean-Michel Woulkoff, président de la commission intelligence artificielle et modernisation technologique des entreprises libérales de l’UNAPL, membre fondateur de l’U2P, président d’honneur de l’UNFSA
Mme Thérèse Note, relations parlementaires *
Confédération des Petites et moyennes entreprises (CPME)
M. Yahya Fallah, membre du comité exécutif, en charge de l’IA
M. Lionel Vignaud, directeur des affaires économiques, juridiques et fiscales *
M. Jérôme Normand, économiste
M. Adrien Dufour, responsable affaires publiques *
Mouvement des Entreprises de France (Medef)
M. Jean-Luc Brossard, vice-président de Stellantis, président du Comité des constructeurs français d’automobiles (CCFA), co-président de la commission numérique et innovation du Medef
M. Alexis Kasbarian, responsable du pôle « Transition numérique et Innovation » *
Mme Marie David, chargée de mission « Affaires publiques » *
Table ronde d’ordres professionnels des métiers du droit :
Association française des juristes d’entreprises (AFJE)
M. Jean-Philippe Emmanuel Gille, directeur juridique *
Mme Anne-Laure Paulet, Secrétaire Générale *
Mme Andrea de Wulf, chargée de mission coordination des réseaux institutionnels et actifs
Conseil national des Barreaux (CNB)
Mme Marie-Hélène Fabiani, vice-présidente de la commission « Droit et entreprise »
Mme Charlotte Hildebrand, membre de la commission « Droit et entreprise »
Conseil supérieur du notariat (CSN)
M. Jérôme Fehrenbach, directeur général *
Maître Olivier Piquet, membre du bureau
Mme Camille Stoclin-Mille, directrice des relations institutionnelles *
Audition relative aux enjeux de l’application du droit de la propriété intellectuelle :
Compagnie nationale des Conseils en Propriété Industrielle (CNCPI)
M. Emmanuel Potdevin, président
M. Enrico Priori, secrétaire
M. Fabien Bas, membre du bureau
Commission nationale de l’IA
Mme Anne Bouverot, ingénieure, chercheuse en intelligence artificielle, présidente du conseil d’administration de l'ENS et co-présidente de la Commission de l’intelligence artificielle
M. Arno Amabile, conseiller spécial de l'envoyée spéciale pour l'IA
M. Philippe Aghion, professeur titulaire de la chaire « Institutions, Innovation et Croissance » au Collège de France et co-président de la Commission de l’intelligence artificielle
Commission nationale de l'informatique et des libertés (Cnil)
M. Michel Combot, directeur des technologies, de l’innovation, et de l’intelligence artificielle
M. Félicien Vallet, chef du service de l’intelligence artificielle
Mme Nacera Békhat, cheffe du service de l’économie numérique et du secteur financier
Mme Chirine Berrichi, conseillère pour les questions parlementaires et institutionnelles
M. Pierre Ramain, maître des requêtes au Conseil d'État et directeur général du travail
France Travail
M. Samir Amellal, directeur général adjoint « Technologies »
M. Sylvain Poirier, directeur associé « Programme Data et IA »
Audition commune :
M. Frédéric Pascal, enseignant-chercheur en IA à CentraleSupélec, également vice-président IA de l’université Paris-Saclay, et directeur de l’institut DataIA
M. Frédéric Worms, directeur de l’École normale supérieur
M. Simon Bunel, économiste Banque de France
Table ronde des représentants syndicaux :
CFTC (Confédération française des travailleurs chrétiens)
M. Jean Marc Cicuto, conseiller confédéral
M. Paul Dumont, conseiller technique et attaché de groupe
CFE-CGC (Confédération française de l'encadrement - Confédération générale des cadres)
M. Nicolas Blanc, secrétaire national à la transition économique
CGT (Confédération générale du travail)
Mme Emmanuelle Lavignac, conseillère fédérale
M. Matthieu Trubert, Ingénieur chez Microsoft France et co-animateur du Collectif Numérique UGICT-CGT
Banque publique d’investissement (BPI France)
M. Paul-François Fournier, directeur exécutif en charge de l’innovation *
M. Jean Baptiste Marin Lamellet, directeur des relations institutionnelles *
Fonds Frst- We are the first believers
M. Bruno Raillard, fondateur
M. Pierre Entremont, fondateur
Resonance
M. Antoine Véret, associé et co-fondateur
M. Maxime le Dantec, associé et co-fondateur
Serena capital
M. Olivier Martret, associé et investisseur dans l’intelligence artificielle
Mme Heba Hitti, directrice communication
Agence ministérielle pour l’intelligence artificielle de défense (AMIAD)
M. Bertrand Rondepierre, directeur
Mme Alexandra Le Bouhellec, cheffe de la cellule rayonnement
Direction général du Trésor
M. Adrien Zakhartchouk, administrateur hors classe de l'Insee, sous-directeur des politiques sectorielles
M. Victor Amoureux, administrateur de l'Insee, chef du Bureau de la concurrence, du numérique et de l'économie du logement (POLSEC2)
Direction générale des réseaux de communication, du contenu et des technologies (DG Connect) - Bureau de l’IA
M. Thierry Boulanger, chef d’unité adjoint - CNECT A.2 « règlement et Conformité en matière d’intelligence artificielle »
M. Gaspard Demur, chef d'unité adjoint, Unité A4 « Innovation et coordination des politiques en matière d'IA »
M. Guillaume Avrin, coordonnateur de la stratégie nationale pour l'intelligence artificielle
* Ces représentants d’intérêts ont procédé à leur inscription sur le répertoire des représentants d’intérêts de la Haute Autorité pour la transparence de la vie publique (HATVP), qui vise à fournir une information aux citoyens sur les relations entre les représentants d’intérêts et les responsables publics lorsque sont prises des décisions publiques.
([1]) Autorité de la concurrence, Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur de l’intelligence artificielle générative, 28 juin 2024.
([2]) « Machines take me by surprise with great frequency. »
([3]) Selon l’article 3, ch. 1 du Règlement (UE) 2024/1689 sur l’intelligence artificielle (Règlement sur l’IA).
([4]) CNIL, Intelligence artificielle.
([5]) Parlement européen, Intelligence artificielle : définition et utilisation, 20 juin 2023.
([6]) Commission européenne, Commission Guidelines on the definition of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), 29 juillet 2025.
([7]) Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle).
([8]) Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025.
([9]) Fines Schlumberger, J.-A. Aleph Alpha, fleuron allemand de l’intelligence artificielle, devient un cabinet de conseil. N°71 Automne., 2024 : « Autrefois considérée comme le fleuron allemand de l’intelligence artificielle générative, Aleph Alpha a récemment annoncé se retirer de la coûteuse course aux grands modèles de langages et se concentrer sur PhariaAI, un « système d’exploitation pour l’IA générative », un logiciel destiné à aider les entreprises et les administrations à utiliser des chatbots et des outils d’intelligence artificielle indépendamment de la technologie sous-jacente. ».
([10]) Bloomberg, The Rise and Pivot of Germany’s One-Time AI Champion, 5 septembre 2024. Jonas Andrulis, Aleph Alpha’s chief executive déclare « Just having an European LLM is not sufficient as a business model. It doesn’t justify the investment. ».
([11]) Reuters, Mistral AI raises 600 mln euros in latest funding round, juin 2024.
([12]) Maddyness, Mistral AI envisage de lever un milliard de dollars, juin 2025.
([13]) Fines Schlumberger, J.-A. Aleph Alpha, fleuron allemand de l’intelligence artificielle, devient un cabinet de conseil. n°71 Automne., 2024.
([14]) Ambassade de France en Allemagne, La start-up d’intelligence artificielle Aleph Alpha lève 500 millions de dollars, novembre 2023.
([15]) Knüwer, T. Le conte de fées du tour de table de 500 millions chez Aleph Alpha., 2024.
([16]) Le Monde, Mistral AI, la start-up française d’intelligence artificielle, valorisée 11,7 milliards d’euros après avoir levé 1,7 milliard, 9 septembre 2025.
([17]) Financial Times, Europe’s AI computing shortage ‘will be resolved’ soon, says Nvidia chief, 11 juin 2025.
([18]) Maslej, N., Fattorini, L., Perrault, R., Gil, Y., Parli, V., Kariuki, N., Capstick, E., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., Walsh, T., Hamrah, A., Santarlasci, L., Lotufo, J. B., Rome, A., Shi, A., & Oak, S. (2025). The AI Index 2025 annual report. Stanford : AI Index Steering Committee, Institute for Human‑Centered AI, Stanford University.
([19]) Hou, G., & Lian, Q. (2024). Benchmarking of commercial large language models: ChatGPT, Mistral, and Llama, Shanghai Quangong AI Lab.
([20]) Aydin, O., Karaarslan, E., Erenay, F. S., & Bacanin, N. (2025). Generative AI in academic writing : A comparison of DeepSeek, Qwen, ChatGPT, Gemini, Llama, Mistral, and Gemma.
([21]) Ibid
([22]) Jegham, N., Abdelatti, M., & Hendawi, A. (2024). Visual reasoning evaluation of Grok, DeepSeek’s Janus, Gemini, Qwen, Mistral, and ChatGPT. University of Rhode Island & Providence College : « Additionally, as seen in Figure 6, ChatGPT-o1 maintains the most balanced high performance across tasks, exhibiting consistently strong accuracy without significant weaknesses in any category. In contrast, models like Pixtral 12B ()and Grok 3 display more uneven performance, excelling in certain tasks while struggling in others. Pixtral 12B demonstrates relatively strong results in tasks such as cartoon understanding and diagram interpretation but underperforms in difference spotting and image-text matching »
([23]) Ahuja, K., Kunchukuttan, A., Dayanik, E., Pires, T., Wang, A., Batra, A., Ahmed, R., & Neubig, G. (2024). Megaverse : Benchmarking Large Language Models Across Languages, Modalities, Models and Tasks. Proceedings of the 2024 Conference of the North American Chapter of the Association for Computational Linguistics : Human Language Technologies.
([24]) Ahuja, S., Aggarwal, D., Gumma, V., Watts, I., Sathe, A., Ochieng, M., Hada, R., Jain, P., Ahmed, M., Bali, K., & Sitaram, S. (2024, March). Benchmarking large language models across languages, modalities, models and tasks. North American Chapter of the Association for Computational Linguistics (NAACL 2024). Microsoft Research : « Our experiments show that GPT-4 and PaLM2 outperform the Llama and Mistral models on various tasks, notably on low-resource languages, with GPT-4 outperforming PaLM2 on more datasets. »
([25]) Maslej, N., Fattorini, L., Perrault, R., Gil, Y., Parli, V., Kariuki, N., Capstick, E., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., Walsh, T., Hamrah, A., Santarlasci, L., Lotufo, J. B., Rome, A., Shi, A., & Oak, S. (2025). The AI Index 2025 annual report. Stanford : AI Index Steering Committee, Institute for Human‑Centered AI, Stanford University. Retrieved April 9, 2025, from Stanford HAI website.
([26]) Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025.
([27]) Reuters, OpenAI closes $6.6 billion funding haul with investment from Microsoft and Nvidia, 3 octobre 2024.
([28]) NYtimes, Amazon invests $ 4 Billion in Anthropic, 2024.
([29]) DGtrésor, L’intelligence artificielle en Chine, 9 janvier 2025.
([30]) Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025.
([31]) Financial Times, With DeepSeek, China innovates and the US imitates”, 30 janvier 2025.
([32]) CNN Business, A shocking Chinese AI advancement called DeepSeek is sending US stocks plunging, 27 janvier 2025.
([33]) Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025.
([34]) Patel, D., Kourabi, A. J., O’Laughlin, D., & Knuhtsen, R.. DeepSeek debates: Chinese leadership on cost, true training cost, closed model margin impacts. 31 janvier 2025.
([35]) Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025.
([36]) Financial Times, Europe’s AI computing shortage ‘will be resolved’ soon, says Nvidia chief, 11 juin 2025.
([37]) Mistral AI, Mistral Compute, 11 juin 2025.
([38]) Financial Times, Europe’s AI computing shortage ‘will be resolved’ soon, says Nvidia chief, 11 juin 2025.
([39]) Un hyperscaler désigne un fournisseur de services cloud capable de déployer et gérer des infrastructures informatiques à très grande échelle (datacenters, réseaux, stockage), comme Amazon Web Services, Microsoft Azure ou Google Cloud.
([40]) Financial Times, Europe’s Mistral benefits from search for artificial intelligence alternatives, 8 juin 2025.
([41]) Pour la CNIL, le cloud computing (en français, « informatique dans les nuages ») fait référence à l’utilisation de la mémoire et des capacités de calcul des ordinateurs et des serveurs répartis dans le monde entier et liés par un réseau. Les applications et les données ne se trouvent plus sur un ordinateur déterminé mais dans un nuage (cloud) composé de nombreux serveurs distants interconnectés.
([42]) Selon la CNIL, l’IaaS (infrastructure as a service) est un service de cloud computing offrant des ressources informatiques matérielles (stockage, réseau, baies de serveurs) au sein d’un environnement virtualisé, par le biais d’Internet ou d’une autre connexion.
([43]) Selon la CNIL, le PaaS (Platform as a service) est un service de cloud computing fournissant aux clients (généralement des développeurs ou entreprises de développement d’applications logicielles) une plateforme permettant le développement, l’exécution et la gestion d’applications logicielles, sans avoir à gérer l’infrastructure matérielle sous-jacente.
([44]) Synergy research group, Cloud is a Global Market - Apart from China, 21 août 2024.
([45]) Consultancy.eu, European IaaS and PaaS cloud market to double by 2028, 11 septembre 2024.
([46]) Babinet, G., & Harito, L’ombre du cloud : armer l’Europe dans la guerre invisible des données. Études numérique, 1er mai 2025.
([47]) OVHCloud, OVHcloud renforce son empreinte européenne avec l'ouverture d'un premier datacenter en Italie, 21 mai 2025.
([48]) OVHCloud, Open source — Shaping the Public Cloud.
([50]) Babinet, G., & Harito, L’ombre du cloud : armer l’Europe dans la guerre invisible des données. Études numérique.1er mai 2025.
([51]) Daniela Mustatea, « North America Vs Europe : Who Will Win the Race to Cloud Adoption ? », BigStep, 19 janvier 2015.
([53]) France digitale, Mapping 2025 des startups françaises de l'IA, 2025.
([55]) Ibid.
([56]) Ministère de l’économie et des finances, La stratégie nationale pour l’intelligence artificielle, février 2025.
([57]) Un terme qui regroupe des start-up valorisées à plus d'un milliard de dollars.
([58]) Frenchtech, conférence de presse, 22 mai 2024.
([59]) Direction générale des entreprises, Intelligence artificielle en France : un écosystème d’excellence, 12 février 2025.
([60]) IMF, World Economic Outlook, avril 2025 (voir GDP PPP share of the world).
([61]) Silicon Valley Bank, The state of AI industry trends in Europe: Talent drives success, but U.S. funding still crucial, 15 avril 2025 qui évoque en 2024 un financement global de 124 milliards de dollars (États-Unis+Asie+Europe) et 3,2 milliards pour la France.
([62]) France digitale, Mapping 2025 des startups françaises de l'IA, 2025.
([63]) Direction générale des entreprises, Intelligence artificielle en France : un écosystème d’excellence, 12 février 2025.
([64]) France digitale, Mapping 2025 des startups françaises de l'IA, 2025.
([65]) Commission de l’intelligence artificielle, IA : notre ambition pour la France, mars 2024.
([66]) Direction générale des entreprises, Intelligence artificielle en France : un écosystème d’excellence, 12 février 2025.
([67]) France digitale, Mapping 2025 des startups françaises de l'IA, 2025.
([68]) Sylicon Valley Bank, The state of AI industry trends in Europe: Talent drives success, but U.S. funding still crucial, 15 avril 2025.
([69]) Se reporter à la partie concernée, pp.
([70]) Dealroom. (2024). AI Europe Report 2024.
([71]) Sylicon Valley Bank, The state of AI industry trends in Europe: Talent drives success, but U.S. funding still crucial, 15 avril 2025.
([72]) Se reporter à la partie Mistral.
([73]) Entreprise innovante déjà sortie de sa phase de démarrage (start-up) qui connaît une forte croissance rapide et soutenue, notamment en termes de chiffre d’affaires, d’effectifs ou d’expansion internationale.
([74]) Safran, Safran.AI - Leader en intelligence artificielle pour l'aérospatiale et la défense.
([75]) Safran, Preligens, pépite de l’intelligence artificielle, rejoint Safran, 2 septembre 2024.
([76]) LeMonde, La vente de Preligens illustre les difficultés de financer une start-up d’IA de défense en France, 30 mai 2024.
([77]) Direction générale des entreprises, Intelligence artificielle en France : un écosystème d’excellence, 12 février 2025.
([78]) Bharti, M. (2025). AI-driven retail optimization: A technical analysis of modern inventory management. International Journal of Advances in Engineering and Management (IJAEM), 7(2), 31–38.
([79]) Ibid.
([80]) ERP Today, Realizing AI in Retail.
([81]) Rapport d’information n°1990 de l’Assemblée Nationale sur les incidences du déploiement des grands entrepôts logistiques, 2023.
([82]) EtailLondon, How Zalando is Revolutionising the Customer Experience with Its Retail Technology, 2025.
([83]) Perret, J. K., & Schwientek, J. (2025). Beauty tech—Customer experience and loyalty of augmented reality- and artificial intelligence-driven cosmetics. Digital, 5(2), 21, 2025.
([85]) Renascence, How L’Oréal Revolutionizes Customer Experience (CX) with Beauty Tech Innovations, 4 septembre 2024.
([86]) Rajegowda, G. M., Spyridis, Y., Villarini, B., & Argyriou, V. (2024). An AI-assisted skincare routine recommendation system in XR. arXiv. 2024.
([87]) Modèle d’intelligence artificielle conçu pour traiter et analyser des données structurées en grille (comme des images), en détectant automatiquement des motifs grâce à l’application de filtres convolutifs.
([88]) Micheletto, V., Accardi, S., Fici, A., Piccoli, F., Rossi, C., Bilucaglia, M., Russo, V., & Zito, M. (2025). Enjoy it! Cosmetic try-on apps and augmented reality: The impact of enjoyment, informativeness and ease of use. Frontiers in Virtual Reality, 6. 2025.
([89]) NY Post, L’Oreal is creating a revolutionary bioprinted skin that can ‘feel’ touch, 30 mai 2024.
([90]) IMF, AI’s Reverberations across Finance, décembre 2023.
([91]) Sperling J., Big Insights Into AI’s Impact on Finance, Columbia Business School, 10 janvier 2025.
([92]) BCG, AI Adoption in 2024: 74% of Companies Struggle to Achieve and Scale Value, 24 octobre 2024.
([93]) BNPparibas, « Chez BNP Paribas, l'intelligence artificielle entre dans une nouvelle ère ! », 15 octobre 2024.
([94]) Société générale, Société Générale partage sa stratégie d'intégration de l'IA générative dans le secteur financier, 10 octobre 2024.
([95]) WEF, Artificial intelligence in Financial Services, Janvier 2025.
([96]) Société générale, Société Générale partage sa stratégie d'intégration de l'IA générative dans le secteur financier, 10 octobre 2024.
([97]) US Department of the treasury, Artificial intelligence in financial services, décembre 2024.
([98]) Business Insider, At Mastercard, AI is helping to power fraud-detection systems, 12 mai 2025.
([99]) Mastercard, Mastercard supercharges consumer protection with gen ai, 1er février 2024.
([100]) BNP Parisbas, BNP Paribas met à disposition de ses métiers une plateforme de LLM as a Service pour accélérer l’industrialisation de cas d’usage d’IA générative, 5 juin 2025.
([101]) Silicon, Déployer l'IA à l'échelle : l'approche d'AXA, entre vision et pragmatisme, 24 avril 2025
([102]) Ibid.
([103]) Evident, The Evident AI Insurance Index, juin 2025.
([104]) Allianz, Smarter claims management, smoother settlements, 5 février 2025.
([105]) Generali, IA et robotique en action chez Generali France : 5 cas d’usage et l’objectif de doubler l’automatisation des processus à 3 ans, 21 mars 2025.
([106]) Bank of America, BofA’s Erica Surpasses 2 Billion Interactions, Helping 42 Million Clients Since Launch, 8 avril 2024.
([107]) Financial times, JPMorgan pitches in-house chatbot as AI-based research analyst, 26 juillet 2024.
([108])HSBC, HSBC and AI
([109]) Microsoft, Zurich Insurance Group shapes the future of underwriting with Azure OpenAI Service, 15 novembre 2024.
([110]) BIS, Regulating AI in the financial sector: recent developments and main challenges, 12 décembre 2024.
([111]) BNPParibas, Data & Intelligence Artificielle.
([112]) se reporter à la partie IA Act, pp.
([113]) Financial services Skills Commission, Unlocking AI’s potential: The skills that matter, may 2025.
([114]) BCG, How to Get ROI from AI in the Finance Function, 4 juin 2024.
([115]) Research and Markets, Artificial Intelligence (AI) in Healthcare Market by Offering (Integrated), Function (Diagnosis, Genomic, Precision Medicine, Radiation, Immunotherapy, Pharmacy, Supply Chain), Application (Clinical), End User (Hospitals), Region - Global Forecast to 2030, may 2025.
([116]) OCDE « L’IA dans le domaine de la santé : Un immense potentiel, d’énormes risques », 2024 : « La taille du marché mondial de l’IA appliquée à la santé devrait être multipliée par 16 d’ici 2030, passant de 11 milliards USD en 2021 à 188 milliards (Conor Stewart, 2023) ».
([117]) American medical association, AMA augmented Intelligence Research, février 2025.
([118]) Pulselife, Baromètre IA en santé : alliée ou menace ?, 1er février 2024.
([119]) Sanofi, Maladies Rares : l’Intelligence Artificielle plébiscitée pour aider les médecins dans le diagnostic de leurs patients, 29 février 2024.
([120]) Terra Nova, IA et Santé : pourquoi l’action publique ne peut plus attendre, 3 juillet 2024.
([121]) Philips, Philips Future Health Index 2025, 15 mai 2025.
([122]) World Health organization, Ethics and governance of artificial intelligence for health: WHO guidance. 2024.
([123]) Topol, E. (2019). Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books.
([124]) Dankwa-Mullan, I. (2024). Health equity and ethical considerations in using artificial intelligence in public health and medicine. Preventing Chronic Disease, 21, 240245.
([125]) Techcrunch, Radiology AI software provider Gleamer expands into MRI with two M&A transactions, 10 mars 2025.
([126]) Techcrunch, Synapse Medicine raises $28 million for its medication intelligence platform, 1er mars 2022.
([127]) Hatib, F., Jian, Z., Buddi, S., Lee, C., Settels, J., Sibert, K., & Rinehart, J. Machine-learning algorithm to predict hypotension based on high-fidelity arterial pressure waveform analysis. Octobre 2018.
([128]) La dépêche, Au CHU de Strasbourg, l'intelligence artificielle au bloc opératoire, 19 septembre 2021.
([129]) Les Echos, "BioSerenity : l'intelligence artificielle et la data au service du patient". September 20, 2019. Retrieved September 10, 2021.
([130]) Site de Bioserenity.
([131]) Ocana, A., Pandiella, A., Privat, C. et al. Integrating artificial intelligence in drug discovery and early drug development: a transformative approach. Biomark Res 13, 45 (2025).
([132]) Les Échos, Aqemia signe un contrat de 140 millions de dollars avec Sanofi dans la recherche de médicament, 5 décembre 2023.
([133]) Averly, R., Baker, F. N., & Ning, X. (2025, February 19). LIDDIA: Language-based intelligent drug discovery agent [Preprint]. arXiv.
([135]) CNRS, Prédire l’apparition de troubles anxieux dès l’adolescence grâce à l’intelligence artificielle, 10 janvier 2023.
([136]) Chavanne, A.V., Paillère Martinot, M.L., Penttilä, J. et al. Anxiety onset in adolescents: a machine-learning prediction. Mol Psychiatry (2023).
([137]) Hasanzadeh, F., Josephson, C.B., Waters, G. et al. Bias recognition and mitigation strategies in artificial intelligence healthcare applications. npj Digit. Med. 8, 154 (2025).
([138]) Suenghataiphorn, T., Tribuddharat, N., Danpanichkul, P., & Kulthamrongsri, N. (2025). Bias in Large Language Models Across Clinical Applications: A Systematic Review. arXiv.
([139]) European Parliament, Artificiel intelligence in healthcare, juin 2022.
([140]) Spagnolli, A., Tolomini, C., Beretta, E., & Sarra, C. (2025). Transparency in Healthcare AI: Testing European Regulatory Provisions against Users' Transparency Needs. arXiv.
([141]) se reporter à la partie sur l’AI act.
([142]) Howcroft, A., Bennett-Weston, A., Khan, A., Griffiths, J., Gay, S., & Howick, J. (2025). AI Chatbots Versus Human Healthcare Professionals: A Systematic Review and Meta-Analysis of Empathy in Patient Care. medRxiv.
([143]) European Parliament, Defence and artificial intelligence, avril 2025.
([144]) Congress.gov, Emerging Military Technologies: Background and Issues for Congress. 22 février 2024.
([145]) Congress.gov, Defense primer : Emerging Technologies, 11 avril 2024.
([147]) Bloomberg, Inside Project Maven, the US Military’s AI Project, 29 février 2024.
([148]) Mckinsey, How will US funding for defense technology innovation evolve?, 4 novembre 2022.
([149]) Congress.gov, Emerging Military Technologies: Background and Issues for Congress. 22 février 2024.
([150]) CNAS, Military Artificial Intelligence, the People’s Liberation Army, and U.S.-China Strategic Competition, 1er février 2024.
([151]) Brookings, “AI weapons” in China’s military innovation, Avril 2020.
([152]) Sipris, A NEW ESTIMATE OF CHINA’S MILITARY EXPENDITURE, janvier 2021.
([153]) National defense magazine,China Matchin Pentagon Spending on AI, juin 2022.
([154]) US Department of Defense, Annual report to congress, 2024.
([155]) Congress.gov, Emerging Military Technologies: Background and Issues for Congress. 22 février 2024.
([156]) DefenseNews, Russian defense plan kicks off separate AI development push, 16 août 2024.
([157]) European Parliament, Defence and artificial intelligence, avril 2025.
([158]) Sipri, Russia’s military spending: Frequently asked questions, 27 avril 2020.
([159]) Conseil européen, Une boussole stratégique pour renforcer la sécurité et la défense de l'UE au cours de la prochaine décennie, 21 mars 2022.
([161]) European Parliament, Reinforcing Europe's defence industry, 8 novembre 2024.
([162]) Règlement (UE) 2021/697 du Parlement européen et du Conseil du 29 avril 2021 établissant le Fonds européen de la défense et abrogeant le règlement (UE) 2018/1092 .
([163]) European Commission, Commission unveils the White Paper for European Defence and the ReArm Europe Plan/Readiness 2030, 19 mars 2025.
([164]) European Parliament, Defence and artificial intelligence, avril 2025.
([165]) European Union external Action, Defence technologies - Time to Think Big Again, 12 octobre 2024.
([166]) European Parliament, Defence and artificial intelligence, avril 2025.
([167]) European union, Strategic Technologies for Europe Platform.
([168]) Graylin, A. W., & Triolo, P.. There can be no winners in a US-China AI arms race. MIT Technology Review. 21 janvier 2025.
([169]) Ibid.
([170]) European Parliament, Defence and artificial intelligence, avril 2025.
([171]) EuropeanParliament, Defence and artificial intelligence, avril 2025.
([172]) Iris, Quel rôle l’IA est-elle susceptible de jouer dans le futur de la défense ?, 23 juin 2025.
([173]) Systèmes, souvent d’intelligence artificielle, dont le fonctionnement interne est complexe ou opaque, rendant difficile pour l’utilisateur de comprendre comment les décisions ou résultats sont produits.
([174]) Safran, Safran.AI - Leader en intelligence artificielle pour l'aérospatiale et la défense.
([175]) Safran, Preligens, pépite de l’intelligence artificielle, rejoint Safran, 2 septembre 2024.
([176]) Le Monde, La vente de Preligens illustre les difficultés de financer une start-up d’IA de défense en France, 30 mai 2024.
([177]) Crunchbase, Defense Tech Startup Helsing Raises at $5.4B Valuation, 11 juillet 2024.
([178]) Iris, Quel rôle l’IA est-elle susceptible de jouer dans le futur de la défense ?, 23 juin 2025.
([179]) Ministère des armées, IA de défense : 6 cas d’usage concrets dans les armées, 18 juin 2024.
([180]) Ibid.
([181]) Ministère des armées, IA de défense : 6 cas d’usage concrets dans les armées, 18 juin 2024.
([182]) HDIAC, Breakthrough Army Technology Is a Game Changer for Deepfake Detection, 2 juin 2021.
([183]) Safran, Safra met ses solutions d’IA au service des Forces armées, 14 juin 2025.
([184]) Bloomberg, Inside Project Maven, the US Military’s AI Project, 29 février 2024.
([185]) Feldman, P., Dant, A., & Massey, A. (2019). Integrating Artificial Intelligence into Weapon Systems [Prépublication]. arXiv.
([186]) The australian, Qantas using AI to track weather, save fuel and schedule flights, 19 juin 2024.
([187]) Moghadasnian, S. (Avril 2025). AI-powered predictive maintenance in aviation operations. Paper presented at the 16th International Conference on Advanced Research in Science, Engineering and Technology, Bern, Switzerland. Aviation and Tourism Research and Innovation Center (ATRIC).
([188]) Sodiq, Y., & Shekhar, S. (Novembre 2024). AI-enabled predictive maintenance in aerospace engineering and aviation safety. Bio-Rad Laboratories.
([189]) Jarry, G., Dalmau, R., Very, P., & Sun, J. (10 octobre 2024). On the generalization properties of deep learning for aircraft fuel flow estimation models [Preprint]. arXiv.
([190]) Safran, Preligens, pépite de l’intelligence artificielle, rejoint Safran, 2 septembre 2024.
([191]) Airbus, Skywise Core
([192]) Selon la CNIL, traitement automatique du langage naturel (natural language processing ou NLP) Le traitement automatique du langage naturel est un domaine multidisciplinaire impliquant la linguistique, l'informatique et l’intelligence artificielle.
([193]) Airbus, How Airbus uses generative artificial intelligence to reinvent itself, 28 mai 2024.
([194]) Airbus, "Airbus and Helsing to collaborate on artificial intelligence for the teaming of manned and unmanned military aircraft". 5 juin 2024.
([195]) ARCEP, Note n° 6 L’intelligence Artificielle dans les réseaux de télécommunications, 14 janvier 2020.
([196]) GSMA intelligence, Telco AI : State of the Market, Q4 2024, Janvier 2025.
([197]) ARCEP, Réseaux du futur L’intelligence artificielle et les réseaux télécom, Juin 2025.
([198]) WEF, Artificial Intelligence in Telecommunications, Février 2025.
([200]) ARCEP, Réseaux du futur L’intelligence artificielle et les réseaux télécom, Juin 2025.
([201]) WEF, Artificial Intelligence in Telecommunications, Février 2025.
([203]) Azari, A., Salehi, F., Papapetrou, P., & Cavdar, C. (2021). Energy and resource efficiency by user traffic prediction and classification in cellular networks [Preprint]. arXiv.
([204]) ARCEP, Réseaux du futur L’intelligence artificielle et les réseaux télécom, Juin 2025.
([205]) Ericsson, Intelligent sustainability: the role of AI in energy consumption, management and new revenues, 20 juin 2023.
([206]) Orange, Le groupe Orange exploite l'IA pour optimiser la consommation de ses antennes réseaux.
([207]) Deng, Z., Cai, Y., Liu, Q., Mu, S., Lyu, B., & Yang, Z. (2025). TelePlanNet: An AI-driven framework for efficient telecom network planning. arXiv.
([208]) Orange, Improving business operations through AI, 10 février 2020.
([209]) ARCEP, Réseaux du futur L’intelligence artificielle et les réseaux télécom, Juin 2025.
([210]) SFR, SFR lance son plan d’action « pour une IA à impact positif, 6 février 2025.
([211]) ARCEP, Réseaux du futur L’intelligence artificielle et les réseaux télécom, Juin 2025.
([212]) Yang, Y., Yang, S., Zhao, C., & Xu, Z. (2024). TelOps: AI-driven operations and maintenance for telecommunication networks. IEEE Communications Magazine, 62(4), 37–43.
([213]) Boera A, SFR sait comment améliorer son service client : en utilisant l'intelligence artificielle Gemini de Google, 11 juillet 2024.
([214]) ARCEP, Réseaux du futur L’intelligence artificielle et les réseaux télécom, Juin 2025.
([215]) Orange, Orange et Mistral AI signent un partenariat stratégique pour accélérer le développement de l’IA en Europe, 11 février 2025.
([216]) Bouygues Telecom, Partenaire télécom exclusif de Perplexity en France, Bouygues Telecom est le seul opérateur à offrir à tous ses clients un accès gratuit au moteur de recherche IA, Perplexity Pro, 11 février 2025.
([217]) ARCEP, Réseaux du futur L’intelligence artificielle et les réseaux télécom, Juin 2025.
([218]) GTI, 5G-AxAI New Technology, New Case, New Model White Paper, 3 mars 2025.
([219]) Ericsson, Far EasTone and Ericsson successfully achieved differentiated connectivity with 5G Advanced capabilities at Taipei Dome, 13 février 2025.
([220]) GSMA intelligence, Telco AI : State of the Market, Q4 2024, Janvier 2025.
([221]) Selon la Charte éthique pour un marché du droit en ligne : « l'usage de la technologie pour développer, proposer ou fournir des produits ou des services relatifs au droit et à la justice, ou permettre l'accès des usagers du droit, professionnels ou non, à de tels produits ou services ».
([222]) Sénat, L'intelligence artificielle générative et les métiers du droit : agir plutôt que subir, 18 décembre 2024.
([223]) BPIFrance, L’IA dans le secteur juridique : une révolution pour les professionnels du droit, 25 septembre 2024.
([224]) Sénat, L'intelligence artificielle générative et les métiers du droit : agir plutôt que subir, 18 décembre 2024.
([225]) LexisNexis, IA générative et professionnel du droit, 3 octobre 2023.
([226]) Couture R., The Impact of Artificial Intelligence on Law Firms’ Business Models, Harvard Business School, 25 février 2025
([227]) LexisNexis, LexisNexis dévoile une enquête sur l'IA générative et son impact sur la transformation des métiers du droit, 3 octobre 2023.
([228]) Thomson Reuters, How AI is transforming the legal profession, 16 janvier 2025.
([229]) Whitehouse, N., Lincoln, N., Yiu, S., Catterson, L., & Perera, R. (2025). Better Bill GPT: Comparing Large Language Models against Legal Invoice Reviewers. arXiv.
([230]) Researchandmarket, Artificial Intelligence in Agriculture Market - A Global and Regional Analysis: Focus on Application, Mode of Deployment, Product Type, and Region - Analysis and Forecast, 2024-2034, juillet 2024.
([231]) Ibid.
([232]) USDA, Most row crop acreage is now managed using auto-steer and guidance systems, 27 mars 2023.
([233]) Reuters, China seeks to boost food output with five-year smart farming plan, 25 octobre 2024.
([234]) Kendall, H.; Naughton, P.; Clark, B.; et al. (2017). "Precision Agriculture in China: Exploring Awareness, Understanding, Attitudes and Perceptions of Agricultural Experts and End-Users in China". Advances in Animal Biosciences.), pp. 703–707.
([235]) McFadden, J., Erickson, B., Lowenberg‑DeBoer, J., & Milics, G. (2024). Global adoption of precision agriculture: An update on trends and emerging technologies. In Proceedings of the 16th International Conference on Precision Agriculture. Monticello, IL : International Society of Precision Agriculture.
([236]) Financial Times, How Australia became a test bed for the future of farming, 24 janvier 2025.
([237]) Researchandmarket, Artificial Intelligence in Agriculture Market - A Global and Regional Analysis: Focus on Application, Mode of Deployment, Product Type, and Region - Analysis and Forecast, 2024-2034, Juillet 2024.
([238]) European Commission, AI-enabled Decision-Making Support Tools (AI DMST) for Agriculture, 18 juin 2025.
([239]) European Parliament, Artificial intelligence in the agri-food sector, Mars 2023.
([240]) Fraunhofer, AI-enabled Decision-Making Support Tools (AI DMST) for Agriculture, 18 juin 2025.
([241]) Researchandmarket, Artificial Intelligence in Agriculture Market - A Global and Regional Analysis: Focus on Application, Mode of Deployment, Product Type, and Region - Analysis and Forecast, 2024-2034, Juillet 2024.
([242]) ISAGRI, L’Intelligence Artificielle au cœur de la révolution numérique de l’agriculture, Février 2025.
([243]) Ibid.
([244]) TW3 Partners, IA en Agriculture : Automatisation et Prévision, 18 janvier 2024.
([245]) ISAGRI, L’Intelligence Artificielle au cœur de la révolution numérique de l’agriculture, Février 2025.
([246]) Ibid.
([247]) Ibid.
([248]) Weenat, Levée de fonds Weenat, 9 avril 2024.
([249]) Weenat, Water management: Weenat is innovating to provide all agricultural branches with key data in the coming years, 18 octobre 2023.
([250]) Naïo Technologies, A propos de naïo Technologies.
([251]) Cainthus, An eye on your farm, an eye on your future…
([252]) CEAList, AIHERD, la surveillance intelligente des troupeaux, 24 avril 2025.
([253]) CEAList, AIherd, smart livestock monitoring, 24 avril 2025 : key figure.
([255]) IFR, Executive Summary World Robotics 2019 Industrial Robots, 2019.
([256]) Capgemini Research Institute, Accelerating automotive's AI transformation: How driving AI enterprise-wide can turbo-charge organizational value, 2019.
([257]) Mckinsey, The state of AI: How organizations are rewiring to capture value, 12 mars 2025.
([258]) Fullpath, The 2025 State of AI Adoption in Car Dealerships, Octobre 2024.
([259]) Aetherius Consulting, Adoption of Artificial Intelligence in F2000 Automotive Companies: Current Landscape and Projections, 18 mars 2025.
([260]) Mckinsey, Automotive R&D transformation: Optimizing gen AI’s potential value, 9 février 2024.
([261]) Grand View Research. (2025). Automotive artificial intelligence market size, share & trends analysis report by component (hardware, software), by technology (machine learning, computer vision), by level of autonomy, by vehicle type, by region, and segment forecasts, 2025–2030 (Report ID : GVR-4-68039-994-6, 100 pages).
([262]) Aetherius Consulting, Adoption of Artificial Intelligence in F2000 Automotive Companies: Current Landscape and Projections, 18 mars 2025.
([263]) Yoshizawa, T., Singelée, D., Muehlberg, J. T., Delbruel, S., Taherkordi, A., Hughes, D., & Preneel, B. (2023). A survey of security and privacy issues in V2X communication systems. ACM Computing Surveys, 55(12), Article 240.
([264]) Business Insider, AI adoption is growing in the automotive industry. General Motors is all in., 16 juin 2025.
([265]) BPIfrance, L’IA, moteur de la révolution du secteur automobile, 16 septembre 2024.
([266]) Rožanec, J. M., Trajkova, E., Dam, P., Fortuna, B., & Mladenić, D. (2021). Streaming machine learning and online active learning for automated visual inspection (arXiv :2110.09396). arXiv.
([267]) Mazzetto, M., Teixeira, M., Rodrigues, É. O., & Casanova, D. (2020). Deep learning models for visual inspection on automotive assembling line. International Journal of Advanced Engineering Research and Science, 7(4), 473–494.
([268]) Fournier, É., Jeoffrion, C., Hmedan, B., Pellier, D., Fiorino, H., & Landry, A. (2024). Human-Cobot collaboration's impact on success, time completion, errors, workload, gestures and acceptability during an assembly task. Applied Ergonomics, 119, 104306.
([269]) BPIfrance, L’IA, moteur de la révolution du secteur automobile, 16 septembre 2024.
([270]) Cherniak, Predictive Maintenance AI Automotive: Transmuting Pain Points into Profit & Data into Dollars, 30 mai 2025.
([271]) BPIfrance, L’IA, moteur de la révolution du secteur automobile, 16 septembre 2024.
([273]) CNRS, Voiture autonome : le projet européen ERASMO fait travailler ensemble CNRS et industriels, 22 janvier 2025.
([275]) Près d’un véhicule neuf sur cinq en Chine est désormais équipé de fonctions de conduite autonome avancées (niveaux 2+ et 3) voir : Financial times, Chinese regulators seek to slow rollout of self-driving features in cars, 8 juin 2025.
([276]) La classification des niveaux d’automatisation des véhicules est établie par la norme J3016 de la SAE International (Society of Automotive Engineers). Elle distingue six niveaux, de 0 (aucune automatisation) à 5 (automatisation complète), selon le degré de prise en charge des fonctions de conduite par le système embarqué. Le niveau 2 correspond à une automatisation partielle (le véhicule peut gérer direction et vitesse, mais le conducteur doit surveiller en permanence), tandis que le niveau 3 marque une rupture : le système peut gérer seul certaines situations sans supervision active du conducteur, sous réserve qu’il puisse reprendre la main à la demande. Les niveaux 4 et 5 permettent une conduite entièrement autonome, respectivement dans des périmètres géographiques restreints (niveau 4) ou en toutes conditions (niveau 5). Le terme « niveau 2+ », non officiel, est utilisé par l’industrie pour désigner des fonctions avancées du niveau 2 (ex. conduite mains libres sur autoroute avec surveillance du conducteur). Voir SAE International, Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles, J3016_202104, Avril 2021.
([277]) Chen, L., Wu, P., Chitta, K., Jaeger, B., Geiger, A. et Li, H. (2024), End-to-end Autonomous Driving: Challenges and Frontiers, arXiv :2306.16927, accepté pour publication dans IEEE TPAMI.
([278]) Soteropoulos, A., Berger, M., & Ciari, F. (2021). Impacts of automated vehicles on travel behaviour and land use: an international review of modelling studies. Technological Forecasting and Social Change, 165, 120516.
([279]) Mihalj, T., Li, H., Babić, D., Lex, C., & al. (2022). Road Infrastructure Challenges Faced by Automated Driving: A Review. Applied Sciences, 12(7), 3477.
([280]) Schlenoff et al., Standards and Performance Metrics for On‑Road Automated Vehicles, NIST IR 8527, Juin 2024.
([281]) Le terme V2X (Vehicle-to-Everything) désigne l’ensemble des technologies permettant à un véhicule de communiquer avec son environnement : autres véhicules (V2V), infrastructures (V2I), réseaux (V2N), piétons (V2P) ou tout objet connecté (V2X). Ces communications visent à améliorer la sécurité routière, la fluidité du trafic et les capacités de conduite autonome. Voir : Ahmad Alalewi, Iyad Dayoub et Soumaya Cherkaoui, « On 5G-V2X Use Cases and Enabling Technologies: A Comprehensive Survey », IEEE Access, vol. 9, 2021, p. 107710–107737.
([282]) Agbaje, P., Anjum, A., Mitra, A., Oseghale, E., Wang, Y., & Abdelgawad, A. (2022). Survey of Interoperability Challenges in the Internet of Vehicles. IEEE Transactions on Intelligent Transportation Systems, PP(99), 1–24.
([283]) SAE, V2X communication, not automation, to usher in next road-safety revolution, 23 avril 2020.
([284]) Financial times, Chinese regulators seek to slow rollout of self-driving features in cars, 8 juin 2025.
([285]) Reuters, US self-driving car companies seek boost under Trump, 7 janvier 2025.
([286]) se reporter à la partie concernée, pp.
([287]) Graetz, G., & Michaels, G.. Robots at Work. The Review of Economics and Statistics, 2018.
([288]) Wolfgang Dauth, Sebastian Findeisen, Jens Suedekum, Nicole Woessner, The Adjustment of Labor Markets to Robots, Journal of the European Economic Association, Volume 19, Issue 6, Decembre 2021, pages 3104–3153.
([289]) Morikawa, M.. The impact of artificial intelligence on macroeconomic productivity. 13 janvier 2025.
([290]) Acemoglu, D, « The Simple Macroeconomics of AI », NBER Working Paper 32487, 2024.
([291]) Filippucci, F. et al. (2024), « The impact of Artificial Intelligence on productivity, distribution and growth: Key mechanisms, initial evidence and policy challenges », OECD Artificial Intelligence Papers, No. 15, OECD Publishing, Paris.
([292]) Morikawa, M.. The impact of artificial intelligence on macroeconomic productivity. 13 janvier 2025.
([293]) Ibid.
([294]) Kanazawa, K, D Kawaguchi, H Shigeoka and Y Watanabe (2022), « AI, Skill, and Productivity: The Case of Taxi Drivers », NBER Working Paper 30612., 2022.
([295]) Peng, S, E Kalliamvakou, P Cihon and M Demirer (2023), « The Impact of AI on Developer Productivity: Evidence from GitHub Copilot », arXiv.2302.06590.
([296]) Noy, S and W Zhang (2023), « Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence », Science 381 : 187–192.
([297]) Brynjolfsson, E., Li, D., & Raymond, L. R. (2023). Generative AI at work (NBER Working Paper No. 31161). National Bureau of Economic Research.
([298]) Cihon, P., & Demirer, M. (2023). How AI-powered software development may affect labor markets. Retrieved 1er août 2023
([299]) Cui, Zheyuan and Demirer, Mert and Jaffe, Sonia and Musolff, Leon and Peng, Sida and Salz, Tobias, The Effects of Generative AI on High-Skilled Work: Evidence from Three Field Experiments with Software Developers (22 juin 2025).
([300]) Dell'Acqua, Fabrizio, Edward McFowland III, Ethan Mollick, Hila Lifshitz-Assaf, Katherine C. Kellogg, Saran Rajendran, Lisa Krayer, François Candelon, and Karim R. Lakhani. "Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality." Harvard Business School Working Paper, No. 24-013, Septembre 2023.
([301]) Kanazawa, K., Kawaguchi, D., Shigeoka, H., & Watanabe, Y. (2022). AI, skill, and productivity: The case of taxi drivers (NBER Working Paper No. 30612). National Bureau of Economic Research.
([302]) Georg Graetz, Guy Michaels; Robots at Work. The Review of Economics and Statistics 2018; 100 (5): 753–768.
([303]) Masterman, T., Besen, S., Sawtell, M., & Chao, A. (2024). The landscape of emerging AI agent architectures for reasoning, planning, and tool calling: A survey. arXiv.
([304]) Su, H., Luo, J., Liu, C., Yang, X., Zhang, Y., Dong, Y., & Zhu, J. A survey on autonomy-induced security risks in large model-based agents. arXiv, 2025.
([305]) H. Yang, Y. Sifu, and Y. He, “Auto-GPT for online decision making : Benchmarks and additional opinions,” arXiv preprint arXiv :2306.02224, 2023.
([306]) Y. He, E. Wang, Y. Rong, Z. Cheng, and H. Chen, “Security of AI agents,”, 2024 : « blurring the line between software and robot in cyberspace ».
([307]) Su, H., Luo, J., Liu, C., Yang, X., Zhang, Y., Dong, Y., & Zhu, J. A survey on autonomy-induced security risks in large model-based agents. arXiv, 2025.
([308]) Se reporter à la discussion entre Sam Altman, CEO d’Open AI et Sridhar Ramaswamy, CEO de Snowflake Computing pendant le Snowflake Summit 2025.
([309]) Li, Z., Mao, H., Yin, J., Xing, M., Xu, Z., Zhang, Y., & Xiao, Y. (2025). NGENT: Next-generation AI agents must integrate multi-domain abilities to achieve artificial general intelligence. arXiv.
([310]) Mistral AI, Build AI agents with the Mistral Agents API, 27 mai 2025.
([311]) Deloitte, State of Generative AI in the Enterprise survey, Janvier 2025.
([312]) Loucks, J., Crossan, G., Sarer, B., Widener, C. & Bucaille ., Ariane (2025). Agentic AI puts the “agency” in agent. Deloitte Insights.
([313]) Scott Wu, “Introducing Devin, the first AI software engineer,” Cognition Software, 12 mars 2024.
([314]) Su, H., Luo, J., Liu, C., Yang, X., Zhang, Y., Dong, Y., & Zhu, J. A survey on autonomy-induced security risks in large model-based agents. arXiv, 2025.
([315]) Loucks, J., Crossan, G., Sarer, B., Widener, C. & Bucaille ., Ariane (2025). Agentic AI puts the “agency” in agent. Deloitte Insights.
([316]) Su, H., Luo, J., Liu, C., Yang, X., Zhang, Y., Dong, Y., & Zhu, J. A survey on autonomy-induced security risks in large model-based agents. arXiv, 2025.
([317]) Reuters, OpenAI unveils ChatGPT agent to handle tasks as AI apps evolve, 17 juillet 2025.
([318]) Open AI, ChatGPT Agent system Card report, 17 juillet 2025.
([319]) TechCrunch, OpenAI launches a general purpose agent in ChatGPT, 17 juillet 2025.
([320]) Séramour, C. (2025, 2 avril). Agility Robotics sur le point de lever 400 millions de dollars pour son robot bipède. L’Usine Digitale.
([323]) Riener, R., Rabezzana, L., & Zimmermann, Y. (2023). Do robots outperform humans in human-centered domains? Frontiers in Robotics and AI, 10, Article 1223946.
([324]) The economist, The quest to build robots that look and behave like humans, 5 juin 2024.
([325]) Zeng, F., Gan, W., Wang, Y., Liu, N., & Yu, P. S. (2023). Large language models for robotics: A survey.
([326]) Voir la démonstration dans la vidéo « Figure Status Update – OpenAI Speech‑to‑Speech Reasoning » montrant un robot humanoïde de l’entreprise Figure capable d’interpréter une instruction en langage naturel, de planifier un enchaînement d’actions (reconnaissance d’objet, déplacement, saisie, etc.) et de les exécuter de manière fluide.
([327]) Bloomberg, China’s Startups Race to Dominate the Coming AI Robot Boom, 30 mai 2025.
([328]) International federation of robotics, China to Invest 1 Trillion Yuan in Robotics and High-Tech Industries, 25 mars 2025.
([329]) Bloomberg, China’s Startups Race to Dominate the Coming AI Robot Boom, 30 mai 2025.
([330]) L’usine digitale, Neura Robotics, l'allemand qui défie Figure AI et Unitree dans la robotique humanoïde, 25 juin 2025.
([331]) Financial Times, The fantasy of humanoid robots misses the point, 20 mars 2025.
([332]) Tugui, A. (2023, July). Limits of humanoid robots based on a self-literature review of AI’s limits.
([333]) Gu, Z., Li, J., Shen, W., Yu, W., Xie, Z., McCrory, S., Cheng, X., Shamsah, A., Griffin, R., Liu, C. K., Kheddar, A., Peng, X. B., Zhu, Y., Shi, G., Nguyen, Q., Cheng, G., Gao, H., & Zhao, Y. (2023). Humanoid locomotion and manipulation : Current progress and challenges in control, planning, and learning.
([334]) Morgan Stanley. (2025, February 6). The Humanoid 100 : Mapping the humanoid robot value chain. Morgan Stanley & Co. LLC.
([335]) Morgan Stanley. (2025, February 6). The Humanoid 100: Mapping the humanoid robot value chain. Morgan Stanley & Co. LLC.
([336]) Baumol, W. J., & Bowen, W. G. (1966). Performing arts: The economic dilemma: A study of problems common to theater, opera, music and dance. MIT Press.
([337]) Hanbury, P., Dutt, A., & Veratti, E. (2025). Humanoid robots at work: What executives need to know. Bain & Company.
([338]) Ibid.
([339]) Financial Times, Global population to shrink this century as birth rates fall, 11 juillet 2024.
([340]) United Nations, The 2024 revision of World population prospects, 2024.
([341]) Conseil d’État de la République populaire de Chine, China to promote use of humanoid robots for elderly care, 7 janvier 2025.
([342]) Le monde, Japan turns to new technologies to counter labor shortages, 19 mars 2024.
([343]) Morgan Stanley. (6 février 2025). The Humanoid 100: Mapping the humanoid robot value chain. Morgan Stanley & Co. LLC.
([344]) Voir la partie du rapport portant sur l’efficacité du travail.
([345]) OPESCT, ChatGPT, et après ? Bilan et perspectives de l'intelligence artificielle, 28 novembre 2024.
([346]) Solow, R. M. (1987). We’d better watch out. New York Times Book Review, July 12, p. 36.
([347]) Commission de l’intelligence artificielle, IA : Notre ambition pour la France, mars 2024.
([348]) Commission de l’intelligence artificielle, IA : Notre ambition pour la France, Mars 2024.
([349]) World Economic Forum, The latest technology isn't enough – you need the business model to go with it, 5 avril 2019.
([350]) Brynjolfsson, E., Rock, D., & Syverson, C. (2017). Artificial Intelligence and the Modern Productivity Paradox : A Clash of Expectations and Statistics (NBER Working Paper No. 24001). National Bureau of Economic Research.
([351]) Baily, M. N., & Farrell, D. (2006). Breaking down barriers to growth: Encouraging competition is key to reviving stalled industrial economies. F&D : A Quarterly Magazine of the IMF, 43(1).
([352]) Eurostat, Use of artificial intelligence in enterprises, Janvier 2025.
([353]) Aghion, P., Bunel, S., Jaravel, X., Mikaelsen, T., Roulet, A., & Søgaard, J. (2025). How different uses of AI shape labor demand: Evidence from France. AEA Papers and Proceedings, 115, 62–67.
([354]) se reporter à la partie concernée.
([355]) Summers, L. H. (2014). U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound. Business Economics, 49(2), 65–73.
([356]) Mcksinsey digital, The economic potential of generative AI: The next productivity frontier, 14 juin 2023.
([357]) Bénassy-Quéré, A. (2022, 5 octobre). Chacun cherche sa croissance potentielle. Direction générale du Trésor.
([358]) Aghion, P., & Bunel, S. (2024, juin). AI and Growth: Where Do We Stand?.
([359]) Ibid.
([360]) Bostrom, N. (2014). Superintelligence : Paths, dangers, strategies. Oxford University Press.
([361]) Aghion, P., Jones, B. F., & Jones, C. I. (2019). Artificial intelligence and economic growth. In A. Agrawal, J. Gans, & A. Goldfarb (Eds.), The economics of artificial intelligence: An agenda University of Chicago Press.
([362]) voir Kurzweil, R. (2005). The singularity is near : When humans transcend biology. Viking.
([363]) Dans leur retour sur Artificial Intelligence and Economic Growth, Aghion, Jones et Jones reconnaissent que leur article initial relevait davantage d’un ensemble d’idées exploratoires que d’un cadre théorique unifié. Ils soulignent que leurs modèles permettent théoriquement d’obtenir une croissance explosive (« singularity ») sans automatisation complète de l’économie, mais insistent sur le caractère spéculatif de ces résultats et sur l’importance des contraintes institutionnelles et des frictions économiques (telles que la concentration des rentes et les tâches non automatisables) qui pourraient en limiter la portée. Ce commentaire appelle à approfondir la recherche sur l’effet potentiel de l’intelligence artificielle avancée, tout en maintenant une prudence méthodologique face aux incertitudes.
([364])Filippucci, F., P. Gal and M. Schief (2024), “Miracle or Myth? Assessing the macroeconomic productivity gains from Artificial Intelligence”, OECD Artificial Intelligence Papers, No. 29, OECD Publishing, Paris,
([365]) Filippucci, F. et al. (2025), “Macroeconomic productivity gains from Artificial Intelligence in G7 economies”, OECD Artificial Intelligence Papers, No. 41, OECD Publishing, Paris,
([366]) Conseil national de la productivité, Un monde en mutation Productivité, compétitivité et transition numérique, 14 avril 2025.
([367]) OCDE, The impact of artificial intelligence on productivity distribution and growth, Avril 2024.
([368]) Ibid.
([369]) Conseil national de la productivité, Un monde en mutation : productivité, compétitivité et transition numérique, 14 avril 2025.
([370]) Selon le Conseil national de la productivité, il est possible de distinguer trois approches :
- approche prudente (Acemoglu, 2024) : l’IA générative pourrait augmenter la productivité globale des facteurs (PGF) de seulement 0,07 point par an ;
- approche optimiste (Aghion & Bunel, 2024) : elle pourrait générer une hausse de 0,68 point par an ;
- comparaison avec la révolution de l’électricité par extrapolation : si l’IA générative avait un impact similaire, la croissance de la productivité augmenterait de 1,3 point par an.
([371]) Brynjolfsson, E., Li, D., & Raymond, L. R. (2023). Generative AI at work (Working Paper No. 31161). National Bureau of Economic Research.
([372]) Dell’Acqua, F., Rajendran, S., McFowland, E. III, Krayer, L., Mollick, E., Candelon, F., Lifshitz-Assaf, H., Lakhani, K. R., & Kellogg, K. C.. Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge worker productivity and quality (Working Paper No. 24-013). Harvard Business School, 22 septembre 2023.
([373]) Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence (Working Paper). Massachusetts Institute of Technology.
([374]) France travail, Les employeurs face à l’Intelligence Artificielle (IA), 15 juin 2023.
([375]) Sayed, H., & Gordon, R. J. Transatlantic technologies: Why did the ICT revolution fail to boost European productivity growth? Centre for Economic Policy Research (CEPR), 21 août 2020.
([376]) Aghion, P., & Bunel, S. (2024). AI and Growth: Where Do We Stand? Federal Reserve Bank of San Francisco Economic Letter, Mars 2024 : « This rise in productivity growth would be transitory; once the entire economy has adopted AI, the productivity gains linked to this adoption and subsequent transformations will cease. ».
([377]) Time, Has AI Progress Really Slowed Down?, 1er octobre 2024.
([378]) Metz, R., Ghaffary, S., Bass, D., & Love, J. (13 novembre 2024). OpenAI, Google and Anthropic are struggling to build more advanced AI. Bloomberg.
([379]) Emily M. Bender & Timnit Gebru et al. (2021) – On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? – conférence FAccT 2021.
([380]) Business Insider, Meta's chief AI scientist says scaling AI won't make it smarter, 28 avril 2025.
([381]) Financial Times, Meta AI chief says large language models will not reach human intelligence, 22 mai 2024.
([382]) Garicano, L. (2025, 26 juin). Can AI solve Europe’s problems? Baumol's disease, regulatory resistance, and the O-ring problem. Silicon Continent
([383]) Aghion, P., Jones, B. F., & Jones, C. I. (2017). Artificial intelligence and economic growth (NBER Working Paper No. 23928). National Bureau of Economic Research.
([384]) Baumol, W. J. (1967). Macroeconomics of unbalanced growth: The anatomy of urban crisis. American Economic Review, 57(3), 415–426.
([385]) Eurostat, Population projections in the EU, Mars 2023.
([386]) Garicano, L. (2025, 26 juin). Can AI solve Europe’s problems? Baumol's disease, regulatory resistance, and the O-ring problem. Silicon Continent.
([387]) Garicano, L. (26 juin 2025). Can AI solve Europe’s problems? Baumol's disease, regulatory resistance, and the O-ring problem. Silicon Continent.
([388]) Kremer, Michael. “The O-ring theory of economic development.” The Quarterly Journal of Economics 108, no. 3 (1993) : 551-575.
([389]) ESMA, MIFID II Review Report, 28 septembre 2021.
([390]) Règlement (UE) 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle).
([391]) Voir article 6 et son annexe III du dit règlement AI Act.
([392]) Règlement (CE) n° 178/2002 du Parlement européen et du Conseil du 28 janvier 2002 du Parlement européen et du Conseil du 28 janvier 2002 établissant les principes généraux et les prescriptions générales de la législation alimentaire, instituant l'Autorité européenne de sécurité des aliments et fixant des procédures relatives à la sécurité des denrées alimentaires.
([393]) Règlement (UE) 2017/625 du Parlement européen et du Conseil du 15 mars 2017 concernant les contrôles officiels et les autres activités officielles servant à assurer le respect de la législation alimentaire et de la législation relative aux aliments pour animaux ainsi que des règles relatives à la santé et au bien-être des animaux, à la santé des végétaux et aux produits phytopharmaceutiques.
([394]) Eurostat, Use of artificial intelligence in enterprises, Janvier 2025.
([395]) OCDE, Fostering an inclusive digital transformation as AI spreads among firms, 8 novembre 2024.
([396]) OCDE, A Sectoral Taxonomy of AI Intensity, Décembre 2024.
([397]) OCDE, The Adoption of Artificial Intelligence in Firms, Mai 2025.
([398]) INSEE, Les technologies de l’information et de la communication dans les entreprises en 2024, 1er juillet 2025.
([399]) Kovič, K., Tominc, P., Prester, J., & Palčič, I. (2024). Artificial Intelligence Software Adoption in Manufacturing Companies. Applied Sciences, 14(16), 6959.
([400]) Abdelaal, M. (2024). AI in manufacturing : Market analysis and opportunities. arXiv.
([401]) Abdelaal, M. (2024). AI in manufacturing : Market analysis and opportunities. arXiv.
([402]) Clinical Trials Arena, Half of pharma and biotech companies using AI and big data, 6 décembre 2024.
([403]) Eurostat, Use of artificial intelligence in enterprises, janvier 2025.
([404]) Eastwood, B. (7 février 2024). The who, what, and where of AI adoption in America. MIT Sloan Management Review.
([405]) Breaux, C., & Dinlersoz, E. (28 novembre 2023). How many U.S. businesses use artificial intelligence?,U.S. Census Bureau.
([406]) INSEE, Les technologies de l’information et de la communication dans les entreprises en 2024, 1er juillet 2025.
([407]) INSEE, Les technologies de l’information et de la communication dans les entreprises en 2024, 1er juillet 2025.
([408]) Doan, R., Lévy, A., & Storchan, V. (Février 2025). Financer les infrastructures pour une IA européenne [Note pour l’action]. Le Grand Continent.
([409]) Doan, R., Lévy, A., & Storchan, V. (Février 2025). Financer les infrastructures pour une IA européenne [Note pour l’action]. Le Grand Continent.
([410]) Stanford Institute for Human-Centered Artificial Intelligence. (15 avril 2024). AI Index: State of AI in 13 charts.
([411]) Nikhil Sardana, Jacob Portes, Sasha Doubov, Jonathan Frankle, «Beyond Chinchilla-Optimal: Accounting for Inference in Language Model Scaling Laws», 31 décembre 2023.
([412]) Ben Cottier, Robi Rahman, Loredana Fattorini, Nestor Maslej, and David Owen. ‘The rising costs of training frontier AI models’. ArXiv.
([413]) Le Grand Continent, L’affaire DeepSeek et le futur de l’IA, une conversation avec Gary Marcus, 28 janvier 2025.
([414]) HAI, The 2025 AI Index Report, 2025.
([415]) Erol, M. H., El, B., Suzgun, M., Yuksekgonul, M., & Zou, J. (17 avril 2025). Cost-of-Pass : An economic framework for evaluating language models. arXiv.
([416]) Ibid.
([417]) OCDE (2021), The Digital Transformation of SMEs, OECD Studies on SMEs and Entrepreneurship, OECD Publishing, Paris.
([418]) OCDE (2025), PME et entrepreneuriat.
([419]) Bellégo, C., & Dortet‑Bernadet, V. (2014). L’impact de la participation aux pôles de compétitivité sur les PME et les ETI. Revue d’Économie Industrielle, 145(1), 41‑78.
([420]) Scherngell, T., & Barber, M. J. (2010). Spatial interaction modelling of cross-region R&D collaborations: Empirical evidence from the 5th EU Framework Programme. arXiv preprint arXiv :1004.3425.).
([421]) Eurostat, Use of artificial intelligence in enterprises, Janvier 2025.
([422]) DGE, Ambassadeurs IA, 2025
([423]) Ministère de l’économie, des finances et de la souveraineté industrielle et numérique, Osez l’IA : un plan pour diffuser l’IA dans toutes les entreprises, 1er juillet 2025.
([424]) Lancé le 1er juillet 2025, le plan national Osez l’IA vise à rendre l’intelligence artificielle accessible et utile à toutes les entreprises françaises, en particulier les TPE-PME, grâce à un réseau de 300 ambassadeurs, à une offre de formation élargie et à un accompagnement personnalisé.
([425]) Mckinsey, Time to place our bets: Europe’s AI opportunity, Octobre 2024 : « On adoption, European organizations lag behind their US counterparts by 45 to 70 percent. Yet this is where most of gen AI’s economic potential lies. With the technology still in its early stages and much of its productivity gains yet to be unlocked, the window ofopportunity for Europe remains wide open. »
([426]) Caldarola, B., & Fontanelli, L. (2025). Scaling up to the cloud: Cloud technology use and growth rates in ,small and large firms (v2). arXiv.
([427]) DARPA, AI Forward, 2023.
([428]) European Commission, The Draghi report: A competitiveness strategy for Europe, 9 septembre 2024.
([429])ECIPE, The EU’s Trillion Dollar Gap in ICT and Cloud Computing Capacities: The Case for a New Approach to Cloud Policy, Mai 2024.
([430]) European Commission, The Draghi report: A competitiveness strategy for Europe, 9 septembre 2024.
([431]) DGE, Les centre techniques industriels, 16 juillet 2024.
([432]) IGF, Évaluation du dispositif des instituts Carnot, 29 janvier 2025.
([433]) Ibid.
([434]) Raimbault, J. (2022). Innovation and informal knowledge exchanges between firms. arXiv preprint arXiv :2208.14842.
([435]) European Commission, AI Innovation Package, 25 juillet 2024.
([436]) European Commission, AI Factories, 19 juin 2025.
([437]) European Commission, AI Continent Action Plan, 7 mai 2025.
([438]) European Commission, European High Performance Computing Joint Undertaking, 9 juillet 2025.
([439]) European commission, EU launches InvestAI initiative to mobilise euros200 billion of investment in artificial intelligence, 12 février 2025.
([440]) Ministère de l’économie et des finances, Le projet AI Factory France lauréat du programme européen EuroHPC, 13 mars 2025.
([441]) Reuters, Mistral AI raises 600 mln euros in latest funding round, Juin 2024.
([442]) TechCrunch, Paris-based AI startup Mistral AI raises $640M, 11 juin 2024.
([443]) Financial Times, Europe’s AI computing shortage ‘will be resolved’ soon, says Nvidia chief, 11 juin 2025.
([444]) Maslej, N., Fattorini, L., Perrault, R., Gil, Y., Parli, V., Kariuki, N., Capstick, E., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., Walsh, T., Hamrah, A., Santarlasci, L., Lotufo, J. B., Rome, A., Shi, A., & Oak, S. (2025). The AI Index 2025 annual report. Stanford : AI Index Steering Committee, Institute for Human‑Centered AI, Stanford University.
([445]) Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025.
([446]) Reuters, OpenAI closes $6.6 billion funding haul with investment from Microsoft and Nvidia, 3 octobre 2024.
([447]) NYtimes, Amazon invests $ 4 Billion in Anthropic, 2024.
([448]) DGtrésor, L’intelligence artificielle en Chine, 9 janvier 2025.
([449]) Le Grand Continent, L’affaire DeepSeek et le futur de l’IA, une conversation avec Gary Marcus, 28 janvier 2025.
([450]) Patel, D., Kourabi, A. J., O’Laughlin, D., & Knuhtsen, R.. DeepSeek debates: Chinese leadership on cost, true training cost, closed model margin impacts. 31 janvier 2025
([451]) Maslej, N., Fattorini, L., Perrault, R., Gil, Y., Parli, V., Kariuki, N., Capstick, E., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., Walsh, T., Hamrah, A., Santarlasci, L., Lotufo, J. B., Rome, A., Shi, A., & Oak, S. (2025). The AI Index 2025 annual report. Stanford : AI Index Steering Committee, Institute for Human‑Centered AI, Stanford University.
([452]) European Commission, The Draghi report: A competitiveness strategy for Europe, 9 septembre 2024.
([453]) ECIPE, The EU’s Trillion Dollar Gap in ICT and Cloud Computing Capacities: The Case for a New Approach to Cloud Policy, may 2024.
([454]) Maslej, N., Fattorini, L., Perrault, R., Gil, Y., Parli, V., Kariuki, N., Capstick, E., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., Walsh, T., Hamrah, A., Santarlasci, L., Lotufo, J. B., Rome, A., Shi, A., & Oak, S. (2025). The AI Index 2025 annual report. Stanford : AI Index Steering Committee, Institute for Human‑Centered AI, Stanford University.
([455]) ECIPE, The EU’s Trillion Dollar Gap in ICT and Cloud Computing Capacities: The Case for a New Approach to Cloud Policy, Mai 2024
([456]) Consultancy.eu, European IaaS and PaaS cloud market to double by 2028, 11 septembre 2024.
([457]) Babinet, G., & Harito, L’ombre du cloud : armer l’Europe dans la guerre invisible des données. Études numérique.1er mai 2025.
([458]) France digitale, Mapping 2025 des startups françaises de l'IA, 2025.
([460]) Silicon Valley Bank, The state of AI industry trends in Europe: Talent drives success, but U.S. funding still crucial, 15 avril 2025, qui évoque en 2024 un financement global de 124 milliards de dollars pour l’ensemble États-Unis-Asie-Europe, contre 3,2 milliards de dollars pour la France.
([461]) Direction générale des entreprises, Intelligence artificielle en France : un écosystème d’excellence, 12 février 2025.
([462]) Sylicon Valley Bank, The state of AI industry trends in Europe: Talent drives success, but U.S. funding still crucial, 15 avril 2025.
([463]) Synapse Medicine, Synapse Medicine lève 25Meuros pour aider patients et soignants à travers le monde à mieux utiliser les médicaments, 20 février 2023.
([464]) Lelièvre, A., & Perreau, C. (17 janvier 2022). Robotique : Exotec devient la 25e licorne de la French Tech. Les Échos
([465]) Weenat, Levée de fonds Weenat, 9 avril 2024.
([466]) Weenat, Water management: Weenat is innovating to provide all agricultural branches with key data in the coming years, 18 octobre 2023.
([467]) Weik, S., Achleitner, A.-K., & Braun, R. (2024). Venture capital and the international relocation of startups. Research Policy, 105031.
([468]) CEPS, Towards a european large-scale initiative on artificiel intelligence, Juillet 2024.
([469]) Challenges, IA: Apple rachète la start-up parisienne Datakalab, 19 avril 2024.
([470]) Digitale, Usine (11 april 2023). "La legaltech française Doctrine rachetée par le fonds américain Summit Partners" [The French legaltech Doctrine bought by the American fund Summit Partners]. L’Usine Digitale (in French).
([471]) European Commission, The Draghi report: A competitiveness strategy for Europe, 9 septembre 2024.
([472]) Bergeaud, A., and Verluise, C. ‘A new dataset to study a century of innovation in Europe and in the US’, Research Policy, 53(1), 10490, 2024.
([473]) Maslej, N., Fattorini, L., Perrault, R., Gil, Y., Parli, V., Kariuki, N., Capstick, E., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., Walsh, T., Hamrah, A., Santarlasci, L., Lotufo, J. B., Rome, A., Shi, A., & Oak, S. (2025). The AI Index 2025 annual report. Stanford : AI Index Steering Committee, Institute for Human‑Centered AI, Stanford University.
([474]) Banque européenne d’investissement, The scale-up gap Financial market constraints holding back innovative firms in the European Union, Juin 2024.
([475]) se rapporter à la partie financement
([476]) European Commission. (2025). The EU startup and scaleup strategy: Choose Europe to start and scale (COM(2025) 270 final). Publications Office of the European Union.
([477]) Landais, C., Sraer, D., Schnitzer, M., Grimm, V., Malmendier, U., Truger, A., & Werding, M. (4 juillet 2024). Enhancing EU capital markets [Joint statement, Conseil d’analyse économique et German Council of Economic Experts]. CAE & GCEE.
([478]) European Investment Bank, Investment barriers in the European Union 2023, 13 février 2024.
([479]) European Commission, The Draghi report: A competitiveness strategy for Europe, 9 septembre 2024.
([480]) Benkert, J.-M., Letina, I., & Liu, S. (2025). Startup acquisitions: Acquihires and talent hoarding (arXiv :2308.10046v6 [econ.GN]). arXiv.
([481]) Le Figaro, IA : l’Autorité de la concurrence appelle «à la vigilance» face à l’«avantage immense» des Gafam, 3 juillet 2024.
([482]) Colangelo, G. (2022). Antitrust unchained: The EU’s case against self-preferencing. GRUR International, 71(11), 1045–1053.
([483]) Motta, M. (2023). Self-preferencing and foreclosure in digital markets : Theories of harm for abuse cases. International Journal of Industrial Organization, 89, 102974.
([484]) Contexte, L’IA générative ravive les vieux cauchemars de l’antitrust européen, 22 avril 2024.
([485]) Voir Tirole, « The Theory of Industrial Organization », 1988.
([486]) Rochet et Tirole, 2003.
([487]) Whinston, 1990.
([488]) Autorité de la concurrence. (28 juin 2024). Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur de l’intelligence artificielle générative.
([489]) Iot Analytics, Generative AI Market Report, 4 mars 2025.
([490]) The Guardian, Global shortage in computer chips 'reaches crisis point', 21 mars 2021.
([491]) Hanbury, P., Hoecker, A., & Schallehn, M. (2024). Prepare for the coming AI chip shortage. Bain & Company.
([492]) Doan, R., Lévy, A., & Storchan, V. (Février 2025). Financer les infrastructures pour une IA européenne [Note pour l’action]. Le Grand Continent.
([493]) Videgaray, L., Aghion, P., Caputo, B., Forrest, T., Korinek, A., Langenbucher, K., Miyamoto, H., & Wooldridge, M. (2024). Artificial intelligence and economic and financial policymaking: A High-Level Panel of Experts’ report to the G7 finance track. G7 Finance Track.
([494]) OpenAI, OpenAI and Reddit Partnership, 16 mai 2024.
([495]) Benkert, J.-M., Letina, I., & Liu, S. (2025). Startup acquisitions: Acquihires and talent hoarding (arXiv :2308.10046v6 [econ.GN]). arXiv.
([496]) Maslej, N., Fattorini, L., Perrault, R., Gil, Y., Parli, V., Kariuki, N., Capstick, E., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., Walsh, T., Hamrah, A., Santarlasci, L., Lotufo, J. B., Rome, A., Shi, A., & Oak, S. (2025). The AI Index 2025 annual report. Stanford : AI Index Steering Committee, Institute for Human‑Centered AI, Stanford University.
([497]) Autorité de la concurrence, Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur de l’intelligence artificielle générative, 28 juin 2024.
([498]) se reporter à la partie concernée.
([499]) Iot Analytics, Generative AI Market Report, 4 mars 2025.
([500]) Voir par exemple France Télécom v CommissionEU ou AstraZeneca AB v Commission.
([501]) Tirole, « The Theory of Industrial Organization », 1988.
([502]) Bloomberg, Nvidia Gets DOJ Subpoena in Escalating Antitrust Probe, 3 septembre 2024.
([503]) Reuters, Nvidia briefly on track to become world's most valuable company ever, 3 juillet 2025.
([504]) Politico, Feds put Nvidia AI deal under antitrust scrutiny, 8 janvier 2024.
([505]) The New York Times, U.S. Clears Way for Antitrust Inquiries of Nvidia, Microsoft and OpenAI, 5 juin 2024.
([506]) Lacy, A., & Jo, S. (7 mars 2025). Antitrust and competition technology year in review 2024. Goodwin.
([507]) Wall Street journal, Nvidia can sell Ai chip to China after CEO meets Trump, 15 juillet 2025.
([508]) Financial Times, Nvidia’s rivals take aim at its software dominance, 21 mai 2024.
([509]) Autorité de la concurrence, Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur de l’intelligence artificielle générative, 28 juin 2024.
([510]) Autorité de la concurrence, Avis 23-A-08 du 29 juin 2023 portant sur le fonctionnement concurrentiel de l'informatique en nuage ("cloud"), 29 juin 2023.
([511]) Farrell, J., & Klemperer, P. (2007). Coordination and lock-in: Competition with switching costs and network effects. In M. Armstrong & R. H. Porter (Eds.), Handbook of industrial organization (Vol. 3, pp. 1967–2072). Elsevier.
([512]) FTC , Partnerships Between Cloud Service Providers and AI Developers FTC Staff Report on AI Partnerships & Investments 6(b) Study, Janvier 2025.
([513]) Autorité de la concurrence, Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur de l’intelligence artificielle générative, 28 juin 2024.
([514]) Comme YouTube pour Google ou Reddit pour OpenAi.
([515]) Jean-Charles Rochet et Jean Tirole, « Platform Competition in Two-Sided Markets », Journal of the European Economic Association, vol. 1, n° 4, juin 2003, p. 990–1029.
([516]) Benkert, J.-M., Letina, I., & Liu, S. (2025). Startup acquisitions: Acquihires and talent hoarding (arXiv :2308.10046v6 [econ.GN]). arXiv.
([517]) In re High-Tech Emp. Antitrust Litig., N.D. Cal., 5:11-cv-02509-LHK, 9/2/15).
([518]) Bloomberg Law, Apple, Google to Pay $415 Million in No-Poach Case, 3 septembre 2015.
([519]) Callaci, B., Gibson, M., Pinto, S., Steinbaum, M., & Walsh, M. (2024). The effect of franchise no-poaching restrictions on worker earnings (Upjohn Institute Working Paper No. 24-405). Upjohn Institute.
([520]) Politico, Microsoft and Google AI deals get EU antitrust scrutiny, Vestager says, 28 juin 2024.
([521])Benkert, J.-M., Letina, I., & Liu, S. (2025). Startup acquisitions: Acquihires and talent hoarding (arXiv :2308.10046v6 [econ.GN]). arXiv.
([522]) Whinston, M. D. (1990). Tying, Foreclosure, and Exclusion. The American Economic Review, 80(4), 837–859.
([523]) Farronato, C., Fradkin, A., & MacKay, A. (2023). Self-preferencing at Amazon: Evidence from search rankings (NBER Working Paper No. 30894). National Bureau of Economic Research.
([524]) Commission européenne, Pratiques anticoncurrentielles: la Commission inflige à Google une amende de 2,42 milliards d'euros pour abus de position dominante sur le marché des moteurs de recherche en favorisant son propre service de comparaison de prix, 27 juin 2017.
([525])Vie-publique.fr, DMA : le règlement sur les marchés numériques veut mettre fin à la domination des géants du Net, 12 mai 2024.
([526]) Voir partie III.
([527]) Voir les deux parties précédentes.
([529]) Vie-publique.fr, DMA : le règlement sur les marchés numériques veut mettre fin à la domination des géants du Net, 12 mai 2024.
([530]) European Commission, Gatekeepers.
([531]) En France, voir article L151-3 du code monétaire et financier.
([532]) En Europe, voir RÈGLEMENT (UE) 2019/452 DU PARLEMENT EUROPÉEN ET DU CONSEIL du 19 mars 2019 établissant un cadre pour le filtrage des investissements directs étrangers dans l'Union.
([533]) cf infra.
([534]) Jean Tirole, Competition and industrial policy in the 21st century, Oxford Open Economics, Volume 3, Issue Supplement_1, 2024, pages i983–i1001,.
([535]) Regulation (EC) No 139/2004 – the control of concentrations between undertakings (the merger regulation).
([536]) Autorité de la concurrence, Contrôle des concentrations.
([537]) O'Daly, C., Del Pozo, V., & Benizri, I. (2025, juillet 15). AI and EU merger control. WilmerHale Privacy and Cybersecurity Law Blog. Wilmer Cutler Pickering Hale and Dorr LLP. Retrieved 21 juillet 2025.
([538]) Ibid.
([539]) August-debouzy, Mergers below thresholds can indeed be controlled, 22 juillet 2022.
([540]) Section 35(1a) du German Act against Restraints of Competition.
([541]) Kartellgesetz 2005 § 9, Fassung vom 24.02.2021.
([542]) Kluwer Competition Law Blog, Austria to introduce Transaction Value Merger Notification Threshold, 10 avril 2017.
([543]) Sanner, J. A., Rudolf, L.-P., Geiger, L. K., & Tonkaboni, P. (2025, March 3). German court confirms narrow scope of transaction value threshold in merger control. Cleary Antitrust Watch. Cleary Gottlieb Steen & Hamilton LLP. 21 juillet 2025.
([544]) Hogan Lovells, No value in the future? The twists and turns of Germany’s transaction value threshold, 12 mars 2025.
([545]) Winston and Strawn LLP, Legal 500, Country comparative guides 2025, 21 juillet 2025.
([546]) CJUE, 3 septembre 2024, Illumina/Grail, C-611/22 P).
([547]) Autorité de la concurrence, Mergers below the control thresholds : Following the public consultation, the Autorité is continuing its work to propose a reform ensuring effective control, 10 avril 2025.
([548]) Clifford Chance, The French Competition Authority assesses potential new tools to review below-threshold mergers, 5 mars 2025.
([549]) Cleary Antitrust Watch, France Set to Increase Merger Control Notification Thresholds, 30 avril 2025.
([550]) Vie publique, Projet de loi de simplification de la vie économique, 17 juin 2025.
([551]) Jean Tirole, Competition and industrial policy in the 21st century, Oxford Open Economics, Volume 3, Issue Supplement_1, 2024, pp. i983–i1001.
([552]) Twobirds, EU: When does the hiring of another company's staff require merger control approval?, 20 novembre 2024.
([553]) Voir pour une analyse complète des évolutions jurisprudentiels en la matière : Twobirds, EU: When does the hiring of another company's staff require merger control approval?, 20 novembre 2024.
([554]) Hogan Lovells, Call in the Merger Cavalry – How new intervention powers are transforming merger control, 16 janvier 2026.
([555]) The final text of the Digital Markets Act (DMA) Article 14, Obligation to inform about concentrations.
([556]) Autorité de la concurrence, Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur de l’intelligence artificielle générative, 28 juin 2024.
([557]) Doan, R., Lévy, A., & Storchan, V. (2025, février). Financer les infrastructures pour une IA européenne [Note pour l’action]. Le Grand Continent.
([558]) Se reporter aux parties concernées.
([559]) Voir les critères de l’affaire Bronner : Judgment of the Court (Sixth Chamber) of 26 November 1998.
Oscar Bronner GmbH & Co. KG v Mediaprint Zeitungs- und Zeitschriftenverlag GmbH & Co. KG, Mediaprint Zeitungsvertriebsgesellschaft mbH & Co. KG and Mediaprint Anzeigengesellschaft mbH & Co. KG.
([560]) Macfarlanes LLP. (2025, 18 mars). Implications for the platform operators, as the scope of essential facilities doctrine is further curtailed by Android Auto ruling. Lexology.
([561]) Le Monde du droit, Accès à Android Auto : la CJUE juge abusif le refus de Google, 27 février 2025 : « Le refus d’une entreprise en position dominante, qui a développé une plateforme numérique, de permettre l’accès à cette plateforme, en refusant d’assurer l’interopérabilité de celle-ci avec une application développée par une entreprise tierce, peut constituer un abus de position dominante, alors même que la plateforme n’est pas indispensable à l’exploitation commerciale de l’application ».
([562]) IGF, La politique de la concurrence et les intérêts stratégiques de l’UE, 19 avril 2019.
([563]) DG COMP, Sciaudone, F., Tosini, N., & Hoehn, T. (27 mars 2025). Study on the effectiveness of EU antitrust remedies: Online workshop on the final report. Grimaldi Alliance, NERA Economic Consulting.
([564]) 24.2.2020 FR Journal officiel de l'Union européenne C 61/55 Broadcom/Commission (Affaire T-876/19) 23 décembre 2019.
([565]) Farinhas, Carla, Interim Measures in Digital Markets: Interaction between the DMA and Regulation 1/2003 (31 mars 2024). Forthcoming in Utrecht Law Review Special Issue on Modern Bigness, Available at SSRN :
([566]) DG COMP, Sciaudone, F., Tosini, N., & Hoehn, T. (2025, 27 mars). Study on the effectiveness of EU antitrust remedies: Online workshop on the final report. Grimaldi Alliance, NERA Economic Consulting.
([567]) Van den Boom, Jasper and Scott Morton, Fiona M., Recalibrating Regulation 1/2003: How to Restore Proportionality in EU Remedy Design (March 22, 2025).
([569]) Hylton, K. N. (2015). Antitrust enforcement regimes : Fundamental differences. In R. D. Blair & D. D. Sokol (Eds.), The Oxford handbook of international antitrust economics (Vol. 1, pp. 17–44). Oxford University Press.
([570]) Organisation de Coopération et de Développement Économiques. (2016). Sanctions in antitrust cases: Background paper by the Secretariat (Session IV). Global Forum on Competition, 1-2 December 2016. OECD Publishing.
([571]) Wils, Wouter P. J., Recidivism in EU Antitrust Enforcement: A Legal and Economic Analysis (31 octobre 2011). World Competition : Law and Economics Review, Vol. 35, No. 1, Mars 2012.
([572]) Jean Tirole, Competition and industrial policy in the 21st century, Oxford Open Economics, Volume 3, Issue Supplement_1, 2024, pp. i983–i1001.
([573]) Ibid.
([574]) Règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques).
([575]) Vie publique, DMA : le règlement sur les marchés numériques veut mettre fin à la domination des géants du Net, 14 mai 2024.
([576]) Van den Boom, J. (2025, 26 mars). Towards effective remedies in EU competition law: Recalibrating Reg. 1/2003 to match digital market realities. SCiDA – Shaping Competition in the Digital Age.
([577]) Commission de l’intelligence artificielle, IA : notre ambition pour la France, 4 juin 2025.
([578]) European Commission, Joint Statement on Competition in Generative AI Foundation Models and AI Products, 23 juillet 2024.
([579]) Melitz, M. J. (2005). When and how should infant industries be protected? Journal of International Economics, 66(1), pp. 177–196.
([580]) Représentation permanente de la France auprès de l’UE, La politique de concurrence de l’Union européenne, 21 février 2023.
([581]) Michael G Jacobides, Ioannis Lianos, Ecosystems and competition law in theory and practice, Industrial and Corporate Change, Volume 30, Issue 5, Octobre 2021, pp. 1199–1229.
([583]) DGtrésor, L’intelligence artificielle en Chine, 9 janvier 2025.
([584]) Bloomberg, Apple Will Need to Leave Its M&A Comfort Zone to Succeed in AI, 22 juin 2025.
([585]) Synergy research group, Cloud is a Global Market - Apart from China, 21 août 2024.
([586]) L’usine digitale, Neura Robotics, l'allemand qui défie Figure AI et Unitree dans la robotique humanoïde, 25 juin 2025.
([587]) Conseil national de l’industrie, Faire de la préférence européenne un levier de réindustrialisation, 13 juin 2025.
([588]) Reuters, Pentagon splits $9 billion cloud contract among Google, Amazon, Oracle and Microsoft, 8 décembre 2022.
([589]) IEEE Spectrum, Boston Dynamics Gets $10 Million from DARPA for New Stealthy, Bulletproof LS3, 23 septembre 2013.
([590]) Omaar, H. (26 août 2024). How innovative is China in AI? Information Technology & Innovation Foundation.
([591]) DGtrésor, L’intelligence artificielle en Chine, 9 janvier 2025.
([592]) Ezell, S. (26 juillet 2021). False promises II: The continuing gap between China’s WTO commitments and its practices. Information Technology & Innovation Foundation.
([593]) Office of the United states trade representative, WTO Government Procurement Agreement.
([594]) U.S. International Trade Administration. (n.d.). China country commercial guide: Selling to the public sector. U.S. Department of Commerce. 7 juillet 2023
([595]) Chenin, F. (6 décembre 2024). China to give local products leg up in bids for government contracts. South China Morning Post. Retrieved 23 juillet 2025.
([596]) The Guardian, Chinese developers scramble as OpenAI blocks access in China, 8 juillet 2024.
([597]) Ibid.
([598]) Bloomberg, China’s Startups Race to Dominate the Coming AI Robot Boom, 30 mai 2025.
([599]) International federation of robotics, China to Invest 1 Trillion Yuan in Robotics and High-Tech Industries, 25 mars 2025.
([600]) Bloomberg, China’s Startups Race to Dominate the Coming AI Robot Boom, 30 mai 2025.
([601]) Reuters, China's AI-powered humanoid robots aim to transform manufacturing, 13 mai 2025.
([602]) Cory, N. (2021, April). China’s restricted cloud computing market and its impact on trade, competition, and innovation in China, the United States, and around the world. Information Technology & Innovation Foundation.
([604]) Directive 2014/24/UE (marchés classiques) et Directive 2014/25/UE (secteurs spéciaux : eau, énergie, transport, poste).
([605]) Cadeddu, S., & Triboldi, C. (27 novembre 2023). Access of third-country bidders and goods to the European public procurement tenders. Bird & Bird.
([606]) Ibid.
([607]) Article L2112-4 de l’ordonnance n° 2018-1074 du 26 novembre 2018 portant partie législative du code de la commande publique.
([608]) Conseil national de l’industrie, Faire de la préférence européenne un levier de réindustrialisation, 13 juin 2025.
([609]) Banque des territoires, Marc Ferracci veut porter la préférence européenne dans les achats publics et les aides, 16 juin 2025.
([610]) Voir le cas emblématique pont de Pelješac en Croatie : Carragher A. (21 novembre 2022) Hard Cash and Soft Power: When Chinese Firms Win EU Contracts, Carnegie Europe.
([611]) AWS, en partenariat avec NTT DATA, a été sélectionné pour implémenter la plateforme européenne de données sur les marchés publics (PPDS), développée sous l’égide de la Commission européenne.
([612]) AWS investit 7,8 milliards d’euros jusqu’en 2040 pour créer un cloud souverain européen en Brandebourg, dont le lancement est prévu fin 2025, ciblant expressément secteur public et industries régulées selon Reuters, Amazon Web Services plans $8.4 bln cloud investment in Germany, 15 mai 2024.
([613]) Huawei remporte un contrat public de 12,3 millions d’euros espagnol pour le stockage des écoutes judiciaires du système SITEL (Sistema Integrado de Interceptación Legal de las Telecomunicaciones), via un appel d’offres du Ministère de l’Intérieur selon Politico, Spain under fire for contracting Huawei to store judicial wiretaps, 17 juillet 2025.
([614]) Daniel Michaels and Drew Hinshaw, « Chinese Companies Win Billions in European Taxpayer-Funded Contracts, » Wall Street Journal, 17 decembre 2020,
([615]) Conseil national de l’industrie, Faire de la préférence européenne un levier de réindustrialisation,13 juin 2025.
([616]) Banque des territoires, Marc Ferracci veut porter la préférence européenne dans les achats publics et les aides, 16 juin 2025.
([617]) Conseil national de l’industrie, Faire de la préférence européenne un levier de réindustrialisation,13 juin 2025.
([618]) Ministère de l’économie, des finances et de la souveraineté industrielle et numérique, Publication de l’instrument relatif aux marchés publics internationaux, 8 juillet 2022.
([619]) Christol, R., & Brenot, V. (20 juillet 2023). La Commission européenne précise les modalités de contrôle des subventions étrangères. August Debouzy.
([620]) Commission européenne, Une boussole de l'UE pour regagner en compétitivité et garantir une prospérité durable, 29 janvier 2025.
([621]) Commission européenne, Un pacte pour une industrie propre, Février 2025.
([622]) Politico, EU pushes ‘buy European’ quotas in major plan to revive industry , 18 février 2025.
([623]) Financial Times, Brussels pushes ‘buy European’ procurement plan, 24 janvier 2025.
([624]) Banque des territoires, Marc Ferracci veut porter la préférence européenne dans les achats publics et les aides, 16 juin 2025.
([625]) En juin 2025, la Commission européenne a utilisé l’IPI pour la première fois : elle a exclu les entreprises chinoises de dispositifs médicaux pour les marchés publics de plus de 5 millions d’euros selon WhiteandCase, EU imposes first International Procurement Instrument measure restricting Chinese access to medical devices procurement, 27 juin 2025.
([626]) Compétence exclusive de la Commission européenne (signalements possibles des États membres).
([627]) Conseil national de l’industrie, Faire de la préférence européenne un levier de réindustrialisation, 13 juin 2025.
([628]) Directive 2014/24/UE du Parlement européen et du Conseil du 26 février 2014 sur la passation des marchés publics et abrogeant la directive 2004/18/CE Texte présentant de l'intérêt pour l'EEE
([629]) Directive 2014/24/UE du Parlement européen et du Conseil du 26 février 2014 sur la passation des marchés publics et abrogeant la directive 2004/18/CE Texte présentant de l'intérêt pour l'EEE.
([630]) ANSSI, Cloud de confiance : nouveau dispositif d’accompagnement vers l’obtention du visa de sécurité SecNumCloud, 21 décembre 2022.
([631]) Le Monde, Partenariats Google-Thales, Microsoft-Orange-Capgemini : les premiers pas du « cloud de confiance », 30 juin 2022.
([632]) Obrero, J., & Oger, J. (2025, février). Introduire des mécanismes de préférence locale dans un marché public : mode d’emploi. Contrats Publics, (261), pp. 31‑36.
([633]) Règlement (UE) 2019/452 et Instrument international sur les marchés publics (IIP).
([634]) Contribution écrite à la mission.
([635]) Conseil national de l’industrie, Faire de la préférence européenne un levier de réindustrialisation, 13 juin 2025.
([636]) European Commission, The Draghi report:A competitiveness strategy for Europe (Part A), Septembre 2024.
([637]) Van der Vlist, F., Helmond, A., & Ferrari, F. (2024). Big AI : Cloud infrastructure dependence and the industrialisation of artificial intelligence. Big Data & Society, 11(1). (Original work published 2024)
([638]) Synergy research group, Cloud is a Global Market - Apart from China, 21 août 2024.
([639]) The People’s Government of Fujian Province, line of the 14th Five-Year Plan (2021-2025) for National Economic and Social Development and Vision 2035 of the People's Republic of China , 9 août 2021.
([640]) INSS, Clouds of Competition—China’s Rise in the Middle East Cloud Market, 26 mai 2025.
([641]) Popov, D. (10 juillet 2025). China’s cloud services spending hits US$11.6 billion in first quarter on AI-related demand. South China Morning Post.
([642]) Ibid.
([643]) Consultancy.eu, European IaaS and PaaS cloud market to double by 2028, 11 septembre 2024.
([644]) Synergy research group, Cloud is a Global Market - Apart from China, 21 août 2024.
([645]) Babinet, G., & Harito, L’ombre du cloud : armer l’Europe dans la guerre invisible des données. Études numérique.1er mai 2025.
([646]) Synergy research group, Cloud is a Global Market - Apart from China, 21 août 2024.
([647]) Centre for european Reform, Can the EU afford to drive out American cloud services?, 2 mars 2023.
([648]) Ibid.
([649]) European Parliament, Digital sovereignty for Europe, Juillet 2020.
([650]) European commission, European approach to artificial intelligence, 2025
([651]) ENISA, Enisa Threat Landscape 2023 , Octobre 2023.
([653]) Sentinel One – WIP26 Espionage | Threat Actors Abuse Cloud Infrastructure in Targeted Telco Attacks, 16 février 2023.
([654]) Van der Vlist, F., Helmond, A., & Ferrari, F. (2024). Big AI : Cloud infrastructure dependence and the industrialisation of artificial intelligence. Big Data & Society, 11(1). (Original work published 2024).
([655]) European Commission, Approved IPCEI Next Generation Cloud, 2023.
([656]) Filippo Gualtiero Blancato, « The cloud sovereignty nexus: How the European Union seeks to reverse strategic dependencies in its digital ecosystem », Policy & Internet (2023).
([657]) Directive 2014/24/UE du Parlement européen et du Conseil du 26 février 2014 sur la passation des marchés publics et abrogeant la directive 2004/18/CE Texte présentant de l'intérêt pour l'EEE.
([658]) ANSSI, Cloud de confiance : nouveau dispositif d’accompagnement vers l’obtention du visa de sécurité SecNumCloud, 21 décembre 2022.
([659]) Le Monde, Partenariats Google-Thales, Microsoft-Orange-Capgemini : les premiers pas du « cloud de confiance », 30 juin 2022.
([660]) Gouvernement, Le gouvernement annonce sa stratégie nationale pour le Cloud, 17 mai 2021.
([661]) Afnor, Face au risque cyber, cap sur le cloud de confiance, 26 février 2025.
([662]) ANSSI, SecNumCloud pour les fournisseurs de services Cloud, 29 septembre 2023.
([663]) Autorité de la concurrence, Avis 23 A – 08 portant sur le fonctionnement concurrentiel de l’informatique en nuage (« cloud »). 29 juin 2023.
([664]) ITIF, France’s Cloud service restrictions, 5 juin 2025.
([665]) Sénat, Commission d'enquête sur les coûts et les modalités effectifs de la commande publique et la mesure de leur effet d'entraînement sur l'économie française, 8 juillet 2025.
([666]) European Commission, EU Cloud Certification Scheme, 9 juin 2021.
([667]) CNIL, Cloud: the risks of a European certification allowing foreign authorities access to sensitive data, 19 juillet 2024.
([668]) Commission de l’intelligence artificielle, IA : notre ambition pour la France, 13 mars 2024.
([669]) Doan, R., Lévy, A., & Storchan, V. (Février 2025). Financer les infrastructures pour une IA européenne [Note pour l’action]. Le Grand Continent.
([670]) Hernandez, D., & Brown, T. B. (2020). Measuring the algorithmic efficiency of neural networks. arXiv..
([671]) Erdil, E., & Besiroglu, T. (2022). Algorithmic progress in computer vision. arXiv..
([672]) Cottier, A., Besiroglu, T., et al. (2024). The rising costs of training frontier AI models. arXiv.
([673]) Maslej, N., Fattorini, L., Perrault, R., Gil, Y., Parli, V., Kariuki, N., Capstick, E., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., Walsh, T., Hamrah, A., Santarlasci, L., Lotufo, J. B., Rome, A., Shi, A., & Oak, S. (2025). The AI Index 2025 annual report. Stanford : AI Index Steering Committee, Institute for Human‑Centered AI, Stanford University. Retrieved April 9, 2025, from Stanford HAI website.
([674]) WashU (University of Washington). (2025). DeepSeek cost analysis report. Université de Washington.
([675]) Van der Vlist, F., Helmond, A., & Ferrari, F. (2024). Big AI : Cloud infrastructure dependence and the industrialisation of artificial intelligence. Big Data & Society, 11(1). (Original work published 2024).
([676]) Sevilla, J., Heim, L., Ho, A., Besiroglu, T., Hobbhahn, M., & Villalobos, P. (2022). Compute trends across three eras of machine learning. In 2022 International Joint Conference on Neural Networks (IJCNN) (pp. 1–8). IEEE.
([677]) Gordon E. Moore, « Cramming More Components Onto Integrated Circuits », Electronics, vol. 38, 19 avril 1965.
([678]) Jensen Huang, directeur général de NVIDIA, affirme que les puces conçues pour l’IA (GPU) progressent aujourd’hui beaucoup plus vite que ce que prédit la loi de Moore (doublement tous les deux ans) : il évoque une multiplication par 30 des performances d’inférence d’une génération à l’autre, grâce à une optimisation conjointe du matériel, des bibliothèques et des architectures système.
([679]) Drum K (20 septembre 2020) Moore’s Law Is Dead. Long Live Huang’s Law. Mother Jones.
([680]) Hernandez, D., & Brown, T. B. (2020). Measuring the algorithmic efficiency of neural networks. arXiv.
([681]) CSET, AI and Compute - How Much Longer Can Computing Power Drive Artificial Intelligence Progress?, Janvier 2022.
([682]) European Commission, The Draghi report: A competitiveness strategy for Europe, 9 septembre 2024.
([683]) Doan, R., Lévy, A., & Storchan, V. (2025, février). Financer les infrastructures pour une IA européenne [Note pour l’action]. Le Grand Continent.
([684]) Ibid.
([685]) Dylan Patel, Daniel Nishball et Jeremie Eliahou Ontiveros, «AI Datacenter Energy Dilemma – Race for AI Datacenter Space», SemiAnalysis, 13 mars 2024.
([686]) Cynthia Kroet, «Mistral AI warns of lack of data centres and training capacity in Europe», Euronews, 14 juin 2024.
([687]) Alexander Sukharevsky, Eric Hazan, Sven Smit, Marc-Antoine de la Chevasnerie, Marc de Jong, Solveigh Hieronimus, Jan Mischke et Guillaume Dagorret, «Time to place our bets: Europe’s AI opportunity», McKinsey, 1er octobre 2024.
([688]) Shilov, A. (9 juillet 2024). China to boost its state-owned compute performance by 30% by 2025, plans to hit 300 exaflops. Tom’s Hardware.
([689]) Iot Analytics, Generative AI Market Report, 4 mars 2025.
([690]) Doan, R., Lévy, A., & Storchan, V. (Février 2025). Financer les infrastructures pour une IA européenne [Note pour l’action]. Le Grand Continent.
([691]) Dylan Patel, Daniel Nishball et Jeremie Eliahou Ontiveros, «AI Datacenter Energy Dilemma – Race for AI Datacenter Space», SemiAnalysis, 13 mars 2024.
([692]) Liebreich, M. (2024, December 24). Generative AI – The power and the glory. BloombergNEF.
([693]) Reuters, VIEW Nvidia becomes first company to hit $4 trillion in market value, 9 juillet 2025.
([694]) Iot Analytics, Generative AI Market Report, 4 mars 2025..
([695]) Jon Peddie Research, Q1’25 PC graphics add-in board shipments increased 8.5% from last quarter due to Nvidia’s Blackwell ramping up, 5 juin 2025.
([696]) Shilov, A. (6 juin 2025). AMD’s desktop GPU market share hits all-time low despite RX 9070 launch, Nvidia extends its lead [Updated]. Tom’s Hardware.
([697]) Finantial Times, Microsoft acquires twice as many Nvidia AI chips as tech rivals, 18 décembre 2024.
([698]) Patel, D., Chen, K., Nishball, D., Chiam, I., & Knuhtsen, R. (2025). The GPU Cloud ClusterMAX™ Rating System: How to rent GPUs – 90%+ coverage by rental GPU value, GPU cloud evaluation guidelines, GPU pricing updates, GPU bubble burst, CoreWeave IPO, hyperscalers, AI neocloud economics, neocloud IRR [Article de blog].
([699]) Finantial Times, Microsoft acquires twice as many Nvidia AI chips as tech rivals, 18 décembre 2024.
([700]) Vahdat A (9 avril 2025), Ironwood: The first Google TPU for the age of inference.
.([701]) Grimm S. (6 juin 2025), 'Rising ASIC coalition' seeks to jettison Nvidia — Industry report claims firms are accelerating development in order to reduce dependence on the giant.
([702]) Barron’s, Broadcom and Marvell face off against Nvidia, 11 juillet 2025.
([703]) IEEE Spectrum, Challengers Are Coming for Nvidia’s Crown, 16 septembre 2024.
([704]) IEEE Spectrum, Challengers Are Coming for Nvidia’s Crown, 16 septembre 2024.
([705]) Financial Times, Europe’s AI computing shortage ‘will be resolved’ soon, says Nvidia chief, 11 juin 2025.
([706]) Sipearl, SiPearl : Closing définitif de la Série A, 130 Meuros levés avec Cathay Venture de Taïwan, EIC Fund et France 2030, 8 juillet 2025.
([707]) BloombergLaw, Chipmaker SiPearl Raises euros130 Million in EU Sovereign AI Push, 8 juillet 2025.
([708]) Reuters, Dutch chipmaker AxeleraAI gets $66 million EU grant, 6 mars 2025.
([709]) Financial Times, SoftBank buys UK chipmaker Graphcore in AI push, 11 juillet 2024.
([710]) European Commission, European chips act, 6 février 2022.
([711]) EEtimes, EU Chips Act: Council, Parliament Reach Provisional Deal, 18 avril 2023.
([713]) European Commission, European Chips Act – Update on the latest milestones, 28 avril 2025.
([714]) European Commission, European Chips Act – Update on the latest milestones, 28 avril 2025.
([715]) European Commission, European Chips Act – Update on the latest milestones, 28 avril 2025.
([716]) Cour des comptes européennes, The EU’s strategy for microchips Reasonable progress in its implementation but the Chips Act is very unlikely to be sufficient to reach the overly ambitious Digital Decade targe, 28 avril 2025.
([717]) Shilov A (21 mars 2025, EU preps Chips Act 2.0 to strengthen semiconductor industry after original program reportedly flopped, 21 mars 2025.
([718]) Clark, Jack; King, Ian (2016-06-20). "World's Fastest Supercomputer Now Has Chinese Chip Technology". Bloomberg.com.
([719]) Le point, Exaflop : le Graal des supercalculateurs a-t-il été atteint en Chine ?, 23 décembre 2021.
([720]) Geopolitechs, Can Chinese GPU companies replace Nvidia?, 2 septembre 2024.
([721]) Quartz, Nvidia chips are banned in China — but AI engineers have found a way around that, 26 août 2024.
([722]) BloombergNEF, Liebreich : Generative AI – The Power and The Glory, 24 décembre 2024.
([723]) Parmi elles : Biren Technology, Moore Threads, Enflame, Cambricon (Cambrian), Tianshu Zhixin, ou encore les géants Huawei et Baidu (puce Kunlunà).
([724]) SCMP, Shanghai conference sets stage for US-China face-off in heated race for AI supremacy, 25 juillet 2025.
([725]) The NY Times, China Is Spending Billions to Become an A.I. Superpower, 16 juillet 2025.
([726]) Shilov A., Chinese Biren's New GPUs Have 77 Billion Transistors, 2 PFLOPS of AI Performance, 10 août 2022.
([727]) Geopolitechs, Can Chinese GPU companies replace Nvidia?, 2 septembre 2024.
([728]) Reuters, Nvidia's resumption of AI chips to China is part of rare earths talks, says US, 16 juin 2025.
([729]) Geopolitechs, Can Chinese GPU companies replace Nvidia?, 2 septembre 2024.
([730]) Reuters, Nvidia's resumption of AI chips to China is part of rare earths talks, says US, 16 juin 2025.
([731]) BloombergNEF, Liebreich : Generative AI – The Power and The Glory, 24 décembre 2024.
([732]) Le Monde, La Chine enquête sur Nvidia, le géant américain des puces, pour violation de la loi antimonopole, 9 décembre 2024.
([733]) Asia Times, SMIC’s 7-nm chip process a wake-up call for US , 25 juillet 2022.
([734]) Reuters, Exclusive: China to publish policy to boost RISC-V chip use nationwide, sources say, 4 mars 2025.
([735]) Un supercalculateur est un ordinateur extrêmement puissant conçu pour effectuer un très grand nombre de calculs en parallèle à une vitesse bien supérieure à celle des ordinateurs classiques. Il est essentiel pour l’intelligence artificielle, car il permet d’entraîner des modèles complexes sur d’énormes volumes de données en un temps réduit, accélérant ainsi les avancées en apprentissage automatique et en traitement du langage.
([737]) Pires Francisco, China May Have Unmatched Supercomputer Abilities, Third Exascale Machine Apparently Online, 16 septembre 2023.
([738]) Shilov A. China's secretive Tianhe 3 supercomputer uses homegrown hybrid CPU — rivals US systems with 1.57 Exaflops of performance: Report, 12 février2024.
([740]) Ibid.
([741]) Elysée, MAKE France AN AI POWERHOUSE, 10 février 2025.
([742]) European commission, Entreprise commune pour le calcul à haute performance européen (EuroHPC).
([743]) European Commission, European High Performance Computing Joint Undertaking - EuroHPC JU.
([744]) EuroHPC, The EuroHPC JU Selects Additional AI Factories to Strengthen Europe’s AI Leadership, 12 mars 2025.
([745]) European commissin, The EuroHPC Joint Undertaking Launches AI Factories Antennas Call to Strengthen the Network of EuroHPC AI Factories in Europe, 9 avril 2025.
([746]) Ministère de l’enseignement supérieur et de la recherche, AI Factory France : la France lauréate du programme européen EuroHPC, 11 mars 2025.
([748]) EuroHPC, Advancing European Sovereignty in HPC with RISC-V, 6 mars 2025.
([749]) EuroHPC, New EuroHPC call to strengthen Europe's leadership in HPC Applications, 10 juin 2025.
([750]) Reuters, OpenAI, Oracle deepen AI data center push with 4.5 gigawatt Stargate expansion, 22 juillet 2025.
([751]) Doan, R., Lévy, A., & Storchan, V. (Février 2025). Financer les infrastructures pour une IA européenne [Note pour l’action]. Le Grand Continent.
([752]) CNRS, La recherche française, moteur d’un nouveau modèle d’IA, 12 juillet 2022.
([753]) Autorité de la concurrence, Intelligence artificielle générative : l’Autorité rend son avis sur le fonctionnement concurrentiel du secteur de l’intelligence artificielle générative, 28 juin 2024.
([754]) LesEchos, ASML : Christophe Fouquet, le Français qui compte dans l'industrie critique des semi-conducteurs, 4 juillet 2024.
([755]) Reuters, US startup xLight raises $40 million in race against China for key chipmaking laser, 22 juillet 2025.
([756]) A SML, Busting ASML Myths – Stories, 23 février 2022 : Unlike in the DUV (deep ultraviolet) lithography market, where ASML competes with other top-notch suppliers, ASML is currently the only lithography equipment supplier capable of producing EUV technology.
([757]) Time, TIME100 Most influential companies 2025 : ASML, 26 juin 2025.
([758]) MIT Technology Review, “How ASML took over the chipmaking chessboard,” 1er april 2024.
([759]) O'Grady, Carmel; Kenyon, Matthew (21 février 2023). "How ASML became Europe's most valuable tech firm". BBC News.
([760]) Mordor Intelligence Research & Advisory. EUV Lithography Market Size & Share Analysis - Growth Trends & Forecasts (2025 - 2030). Mordor Intelligence. 22 juillet 2025,
([761]) Les semi‑conducteurs sont indispensables à l’IA car ils forment les puces (CPU, GPU, TPU) qui exécutent les milliards de calculs nécessaires à l’entraînement et au fonctionnement des modèles.
([762]) Congress.gouv, CHIPS and Science Act.
([763]) Commission européenne, Règlement européen sur les semi-conducteurs.
([764]) ASML, EUV lithography systems .
.([765]) Gannatti, C. (26 janvier 2025). How ASML is redefining technology, one nanometer at a time. WisdomTree.
([766]) The Guardian, A journey through the hyper-political world of microchips, 27 février 2025.
([767]) Vox, Trump just handed China a major advantage on AI, 16 juillet 2025.
([768]) Commission européenne, Règlement européen sur les semi-conducteurs, 21 septembre 2023.
([769]) Vie-publique, Marché des semi-conducteurs : quelle dépendance des pays européens ?, 16 janvier 2025.
([770]) Chris Miller, Chip War : The Fight for the World's Most Critical Technology, 4 octobre 2022.
([771]) Youvan, D. C. (Novembre 2024). Monopolizing innovation : The strategic role of ASML in global semiconductor dominance and its impact on China [Preprint]. ResearchGate.
([772]) Reuters, Trump wants to kill $52.7 billion semiconductor chips subsidy law, 5 mars 2025.
([773]) NIST, Biden-Harris Administration Announces NY CREATES’ Albany NanoTech Complex as the first CHIPS for America R&D Flagship Facility and Planned Site for the estimated $825 Million CHIPS for America EUV Accelerator, 31 octobre 2024.
([774]) Reuters, Intel says new ASML machines are in production, with positive results, 25 février 2025.
([775]) Reuters, Exclusive: China to launch $40 billion state fund to boost chip industry, 6 septembre 2023.
([776]) Financial Times, China’s ASML endeavour and India eyes Taiwan ties, 17 juillet 2025.
([777]) European court of auditors, Special report 12/2025: The EU’s strategy for microchips – Reasonable progress in its implementation but the Chips Act is very unlikely to be sufficient to reach the overly ambitious Digital Decade target, 28 avril 2025.
([778]) Reuters, Semiconductor firms call for EU Chips Act 2.0, 19 mars 2025.
([779]) Bocconi University, Project Beethoven - The Dutch Strategy to Support the Chip Technology Leader ASML, 16 septembre 2024.
([780]) Reuters, Intel says new ASML machines are in production, with positive results, 25 février 2025.
([781]) Reuters, US startup xLight raises $40 million in race against China for key chipmaking laser, 22 juillet 2025.
([782]) Doan, R., Lévy, A., & Storchan, V. (Février 2025). Financer les infrastructures pour une IA européenne [Note pour l’action]. Le Grand Continent.
([783]) Gouvernement, IA : une nouvelle impulsion pour la stratégie nationale, 6 février 2025.
([784]) Ibid.
([785]) European Commission, EU launches InvestAI initiative to mobilise euros200 billion of investment in artificial intelligence, 11 février 2025.
([786]) European Commission, Discover EuroHPC JU
([787]) Le Chips and Science Act est un plan américain de 280 milliards de dollars (54, 2 milliards pour les semi-conducteurs) quand le Chips Act européen mobilise 43 milliards d’euros (dont 3,3 milliards du budget de l’UE seulement).
([788]) Commission européenne, Le plan d’action pour le continent de l’IA, 9 avril 2025.
([789]) Commission européenne, L’UE lance l’initiative InvestAI pour mobiliser 200 milliards d’euros d’investissements dans l’intelligence artificielle, 11 février 2025.
([790]) CSIS, The EU AI Continent Action Plan, 22 avril 2025.
([791]) L’usine digitale, Stargate : le projet IA à 500 milliards de dollars signé Donald Trump, 22 janvier 2025.
([792]) Doan, R., Lévy, A., & Storchan, V. (Février 2025), Financer les infrastructures pour une IA européenne [Note pour l’action]. Le Grand Continent.
([793]) Ouest France, EDF accueillera des data centers sur ses terrains, 4 mars 2025.
([794]) Article 15 du projet de loi, modifié par l’Assemblée nationale, de simplification de la vie économique le 17 juin 2025, T.A. n° 144.
([795]) Gov.uk, AI Growth Zones: open for applications, 13 juin 2025.
([796]) European Parliament, AI and the energy sector, 4 juillet 2025.
([797]) IEA, AI is set to drive surging electricity demand from data centres while offering the potential to transform how the energy sector works, 10 avril 2025.
([798]) European commission, AI Continent – new cloud and AI development act.
([799]) European Parliament, AI and the energy sector, 4 juillet 2025.
([800]) Reuters, EU plans energy saving measures for data centres, 12 juin 2025.
([801]) European Parliament, AI and the energy sector, 4 juillet 2025.
([802]) Reuters, France's EDF identifies land for data centres, 10 février 2025.
([803]) Reuters, France's EDF in talks on deals to power three 1GW data centres, 7 novembre 2024.
([804]) Reuters, Connection challenge could hamper nuclear powered France's bid as AI hub, 11 février 2025.
([805]) Reuters, France's EDF in talks on deals to power three 1GW data centres, 7 novembre 2024.
([806]) Direction générale du Trésor, Capital-risque et développement des start-up françaises, février 2021.
([807]) Les levées de fonds dites de « late stage » désignent les tours de financement en capital intervenant à un stade avancé du développement d'une entreprise, généralement à partir des séries C, D et suivantes. Ces tours visent principalement à accélérer la croissance, à financer l’expansion internationale ou des opérations de fusion-acquisition, en mobilisant des montants significatifs auprès d’investisseurs institutionnels.
([808]) KPMG (2020), Venture Pulse, Q3.
([809]) European Investment Bank ; The scale-up gap: Financial market constraints holding back innovative firms in the European Union, 24 juillet 2024.
([810]) LeMonde, Pour jouer les premiers rôles dans la tech mondiale, l’Europe manque de financements, 19 novembre 2024.
([811]) Dgtrésor, Capital-risque et développement des start-up françaises, février 2021.
([812]) European Investment Bank ; The scale-up gap: Financial market constraints holding back innovative firms in the European Union, 24 juillet 2024.
([813]) European Investment Bank ; The scale-up gap: Financial market constraints holding back innovative firms in the European Union, 24 juillet 2024.
([814]) Reuters, France's Mistral AI raises 105 million euros shortly after being set up, 14 juin 2023.
([815]) European Investment Bank ; The scale-up gap: Financial market constraints holding back innovative firms in the European Union, 24 juillet 2024.
([816]) LeMonde, Pour jouer les premiers rôles dans la tech mondiale, l’Europe manque de financements, 19 novembre 2024.
([817]) European Investment Bank ; The scale-up gap: Financial market constraints holding back innovative firms in the European Union, 24 juillet 2024
([818]) European Commission (2024), Science, Research and Innovation Performance Report of the EU 2024: A competitive Europe for a sustainable future.
([819]) European Commission (mai 2025) Communication The EU startup and scaleup Strategy .
([820]) EBAN Statistics Compendium – European Early Stage Market Statistics 2023.
([821]) Crunchbase, Europe’s Startup Funding Stabilized in 2025, But Remains Far Off Market Peak, 13 janvier 2025.
([822]) Techcrunch, VC investment in European startups passed $52B in 2024, continuing long-term growth trend, 20 mars 2025.
([823]) Eleven VC, The State of Venture Capital in CEE 2024, 28 novembre 2024.
([824]) European Commission (mai 2025) Communication The EU startup and scaleup Strategy
([825]) EIF, EIF VC Survey 2024 Market sentiment , octobre 2024.
([826]) DealRoom, Europe Tech updat Q2 2024, juillet 2024.
([827]) European Commission, Communication The EU startup and scaleup Strategy , mai 2025.
([828]) Quas, A., Mason, C., Compañó, R., Testa, G., & Gavigan, J. P. (2022). The scale-up finance gap in the EU: Causes, consequences, and policy solutions. European management journal, 40(5), pp. 645–652.
([829]) European Investment Bank ; The scale-up gap: Financial market constraints holding back innovative firms in the European Union, 24 juillet 2024
([830]) L’exit est la sortie d’un investisseur d’une start-up, lui permettant de récupérer son capital et ses gains, généralement via une IPO, une acquisition ou une revente de parts.
([831]) L’IPO (Initial Public Offering), ou introduction en bourse, désigne l’opération par laquelle une entreprise propose pour la première fois ses actions au public sur un marché financier réglementé. Cette opération permet de lever des capitaux, d’accroître la notoriété de l’entreprise et de donner de la liquidité à ses actionnaires.
([832]) Duruflé G., Hellmann T., Wilson K. Finance and investment. The European Case; 2018. From start-up to scale-up: Examining public policies for the financing of high-growth ventures; pp. 179–219.
([833]) Direction générale du Trésor, Capital-risque et développement des start-up françaises, février 2021.
([834]) Contribution écrite du fonds Résonance à la mission.
([835]) P. Tibi (2019), « Financer la quatrième révolution industrielle, Lever le verrou du financement des entreprises technologiques ».
([836]) Quas, A., Mason, C., Compañó, R., Testa, G., & Gavigan, J. P. (2022). The scale-up finance gap in the EU: Causes, consequences, and policy solutions. European management journal, 40(5), pp. 645–652.
([837]) Ibid.
([838]) Direction générale du Trésor, Capital-risque et développement des start-up françaises, février 2021.
([839]) ACPR, Revue de la directive Solvabilité 2 : vers un régime proportionné, 3 janvier 2025.
([840]) DWS, Solvency II Review and Long-Term Equity Investments: A New Era for Private Equity and Infrastructure Investments?, avril 2024.
([841]) Ibid.
([842]) On parle d’hyper-croissance lorsqu’une entreprise vise une expansion extrêmement rapide, bien au-delà d’une croissance organique classique, avec des rythmes annuels souvent supérieurs à 40 % par an.
([843]) Quas A., D'Adda D. High-tech entrepreneurial ventures seeking external equity: Whether, when, where… and why not? Economia e Politica Industriale. 2018;45, pp. 311–334.
([844]) Ibid.
([845]) Le capital-risque (ou « venture capital » - VC) désigne un mode de financement en fonds propres apporté par des investisseurs à des jeunes entreprises innovantes, généralement non cotées, présentant un fort potentiel de croissance mais aussi un risque élevé. Il intervient souvent dès les premières phases de développement (amorçage, séries A, B, etc.).
([846]) European Commission, Communication The EU startup and scaleup Strategy, mai 2025.
([847]) CEPS, Towards a european large-scale initiative on artificiel intelligence, juillet 2024.
([848]) Maslej, N., Fattorini, L., Perrault, R., Gil, Y., Parli, V., Kariuki, N., Capstick, E., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., Walsh, T., Hamrah, A., Santarlasci, L., Lotufo, J. B., Rome, A., Shi, A., & Oak, S. (2025). The AI Index 2025 annual report. Stanford : AI Index Steering Committee, Institute for Human‑Centered AI, Stanford University. Retrieved April 9, 2025, from Stanford HAI website.
([849]) Dealroom, AI Europe Report 2024 , juin 2024.
([850]) Cour des comptes européenne, Intelligence artificielle: l’UE doit passer à la vitesse supérieure, 29 mai 2025.
([851]) Pitchbook, Artificial Intelligence & Machine Learning Report, 19 septembre 2024.
([852]) Silicon Valley Bank, The state of AI industry trends in Europe: Talent drives success, but U.S. funding still crucial, 15 avril 2025 qui évoque en 2024 un financement global de 124 md de dollars (US+Asia+Europe) et 3,2 milliards pour la France.
([853]) Direction générale des entreprises, Intelligence artificielle en France : un écosystème d’excellence, 12 février 2025.
([854]) Eleven Ventures, The state of Venture capital in CEE 2024, 3 décembre 2024.
([855]) Dealroom, europe Tech update Q2 2024, juillet 2024.
([856]) Silicon Valley Bank, The state of AI industry trends in Europe: Talent drives success, but U.S. funding still crucial, 15 avril 2025.
([857]) France digitale, Mapping 2025 des startups françaises de l’Intelligence artificielle, 28 janvier 2025.
([858]) DGE, L’innovation de rupture au défi du passage à l’échelle, mars 2025.
([859]) European Investment Bank ; The scale-up gap: Financial market constraints holding back innovative firms in the European Union, 24 juillet 2024.
([860]) BPIFrance, Large venture
([861]) France Digitale (2024), Unlocking investments for competitiveness: How can institutional investors boost the European innovation ecosystem?.
([862]) P. Tibi, « Financer la quatrième révolution industrielle, Lever le verrou du financement des entreprises technologiques », 2019.
([863]) Direction générale du Trésor, Capital-risque et développement des start-up françaises, février 2021.
([864]) Ministère de l’économie, des finances et de la souveraineté industrielle et numérique, Initiative Tibi : un plan pour financer le développement des entreprises technologiques, 15 juin 2023.
([865]) DG trésor, Initiative Tibi : phase 2 et perspectives, 6 mai 2024.
([866]) Ibid.
([867]) Eur-lex, Pan-European personal pension product : Regulation (EU) 2019/1238 on a pan-European personal pension product.
([869]) European Insurance and Occupational Pensions Authority, EIOPA STAFF PAPER, 11 septembre 2024.
([870]) European Investment Bank ; The scale-up gap: Financial market constraints holding back innovative firms in the European Union, 24 juillet 2024.
([871]) Crédit Agricole, France Placement des ménages, 10 avril 2025.
([872]) IMF (2024), Stepping Up Venture Capital to Finance Innovation in Europe. IMF Working Paper No. 2024/146.
([873]) Reuters, EU plans tech scale-up fund to narrow gap with US, China, 28 mai 2025.
([874]) European Investment Bank ; The scale-up gap: Financial market constraints holding back innovative firms in the European Union, 24 juillet 2024.
([875]) Landais, C., Sraer, D., Schnitzer, M., Grimm, V., Malmendier, U., Truger, A., & Werding, M. (2024, juillet). Renforcer les marchés de capitaux de l’Union européenne : déclaration conjointe. Conseil d’analyse économique (CAE) ; German Council of Economic Experts.
([876]) Arnold, N. G., Claveres, G., & Frie, J. (2024, July 12). Stepping up venture capital to finance innovation in Europe. International Monetary Fund (IMF).
([877]) Conseil européen, L'union des marchés des capitaux expliquée.
([878]) Vie publique, L'épargne européenne insuffisamment investie dans les besoins européens, 26 mars 2025.
([879]) DGE, L’innovation de rupture au défi du passage à l’échelle, mars 2025 (voir p76).
([880]) Arnold, N. G., Claveres, G., & Frie, J. (2024, July 12). Stepping up venture capital to finance innovation in Europe. International Monetary Fund (IMF).
([881]) EIB, Intelligence artificielle, chaîne de blocs et avenir de l’Europe, 1er juin 2021.
([882]) Ibid.
([883]) EIF (2023) : « EIF Venture Capital Survey 2023 : Market sentiment, scale-up financing and human capital », EIF working paper 2023/23, European Investment Fund, 12 octobre 2023.
([884]) L Landais, C., Sraer, D., Schnitzer, M., Grimm, V., Malmendier, U., Truger, A., & Werding, M. (2024, juillet). Renforcer les marchés de capitaux de l’Union européenne : déclaration conjointe. Conseil d’analyse économique (CAE) ; German Council of Economic Experts.
([885]) Ibid.
([886]) European Commission, Savings and investments union strategy to enhance financial opportunities for EU citizens and businesses, 19 mars 2025.
([887]) Financial Times, EU revives capital markets union plan to unlock trillions in savings, 19 mars 2025.
([888]) European Commission, Savings and investments union strategy to enhance financial opportunities for EU citizens and businesses, 19 mars 2025.
([889]) SandPRatings, European Union and European Atomic Energy Community, 30 juin 2025.
([890]) règlement (UE) 2021/241 du Parlement européen et du Conseil du 12 février 2021 établissant la facilité pour la reprise et la résilience.
([891]) Cour des Comptes, Renforcer l’impact du Crédit d’impôt recherche, 2022.
([892]) Les brevets « triadiques » sont les brevets déposés auprès de trois des principaux offices d’enregistrement, à savoir l'Office européen des brevets (OEB), l'Office japonais des brevets (JPO) et le Patent and Trademark Office des États-Unis (USPTO).
([893]) Ministère de l’économie des finances et de la souveraineté industrielle, Ce qui change pour les entreprises avec l'adoption du budget 2025, 18 février 2025.
([894]) CPO, Redistribution, innovation, lutte contre le changement climatique : trois enjeux fiscaux majeurs en sortie de crise sanitaire, février 2022.
([895]) Ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique, Entreprises : ce qui change au 1er janvier 2025, 26 décembre 2024.
([896]) https://www.shanghairanking.com/rankings/gras/2024.
([897]) https://www.cge.asso.fr/liste-actualites/enquete-ia-de-la-commission-numerique/.
([898]) Amandine Duffoux, Loïc Plé, Intelligence artificielle : pour un usage raisonné et critique de l'IA dans les Grandes écoles, livre blanc hors-série, février 2025.
([899]) Mis en place en 2024 à CentraleSupélec, le statut de « professeur attaché » autorise les établissements de l’enseignement supérieur à recruter des salariés du privé sur des postes comportant 48 heures d’enseignement et 16 heures d’intégration au sein de l’équipe pédagogique.
([900]) Ces objectifs sont mentionnés dans un communiqué publié le 25 février 2025 par l’université Paris-Saclay, dans lequel elle annonce avoir « rejoint une alliance inédite sur l’IA avec Mistral AI ».
([901]) PwC, « L’IA transforme le marché de l’emploi », AI Jobs Barometer 2025, (France analysis https://www.pwc.fr/fr/assets/files/pdf/2025/06/fr-france-pwc-aijb-2025-france-analysis.pdf.).
([902]) En France, le nombre d’offres d’emploi dans les métiers liés à l’IA a augmenté de 273 % entre 2019 et 2024, passant ainsi de 21 000 à 166 000 en six ans.
([903]) Observatoire des métiers du numérique, de l’ingénierie, du conseil et de l’événement, Les besoins en compétences, emplois et formations en matière d'intelligence artificielle en France,
([904]) Laure Salvaing, Guillaume Caline, Alexandre Vassas « Le futur des métiers de la data et de l’IA vu par les grands groupes français », 3ème édition de l’enquête réalisée pour la French Tech Corporate community, mars 2024. Enquête réalisée par Verian (anciennement Kantar) en partenariat avec l’ESSEC Business School, la French Tech Corporate Community et Claranet.
([905]) Centre de recherche pour l’étude et l’observation des conditions de vie.
([906]) Pôle Société, Baromètre du numérique 2024, rapport pour le Credoc, mars 2025, p. 107.
([907]) Planeta Formación y Universidades, « Intelligence artificielle et employabilité future des étudiants de l’enseignement supérieur », février 2025.
([908]) Décret n° 2015-372 du 31 mars 2015 relatif au socle commun de connaissances, de compétences et de culture. Le concept désigne l’ensemble des savoirs, savoir-faire, valeurs et attitudes que les élèves âgés de 6 à 16 ans doivent acquérir au fil de leur cursus scolaire et que la collectivité juge nécessaire pour la réussite de leur scolarité, ainsi de leur vie personnelle et de futurs citoyens.
([909]) Communication de la Commission au Parlement européen, au Conseil, au Comité européen économique et social et au Comité des régions, « État d’avancement de la décennie numérique 2025: Poursuivre la construction de la souveraineté et de l’avenir numérique de l’UE », juin 2025.
([910]) « Emploi, chômage, revenus du travail », étude conjointe de l’Institut national de la statistique et des études économique (Insee) et la direction de l’Animation de la recherche, des Études et des Statistiques (DARES), publiée le 29 juin 2023.
([911]) Valentin Melot, Agathe Rosenzweig, Olivier Sidokpohou, Xavier Gauchard et alii, Filles et mathématiques : lutter contre les stéréotypes, ouvrir le champ des possibles, rapport conjoint d l’Inspection générale des finances (IGF) et de l’Inspection générale de l’Éducation, du Sport et de la Recherche (IGÉSR), février 2025.
([912]) Anaïs Bret et Aurélie Lacroix, Sandra Andreu, Caren Chaaya, Luc Cheung Kivan Yeun et alii, « Les filles moins confiantes que les garçons concernant l’année à venir et leurs performances, notamment en mathématiques », note n° 25-26, direction de l’Évaluation, de la Prospective et de la Performance, avril 2025.
([913]) Ibidem.
([914]) https://www.education.gouv.fr/communique-de-presse-plan-filles-et-maths-450370.
([915]) L’index relatif à l’innovation établi par l’Université de Stanford repose sur une mesure du niveau de recherche et de développement et le recensement des infrastructures de recherche, ainsi que de la formation.
([916]) Cour des comptes, La stratégie nationale de recherche en intelligence artificielle : une stratégie à structurer et à pérenniser, rapport public thématique, avril 2023, p. 48.
([917]) Enseignement supérieur et de la recherche.
([918]) La carte est établi à partir des données HAL des instituts interdisciplinaires d’intelligence artificielle (3IA)transformés sous la forme d’un réseau de collaborations scientifiques. La surface des nœuds et la taille des noms des entités reflètent leur fréquence dans les articles scientifiques. Seuls les 10 % des entités les plus importantes au sens du nombre d’articles co-publiés sont représentées.
([919]) La création de l’Institut DataIA résulte de l’appel à projets « Instituts Convergences », lancé en 2017 par l’Agence nationale de la recherche (ANR), dont Paris-Saclay a été lauréat.
([920]) Cour des comptes, La stratégie nationale de recherche en intelligence artificielle, rapport public thématique, avril 2023, p. 83.
([921]) Cour des comptes, La stratégie nationale de recherche en intelligence artificielle : une stratégie à structurer et à pérenniser, rapport public thématique, avril 2023, p. 30.
([922]) Les appels à projet portaient notamment sur les thèmes suivants : l’IA embarquée ; les communes numériques pour l’IA générative ; les usages de l’IA générative ; le renforcement de l’offre de service cloud ; les espaces de données mutualisées mais aussi l’ensemble des dispositifs du réseau.
([923]) Loi n° 2020-1674 du 24 décembre 2020 de programmation de la recherche pour les années 2021 à 2030 et portant diverses dispositions relatives à la recherche et à l'enseignement supérieur.
([924]) Cédric Villani, Marc Schoenauer, Yann Bonnet et alii, Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne, rapport remis au Premier ministre au terme d’une mission parlementaire, mars 2018, pp. 75 à 79.
([925]) Le PEPR IA est piloté par le Commissariat à l’énergie atomique (CEA), le Centre national de la recherche scientifique (CNRS) et l’Inria.
([926]) Cour des comptes, La stratégie nationale de recherche en intelligence artificielle : une stratégie à structurer et à pérenniser, rapport public thématique, avril 2023, p. 89.
([927]) Article 7 de la loi n° 2020-1674 du 24 décembre 2020 de programmation de la recherche pour les années 2021 à 2030 et portant diverses dispositions relatives à la recherche et à l'enseignement supérieur créant l’article L. 412-4 du code de la recherche.
([928]) Article 9 de la loi n° 2020-1674 du 24 décembre 2020 créant l’article L. 431-6 du code de la recherche.
([929]) Article 7 de la loi n° 2020-1674 du 24 décembre 2020 de programmation de la recherche créant l’article L. 431-5 du code de la recherche.
([930]) Prévu à l'article L. 612-7 du code de l'éducation.
([931]) Au sens de l'article L. 112-1 du code de la recherche.
([932]) Article 24 de la loi n° 2020-1674 du 24 décembre 2020 de programmation de la recherche pour les années 2021 à 2030 et portant diverses dispositions relatives à la recherche et à l'enseignement supérieur.
([933]) Selon la communication du Comité interministériel de l’Intelligence artificielle, « Faire de la France une puissance de l’IA », février 2025, p.6.
([934]) Article 17 de la loi n° 2016-274 du 7 mars 2016 relative au droit des étrangers en France, codifié à l’article L. 421-14 du code de l’entrée et du séjour des étrangers.
([935]) Article 41 de la loi n° 2025-391 du 30 avril 2025 portant diverses dispositions d'adaptation au droit de l'Union européenne en matière économique, financière, environnementale, énergétique, de transport, de santé et de circulation des personnes.
([936]) Article 40 de la loi n° 2025-391 du 30 avril 2025, procédant à la réécriture de l’article L. 411-1 du code de l’entrée et du séjour des étrangers.
([937]) Article 12 de la loi n° 2020-1674 du 24 décembre 2020 de programmation de la recherche pour les années 2021 à 2030 et portant diverses dispositions relatives à la recherche et à l'enseignement supérieur, créant l’article L. 434-1 du code de la recherche.
([938]) La reconnaissance de la qualité de « start-up innovante » suppose, pour l’entreprise, d’être immatriculée en France (en s’étant vu attribuer un numéro de Siret) et de remplir trois critères :être ou avoir été bénéficiaire d’un soutien public à l’innovation au cours des cinq dernières années ;la présence au capital d’une entité d’investissement ayant pour objet principal de financer ou d’investir dans des entreprises innovantes ; être ou avoir été accompagnée au cours des cinq dernières années par une structure d’accompagnement consacrée aux entreprises innovantes.
([939]) Francesco Filippucci Peter Gal, Cecilia Jona Lasinio, Alvaro Leandro, Giuseppe Nicoletti, « The impact of Artificial Intelligence on productivity, distribution and growth : Key mechanisms, initial evidence and policy challenges », avril 2024, p. 17.
([940]) Mauro Cazzaniga, Florence Jaumotte, Longji Li, Giovanni Melina, Augustus J. Panton, Carlo Pizzinelli, Emma Rockall et Marina M. Tavares, « L’intelligence générative artificielle : l’intelligence artificielle et l’avenir du travail », note de discussion, Fonds monétaire international, SDN/2024/001, janvier 2024.
([941]) Pawel Gmyrek, Janine Berg et David Bescond, « Intelligence artificielle générative et emplois : une analyse globale des potentiels effets sur la quantité et la qualité des emplois », août 2023.
([942]) Commission de l’intelligence artificielle, IA : notre ambition pour la France, mars 2024, p. 41.
([943]) Léo Besson, Arthur Dozias, Clémence Faivre, Charlotte Galezzot, Joceran Gouy-Was, Basile Vidalenc, « Les enjeux économiques de l’intelligence artificielle », Trésor-Éco, n° 341, avril 2024, p. 7.
([944]) Frey, C B , et M A Osborne, « The future of employment : How susceptible are jobs to computerisation ? », Document de travail Oxford Martin School, 2013.
([945]) Francesco Filippucci, Peter Gal, Cecilia Jona-Lasinio, Alvaro Leandro, Giuseppe Nicoletti, « The impact of Artificial The impact of Artificial Intelligence on productivity, distribution and growth : Key mechanisms, initial evidence and policy challenges », OECD Artificial Intelligence Papers, avril 2024, p. 25.
([946]) https://www.economie.gouv.fr/actualites/strategie-nationale-intelligence-artificielle.
([947]) Mauro Cazzaniga, Florence Jaumotte, Longji Li, Giovanni Melina, Augustus J. Panton, Carlo Pizzinelli, Emma Rockall et Marina M. Tavares, « L’intelligence générative artificielle : l’intelligence artificielle et l’avenir du travail », note de discussion, Fonds monétaire international, SDN/2024/001, janvier 2024.
([948]) Commission de l’intelligence artificielle, IA : Notre ambition pour la France, mars 2024, p. 41.
([949]) Citée par la commission de l’intelligence artificielle dans son rapport de mars 2024, l’étude compare l’évolution de l’emploi dans 321 entreprises ayant adopté l’intelligence artificielle entre 2018 et 2020 par rapport à celle observée dans 897 entreprises qui ne l’avaient pas fait.
([950]) Léo Besson, Arthur Dozias, Clémence Faivre, Charlotte Gallezot, Joceran Gouy-Waz, Basile Vidalenc, « Les enjeux économiques de l’intelligence artificielle », Trésor-Éco, n° 341, avril 2024, p.7.
([951]) Francesco Filippucci Peter Gal, Cecilia Jona Lasinio, Alvaro Leandro, Giuseppe Nicoletti, « The impact of Artificial Intelligence on productivity, distribution and growth : Key mechanisms, initial evidence and policy challenges », OECD publishing, avril 2024, p. 26.
([952]) Anton Korinek, « Scenario planning for an A(G)I Future », Finance & Developpement magazine, Fonds monétaire international, décembre 2023.
([953]) LexisNexis, IA générative et professionnel du droit, 3 octobre 2023.
([954]) PWC, IA Générative et directions juridiques : créer le monde de demain, 25 juillet 2024.
([955]) Wolters Kluwer, Avocats et Juristes face au futur - Innovation juridique : Saisir l’avenir ou se laisser distancer ?, 24 octobre 2024.
([956]) Thomson Reuters Institute, 2025 Generative AI in Professional Services Report, 15 avril 2025.
([957]) LexisNexis, IA générative et professionnel du droit, 3 octobre 2023.
([958]) Sénat, L'intelligence artificielle générative et les métiers du droit : agir plutôt que subir, 18 décembre 2024.
([959]) Ibid.
([960]) CNB, « Le CNB accompagne toujours plus la profession dans l'utilisation de l'IA générative », 18 juin 2025.
([961]) Actu-juridique, Jean-Philippe Gille : « Le juriste d’entreprise est en train de devenir un régulateur », 27 juin 2024.
([962]) LexisNexis, IA générative et professionnel du droit, 3 octobre 2023.
([963]) Sénat, L'intelligence artificielle générative et les métiers du droit : agir plutôt que subir, 18 décembre 2024.
([964]) Avocats Barreau de Paris, INTELLIGENCE ARTIFICIELLE : Le barreau en action, 2 juillet 2025.
([965]) Sénat, L'intelligence artificielle générative et les métiers du droit : agir plutôt que subir, 18 décembre 2024.
([966]) Couture R., The Impact of Artificial Intelligence on Law Firms’ Business Models, Harvard Business School, 25 février 2025
([967]) Goldman Sachs, Generative AI: hype, or truly transformative?, 10 juillet 2023.
([968]) Sénat, L'intelligence artificielle générative et les métiers du droit : agir plutôt que subir, 18 décembre 2024.
([969]) Commission de l’intelligence artificielle, IA : Notre ambition pour la France, mars 2024.
([970]) Kapoor, S., Henderson, P., & Narayanan, A. (2024). Promises and pitfalls of artificial intelligence for legal applications. arXiv.
([971]) Spellbook, AI in Legal Departments: 2025 Benchmarking Report, 2 juin 2025.
([972]) PwC, « L’IA transforme le marché de l’emploi », AI Jobs Barometer 2025, (France analysis https://www.pwc.fr/fr/assets/files/pdf/2025/06/fr-france-pwc-aijb-2025-france-analysis.pdf.).
([973]) Il est à noter que le rapport de la précédente édition de cette étude du PwC, l’AI Jobs Barometer 2024, avait établi que les compétences demandées dans les métiers exposés à l’IA avaient évolué 25 % plus vite que dans les autres professions.
([974]) Jocelyne Gafner, « Report : 51 % of Gen Z views Their College Degree as a waste of Money », edited by Russ Garcia, Indeed, 7 mai 2025. Les résultats de l’enquête sont tirés des réponses de 772 travailleurs et demandeurs d’emploi américains titulaire d’au moins un diplôme universitaire.
([975]) Simon Borel, Yann Ferguson, Jean Condé et Simon Bore, Étude des impacts de l’IA sur le travail, Synthèse générale du rapport d’enquête du Labor IA explorer, Labor IA, mai 2024, p.14.
([976]) Brynjolfsson E , D Li, et L Raymond, « Generative AI at Work », NBER Working paper, 2023.
([977]) Dell’Aqua F , E McFowland, E Mollick, H Lifshitz-Assaf, K Kellogg, S Rajendran, L Krayer, F Candelon, et Lakhani (2023), « Navigating the Jagged Technological Frontier : Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality », Working paper.
([978]) Marie Degrand-Guillaud, Fanny Barbier, Suzanne Gorge et alii, Ce que l’IA générative fait au travail et à l’emploi, Terra Nova, février 2025, p. 9.
([979]) La literratie désigne l’aptitude à lire, à comprendre et à utiliser l’information écrite dans la vie quotidienne.
([980]) La numératie se définit comme la capacité à utiliser, à appliquer, à interpréter, à communiquer, à créer et à critiquer des informations et des idées mathématiques de la vie réelle. C’est également la tendance d’un individu à réfléchir mathématiquement dans différentes situations professionnelles, personnelles, sociales et culturelles.
([981]) Observatoire IA & Emploi, Comment l’IA redéfinit les codes de la recherche d’emploi, janvier 2025 (Enquête réalisée par France Travail en octobre 2024, en partenariat avec Diversidays auprès de 5 300 demandeurs d’emploi sur leur usage de l’intelligence artificielle pour l’emploi).
([982]) Voir en ce sens Marjorie Cessac, « L’intelligence artificielle : l’apprentissage en entreprise entravé pour les jeunes diplômés », Le Monde.fr, article publié le 7 mai 2025.
([983]) Cf. article précité, paru dans le journal Le Monde.
([984]) Selon Madame Mathilde le Coz, responsable des ressources humaines du groupe Forvis Mazars cité par Marjorie Cessac, dans « L’intelligence artificielle : l’apprentissage en entreprise entravé pour les jeunes diplômés », Le Monde.fr, article publié le 7 mai 2025.
([985]) Francesca Borgonovi, Flavio Calvino, Chiara Criscuolo et alii, « Emerging trends in AI skill demand across 14 OECD countries », OECD Artificial Intelligence Papers, octobre 2023, n° 2. L’étude constate que les offres d’emplois en ligne qui requièrent des compétences en matière d’intelligence artificielle représentent 0,35 % des offres postées en France. 69 % d’entre elles concernent les secteurs de l’informatique et des activités spécialisées et se rattachent aux activités de développement de la technologie ; 31 % portent sur des activités en rapport avec la diffusion de l’intelligence artificielle dans d’autres secteurs.
([986]) Commission de l’intelligence artificielle, IA : Notre ambition pour la France, mars 2024, p. 71. L’estimation présuppose : une progression similaire des offres d’emplois portant sur des activités IA à celle observée entre 2019 et 2022 ; une répartition similaire des besoins en main d’œuvre entre les activités ayant pour objet le développement de la technologie et celles portant sur son déploiement.
([987]) Cour des comptes, La stratégie nationale de recherche en intelligence artificielle : une stratégie à structurer et à pérenniser, rapport public thématique, synthèse, avril 2023, p.16.
([988]) Ibidem.
([989]) Association pour l’emploi des cadres Apec), Les cadres et l’IA- Entreprises et cadres perçoivent de plus en plus l’IA comme une opportunité, juin 2025, p.13.
([990]) France Travail, « [Décryptage], Le marché de l’emploi dans le secteur du numérique », janvier 2025, (https://www.francetravail.org/regions/pays-de-la-loire/actualites/janvier2025/decryptage-le-marche-de-l-emploi-dans-le-secteur-du-numerique.html?type=article.).
([991]) « Le futur des métiers de la data et de l’IA vu par les grands groupes français », 3ème édition de l’enquête réalisée par la French Tech Corporate community, avril 2025. Enquête réalisée par Verian (anciennement Kantar) en partenariat avec l’ESSEC Business School, la French Tech Corporate Community et Claranet auprès de 77 responsables des activités digitales et responsables RH de grandes entreprises en France.
([993]) FranceNum désigne un programme de l’État visant à soutenir la transformation numérique des TPE-PME et dont la coordination incombe à la Direction générale des entreprises (DGE). Il regroupe 70 partenaires dont les régions et de nombreuses organisations professionnelles. Il associe également plus de 3 500 experts de la transformation numérique sur tout le territoire.
([994]) https://www.francenum.gouv.fr/guides-et-conseils/pilotage-de-lentreprise/gestion-traitement-et-analyse-des-donnees/tpe-pme.
([995]) Successeurs des anciens organismes paritaires collecteurs agréés (Opca) depuis le 1er avril 2019, les Opco ont pour mission de financer l’apprentissage, d’aides les branches d’activités à construire des certifications professionnelles et à accompagner les TPE-PME dans la définition de leurs besoins en formation. Les 11 Opco existant regroupent 329 branches professionnelles. Les conditions de leur fonctionnement, de leur agrément et leurs missions procèdent des articles L. 6332-1 A à L. 6332-24 du code du travail.
([996]) Articles L. 6111-6 à L. 6111-6-1 du code du travail. Le dispositif trouve son origine dans les stipulations de l’accord national interprofessionnel du 14 décembre 2013 relatif à la formation professionnelle.
([997]) Article 1er de la loi n° 2018-771 du 5 septembre 2018 pour la liberté de choisir son avenir professionnel.
([998]) Articles L. 6323-17-2 à L. 6323-17-6 du code du travail.
([999]) Articles L6324-1 à L6324-10 du code du travail.
([1000]) Un engagement de développement de l’emploi et des compétences (Edec) désigne un accord annuel ou pluriannuel conclu entre l’Etat et une ou plusieurs organisations ou branches professionnelles, apportant une aide technique et financière destinée à anticiper et à accompagner l’évolution des emplois et des qualifications, dans une optique de sécurisation des parcours professionnels des actifs occupés (article L. 5121-1 du code du travail).
([1001]) Association pour l’emploi des cadres Apec), Les cadres et l’IA- Entreprises et cadres perçoivent de plus en plus l’IA comme une opportunité, juin 2025, p. 7.
([1002]) « L’IA dans les PME et ETI françaises – Une révolution tranquille », Étude Bpifrance Le Lab, juin 2025, https://presse.bpifrance.fr/lia-dans-les-pme-et-eti-francaises-une-revolution-tranquille.
([1003]) Simon Borel, Yann Ferguson, Jean Condé et Simon Bore, Étude des impacts de l’IA sur le travail, Synthèse générale du rapport d’enquête du Labor IA explorer, Labor IA, mai 2024, p.17.
([1004]) Confédération française de l’Encadrement-Confédération générale des Cadres.
([1005]) Association pour l’emploi des cadres Apec), Les cadres et l’IA- Entreprises et cadres perçoivent de plus en plus l’IA comme une opportunité, juin 2025, p. 8.
([1006]) La définition du contenu, des modalités d’actualisation et des conditions d’accès du document résultent des dispositions des articles R. 4121-1 et suivants du code du travail.
([1007]) Au sens de l'article L. 2331-1 du code de travail.
([1008]) Au sens des articles L. 2341-1 et L. 2341-2 du code du travail.
([1009]) https://travail-emploi.gouv.fr/le-bilan-de-la-negociation-collective-en-2023-temoigne-de-la-dynamique-du-dialogue-social.
([1010]) Clara Krämer, Sandrine Cazes, Shaping the transition : Artificial intelligence and social dialogue, OECD Social, Employment and Migration Working Papers, n° 279, octobre 2022.
([1011]) https://www.anact.fr/accord-europeen-sur-la-transformation-numerique-des-entreprises-pour-un-dialogue-social.
([1012]) tribunal judiciaire de Pontoise,15 avril 2022, n° RG 22/00134, S.A.S. Atos International c/ CSE de la société Atos International. En l’espèce, la direction de l’entreprise contestait le recours à l’expertise demandée par le comité social et économique au motif que le logiciel qu’elle souhaitait déployer visait seulement à détecter la cause de dysfonctionnements informatiques. De son point de vue, la mesure n’avait pour objet et pour effet que d’améliorer le fonctionnement de l’entreprise et n’entrainait aucune modification significative des conditions de travail des salariés.
([1013]) En l’espèce, le comité social et économique contestait, dans le cadre d’une procédure en référé, le droit pour l’entreprise d’engager et de poursuivre la mise en place de cinq nouvelles applications informatiques (Finovox, Synthesia, Notify, Semji et MetIQ) mettant en œuvre des procédés d’IA avant l’achèvement de la procédure de consultation.
([1014]) En l’espèce, le tribunal de Nanterre relève que les applications se trouvaient en phase pilote depuis plusieurs mois, que l’accès à l’une des applications avaient été ouverte aux salariés et de la formation d’équipes avaient été évoquée sur une autre application. Il retient qu’ainsi, la phase pilote impliquait « l’utilisation des nouveaux outils, au moins partiellement, par l’ensemble des salariés concernés ».
([1015]) Voir Soc. 12 nov. 1997, no 96-12.314 P : GADT, 4e éd., no 143; D. 1998. Somm. 245, obs. A. Lyon-Caen; Dr. soc. 1998. 87, obs. Cohen; RJS 1997. 855, no 1391; ibid. 818, rapp. Frouin; JS UIMM 1998. 138 : la Cour de cassation juge qu’un projet, même formulé en termes généraux, doit être soumis à consultation du comité d'entreprise lorsque son objet est assez déterminé pour que son adoption ait une incidence sur l'organisation, la gestion et la marche générale de l'entreprise, peu important qu'il ne soit pas accompagné de mesures précises et concrètes d'application, dès lors que la discussion ultérieure de ces mesures n'est pas de nature à remettre en cause, dans son principe, le projet adopté. Cette jurisprudence s’appliquait à la saisine des comités d’entreprises avant leur transformation en comité social et économique.
([1016]) Commission européenne, Lignes directrices de la Commission sur la définition d'un système d'intelligence artificielle au sens du règlement (UE) 2024/1689 (règlement sur l'IA), février 2025.
([1017]) règlement (UE) 2023/1230 du Parlement européen et du Conseil du 14 juin 2023 sur les machines abrogeant la directive 2006/42/CE du Parlement européen et du Conseil et la directive 73/361/CEE du Conseil.
([1018]) règlement (UE) 2023/988 du Parlement européen et du Conseil du 10 mai 2023 relatif à la sécurité générale des produits, modifiant le règlement (UE) no 1025/2012 du Parlement européen et du Conseil et la directive (UE) 2020/1828 du Parlement européen et du Conseil, et abrogeant la directive 2001/95/CE du Parlement européen et du Conseil et la directive 87/357/CEE du Conseil.
([1019]) Articles L.224-25-1 à L.224-25-32 du code de la consommation.
([1020]) règlement (UE) 2023/1230 du Parlement européen et du Conseil du 14 juin 2023 sur les machines, abrogeant la directive 2006/42/CE du Parlement européen et du Conseil et la directive 73/361/CEE du Conseil.
([1021]) Directive 73/361/CEE du Conseil, du 19 novembre 1973, concernant le rapprochement des dispositions législatives, réglementaires et administratives des États membres relatives à l'attestation et au marquage des câbles, chaînes et crochets.
([1022]) Directive 2006/42/CE du Parlement européen et du Conseil du 17 mai 2006 relative aux machines et modifiant la directive 95/16/CE (refonte).
([1023]) L’article L. 5211-1 du code de la santé publique précise que le caractère innovant des produits de santé s’apprécie notamment au regard du degré de nouveauté, du niveau de diffusion et de caractérisation des risques pour le patient et la capacité potentielle à répondre significativement à un besoin médical pertinent ou à réduire significativement les dépenses de santé.
([1024]) La « faute dolosive » désigne une faute commise avec l’intention de nuire. Elle prive d’effets les limitations de responsabilité, qu’elles procèdent de dispositions d’origine légale (en vertu de l’article 1231-3 du code civil) ou conventionnelle. La jurisprudence tend à assimiler la faute lourde à la faute dolosive afin d’écarter le jeu des clauses relative à la responsabilité.
([1025]) Le concept de « faute inexcusable » s’applique spécifiquement aux droits des transports, des accidents de la circulation et du travail.
([1026]) Article 16 de la loi n° 2025-391 du 30 avril 2025 portant diverses dispositions d'adaptation au droit de l'Union européenne en matière économique, financière, environnementale, énergétique, de transport, de santé et de circulation des personnes.
([1027]) L’article 99 du règlement précise que les sanctions doivent être effectives, proportionnées et dissuasives et tenir compte des intérêts des PME, y compris les jeunes pousses, et de leur viabilité économique.
([1028]) règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques).
([1029]) Voir les documents de consultation publiés en 2021 en vue de la réforme du cadre juridique établi par la directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux (https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=intcom:Ares%282021%294266516).
([1030]) Directive (UE) 2024/2853 du Parlement européen et du Conseil du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux et abrogeant la directive 85/374/CEE du Conseil (Texte présentant de l’intérêt pour l’EEE).
([1031]) Voir en ce sens, Vincent Fauchoux, L’abandon de la directive européenne sur la responsabilité en matière d’IA : analyse juridique et implications, article paru sur le site Deprez, Guignot et associés, 24 février 2025 (https://www.ddg.fr/actualite/labandon-de-la-directive-europeenne-sur-la-responsabilite-en-matiere-dia-analyse-juridique-et-implications).
([1033]) Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant les règles harmonisées concernant l’intelligence artificielle et modifiant les règlements CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle).
([1034]) Aux termes de l’article 3 relève de cette catégorie « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ». Ainsi que le relèvent certains spécialistes, cette définition présente un caractère large, proche de celle retenue par l’OCDE.
([1035]) En application de l’article 50 du règlement.
([1036]) Prévue à l’article 27 du règlement relatif à l’analyse d’impact des systèmes d’IA à haut risque sur les droits fondamentaux.
([1037]) Au sens du règlement, le terme « déployeur » désigne toute toute personne physique ou morale, y compris une autorité publique, une agence ou un autre organisme, utilisant sous sa propre autorité un système d’IA, sauf lorsque ce système est utilisé dans le cadre d’une activité personnelle à caractère non professionnel.
([1038]) L’article 3 du règlement définit les « modèles d’IA à usage général » comme les modèles qui présentent une généralité significative et sont capables d’exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peuvent être intégrés dans une variété de systèmes ou d’applications en aval, à l’exception des modèles d’IA utilisés pour des activités de recherche, de développement ou de prototypage avant leur mise sur le marché. La définition vaut également pour les modèles d’IA entraînés à l’aide d’un grand nombre de données utilisant l’auto-supervision à grande échelle.
([1039]) La Commission peut prendre la décision de classement d’office ou à la suite d’une alerte qualifiée du groupe scientifique, compte tenu des critères définis à l’annexe XIII du règlement .
([1040]) Le règlement présume qu’un modèle d’IA général possède des capacités à fort impact lorsque la quantité cumulée de calcul utilisée pour son entraînement mesurée en opérations en virgule flottante est supérieure à 1025.
([1041]) Le 2 de l’article 53 du RIA dispose que « les obligations […] ne s’appliquent pas aux fournisseurs de modèles d’IA qui sont publiés dans le cadre d’une licence libre et ouverte permettant de consulter, d’utiliser, de modifier et de distribuer le modèle, et dont les paramètres, y compris les poids, les informations sur l’architecture du modèle et les informations sur l’utilisation du modèle, sont rendus publics. Cette exception ne s’applique pas aux modèles d’IA à usage général présentant un risque systémique ».
([1042]) Aux termes de l’article 3 du règlement, possède la qualité de « fournisseur», une personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui développe ou fait développer un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou met le système d’IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit. Au sens du règlement, un « déployeur » désigne une personne physique ou morale, une autorité publique, une agence ou un autre organisme utilisant sous sa propre autorité un système d’IA sauf lorsque ce système est utilisé dans le cadre d’une activité personnelle à caractère non professionnel.
([1043]) Sur le fondement du paragraphe 4 de l’article 6 du règlement.
([1044]) Article 2 du Règlement sur l’intelligence artificielle.
([1045]) Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE.
([1046]) Pour « Digital Service Act ».
([1047]) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE.
([1048]) Règlement (UE) 2018/1725 du 23 octobre 2018 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les institutions, organes et organismes de l’Union et à la libre circulation de ces données, et abrogeant le règlement (CE) n 45/2001 et la décision n 1247/2002/CE.
([1049]) Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques.
([1050]) Directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d'enquêtes et de poursuites en la matière ou d'exécution de sanctions pénales, et à la libre circulation de ces données, et abrogeant la décision-cadre 2008/977/JAI du Conseil.
([1051]) Directive 2006/42/CE du Parlement européen et du Conseil du 17 mai 2006 relative aux machines et modifiant la directive 95/16/CE.
([1052]) Le texte vise les dispositions de la section 2 du chapitre III du règlement IA.
([1053]) Sur le fondement du paragraphe 6 de l’article 6 du règlement.
([1054]) Sur le fondement du paragraphe 7 de l’article 6 du règlement.
([1055]) Cf. le paragraphe 2 de l’article 7 du règlement.
([1056]) Sur le fondement du paragraphe 3 de l’article 51. Le texte mentionne, à titre d’exemples, « les améliorations algorithmiques ou l’efficacité accrue du matériel informatique, si nécessaire afin que ces seuils reflètent l’état de la technique ».
([1057]) Sur le fondement du second alinéa du paragraphe 4 de l’article 52 du règlement. Les critères figurent dans l’annexe XIII du texte.
([1058]) Commission européenne, « Lignes directrices de la Commission sur la définition d’un système d’intelligence artificielle au sens du règlement (UE) 2024/1689 (règlement sur l’IA) », communication publiée le 29 juillet 2025 (https://digital-strategy.ec.europa.eu/fr/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application). Le document tient compte des résultats d’une consultation des parties prenantes et de la consultation du Comité européen de l’intelligence artificielle.
([1059]) Le paragraphe 2 de l’article 97 du règlement limite toutefois à cinq ans la période pendant laquelle la Commission dispose du pouvoir d’adopter des actes délégués pour l’exécution de ses dispositions essentielles (soit les paragraphes 6 et 7 de l’article 6, les paragraphes 1 et 3 de l’article 7, le paragraphe 3 de l’article 11, les paragraphes 5 et 6 de l’article 43, le paragraphe 5 de l’article 47, le paragraphe 3 de l’article 51, le paragraphe 4 de l’article 52 et les paragraphes 5 et 6 de l’article 53).
([1060]) Commission européenne, Étude sur l’évaluation de l’impact d’exigences réglementaires pour l’usage de l’intelligence artificielle en Europe, rapport final (D5), avril 2021, p. 12.
([1061]) Ibidem, p. 166.
([1062]) Article 58, paragraphe d. Le règlement admet néanmoins la possibilité des frais exceptionnels que les autorités nationales compétentes peuvent recouvrer de manière équitable et proportionnée.
([1063]) Article 58, paragraphe f. Le règlement mentionne les organismes notifiés et les organismes de normalisation, les PME, y compris les jeunes pousses, les entreprises, les innovateurs, les installations d’expérimentation et d’essai, les laboratoires de recherche et d’expérimentation, les pôles européens d’innovation numérique, les centres d’excellence et les chercheurs individuels.
([1064]) Commission nationale de l’informatique et des libertés, Bac à sable « IA et services publics » - les recommandations de la Cnil aux candidats, avril 2025 (https://www.cnil.fr/sites/default/files/2025-04/bac_a_sable_recommandations.pdf).
([1065]) Le paragraphe 1 de l’article 70 du règlement impose que les autorités nationales compétentes exercent leurs pouvoirs de manière indépendante, impartiale et sans parti pris, afin de préserver l’objectivité de leurs activités et de leurs tâches et d’assurer l’application et la mise en œuvre du règlement. Il exige que les membres de ces autorités s’abstiennent de tout acte incompatible avec leurs fonctions. Le paragraphe 3 de l’article comporte des prescriptions destinées à assurer que les États membres allouent aux autorités compétentes les moyens nécessaires au plein exercice des missions attribuées par le règlement, sur le plan technique et financier, ainsi que du point de vue des ressources humaines (avec l’exigence de personnels en nombre suffisant et possédant des compétences et une expertise adaptées en matière d’intelligence artificielle).
([1066]) https://www.entreprises.gouv.fr/priorites-et-actions/transition-numerique/soutenir-le-developpement-de-lia-au-service-de-0
([1067]) Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.
([1068]) règlement (UE) 2016/679 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.
([1069]) En application du a) du paragraphe 1 de l’article 5 du règlement.
([1070]) Pour les systèmes mentionnés à l’annexe III du règlement (UE) 2024/1689 du 13 juin 2024.
([1071]) Pour les systèmes mentionnés à l’annexe III(a du paragraphe 8) du règlement (UE) 2024/1689 du 13 juin 2024.
([1072]) Enterprise Europe Network.
([1073]) Conseil européen de l’Innovation.
([1074]) De ce point de vue, il convient de ne pas négliger le rôle, sur le plan de la diffusion de l’innovation, des pôles européens d’innovation numérique (PDEI). Mis en place à la suite d’appels à projet restreints lancés dans le cadre du programme de travail pour une Europe numérique, les PDEI ont pour mission d’aider les entreprises à améliorer les processus de fabrication et/ou de conception, ainsi que la commercialisation de produits ou de services utilisant les technologies numériques. Les services proposés consistent à : donner la possibilité d’un accès à l'expertise technique et aux tests, ainsi que la possibilité de « tester avant d'investir » ; fournir des services d’innovation, tels que des conseils en matière de financement, des formations et le développement des compétences ; aider les entreprises à appréhender les enjeux environnementaux, en particulier l’utilisation des technologies numériques pour la durabilité et la circularité.
([1075]) Direction générale des réseaux de communication, du contenu et des technologies (DG Connect) - Bureau de l’IA.
([1076]) D’après la définition donnée par le règlement (UE) 2022/868 du 30 mai 2022 portant sur la gouvernance européenne des données (DGA).
([1077]) Bertrand Cassar, La transformation numérique du droit : les enjeux autour des LegalTech, 2021, Bruylant, Glossaire.
([1078]) Bertrand Cassar, « Données-Gouvernance des données », Répertoire IP/IT et Communication, mars 2022, p. 3.
([1079]) GPU ou Graphics Processing Unit.
([1080]) CNRS, La recherche française, moteur d’un nouveau modèle d’IA, communiqué institutionnel, juillet 2012, (https://www.cnrs.fr/fr/actualite/la-recherche-francaise-moteur-dun-nouveau-modele-dia).
([1081]) https://www.techniques-ingenieur.fr/actualite/articles/le-supercalculateur-jean-zay-gagne-en-puissance-146666/.
([1082]) Datasulting, « Observatoire de la maturité Data des Entreprises, résultats de l’enquête 2024 », janvier 2025, p. 7.
([1083]) Ibidem, pp. 9-10.
([1084]) Ibidem, pp. 11-12.
([1085]) Mouvement des entreprises de France (Medef), La stratégie data comme source de valeur pour l’entreprise : ambitions, conditions et mode d’emploi, septembre 2021 (https://www.medef.com/uploads/media/default/0019/98/14095-guide-strategie-data-09-2021-version-f.pdf).
([1086]) Voir en ce sens, Mouvement des entreprises de France (Medef), La stratégie data comme source de valeur pour l’entreprise : ambitions, conditions et mode d’emploi, septembre 2021 (https://www.medef.com/uploads/media/default/0019/98/14095-guide-strategie-data-09-2021-version-f.pdf)., p. 24.
([1087]) Datasulting, « Observatoire de la maturité data des Entreprises, résultats de l’enquête 2024 », janvier 2025, p. 14.
([1088]) Datasulting, « Observatoire de la maturité Data des Entreprises, résultats de l’enquête 2024 », janvier 2025, p. 14.
([1089]) Dans les réponses au questionnaire de vos rapporteurs.
([1090]) Bertrand Cassar, « Données-Gouvernance des données », Répertoire IP/IT et Communication, mars 2022, p. 3.
([1091]) Le projet Num-Alim porte sur la création d’une plateforme numérique de données ouvertes, fiables et exhaustives sur les produits alimentaires.
([1092]) Solal Chardon-Boucaud, Arthur Dozias, Charlotte Gallezot, « La chaîne de valeur de l'intelligence artificielle : enjeux économiques et place de la France », Trésor éco, n° 354, décembre 2024, p. 6.
([1093]) La stratégie européenne pour les données visait originellement la création d’espaces de données dans les domaines de la santé, l’agriculture, l’industrie manufacturière, l’énergie, la mobilité, les finances, l’administration publique, les compétences, le nuage européen pour la science ouverte et le pacte vert. Il existe désormais d’autres espaces de données sur les médias, la langue, le tourisme, la recherche et l’innovation, et le patrimoine culturel.
([1094]) Communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des Régions : Une stratégie européenne pour les données, COM(2020) 66 final, février 2020 (https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:52020DC0066).
([1095]) règlement (UE) 2022/868 du Parlement européen et du Conseil du 30 mai 2022 portant sur la gouvernance européenne des données et modifiant le règlement (UE) 2018/1724 (« règlement sur la gouvernance des données »).
([1096]) règlement (UE) 2023/2854 du Parlement européen et du Conseil du 13 décembre 2023 concernant des règles harmonisées portant sur l'équité de l’accès aux données et de l’utilisation des données et modifiant le règlement (UE) 2017/2394 et la directive (UE) 2020/1828 (« règlement sur les données »).
([1097]) La mise en œuvre du dispositif incombe à l’entreprise commune EuroHPC, compétente pour acquérir, mettre à niveau et exploiter des usines d'IA qui amélioreront l'accès aux superordinateurs européens pour les utilisateurs scientifiques et industriels, et en particulier aux start-up et aux PME d'IA. EuroHPC assure également la sélection de l’implantation des usines IA.
([1098]) règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (« règlement général sur la protection des données »).
([1099]) Le paragraphe 7 de l’article 2 dispose ainsi : « Le droit de l’Union en matière de protection des données à caractère personnel, de respect de la vie privée et de confidentialité des communications s’applique aux données à caractère personnel traitées en lien avec les droits et obligations énoncés dans le présent règlement. Le présent règlement n’a pas d’incidence sur le règlement (UE) 2016/679 ou le règlement (UE) 2018/1725, ni sur la directive 2002/58/CE ou la directive (UE) 2016/680, sans préjudice de l’article 10, paragraphe 5, et de l’article 59 du présent règlement ».
([1100]) Le e) du paragraphe 1 de l’article 5 admet un traitement ultérieur à des fins archivistiques dans l'intérêt public, à des fins de recherche scientifique ou historique ou à des fins statistiques. Un tel traitement n'est pas considéré, conformément à l'article 89, paragraphe 1, comme incompatible avec les finalités initiales.
([1101]) Article 5, paragraphe 1, e.
([1102]) Cour de justice de l’Union européenne, 7 décembre 2023, affaire C-634/21|SCHUFA Holding, affaires jointes C-26/22 et C-64/22 (https://curia.europa.eu/jcms/upload/docs/application/pdf/2023-12/cp230186fr.pdf). En l’espèce, les requérants contestaient devant le tribunal administratif de Wiesbaden le refus du commissaire à la protection des données compétent d’agir à l’encontre de certaines activités de SCHUFA, une société privée fournissant des informations commerciales dont les clients sont notamment des banques. Ils s’opposaient à la conservation d’informations relatives à l’octroi d’une libération de reliquat de dettes dans les propres bases de la société commerciale pour une durée de trois ans alors que les données ne restent inscrites au registre public que pendant six mois. En réponse à une question préjudicielle relative à l’étendue de la protection des données personnelles, la Cour juge contraire au RGPD que des agences privées conservent de telles données plus longtemps que le registre public d’insolvabilité. Le législateur allemand ayant fixé à six mois la période de stockage des données, elle considère qu’au-delà de cette échéance, les droits et intérêts de la personne concernée prévalent sur ceux du public à disposer de cette information.
([1103]) Aux termes du considérant n° 39 du RGPD.
([1104]) Au sens du considérant n° 71 du RGPD, le « profilage » désigne l’usage de « toute forme de traitement automatisé de données à caractère personnel visant à évaluer les aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des aspects concernant le rendement au travail de la personne concernée, sa situation économique, sa santé, ses préférences ou centres d'intérêt personnels, sa fiabilité ou son comportement, ou sa localisation et ses déplacements, dès lors qu'il produit des effets juridiques concernant la personne en question ou qu'il l'affecte de façon similaire de manière significative ».
([1105]) outre l’exigence d’une base juridique expresse dans le droit de l’Union européenne ou des États membres autorisant les responsables de traitement à recourir à des traitements de données tels que ceux relevant du profilage , le considérant n° 71 du RGPD précise que cette faculté demeure subordonnée à l’existence « de garanties appropriées, qui devraient comprendre une information spécifique de la personne concernée ainsi que le droit d'obtenir une intervention humaine, d’exprimer son point de vue, d'obtenir une explication quant à la décision prise à l'issue de ce type d'évaluation et de contester la décision ».
([1106]) CJUE, 27 février 2025, Dun & Bradstreet Austria, affaire C-203/22 (https://curia.europa.eu/jcms/upload/docs/application/pdf/2025-02/cp250022fr.pdf).
([1107]) Directive (UE) 2016/943 du Parlement européen et du Conseil, du 8 juin 2016, sur la protection des savoir-faire et des informations commerciales non divulgués (secrets d’affaires) contre l’obtention, l’utilisation et la divulgation illicites.
([1108]) Voir en ce sens l’arrêt CJUE, 7 décembre 2023, SCHUFA Holding, affaire C-634/21. Le « scoring » désigne une méthode mathématisée permettant d’établir une prévision quant à la probabilité d’un comportement futur, comme le remboursement d’un crédit. Dans le cas d’espèce, la Cour juge que cette méthode doit être considérés comme une « décision individuelle automatisée », en principe interdite par le RGPD, pour autant que les clients de SCHUFA, tels que des banques, lui accordent un rôle déterminant dans l’octroi de crédits.
([1109]) Voir en ce sens l’article 5 du RGPD (b et e du paragraphe 1) du règlement (UE) 2016/679 du 27 avril 2016.
([1110]) Paragraphe 2 de l’article 65 du règlement (UE) 2024/1689 du 13 juin 2024.
([1112]) Lancé en 2023 et ne possédant pas un objet thématique, l’accompagnement renforcé proposé par la Cnil permet aux entreprises de recevoir pendant plusieurs mois des conseils afin d’assurer la mise en conformité de leurs projets avec le règlement sur la protection des données à caractère personnel. D’après les réponses apportées par la commission au questionnaire de vos rapporteurs, plusieurs entreprises françaises de premier plan, dont l’IA constitue le cœur du modèle d’affaires, ont bénéficié ou bénéficient actuellement de cet accompagnement (à l’exemple d’HuggingFace, Docaposte, Doctrine ou Lifen).
([1113]) À la date d’envoi des réponses au questionnaire de vos rapporteurs, la Cnil indiquait travailler au recrutement d’un juriste et d’un analyste/ingénieur plutôt spécialisés sur le règlement relatif à l’intelligence artificielle.
([1114]) Le paragraphe 5 de l’annexe V impose expressément la conformité aux règlements (UE) 2016/679 et (UE) 2018/1725 ainsi qu'à la directive (UE) 2016/680.
([1115]) Loi n° 2018-727 du 10 août 2018 pour un État au service d’une société de confiance. L’article 40 de la loi établissait le cadre d’une expérimentation pour une durée de trois ans à compter de la publication d’un décret en Conseil d’État, applicables aux demandes présentées par les personnes inscrites au répertoire des entreprises et par leurs établissements.
([1116]) Précisés par les décrets n° 2023-361 du 11 mai 2023 relatif aux échanges d'informations et de données entre administrations dans le cadre de démarches administratives et n° 2023-362 du 11 mai 2023 relatif à la liste des administrations chargées de mettre à la disposition d'autres administrations des informations ou données.
([1117]) Règlement (UE) 2018/1724 du Parlement européen et du Conseil du 2 octobre 2018 établissant un portail numérique unique pour donner accès à des informations, à des procédures et à des services d’assistance et de résolution de problèmes, et modifiant le règlement (UE) n° 1024/2012. Les modalités de mise en place du dispositif OOTS sont fixées par le règlement d’exécution (UE) 2022/1463 de la Commission du 5 août 2022 établissant les spécifications techniques et opérationnelles du système technique pour l’échange transfrontière automatisé de justificatifs et l’application du principe « une fois pour toutes » conformément au règlement (UE) 2018/1724 du Parlement européen et du Conseil (entré en vigueur depuis le 12 décembre 2023).
([1118]) Enumérées par l’annexe II du règlement (UE) 2018/1724 du 2 octobre 2018, les démarches pouvant donner lieu à l’application du principe « Dites-le nous une fois » concernent notamment la vie professionnelle (par exemple, demander une carte européenne d’assurance maladie),le démarrage et la gestion d’une entreprise, ainsi que la cessation de son (notification de l’activité économique, autorisation d’exercer une activité économique, modifications de l’activité économique, cessation de l’activité économique sans procédure d’insolvabilité ou de liquidation, soumission d’une déclaration d’impôt sur les sociétés, etc.).
([1119]) Aux termes de l’article L. 6113-7 du code de la santé publique, les systèmes d’information des établissements visent à permettre d’améliorer la connaissance et l’évaluation de l’activité et des coûts et de favoriser l’optimisation de l’offre de soins, en tenant compte notamment des pathologies et modes de prise en charge, dans le respect du secret médical et des droits des malades.
([1120]) En dehors de l’apport des informations nécessaires au fonctionnement du système national des données de santé, le système national d'information inter-régimes de l’assurance maladie a pour objets : la connaissance des dépenses de l'ensemble des régimes d’assurance maladie par circonscription géographique, par nature de dépenses, par catégorie de professionnels responsables de ces dépenses et par professionnel ou établissement ; la transmission en retour aux prestataires de soins d'informations pertinentes relatives à leur activité et leurs recettes, et s'il y a lieu à leurs prescriptions ; la définition, la mise en œuvre et l'évaluation de politiques de santé publique.
([1121]) Mentionnées au I de l’article L. 1111-8 du code de la santé publique.
([1122]) Mentionnée à l’article L. 160-1 du code de la sécurité sociale.
([1123]) Mentionnées à l’article L. 431-1 du code de la sécurité sociale.
([1124]) Mentionnée à l’article L. 232-2 du code de l’action sociale et des familles.
([1125]) La Plateforme des données de santé succède à l’Institut national des donnés de santé. Le changement de dénomination résulte de l’arrêté du 29 novembre 2019 portant approbation d'un avenant à la convention constitutive du groupement d'intérêt public « Institut national des données de santé » portant création du groupement d'intérêt public « Plateforme des données de santé ».
([1126]) Les procédures d’autorisation procèdent des dispositions de la section 3 du chapitre III du titre II de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés.
([1127]) Inserm, « Intelligence artificielle et santé Des algorithmes au service de la médecine », dossier publié le 6 juillet 2018 modifié le 25 janvier 2024 (https://www.inserm.fr/dossier/intelligence-artificielle-et-sante/)
([1128]) Au sens du droit européen, l’utilisation « secondaire » des données de santé correspond à des usages répondant à des finalités autres que les besoins fondamentaux pour lesquelles ces données peuvent être collectées ou produites : il peut s’agir de recherche et d’innovation ou encore de l’amélioration de la qualité des soins. L’utilisation « primaire » des données de santé désigne la collecte de données motivées par la fourniture de soins en vue d’évaluer, de maintenir ou de rétablir l’état de santé de la personne physique à laquelle ces données se rapportent, y compris la prescription, la dispensation et la fourniture de médicaments et de dispositifs médicaux, ainsi que pour les services sociaux, administratifs ou de remboursement pertinents.
([1129]) règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE.
([1130]) Règlement (UE) 2025/327 du Parlement européen et du Conseil du 11 février 2025 relatif à l’espace européen des données de santé et modifiant la directive 2011/24/UE et le règlement (UE) 2024/2847.
([1131]) Tel que modifié par l’article 79 de la loi n° 2025-199 du 28 février 2025 de financement de la sécurité sociale. L’article précise que pour son application, « le recueil des données s'entend des seules données résultant de l'utilisation par le patient du dispositif médical concerné ».
([1132]) La multipmique désigne une discipline de la biotechnologie alliant les dernières avancées et analyses des champs de recherche de la génomique, de la métabolomique, de la transcriptomique et de la protéomique.
([1133]) Mentionnés au II de l'article L. 5311-1 du code de la santé publique. Au sens de l’article, la qualification de produits de santé s’applique notamment : aux dispositifs médicaux et leurs accessoires ;aux produits n'ayant pas de destination médicale dont la liste figure à l'annexe XVI du règlement (UE) 2017/745 ; aux dispositifs médicaux de diagnostic in vitro et leurs accessoires ; aux logiciels qui ne sont pas des dispositifs médicaux et qui sont utilisés par les laboratoires de biologie médicale, pour la gestion des examens de biologie médicale et lors de la validation, de l'interprétation, de la communication appropriée en application du 3° de l'article L. 6211-2 et de l'archivage des résultats.
([1134]) L’article L. 1461-3 du code de la santé publique s’applique aux organismes mentionnés au 1° du A et aux 1°, 2°, 3°, 5° et 6° du B du I de l'article L. 612-2 du code monétaire et financier ainsi que les intermédiaires d'assurance mentionnés à l'article L. 511-1 du code des assurances.
([1135]) En outre, le III de l’article L.1461-1 du code de la santé publique dispose que les responsables des laboratoires de recherche et des bureaux d’études présentent à la Commission nationale de l’informatique et des libertés un engagement de conformité à un référentiel incluant les critères de confidentialité, d'expertise et d'indépendance, arrêté par le ministre chargé de la santé, pris après avis de la même commission.
([1136]) Jérôme Marchand-Arvier, Professeur Stéphanie Allassonniere, Aymeril Hoang et Dr Anne-Sophie Jannot, Émilie Fauchier-Magnan, Julien Fradel, Fédérer les acteurs de l’écosystème pour libérer l’utilisation secondaire des données de santé, rapport remis en conclusion de la mission visant à poser les bases d’une feuille de route en matière de réutilisation des données de santé. décembre 2023.
([1137]) Les procédures simplifiées comportent des accès permanents aux données de la base principale du SNDS, l’emploi de méthodologies de référence, de référentiels et des mécanismes de décisions uniques.
([1138]) Ibidem, pp. 84 à 95.
([1139]) Aux termes de l’article 105 du règlement, cependant, l’article 55, paragraphe 6, l’article 70, l’article 73, paragraphe 5, l’article 75, paragraphes 1 et 12, l’article 77, paragraphe 4, et l’article 78, paragraphe 6, s’appliquent à partir du 26 mars 2027. L’article 51, paragraphe 1, points b), f), g), m) et p), s’applique à partir du 26 mars 2031, et l’article 75, paragraphe 5, s’applique à partir du 26 mars 2035.
([1140]) Ibidem, pp. 36 à 53.
([1141]) Au sens large, le concept d’« entrepôt de données de santé » (EDS) désigne les bases de données constituées pour une longue durée et destinées à être réutilisées principalement à des fins de pilotage (gestion, contrôle et administration de l’activité) et de recherches, d’études, d’évaluations dans le domaine de la santé. Ils peuvent être constitués tant par des acteurs publics (comme un établissement public de soin) que privés (comme un courtier de données ou une start-up), sous réserve de respecter le cadre juridique applicable.
([1142]) Ibidem, pp. 108-109.
([1143]) https://www.cnil.fr/fr/explorez-la-cartographie-des-entrepots-de-donnees-de-sante-en-france. La Cnil publie sur son site une carte et met à disposition des fiches accès à des fiches sur les établissements comprenant : le nom et une description de l’acteur gérant l’entrepôt ; le statut de l’acteur (public, privé ou privé à but non lucratif) ; sa localisation géographique ; le nom et une description de ou des entrepôts géré(s) par cet acteur ; la date de l’autorisation ou de déclaration de conformité de l’entrepôt (si applicable).
([1144]) Ibidem, proposition n° 35.
([1145]) Ibidem, pp.111-113.
([1146]) https://www.health-data-hub.fr/actualites/comite-strategique-des-donnees-de-sante-publication-des-livrables-du-groupe-de-travail. Les travaux ont porté sur cinq grandes familles de données : démographie, PMSI, biologie, médicaments et examens cliniques.
([1147]) https://www.modernisation.gouv.fr/presse/intelligence-artificielle-letat-sengage-pour-rendre-laction-publique-plus-simple-plus.
([1148]) Reinforcement learning from human feedback.
([1149]) https://www.journaldunet.com/intelligence-artificielle/1531291-qu-attendre-de-villers-cotterets-ce-projet-qui-ambitionne-de-creer-un-hub-de-donnees-pour-franciser-les-modeles-d-ia/
([1150]) Gallica est le nom de la bibliothèque numérique constituée par la Bibliothèque nationale de France et ses partenaires. Elle offre un accès libre et gratuit à près de dix millions de documents numérisés de toutes époques et sur tous supports.
([1151]) Directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d'auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE.
([1152]) Au sens de l’article 2 de la directive (UE) 2019/790, la qualification s’applique à « une université, y compris ses bibliothèques, un institut de recherche ou toute autre entité, ayant pour objectif premier de mener des recherches scientifiques, ou d'exercer des activités éducatives comprenant également des travaux de recherche scientifique : a) à titre non lucratif ou en réinvestissant tous les bénéfices dans ses recherches scientifiques; ou b)dans le cadre d'une mission d'intérêt public reconnue par un État membre; de telle manière qu'il ne soit pas possible pour une entreprise exerçant une influence déterminante sur cet organisme de bénéficier d'un accès privilégié aux résultats produits par ces recherches scientifiques ».
([1153]) L’article 4 (paragraphe 3) de la directive (UE) 2019/790 établit un mécanisme d’« opt out ».
([1154]) https://www.culture.gouv.fr/fr/presse/communiques-de-presse/lancement-de-la-concertation-entre-les-developpeurs-de-modeles-d-ia-generative-et-les-ayants-droits-culturels#_ftn1 .
([1155]) Les EDIC (pour « European Digital Infrastructure Consortium») désignent des structures possédant le statut de personnes morales et destinées à accélérer et simplifier la conception et la mise en œuvre de projets plurinationaux dans le cadre du programme d’action pour la décennie numérique à l’horizon 2030. Leur création nécessite une décision de la Commission européenne à la demande d’au moins trois États membres.
([1156]) Benjamin Polge, « Qu'attendre de Villers-Cotterêts, futur hub de données pour franciser les modèles d'IA ? », Journal du Net, 24 juin 2024 (https://www.journaldunet.com/intelligence-artificielle/1531291-qu-attendre-de-villers-cotterets-ce-projet-qui-ambitionne-de-creer-un-hub-de-donnees-pour-franciser-les-modeles-d-ia/).
([1157]) Décision d’exécution (UE) 2024/458 de la Commission du 1er février 2024 portant création du consortium pour une infrastructure numérique européenne dénommé Alliance pour les technologies du langage (ALT-EDIC).
([1158]) Données capturées dans plusieurs formats différents (image, texte, vidéo, audio, génétiques ou autodéclarées).