Compte rendu

Commission
des affaires étrangères

 

 

– Audition, ouverte à la presse, de Mme Clara Chappaz, ministre déléguée auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargée de l’intelligence artificielle et du numérique              2

 


Mardi
18 mars 2025

Séance de 16 heures 30

Compte rendu n° 44

session ordinaire 2024-2025

Présidence
de Mme Laetitia Saint‑Paul, Viceprésidente


  1 

La commission procède à l’audition, ouverte à la presse, de Mme Clara Chappaz, ministre déléguée auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargée de l’intelligence artificielle et du numérique.

La séance est ouverte à 16 h 30.

Présidence de Mme Laetitia Saint-Paul, vice-présidente.

Mme Laetitia Saint-Paul, présidente. Permettez-moi tout d’abord d’exprimer les regrets de notre président Bruno Fuchs pour son absence. Il se trouve en Afrique et m’a demandé de le remplacer car il sait que ce qui touche à l’intelligence artificielle et à la sécurité numérique m’intéresse particulièrement.

Madame Chappaz, votre venue s’inscrit dans le prolongement du sommet pour l’action sur l’intelligence artificielle (SAIA) qui s’est tenu à Paris les 10 et 11 février, en présence de chefs d’État et de gouvernement, de responsables d’organisations internationales, de dirigeants de petites et grandes entreprises, d’universitaires et chercheurs, ainsi que de représentants d’organisations non gouvernementales, d’artistes et de membres de la société civile. Elle intervient également après que le Sénat a adopté, le 12 mars, le projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité, que vous avez défendu et que l’Assemblée examinera prochainement.

La semaine précédant le sommet, la commission des affaires étrangères a organisé une table ronde à laquelle prenait part notamment l’envoyée spéciale du président de la République, qui a participé à sa préparation. Cette rencontre ne pouvait néanmoins épuiser ce sujet stratégique et géopolitique et il a paru indispensable de recueillir votre analyse des résultats du sommet et des conséquences à en tirer.

Dès les premiers jours de sa présidence, Donald Trump a dévoilé un plan massif d’investissements en faveur de l’intelligence artificielle (IA) aux États-Unis. Le projet, dénommé Stargate et déployé par Oracle, OpenAI et SoftBank, est doté d’environ 500 milliards de dollars sur quatre ans. Il vise à bâtir des centres de données géants destinés à la prochaine génération d’intelligence artificielle. La réplique chinoise n’a pas tardé avec l’annonce la semaine suivante par la start-up DeepSeek d’un modèle supposé aussi performant et beaucoup moins coûteux et énergivore que les références américaines.

Le sommet a montré que l’Europe et la France n’étaient pas en reste. Ainsi, le président de la République a annoncé 109 milliards d’euros d’investissements privés dans l’Hexagone et la présidente de la Commission européenne a indiqué que l’Union européenne (UE) mobiliserait 200 milliards d’euros pour faire de notre continent l’un des pôles les plus compétitifs et fiables en la matière.

La course à l’IA, qui s’annonce capitale pour la croissance de demain, est lancée et nous aimerions savoir comment vous allez suivre la déclinaison de nos engagements et de la stratégie retenue pour que les acteurs français et européens puissent jouer un rôle de premier plan.

S’appuyant sur les jalons posés lors des rencontres de Bletchley Park en novembre 2023 et de Séoul en mai 2024, le sommet ambitionnait de parvenir à des avancées concrètes autour de la gouvernance mondiale de l’IA. De ce point de vue, nous ne pouvons que nous féliciter qu’une soixantaine de pays aient signé la déclaration finale, laquelle appelle à une intelligence artificielle « ouverte », « inclusive » et « éthique » de manière à rendre cette technologie compatible avec les objectifs climatiques et le développement humain. Force est néanmoins de reconnaître que le refus de signer des États-Unis, qui entendent conserver leur leadership à tout prix, et du Royaume-Uni, qui veut se ménager une marge de progression significative, a quelque peu affaibli la portée de cette avancée. Comment analysez-vous ces divergences ? Pensez-vous qu’il soit possible, d’ici à quelques mois ou à quelques années, de rallier les pays sceptiques ou réfractaires à une démarche collective ?

En tant que législateur, nous sommes désireux d’accompagner autant que possible la dynamique de l’IA dans notre pays. Peut-être pourrez-vous nous indiquer comment nous pourrions soutenir vos efforts et ceux de notre diplomatie pour promouvoir un modèle innovant, performant, mais aussi respectueux des fondamentaux de notre humanité ?

L’Assemblée nationale sera prochainement appelée à débattre du projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité que j’ai évoqué. Pouvez-vous nous présenter les enjeux de ce texte, dont débattra une commission spéciale dans les semaines à venir ?

Enfin, vos fonctions vous offrent un poste d’observation privilégié sur les risques de déstabilisation et d’ingérence étrangère engendrés par les nouvelles technologies numériques. La commission m’a confié, avec Alain David, un rapport d’information sur le sujet et je suis particulièrement désireuse de vous entendre sur ce point.

Mme Clara Chappaz, ministre déléguée auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargée de l’intelligence artificielle et du numérique. Commençons par le sommet pour l’action sur l’intelligence artificielle qui s’est tenu à Paris le mois dernier – vous avez reçu Mme Anne Bouverot, l’envoyée spéciale du président de la République. Ce moment s’est révélé un immense succès et un moment de fierté collective. Nous avons plus que jamais besoin d’une mobilisation comme celle qui s’est manifestée à l’occasion de ce sommet pour assurer notre succès dans le domaine de l’IA. Je tiens à saluer l’ensemble des acteurs qui ont pris part à cette réussite : l’Assemblée a joué tout son rôle, notamment avec la tenue d’un événement très marquant avec Anne Bouverot. La dynamique collective est primordiale dans ce moment où la technologie accélère comme jamais auparavant et devient, au-delà de la sphère d’expertise, un enjeu politique et géopolitique.

L’IA remodèle nos économies, nos sociétés et le monde du travail : cette révolution concerne toutes les Françaises et tous les Français – les entreprises, les salariés et les chercheurs, ces derniers refaçonnant certaines de leurs problématiques grâce à l’IA. Cette dernière peut renforcer notre compétitivité, notre capacité à accélérer dans certains domaines stratégiques pour le monde de demain et, objectif du sommet, notre influence dans le concert des nations, grâce à une vision particulière que la France a su promouvoir et autour de laquelle elle est parvenue à rassembler.

La France était attendue : lors des déplacements que j’ai effectués à l’étranger avant le sommet, de nombreux acteurs – chercheurs, entrepreneurs, scientifiques, membres de gouvernement – m’ont fait part de leur désir de se rallier à notre vision de l’IA pour marquer une étape dans la structuration de la coopération internationale.

Nous voulions un sommet très large qui rassemble tous les acteurs, à savoir les dirigeants politiques, dans la foulée des sommets organisés par le Royaume-Uni et la Corée du Sud, mais aussi les chercheurs, les experts, les entrepreneurs, les dirigeants – afin de s’assurer que les décisions soient prises avec toutes les parties prenantes. Le sommet était donc très ouvert et inclusif : les pays du monde entier étaient invités, et pas seulement ceux qui développent les modèles que l’on connaît, afin d’assurer notre leadership dans des secteurs aussi variés que la science, la culture, l’économie et la productivité associée à cette technologie. L’objectif était de construire une véritable gouvernance mondiale de l’IA.

Le sommet a permis d’établir un consensus sur plusieurs principes fondamentaux aux yeux du gouvernement pour guider le développement de l’IA et son utilisation à l’échelle internationale. Nous défendons depuis plusieurs années une approche ambitieuse mais en même temps responsable et durable du développement de cette technologie, qui correspond à nos valeurs et au modèle européen. Cette technologie peut engendrer tellement de transformations que son développement ne peut être laissé aux mains de quelques grandes entreprises. Il doit bénéficier à tous, y compris aux pays qui ne possèdent pas d’entreprises d’IA. Certaines avancées notables ont été enregistrées en la matière.

Tout d’abord, le sommet a été l’occasion de renforcer l’engagement mondial en faveur d’une IA éthique et transparente, avec la signature d’une déclaration commune visant à encadrer l’usage des algorithmes dans les domaines sensibles. Ensuite, plusieurs gouvernements et entreprises ont soutenu la création d’une fondation mixte publique et privée, Current AI, dotée initialement de 400 millions d’euros pour financer des projets d’IA à fort impact et les outils nécessaires au développement de modèles d’IA ouverts, donc accessibles à toutes et tous. Enfin, le sommet a lancé une Coalition en faveur d’une IA plus durable, en partenariat avec l’Organisation des Nations unies (ONU) et l’Union européenne, dont l’objectif sera de s’assurer que l’impact écologique est bien pris en compte dans le développement de cette technologie : il s’agit d’encourager les plus petits modèles et d’optimiser les ressources pour réduire l’empreinte carbone.

Le dialogue se poursuit avec le Royaume-Uni, qui n’a pas signé la déclaration finale du sommet mais qui s’est beaucoup impliqué dans les travaux préparatoires. Nous entretenons avec ce pays de très bonnes relations et nous collaborons activement : le sommet de Paris n’était qu’une première étape, et nous souhaitons le rallier à notre cause. Même si ce pays et les États-Unis n’ont pas signé la déclaration, nous pouvons nous féliciter de la réussite de ce sommet d’un point de vue diplomatique. Nous sommes parvenus à fédérer des acteurs internationaux autour de valeurs communes qui se situent à la croisée de la performance technologique – et nous devons déployer des modèles européens tout aussi performants que les autres – et de l’éthique.

La révolution de l’IA ne se limite pas à une transformation économique, elle bouscule les équilibres internationaux et devient un élément clé de la souveraineté des États, de la diplomatie économique et de la capacité à rester une puissance et à insuffler des dynamiques de coopération. Il était essentiel que la France et l’Europe se positionnent avec force et ambition pour être à la pointe de cette technologie. Le sommet a donné une nouvelle impulsion à l’Union européenne, puisque ses États membres se sont accordés sur un agenda ambitieux en faveur de l’attractivité européenne. L’UE souhaite construire une alternative aux modèles américain et chinois. La course à l’IA ne fait que commencer, il ne faut pas se laisser convaincre du contraire : l’UE doit accélérer, à l’heure où les États-Unis et la Chine entendent imposer leurs technologies et surtout une vision différente de la nôtre.

Nous ne pouvons pas nous contenter de consommer ou de réguler l’IA, nous devons devenir des concepteurs et des leaders dans ce secteur stratégique. La présidente de la Commission européenne, Ursula von der Leyen, a annoncé un plan d’investissements de 200 milliards d’euros. Dans cette enveloppe, 50 milliards d’euros seront consacrés à des investissements publics, dont 20 pour construire les usines géantes spécialisées dans l’entraînement de modèles d’IA de grande envergure. La France a été labellisée la semaine dernière et elle développera le supercalculateur Alice-Recoque. Il s’agit d’un projet déterminant pour le développement de l’IA sur notre continent.

L’UE a réitéré durant le sommet sa volonté de simplifier et de faciliter l’innovation en matière d’IA. La réglementation européenne sur l’IA constitue un outil de compétitivité, apte à garantir une compétition équitable et un encadrement des usages de l’IA et non de la technologie elle-même. Il faut être attentif à ce que ce cadre n’ait pas pour effet concret de freiner l’innovation, indispensable pour avoir des entreprises qui défendent notre vision contre les autres modèles. Je veillerai à ce que le règlement sur l’IA s’applique en France de façon équilibrée et favorable à l’innovation. La philosophie initiale du règlement, qui correspond à la position de la France lors des négociations européennes, est bien d’encadrer les usages de l’IA et d’établir une classification selon le degré de risque : l’objectif est que les entreprises innovantes puissent naviguer dans la réglementation et utiliser ce cadre pour leur compétitivité.

Le sommet nous a permis de réaffirmer notre volonté de devenir une puissance de l’IA. La France est déjà un acteur clé dans la course internationale : notre stratégie ne date pas du sommet, elle repose sur une vision claire et ambitieuse défendue par le président de la République depuis 2018. Deux plans ont été successivement déployés. Ils ont soutenu l’essor de l’IA, à hauteur de 2,5 milliards d’euros, et la place de notre pays comme leader technologique sur la scène mondiale de l’IA. Cet investissement a conforté notre premier atout : la recherche et les talents qui assurent notre reconnaissance dans le monde. Nous avons stimulé l’essor d’un écosystème d’innovations dynamique et compétitif.

Cette stratégie porte ses fruits : la France est devenue la première destination en Europe pour les investissements étrangers dans le domaine de l’IA. Plus de 1 000 start-up spécialisées ont émergé, qui sont parvenues à lever près de 2 milliards d’euros l’année dernière. Vous connaissez peut-être les champions que sont Mistral AI ou Hugging Face, reconnus dans le monde entier comme des leaders internationaux. Nous avons également su attirer les centres de recherche des plus grandes entreprises mondiales comme OpenAI ou Google DeepMind.

Dans un contexte de compétition internationale accrue, ces avancées sont positives, mais insuffisantes. Nous avons enclenché à l’occasion du sommet une nouvelle dynamique, toujours plus ambitieuse, et une nouvelle phase de notre stratégie nationale. Le premier ministre a présidé un comité interministériel sur l’IA au cours duquel il a rappelé nos priorités. La première a trait à l’attractivité du territoire pour l’implantation de data centers, essentiels pour entraîner les modèles : la France possède un atout considérable avec l’énergie stable décarbonée issue de notre investissement dans le nucléaire. À l’occasion du sommet, nous avons annoncé des investissements privés de 109 milliards d’euros dans les infrastructures d’IA, destinés à doter notre pays des capacités de calcul les plus compétitives.

La seconde priorité vise à consolider notre activité technologique. L’excellence française en mathématiques n’est plus à démontrer et elle constitue un avantage que nous souhaitons renforcer. Notre objectif est de former 100 000 personnes aux métiers de l’IA d’ici à 2030 grâce à un investissement de 360 millions d’euros dans neuf pôles d’excellence répartis sur tout le territoire. Enfin, notre troisième priorité est de faire de l’IA un levier d’innovation pour les politiques publiques et les administrations : l’IA ne doit pas se limiter aux entreprises privées, elle est un outil de compétitivité que nous souhaitons, avec mon collègue Laurent Marcangeli et autour du premier ministre, apporter aux administrations et aux collectivités territoriales. Nous doterons bientôt l’ensemble des agents d’un outil d’IA et nous déclinerons des feuilles de route pour tous les ministères afin qu’ils puissent s’en saisir pleinement.

Les conditions de cette transformation doivent faire l’objet d’échanges globaux – telle était l’ambition du sommet – qui doivent se poursuivre à tous les échelons de notre pays pour que l’IA ne crée pas de nouvelles fractures numériques. Je me suis rendue hier dans un hôpital où les internes les plus jeunes utilisent l’IA pour élaborer leur planning alors que certains de leurs collègues ne l’emploient pas du tout. Cela illustre à quel point la dimension de l’inclusion numérique est essentielle dans l’IA : dans cette optique, les cafés IA sont des espaces destinés à sensibiliser les Français à cette technologie.

L’IA n’est pas seulement un levier de compétitivité économique, elle est un outil stratégique qui se trouve au cœur des enjeux de souveraineté et de sécurité dans un monde marqué par des tensions géopolitiques croissantes. La maîtrise de cette technologie est indissociable des questions internationales : les grandes puissances comme les États-Unis et la Chine investissent massivement dans l’IA pour asseoir leur influence globale et pas seulement technologique. Nous ne pouvons pas nous permettre d’accuser du retard et nous devons affirmer notre autonomie, comme nous l’avons fait à l’occasion du sommet, afin d’éviter toute dépendance excessive à des solutions développées en dehors de nos frontières.

Le contexte géopolitique pose plusieurs questions de souveraineté technologique et de sécurité. L’IA nécessite des infrastructures technologiques qui seront forcément vulnérables. C’est ce qui explique le dépôt du projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité, que le Sénat a adopté la semaine dernière. Ce texte, que votre assemblée examinera dans le courant du mois de juin, vise à renforcer notre sécurité numérique par la transposition d’une directive européenne. Son adoption est indispensable pour protéger nos infrastructures numériques, dont celles qui abritent de l’IA.

Depuis le début du conflit en Ukraine, les cyberattaques ont augmenté de plus de 300 %. Les responsables en sont majoritairement des groupes prorusses, même si d’autres pays et certains groupes criminels aux intentions purement financières sont également à la manœuvre. Le contexte géopolitique et les annonces des États-Unis sur l’investissement dans la cybersécurité nous convainquent qu’il faut être toujours mieux préparé à parer ces attaques dont le nombre ne cesse de croître. Dans son étude annuelle, publiée au début de la semaine dernière, l’Agence nationale de la sécurité des systèmes d’information (ANSSI) relève près de douze incidents par jour en 2024, soit 15 % de plus que l’année précédente. Voilà pourquoi nous devons développer nos propres capacités de défense pour protéger ces éléments stratégiques que sont les infrastructures numériques et, ainsi, les entreprises, les citoyens et la confiance dans un État numérique.

Le projet de loi « résilience » s’articule autour de trois grands axes. Le titre Ier transpose la directive sur la résilience des entités critiques (REC) pour déployer une logique d’anticipation et de résilience fondée sur des plans de continuité en cas d’attaque. De nouveaux secteurs sont concernés, comme l’assainissement, les réseaux de chaleur et l’hydrogène. Le titre II permet de réguler, dans le cadre de la directive européenne NIS 2 sur la cybersécurité, 15 000 entités stratégiques pour la vie de notre nation dans les secteurs de la santé, de l’énergie, de l’eau ou de la gestion des déchets. Les obligations seront renforcées pour ces entreprises et collectivités dans le domaine de la sécurité des réseaux et des systèmes d’information. Le titre III porte sur le règlement européen sur la résilience opérationnelle numérique du secteur financier, dit Dora. Plus de vingt millions d’attaques au cours des vingt dernières années ont ciblé le secteur financier, pour lequel nous devons avoir des exigences particulières.

Les intrusions dans nos systèmes d’information, qui ciblent les collectivités territoriales et les entreprises de toute taille – six attaques sur dix touchent de petites structures –, sont aussi bien réelles sur les canaux d’information, notamment les réseaux sociaux. Pour nous en prémunir, l’UE a adopté une réglementation très ambitieuse. En particulier, le règlement relatif à un marché unique des services numériques, dit DSA, engage la responsabilité des plateformes dans la lutte contre la désinformation. Il faut notamment protéger nos processus électoraux, qui sont cruciaux dans le monde dans lequel nous vivons. Les manipulations en ligne sont nombreuses : Viginum, le service de vigilance et de protection contre les ingérences numériques étrangères qui est rattaché au premier ministre et que les pays européens nous envient, analyse les phénomènes d’ingérence sur les réseaux sociaux. Lors d’un Conseil européen du numérique tenu à Varsovie il y a une dizaine de jours, nous avons décidé de renforcer notre collaboration. Dans cette optique, Viginum apportera son expertise dans la lutte contre la désinformation et les ingérences étrangères.

Face à ces nombreux défis, nous avons pris des mesures concrètes, renforcé notre investissement dans les infrastructures stratégiques, favorisé le développement de technologies souveraines critiques pour nos infrastructures numériques et adapté nos impératifs de sécurité nationale. Nous sommes prêts à jouer un rôle moteur. Nous devons continuer à conjuguer l’excellence scientifique, l’innovation industrielle et l’encadrement des technologies de l’IA afin de construire un modèle européen performant, responsable et conforme à nos valeurs démocratiques.

L’IA est une réalité : elle façonne notre économie, notre vision du monde et les rapports de force internationaux. Il est de notre responsabilité collective d’anticiper et de maîtriser cette transformation pour en faire un véritable levier de puissance.

Mme Laetitia Saint-Paul, présidente. Nous en venons aux interventions des orateurs des groupes.

Mme Céline Calvez (EPR). Le numérique redessine les équilibres géopolitiques et économiques mondiaux. Il est de notre responsabilité d’être pleinement présents dans ce secteur qui est devenu stratégique car il influence autant notre souveraineté technologique que notre compétitivité économique. De la cybersécurité à la régulation des grandes plateformes, la France et l’Europe se positionnent non pas comme de simples consommateurs de technologies mais comme des acteurs de premier plan. Parmi ces technologies, l’intelligence artificielle occupe une place centrale. Véritable moteur d’innovations, elle transforme déjà nos sociétés : dans la santé, l’éducation, l’industrie ou les transports, elle redéfinit notre manière de produire, de consommer, d’apprendre, de créer, en un mot, de vivre.

Les opportunités sont considérables, mais s’accompagnent de leur lot de défis. Tout d’abord, la compétition internationale est féroce. La France doit continuer à investir massivement. Après la stratégie nationale pour l’IA, lancée dès 2018, et l’enveloppe de 2,5 milliards d’euros du plan France 2030, le président de la République a annoncé, lors du sommet pour l’action sur l’intelligence artificielle, des investissements de 109 milliards d’euros en France. Ce sommet a marqué, à Paris, une étape essentielle : plus d’une centaine de pays ont signé la déclaration commune en faveur d’une intelligence artificielle inclusive et durable. Cette déclaration trace une voie ambitieuse pour une IA fondée sur des modèles robustes et des données de qualité, qui offrent un gage de fiabilité et de pérennité.

La question des données amène à s’interroger sur les relations qu’entretiennent ceux qui produisent les données et ceux qui les utilisent – je pense notamment aux acteurs de la culture qui conçoivent des idées et créent des œuvres. L’IA révolutionne déjà la création dans la musique, le cinéma, la littérature. Les créations artistiques et algorithmiques ne sont pas incompatibles : au contraire, elles se complètent. La commission des affaires européennes de l’Assemblée travaille d’ailleurs à une communication sur l’IA et la culture.

Comment améliorer les échanges entre les créateurs du numérique et ceux de la culture, ici et ailleurs ? Alors que le secteur culturel se saisit de plus en plus de ces outils, quelles formes pourraient prendre les futurs rendez-vous nationaux ou internationaux pour faciliter ces dialogues et promouvoir des IA durables et de qualité ?

Mme Clara Chappaz, ministre déléguée. Comment le monde culturel est-il façonné par l’IA ? Cette question fondamentale a été abordée lors du SAIA, où les acteurs de la culture étaient représentés. Il serait dommageable d’opposer les deux univers alors que, comme nous avons pu le constater lors du week-end culturel organisé par Rachida Dati pendant le sommet, des artistes du monde entier utilisent déjà cet outil pour créer leurs œuvres.

Quand vous parlez d’embarquer le secteur culturel dans le mouvement et d’éviter d’opposer les deux écosystèmes, j’entends en filigrane poser la question de la rémunération des auteurs, qui créent des œuvres et non des données. À cet égard, nous suivons de près les travaux de la Commission européenne visant à renforcer l’applicabilité de la directive « droit d’auteur » par le biais du règlement sur l’IA. La Commission travaille sur un modèle de résumé de données – comme ceux utilisés par les concepteurs pour entraîner leurs propres modèles – qui permettra aux auteurs d’exercer leurs droits.

Au niveau national, Rachida Dati et moi-même avons annoncé une grande consultation entre les acteurs des deux univers, afin de nous assurer qu’ils communiquent et avancent ensemble – l’accord conclu entre l’Agence France-Presse et Mistral AI témoigne qu’une telle volonté existe. Jeudi prochain, je me rendrai avec la ministre de la culture à la Cité internationale de la langue française à Villers-Cotterêts pour inaugurer l’Alliance pour les technologies des langues (Alt-Edic), un consortium européen chargé de promouvoir l’excellence dans les technologies des langues, ce qui est vital en termes de souveraineté.

M. Arnaud Le Gall (LFI-NFP). Le chemin emprunté pour faire de la France une puissance souveraine en matière d’IA et de numérique n’est pas le bon : annoncer des investissements de 109 milliards d’euros qui ne laissent qu’une petite place à la puissance publique, ce n’est pas une stratégie. Ainsi, Mistral AI est allié à Microsoft. Quant au fonds d’investissement émirien qui annonce investir 50 milliards d’euros dans un campus axé sur l’IA en France, il est aussi partie prenante du projet Stargate d’OpenAI. Or les gens d’OpenAI ne nous veulent pas que du bien. Comme nous avons pu nous en rendre compte en écoutant le discours prononcé en marge du sommet par le vice-président américain Vance, c’est une guerre idéologique qui nous est faite. Avez-vous la garantie que les projets seront cloisonnés ?

Dès que l’on entre dans les détails, il y a lieu d’être inquiet. Qu’en sera-t-il du contrôle des données ? Quelles garanties avons-nous que tous ces centres contenant les données des Français nous appartiendront vraiment ? Pour ma part, je n’ai rien vu de sérieux en termes de moyens matériels dévolus à ce contrôle. Or les données représentent le nerf de la guerre dans le capitalisme numérique actuel, qui n’est plus un capitalisme d’innovation mais un capitalisme de prédation, de rente : l’unique modèle consiste à accumuler des données à l’infini pour faire tourner des moteurs d’IA. Tant qu’on n’a pas le contrôle des infrastructures, on ne peut rien faire.

En matière de régulation, les années 2023 et 2024 ont marqué un tournant : les exigences européennes ont été affaiblies pour répondre en partie à la pression des GAMAM
– Google, Apple, Meta, Amazon et Microsoft – et aux demandes de Mistral AI, sous prétexte d’innovation. Ne pensez-vous pas qu’il faut aussi de la protection ? Pourquoi la France a-t-elle poussé à réviser à la baisse certaines réglementations européennes, notamment sur les fake news, alors que les attaques en règle contre nos modèles démocratiques se multiplient en provenance de la Russie et de la Chine mais aussi des États-Unis, y compris de la part de gens présentés comme des partenaires ? Larry Ellison, qui est au cœur du projet OpenAI, est quelqu’un d’extrême droite qui a annoncé la couleur et qui nous combat. Ces partenariats croisés m’inquiètent.

Il ne s’agit pas de donner dans le « y’a qu’à, faut qu’on » : j’ai parfaitement conscience que nous n’allons pas remédier en quelques années à l’absence d’une vraie politique industrielle pendant trente ans. Nous nous en sommes remis uniquement au marché quand les autres, à commencer par les Américains, s’en remettaient à la puissance publique. Puisque nous n’allons pas tenter de rivaliser avec les milliers de milliards de dollars mobilisés par les États-Unis, peut-être serait-il judicieux d’adopter une stratégie qui parte des besoins économiques et sociaux réels ?

Mme Clara Chappaz, ministre déléguée. Vos questions reviennent toutes à la nécessité de développer nos technologies pour asseoir notre souveraineté numérique. C’est une idée que le président de la République a défendue depuis 2017, notamment dans son discours de la Sorbonne et lors du sommet de Versailles. À un moment où nous constatons que notre dépendance technologique nous rend vulnérables, nous comprenons plus que jamais ces discours.

Les 109 milliards d’euros d’investissements dans des centres de données témoignent de l’attractivité de notre pays, qui est au cœur de notre politique économique. Nous devons maintenir ce pouvoir d’attraction et nous assurer que ces milliards ne partent pas ailleurs. Il ne vous aura pas échappé que les projets que vous mentionnez sont des projets privés menés par des acteurs internationaux. Nous ne devons pas nous arrêter à l’identité des financeurs, car il est impératif que nous nous dotions de ces capacités de calcul sans lesquelles il n’y a pas de modèle. Dans ces conditions, je me réjouis que notre pays puisse attirer ces investissements dont nous avons besoin. Nous développons des capacités de calcul publiques, destinées à nos instituts de recherche : les supercalculateurs Jean-Zay, installé sur le plateau de Saclay, et Alice-Recoque, un projet à 300 millions d’euros financé par la France et par l’Europe. Mais nous avons aussi besoin de l’écosystème économique pour que nos entreprises puissent bénéficier des capacités de calcul dont elles ont besoin.

S’agissant de la souveraineté des données, la France a soutenu la certification SecNumCloud proposée par l’ANSSI pour les prestataires de services d’informatique en nuage, autrement dit dans le cloud. Mais cela ne suffit pas et nous n’avons pas l’intention de baisser les bras au niveau européen. Même si nous n’avons pas besoin d’une garantie à un tel niveau pour toutes les données, elle est nécessaire dans certains domaines, comme celui de la défense. À Varsovie, j’ai pu constater que nous sommes désormais entendus. Compte tenu du contexte géopolitique, le projet d’une certification européenne pour les services de cloud, dite EUCS, redevient d’actualité. Nous plaidons cette cause notamment auprès de la Commission européenne, et je pense que les choses évoluent dans le bon sens.

Le partenariat entre Microsoft et Mistral AI vous inquiète, mais notre souveraineté technologique et le développement de nos modèles passent aussi par la distribution. Nous avons besoin de distributeurs tels que Microsoft pour déployer nos modèles et créer des géants. Pourquoi les hyperscalers sont-ils tous américains, pourquoi n’en avons-nous pas de cette taille en Europe ? C’est le moment de nous poser la question. Quoi qu’il en soit, dans les circonstances actuelles, faisons preuve de pragmatisme : c’est une bonne nouvelle que l’une de nos entreprises noue ce genre de partenariat.

En matière de concurrence, nous défendons des textes européens très ambitieux, comme le règlement dit DMA, relatif aux marchés contestables et équitables dans le secteur numérique, afin de créer des conditions de marché identiques pour tous les acteurs et d’empêcher certains de profiter de leur position dominante.

S’agissant du règlement européen sur l’IA, la France a toujours plaidé pour un encadrement de la technologie par les usages ; c’est bien ce que propose le texte. Pour ce qui est des ingérences étrangères et de la responsabilité des plateformes, je tiens à rappeler que le très ambitieux règlement DSA a été adopté pendant la présidence française de l’Union européenne. Alors que l’on entend un peu tout et n’importe quoi sur ce texte, je rappelle qu’il vise à responsabiliser les plateformes, non à dire si un contenu est bon ou mauvais. Il s’agit de faire en sorte que les plateformes répondent des contenus illicites qu’elles véhiculent et qu’elles mettent en place des moyens de lutter contre la désinformation. Face à certains procès d’intention, je rappelle que ce texte a été approuvé de façon transpartisane et qu’il nous permet de disposer d’un outil ambitieux. Et puisque vous avez fait allusion au discours de M. Vance, je dirai que nous resterons fermes sur le fait que quand une entreprise veut se développer en Europe, elle doit suivre les règles européennes.

M. Frédéric Petit (Dem). Vos derniers propos me confortent dans l’idée que nous sommes en train de vivre, en vitesse accélérée, une évolution du même type que celle qui s’est produite en quatre siècles entre l’invention de l’imprimerie et l’adoption de la loi de 1881 sur la liberté de la presse.

Je tiens à saluer le développement des industries culturelles et créatives dans le monde, sous l’égide du ministère de la culture et du ministère de l’Europe et des affaires étrangères. Cette grande avancée, pilotée par l’Institut français et Business France – un mariage inhabituel – a déjà permis à une vingtaine d’entreprises françaises de ce secteur de partir à l’étranger dans ce cadre.

Je ne vous étonnerai pas en revenant sur l’appel de Varsovie et sur le travail effectué là-bas, que vous avez mentionné à plusieurs reprises. Vous parlez d’une unité qui est en cours de construction. Pour ma part, j’insisterais sur la diversité des mentalités et des histoires, même si nous essayons de vivre unis en Europe. Ainsi, l’Estonie est immensément en avance : lorsque j’y travaillais, dans les années 2000, j’avais été frappé de voir que l’on n’utilisait déjà plus de papier pendant le Conseil des ministres. En France et en Allemagne, les usages sont au contraire un peu archaïques. Sentez-vous des résistances liées à la manière dont les différentes sociétés abordent ces sujets ? Tous les pays n’ont pas la même vision de la nécessité de contrôle ou de la dépendance aux écrans, notamment chez les enfants. D’un point de vue sociétal, comment voyez-vous cette unité dans la diversité européenne sur ces sujets ?

Mme Clara Chappaz, ministre déléguée. L’appel de Varsovie montre bien que nous sommes plus unis que jamais dans notre volonté de renforcer notre collaboration et de réagir en tant qu’Européens face à ces questions d’infrastructures numériques, de souveraineté technologique, de protection de nos économies et de nos sociétés. À Varsovie, j’ai eu l’occasion d’échanger avec mes homologues, notamment la ministre estonienne chargée du numérique. Chaque pays s’est approprié le numérique en fonction de son histoire et de sa culture, mais la situation géopolitique est telle qu’un consensus se dégage sur la nécessité de renforcer notre souveraineté technologique et donc d’investir, notamment dans la cybersécurité. Il a été ainsi question de mobiliser une partie des fonds du plan ReArm Europe pour investir dans des solutions européennes de cybersécurité, afin de favoriser le développement de notre marché dans ce domaine. En matière de protection des données, les points de vue se rapprochent, même chez les pays qui n’avaient historiquement pas cette préoccupation. Nous travaillons aussi en Européens sur les sujets de protection des citoyens, en particulier des enfants, car, comme le montre le règlement DSA, les réglementations qui encadrent les grandes plateformes doivent se concevoir à cette échelle.

M. Alain David (SOC). Notre commission s’intéresse à ce sujet et vient de lancer une mission d’information sur l’irruption de l’intelligence artificielle dans les ingérences étrangères.

Sur la concentration des outils les plus avancés en IA, je me contenterai de rappeler que, selon une récente étude de l’université américaine de Stanford, soixante-et-un sont développés aux États-Unis, vingt-et-un en Europe et quinze en Chine. Le défi est donc immense pour l’Europe et la France de ne pas subir un déclassement technologique, et pour la communauté internationale de permettre un accès du plus grand nombre à ces outils.

Au-delà de cette question d’une gouvernance partagée de l’IA, je souhaiterais aborder celle, plus épineuse, du mauvais usage de cette technologie, et notamment des ingérences contre nos sociétés démocratiques. Citons les publications et commentaires peu amicaux du propriétaire du réseau X à l’encontre de dirigeants européens ou l’annulation du premier tour des présidentielles en Roumanie après des menaces de manipulation sur les réseaux sociaux. Compte tenu des manœuvres observées lors de l’élection présidentielle en France, on peut s’inquiéter pour les prochaines échéances. Que compte faire le gouvernement pour prévenir de telles dérives et les usages détournés de l’IA ?

Mme Clara Chappaz, ministre déléguée. L’IA permet en effet un changement d’échelle dans la création de contenus inexacts ou trompeurs, même si certaines études de l’ANSSI montrent que les acteurs malveillants n’en ont pas nécessairement besoin pour se livrer à de l’ingérence. L’IA avait été utilisée notamment en mars 2022 pour diffuser à la télévision ukrainienne une vidéo où l’on faisait dire au président Zelenski qu’il appelait son pays à déposer les armes.

L’IA peut incontestablement aider à fabriquer des contenus très déstabilisants sur les réseaux, mais elle peut aussi être utilisée pour les détecter. En novembre, dans le cadre de l’évènement « European Cyber Week » qui s’est déroulé à Rennes, j’ai lancé un appel à projets visant à renforcer les technologies critiques des outils de cybersécurité. Il s’agit d’utiliser l’IA comme réponse au problème mais aussi de s’adapter aux menaces qu’elle peut représenter – citons l’empoisonnement des données d’entraînement. Cet appel à projets doit inciter notre écosystème à apporter des réponses techniques au problème.

Je rappelle aussi que nous disposons de Viginum, rattaché au secrétariat général de la défense et de la sécurité nationale, qui est un des services les plus performants au monde pour analyser, comprendre et tracer ces phénomènes. Lors du Conseil européen de Varsovie, nous avons proposé de faire profiter d’autres pays de l’expertise de Viginum. Nous avons eu des discussions bilatérales intéressantes avec la Pologne sur le sujet.

Lors des échéances électorales à venir, nous pourrons bénéficier du règlement DSA et de tout un travail effectué en amont à l’occasion des élections européennes puis législatives françaises, ainsi que des dernières élections législatives allemandes. L’article 36 du règlement DSA permet d’engager un travail en amont avec les plateformes pour mettre en place des moyens de détection de ces phénomènes et nous permettre de réagir très rapidement. Nous veillerons à le faire pour les prochaines échéances car il est vital de protéger notre démocratie et les élections qui en sont le fondement.

Mme Christelle D’Intorni (UDR). L’IA est sans doute l’un des défis technologique et géopolitique les plus décisifs de notre siècle. Il s’agit d’un enjeu de souveraineté, de puissance, mais aussi de sécurité nationale. Or, si les États-Unis et la Chine avancent à marche forcée dans cette course, l’Europe et la France semblent malheureusement marquer le pas. Alors que le projet Stargate, piloté par OpenAI et soutenu par l’administration américaine, mobilise 500 milliards de dollars pour structurer un écosystème d’IA ultraperformant, notre pays peine à rassembler 50 milliards d’euros.

Dans ce contexte, l’annonce du partenariat franco-émirien sur l’IA mérite notre attention. Le groupe UDR soutient cette initiative, tout en sachant qu’elle ne nous permettra pas de rattraper totalement notre retard. Ce campus dédié à l’IA ambitionne d’être le plus grand d’Europe mais, soyons lucides, avec un centre de données d’1 gigawatt seulement, nous restons très loin des standards américains ou chinois – 5 gigawatts pour celui de Stargate, par exemple.

L’usage de l’IA par l’État pose la question du contrôle démocratique et de la rationalisation de la dépense publique. Vous avez annoncé un plan pour généraliser l’IA dans l’administration, notamment dans les domaines de la santé, de la justice et de la défense. Cela n’a de sens que si cela améliore concrètement l’efficacité de l’action publique et entraîne de réelles économies, comme nous le proposons dans le cadre de notre grand plan de simplification.

L’IA ne doit pas être un simple gadget technologique ou un prétexte à de nouvelles dépenses publiques incontrôlées. Mais ces outils, notamment ceux qui sont génératifs, peuvent aussi être une arme de désinformation massive : deepfakes, manipulations numériques et attaques cybernétiques sont autant de menaces qui pèsent sur nos institutions. Dès lors, comment garantir que cette révolution technologique serve véritablement l’intérêt général sans fragiliser notre souveraineté et notre démocratie ? Vous avez annoncé la création d’un Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (Inesia). De quels moyens disposera-t-il ? Ne risque-t-on pas de se contenter d’un petit observatoire incapable de peser face aux stratégies de guerre informationnelle des grandes puissances ?

Une question demeure : l’indépendance numérique de la France. Nos talents fuient, notamment vers la Silicon Valley, faute d’investissements. Nous utilisons des infrastructures et des logiciels étrangers, faute de solution alternative crédible. Comment garantir que cette dépendance ne nous enferme pas dans un rôle de simple consommateur d’IA plutôt que d’acteur majeur de son développement ? Le défi est immense. Il est temps que la France prenne enfin la mesure de l’enjeu, sous peine d’être reléguée à un second rôle dans cette révolution technologique.

Mme Clara Chappaz, ministre déléguée. Nos moyens sont-ils suffisants en termes de capacité de calcul ? Les 109 milliards d’euros d’investissements dans notre infrastructure de calcul, que nous avons pu attirer grâce à l’importance de notre énergie décarbonée, recouvrent plusieurs projets : le partenariat franco-émirien à 50 milliards d’euros, mais aussi des projets élaborés avec le canadien Brookfield ou des acteurs européens tels que le britannique Fluidstack, qui représentent 3 à 4 gigawatts au total. Nous nous situons dans le même ordre de grandeur que le projet Stargate, compte tenu des différences de PIB et de population. Plus important : lorsque nous avons consulté les experts de l’écosystème d’innovations et de modèles, ils avaient peu ou prou évalué nos besoins à ce niveau pour les prochaines années. Cela étant, d’autres acteurs se sont manifestés depuis que nous avons fait ces annonces. Nous allons étudier les dossiers car nous avons trente-cinq sites disponibles pour l’installation de ces fameux centres de données. Rappelons enfin que d’autres investissements européens s’ajoutent aux 109 milliards d’euros de la France.

Comment permettre la diffusion de l’IA, y compris dans nos administrations ? C’est une dimension fondamentale : nous ne voulons pas d’un monde à deux vitesses, où les entreprises privées gagneraient en productivité grâce à l’utilisation de l’IA et où l’État et les collectivités avanceraient plus lentement, en termes aussi bien de productivité que de transformation des métiers. J’ai déjà parlé de ces soignants qui préfèrent réduire le temps consacré aux tâches administratives en utilisant l’IA pour se concentrer sur leur métier, le soin aux patients.

Lors du SAIA, mon collègue Laurent Marcangeli a décrit le plan de diffusion dans les services publics défini dans le cadre du comité interministériel pour l’IA, qui se traduit déjà dans certaines expérimentations. Les agents de la direction générale des finances publiques, par exemple, utilisent l’IA pour analyser des historiques d’informations et détecter certaines fraudes. Chaque ministère doit se saisir de cette technologie pour améliorer la productivité et la qualité de travail de ses agents. Rassemblés autour du premier ministre, les ministres se sont engagés à établir une feuille de route qui sera dévoilée en juin lors du salon VivaTech. Nous nous attelons à les y aider.

Nous avons commencé à travailler sur la question de la sécurité de l’IA dès l’émergence de cette technologie et l’adoption du règlement relatif à l’intelligence artificielle (RIA). À travers la création de l’Inesia, à la veille du SAIA, nous avons souhaité adopter une approche pragmatique en mettant en commun les forces de plusieurs instituts déjà existants, comme l’Institut national de recherche en sciences et technologies du numérique (Inria), plutôt que de créer une structure supplémentaire, avec le coût budgétaire associé. Ces instituts sont capables d’évaluer la sécurité – notamment régalienne – et la transparence des différents modèles, ainsi que leur conformité au RIA, mais aussi d’appuyer les évaluateurs de marché dans l’appréciation de la performance des modèles déployés. L’Inesia s’inscrit dans cette dynamique, formalisée à l’échelle internationale au sein des AI Safety Institutes, qui collaborent entre eux et partagent les bonnes pratiques en matière de sécurité des modèles.

M. Michel Guiniot (RN). L’Union européenne a adopté en décembre 2019 le pacte vert pour l’Europe, qui veut faire du continent le premier climatiquement neutre d’ici à 2050. Pourtant, le développement de l’intelligence artificielle nécessite des processeurs d’une grande puissance, qui consomment beaucoup d’énergie. Or le coût de l’énergie est deux fois plus élevé en Europe qu’aux États-Unis, ce qui y rend toute initiative bien plus onéreuse. Le pacte vert sera d’autant plus un frein qu’il réduira à la fois nos capacités et nos moyens de développement.

La France dispose d’intérêts stratégiques dans le développement de l’IA, avec la plateforme numérique de Marseille, qui regroupe dix-sept câbles de fibre optique sous-marins, ou encore la centaine de centres de données que compte l’Île-de-France. Du côté de l’Union européenne, les centres existants assurent environ 24 % de la puissance mondiale de calcul et l’objectif est de multiplier par cent la puissance énergétique consacrée à l’IA.

Cette course à la productivité, tout comme d’ailleurs la volonté du ministre chargé de la fonction publique de généraliser l’intelligence artificielle dans l’administration pour simplifier la vie des agents, ne sera cependant pas tenable sur la durée en raison des contraintes pécuniaires liées à nos engagements internationaux.

Pour encourager le développement de l’intelligence artificielle, tant au service des administrations que des usagers, ne serait-il pas plus simple de suspendre nos engagements les plus pénalisants, comme l’Ajustement à l’objectif 55 ou le mécanisme d’ajustement carbone aux frontières ? Ils pèsent tous les deux sur le coût de production énergétique et nuisent donc directement à notre productivité dans cette révolution numérique et énergétique.

Mme Clara Chappaz, ministre déléguée. Je transmettrai vos questions et remarques les plus précises à mon collègue Marc Ferracci, avec qui vous avez engagé un travail sur la politique énergétique.

Il faut être pragmatique : l’IA et les data centers consomment de l’énergie, c’est indéniable. J’y vois néanmoins, pour la France et son énergie nucléaire, une source d’attractivité : au-delà même de la question du coût, le fait de disposer de l’énergie décarbonée la plus stable d’Europe est un atout auprès des entreprises. Le fait que nous bénéficiions de 109 milliards d’euros d’investissement dans les data centers en témoigne.

Nous devons cependant poursuivre le travail engagé pendant le sommet pour l’action sur l’IA, c’est-à-dire conduire des réflexions associant public et privé à propos de la consommation énergétique de ces technologies. Alors que nous ne sommes qu’au début de leur déploiement à grande échelle, cette question est non seulement fondamentale pour la planète, mais aussi déterminante pour le retour sur investissement que les différents acteurs peuvent en attendre – car toute consommation d’énergie a un coût. La Coalition pour l’IA durable vise précisément à orienter la recherche et la réflexion en vue de réduire la taille des modèles – donc leurs impacts environnementaux –, de diminuer la consommation énergétique des data centers eux-mêmes et de promouvoir des usages conciliant performance et transition écologique.

Enfin, dans le cadre du projet de loi sur la simplification de la vie économique dont l’examen par l’Assemblée nationale commencera demain, nous étudions des dispositions destinées à favoriser l’implantation des data centers.

Mme Laetitia Saint-Paul, présidente. Au nom du groupe Horizons & indépendants, je voudrais revenir sur le rôle de l’intelligence artificielle dans les actions relevant de la conflictualité asymétrique, c’est-à-dire de l’échelle infra-étatique, dont on parle peu.

Vous l’avez dit, l’ANSSI a rappelé qu’il n’y a pas besoin d’IA pour être malveillant. Au fil des auditions conduites par Alain David et moi-même dans le cadre de la mission d’information sur l’irruption de l’intelligence artificielle dans les ingérences étrangères, l’IA apparaît toutefois comme un outil qui, tout en étant très peu onéreux, agit comme une caisse de résonance. En tant que membre du groupe consultatif de haut niveau sur la lutte contre le terrorisme et l’extrémisme violent de l’Union interparlementaire, j’ai inscrit la question de la place de l’IA dans la lutte contre le terrorisme à l’ordre du jour de notre prochaine réunion, qui se tiendra en avril à Tachkent. Quelle est la position du gouvernement à ce sujet ?

L’Assemblée nationale examine actuellement la proposition de loi visant à sortir la France du piège du narcotrafic. Le Sénat, dans son rapport, souligne combien la criminalité organisée s’est saisie des outils d’intelligence artificielle. Des ponts se forment d’ailleurs entre la criminalité organisée, le terrorisme et les ingérences étrangères. Existe-t-il une doctrine ou des travaux intergouvernementaux consacrés à ces acteurs non étatiques ? Étant donné que nous ne pouvons adopter qu’une posture défensive – nous n’allons pas créer des fermes à trolls ! – comment faire face à ces criminels, qui donnent le sentiment d’avoir toujours un temps d’avance sur nous, acteurs gouvernementaux comme législateur ?

Mme Clara Chappaz, ministre déléguée. Même s’il n’a pas fallu attendre l’IA pour voir survenir des cyberattaques, cela ne signifie nullement qu’elle n’est pas utilisée à des fins malveillantes et qu’elle ne complexifie pas ces phénomènes, contre lesquels nous devons lutter avec la plus grande fermeté dans tous les domaines qui concernent la sécurité de nos concitoyens.

Rappelons, si besoin en était, que ce n’est pas la technologie qui est bonne ou mauvaise, mais les usages qui en sont faits – raison pour laquelle le RIA se concentre sur ces derniers. La première réponse aux questions que vous avez soulevées est celle de l’expertise : nous devons maîtriser les compétences nécessaires pour utiliser l’IA à des fins de vérification, d’authentification et d’analyse de ces phénomènes. C’est ce que s’attachent à faire Viginum, dont l’expertise est très largement reconnue dans l’Union européenne, ainsi que l’Inesia.

La France s’est par ailleurs montrée très active dans toutes les démarches internationales visant à encadrer les usages de l’IA, comme le processus d’Hiroshima conduit dans le cadre du G7. Elle continuera de l’être. Le sommet pour l’action sur l’IA, même s’il n’était pas intitulé « Safety summit » comme ses prédécesseurs, mettait bien la question de la sécurité au cœur des enjeux. Nous devons absolument renforcer nos compétences en la matière, comme nous le faisons avec le réseau des AI Safety Institutes. La technologie évolue très vite. Toutes les démarches de collaboration et de partage d’expertise sont donc indispensables pour mieux encadrer les usages et nous permettre de lutter à armes égales contre les criminels.

Mme Laetitia Saint-Paul, présidente. Nous en venons aux questions des autres députés.

M. Lionel Vuibert (NI). J’ai eu le plaisir de vous recevoir le 20 février dernier dans ma circonscription des Ardennes, à Chaumont-Porcien, dans une exploitation agricole. Cette visite a mis en lumière le rôle central des innovations technologiques – robot de traite, domotique, capteurs, suivi des cultures, drones – dans l’agriculture : vous avez pu constater comment elles permettent d’optimiser les rendements, d’améliorer le bien-être animal et de faciliter le travail de l’éleveur.

L’exemple de cette ferme connectée illustre le potentiel numérique en milieu rural, mais met aussi en évidence un défi majeur : l’accompagnement des exploitants dans l’adoption de ces technologies, grâce à la formation, à l’investissement et au soutien à l’innovation. Les innovations technologiques ne doivent pas profiter uniquement aux exploitations les plus grandes ou les plus avancées, et les ouvrir à tous suppose une meilleure connectivité des territoires et une coopération entre agriculteurs, start-up et pouvoirs publics.

Alors que la souveraineté alimentaire est un enjeu stratégique, l’innovation doit être un levier central de la transformation. Quels moyens votre ministère compte-t-il engager pour accélérer la transition numérique en milieu agricole ?

Mme Clara Chappaz, ministre déléguée. Merci pour votre accueil à l’occasion de ce déplacement qui m’a en effet permis de voir comment les outils numériques peuvent, très concrètement, simplifier le quotidien et transformer le métier d’agriculteur. Pour accompagner ces métiers critiques, il nous faut plus que jamais être attentifs à la bonne diffusion de ces technologies. L’IA est un outil formidable, mais, si nous n’accompagnons pas les Français dans son utilisation, nous prenons le risque d’accentuer encore le phénomène d’illectronisme, dont souffrent déjà treize millions de Français et qui crée un sentiment de déclassement, une situation de vulnérabilité face à un monde qui se digitalise de plus en plus vite, et une fracture entre les métiers qui utilisent le numérique au quotidien et les autres. Nous sommes tout à fait conscients de ce risque et très attachés au bon déploiement de l’intelligence artificielle pour toutes et tous. C’était d’ailleurs l’objet du sommet que de rappeler cette nécessité.

Divers outils peuvent déjà être utilisés qui ne nécessitent pas des investissements très importants. L’appel à projets « IA au service de l’efficience » a été lancé pour partager les cas d’usage observés dans les différents métiers et créer une dynamique collective en montrant comment, concrètement, les utilisateurs peuvent se saisir de cette technologie. L’agriculteur que nous avons rencontré pourra ainsi en inspirer d’autres et leur montrer qu’il n’est pas nécessaire d’investir des millions pour en tirer des bénéfices. Nous avons recensé 111 projets, dans le monde entier, ce qui nous permettra de nous inspirer des meilleures pratiques à l’échelle internationale – M. Petit évoquait par exemple l’Estonie.

Pour ce qui est de l’accompagnement financier, nous avons lancé l’été dernier le programme IA Booster France 2030, destiné aux petites entreprises, pour aider les dirigeants à comprendre et diffuser ces cas d’usage. Les premières évaluations sont en cours. Nous avons rappelé notre attachement au maintien d’un dispositif d’accompagnement, sous cette forme ou une autre, lors du dernier comité interministériel de l’IA.

La formation est aussi un enjeu essentiel, auquel les ministres Élisabeth Borne et Astrid Panosyan-Bouvet sont très attachées. Le numérique et l’intelligence artificielle transforment les métiers. Le monde du travail doit donc se saisir de ces questions, ce qu’il ne fait pas toujours : pour certains professionnels dont l’IA transforme le quotidien, comme les soignants ou les agriculteurs, ces enjeux ne sont pas encore pleinement intégrés dans les formations initiales. Il est également nécessaire d’améliorer la formation des plus jeunes aux bases de l’IA. C’est pour cette raison que, dès la rentrée 2025, des cours d’intelligence artificielle seront dispensés en classe de quatrième et de seconde – aux enfants comme aux professeurs, afin d’éviter toute fracture entre le corps enseignant et les élèves. Dans le champ professionnel, les recensements sont en cours pour permettre à chaque métier de se saisir des transformations permises par l’IA et d’accompagner les futurs professionnels – au-delà des 100 000 experts en intelligence artificielle que nous comptons former d’ici à 2030.

M. Hervé Berville (EPR). Merci pour vos propos très clairs. Vous avez parfaitement montré que, en plus d’une question technologique, géopolitique et stratégique, l’IA est aussi un sujet essentiel pour l’industrie, les territoires et la souveraineté agricole. Je vous remercie d’ailleurs de m’avoir, avec la ministre Agnès Pannier-Runacher, confié une mission sur l’IA et l’économie maritime. Je tâcherai d’en faire bon usage.

S’il est vrai que l’IA peut contribuer au dérèglement climatique à travers la consommation énergétique qu’elle implique, elle est aussi un formidable accélérateur pour mieux lutter contre ce dérèglement. Comment peut-elle nous aider à protéger l’environnement, notamment les océans, et à lutter contre la perte de biodiversité et la pollution ?

Quels moyens et investissements comptez-vous consacrer à la lutte contre la fracture numérique entre les secteurs qui décollent et ceux qui deviennent obsolètes ou dépassés, et à l’intérieur même de ces secteurs ?

Enfin, l’IA a-t-elle sa place dans des sommets comme les COP (conférences des parties) ou la Conférence des Nations unies pour les océans ? Il me semble qu’elle serait très utile, à la fois pour l’économie maritime, pour la décarbonation et pour la protection des océans.

Mme Clara Chappaz, ministre déléguée. Il est fondamental de rappeler que si l’IA consomme, elle peut aussi apporter des réponses dans la compréhension des impacts des activités humaines sur l’environnement, en particulier sur les océans. J’ai récemment visité Tangram, le centre de formation du groupe CMA CGM à Marseille, où l’IA est utilisée pour mieux comprendre les océans et déterminer les routes que peuvent emprunter les bateaux pour réduire leur consommation énergétique. Que ce soit en matière de surveillance des espèces, d’analyse de la biodiversité ou d’étude de la déforestation, l’exploitation des images satellites par l’intelligence artificielle peut permettre de grandes avancées. Nous comptons en tout cas sur vos travaux pour alimenter cette réflexion.

Comme je l’indiquais, l’éducation des plus jeunes à l’usage de l’intelligence artificielle sera intégrée aux cursus des classes de quatrième et de seconde dès la rentrée 2025, afin d’éviter toute fracture entre les élèves qui y auraient recours et les autres.

Nous conduisons également une politique de sensibilisation de nos concitoyens à travers les « cafés IA », qui auront vocation à réunir deux millions de Français. J’ai eu l’occasion d’en animer partout en France, dont un lors du Salon de l’agriculture. L’objectif est d’échanger, de comprendre les appréhensions de nos concitoyens, de répondre à leurs questions et de créer un cadre de confiance pour que chacun se sente légitime à tester cette technologie.

Enfin, toujours pour éviter la fracture numérique et accélérer cette transformation technologique, nous mobilisons les chambres de commerce et d’industrie (CCI) et les organisations syndicales pour sensibiliser les acteurs à l’utilisation de l’IA dans tous les secteurs. Plus de cent événements labellisés dans le cadre du sommet pour l’action sur l’IA ont eu lieu partout en France pour répondre de manière très précise aux professionnels et, à partir des cas d’usage, contribuer à l’acculturation à l’IA dans chacun des différents secteurs.

Mme Laetitia Saint-Paul, présidente. J’ai encore une question, posée à titre personnel. Les entreprises qui ont été victimes d’une cyberattaque semblent en éprouver un tel sentiment de honte qu’elles ne l’avouent qu’à demi-mot et partagent très peu leur expérience. Existe-t-il un équivalent de Viginum pour le monde économique ? Sinon, auriez-vous quelques conseils à donner aux entreprises pour qu’elles soient moins vulnérables – au-delà du fait qu’elles ne doivent pas avoir honte ? Puisque les attaques cyber deviennent très communes – on estime par exemple que l’IA entraînera une explosion de l’utilisation de rançongiciels – il doit y avoir des bonnes pratiques à diffuser pour y faire face.

Mme Clara Chappaz, ministre déléguée. Je vous remercie de me donner l’occasion de revenir sur cette question très importante. Pour travailler depuis plusieurs mois sur le projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité, je partage votre sentiment : communiquer sur les attaques ne va pas de soi et de nombreux acteurs semblent éprouver un sentiment de honte ou redouter de créer de la défiance.

La question, en réalité, n’est pas de savoir si on va être attaqué mais quand. C’est pourquoi nous devons absolument libérer la parole sur le sujet, ce qui demandera un effort collectif. Je remercie d’ailleurs ceux d’entre vous qui animez des discussions dans vos circonscriptions, car, de la même façon qu’il faut partager les cas d’usage, il faut partager les expériences en matière de cybersécurité. Je visitais hier l’hôpital de Bourg-en-Bresse, qui a récemment subi une attaque : c’est toujours difficile, mais il est parvenu à en contenir les effets. Il faut dire qu’il s’était bien préparé, justement après avoir vu ce qu’avait subi l’hôpital de Villefranche-sur-Saône et pris conscience de la réalité de la menace.

Tout ce qu’il est possible de faire pour sensibiliser à ces attaques, nous le faisons. L’ANSSI a conduit soixante-dix consultations sur l’ensemble du territoire et nous avons mobilisé les CCI – dont certaines, comme celle de Lille, ont organisé de nombreux événements – ainsi que les différents réseaux régionaux.

Deux autres acteurs importants méritent d’être mentionnés. Les gendarmes du commandement de la cyberdéfense (Comcyber), d’abord, œuvrent sur le terrain à la sensibilisation à la cybermenace et font profiter les dirigeants des petites structures de leur expertise.

L’ANSSI, ensuite, fournit un formidable travail d’accompagnement des entreprises, des collectivités et de toutes les entités essentielles à notre nation. Il est d’ailleurs prévu, dans le projet de loi en discussion, que toutes les entités critiques lui signalent les incidents, afin d’améliorer l’accompagnement des plans de mise en conformité et de résilience en cas d’attaque. L’ANSSI joue un rôle non seulement national, mais aussi régional, puisqu’elle a des représentants partout en France pour accompagner les dirigeants. Enfin, les treize centres de réponse aux incidents de sécurité (CSIRT - Computer security incident response team) présents sur l’ensemble du territoire, sont un dispositif très pertinent pour assurer au plus près du terrain le premier accompagnement en cas d’attaque. Créés récemment, ils ont vocation à être consolidés pour accompagner le monde économique et les collectivités.

Je finirai avec une question qui a été abordée à Varsovie, celle de la réserve cyber. Cette idée a été beaucoup poussée sous la présidence française du Conseil de l’Union européenne et les premiers appels d’offres auront lieu à l’été : il s’agit de s’appuyer aussi sur le secteur privé pour aider la nation en situation de crise cyber. Les opérateurs qui seraient labellisés et financés pour former cette réserve pourraient ainsi accompagner l’État en cas d’attaque sur des entités critiques telles que les hôpitaux, les établissements d’enseignement supérieur ou les entreprises des secteurs stratégiques.

M. Arnaud Le Gall (LFI-NFP). Je profite de l’occasion pour saluer moi aussi la montée en puissance ces dernières années de l’ANSSI, de Viginum, de Comcyber et des autres – on connaît la densité de cet écosystème – face aux attaques cyber. C’est vrai, il est probable que certaines entreprises aient peur des conséquences qu’aurait la révélation d’une faille de sécurité vis-à-vis de leurs clients. Mais j’insiste aussi sur le manque de conscience quant au fait que la menace est tous azimuts.

Bien sûr, on peut se méfier quand on utilise des outils chinois, et bien sûr il arrive que l’attaque d’un hôpital français soit imputée à la Russie – je rappelle qu’au contraire de l’attribution, qui est politique, l’imputation est seulement technique : il s’agit de désigner une bande de hackers, dont on ne sait pas s’ils sont commandités par l’État russe ou pas. Mais il faut surtout prendre conscience que l’immense masse des outils utilisés dans notre pays est états-unienne, que l’immense majorité des entreprises stocke ses données sur Microsoft. Ils n’ont pas besoin de nous attaquer ! Dès lors qu’une entreprise française a stocké des données dans un cloud qui appartient à une multinationale américaine, le droit américain s’applique et une loi quelconque peut très bien en autoriser l’exploitation. C’est comme cela d’ailleurs qu’on nous a « piqué » Alstom, même si ce n’était pas qu’une affaire numérique.

Je sais qu’on ne peut pas changer tout cela du jour au lendemain. Il n’en reste pas moins qu’à une autre époque, dans un autre domaine, on s’est sorti de la dépendance en développant ce qu’on a appelé une doctrine tous azimuts, fondée sur l’idée que la menace pouvait venir de partout. Pourquoi le gouvernement ne communique-t-il pas en ce sens ? Je sais que l’actualité nous pousse à nous focaliser sur les Russes et les Chinois, à raison pour d’autres menaces. Mais s’agissant d’intelligence économique, tous nos services, dont le Service de l’information stratégique et de la sécurité économiques (SISSE), vous diront que ce sont les Allemands, les Italiens, les Anglais, les Américains qu’ils observent. Alors certes, nos ordinateurs sont américains, car il n’existe pas grand-chose d’autre sur le marché, mais pourquoi le gouvernement, par pur pragmatisme, n’avertit-il pas les gens qu’il faut se protéger et ne leur fournit-il pas des solutions ? Je ne comprends pas.

Mme Clara Chappaz, ministre déléguée. Je vous remercie pour cette question qui me permet de revenir sur la stratégie du gouvernement pour développer un cloud de confiance, par le biais du label SecNumCloud. J’entends votre remarque sur un manque de communication et j’en prends acte. La réponse du gouvernement est d’abord de sensibiliser – et je m’engage à faire davantage en la matière – mais surtout de créer des offres certifiées qui assurent la souveraineté des données et qui permettent de se protéger vis-à-vis des lois extraterritoriales.

Le label SecNumCloud correspond à un niveau de qualification par l’ANSSI qui garantit que les offres concernées peuvent assurer la protection des données les plus sensibles. La doctrine actuelle prévoit qu’un tiers des solutions utilisées par l’État soient labellisées SecNumCloud et que les données les plus sensibles soient stockées dans ce type d’offres.

Il a aussi fallu faire monter en puissance des offres souveraines, développées soit par consortium, soit avec des acteurs spécifiques. C’est un travail continu, et j’ai bien conscience que nous ne sommes pas arrivés au bout. Des entreprises comme OVH et Scaleway ont ainsi demandé la certification et travaillent à monter en compétences. Nous les accompagnons par le biais d’appels à projets. Il faut soutenir l’émergence d’offres souveraines européennes qui atteignent le niveau de performance dont les entreprises, les collectivités et les administrations ont besoin.

Tout cela nous ramène à l’Europe : nous continuons de penser qu’elle est le bon niveau pour traiter cette question, tant du point de vue des vulnérabilités, parce que beaucoup de grandes entreprises ont des activités sur tout le continent, que du point de vue de l’offre, puisque ces produits souverains ne trouveront leur marché qu’au niveau européen. Nous faisons entendre une voix ambitieuse en ce sens. Je sais que mes prédécesseurs ont pu connaître des parcours variés sur le projet de certification européenne pour les services de cloud, mais je pense que le contexte géopolitique nous offre de nouvelles opportunités et j’ai bien l’intention de les saisir. Nous avons eu des conversations très intéressantes sur cette question pendant le conseil de Varsovie.

Mme Laetitia Saint-Paul, présidente. Nous savons à quel point l’intelligence artificielle et les attaques cyber sont des sujets complexes mais je pense que, pour nos PME, nos exploitations et nos collectivités territoriales, il peut y avoir des réponses simples. Existe-t-il un guide de bonne conduite à relayer auprès des acteurs que nous rencontrons dans nos circonscriptions ?

Mme Clara Chappaz, ministre déléguée. Le plus simple est de faire connaître le travail formidable du groupement d’intérêt public Acyma. Il propose, notamment sur la plateforme cybermalveillance.gouv.fr, un guide très concret avec différentes étapes que peuvent suivre les acteurs : des bonnes pratiques d’hygiène numérique pour commencer, des dispositions pour aller plus loin et un référencement de solutions cyber pour les entreprises et les collectivités qui veulent se saisir du sujet.

Mme Laetitia Saint-Paul, présidente. Je vous remercie, madame la ministre. Nous ne manquerons pas de nous revoir : le sujet est devant nous.

La séance est levée à 18 h 15.

***

Membres présents ou excusés

Présents.  M. Hervé Berville, Mme Christelle D’Intorni, M. Alain David, M. Michel Guiniot, M. Xavier Lacombe, M. Arnaud Le Gall, M. Frédéric Petit, M. Pierre Pribetich, Mme Marie-Ange Rousselot, Mme Laetitia Saint-Paul, M. Lionel Vuibert

Excusés.  M. Pierre-Yves Cadalen, Mme Christine Engrand, Mme Marine Hamelet, M. Alexis Jolly, Mme Sylvie Josserand, M. Laurent Mazaury, M. Jean-Louis Roumégas, Mme Liliana Tanguy, M. Laurent Wauquiez